Deepfakes foram classificadas como o mais preocupante crime de IA segundo relatório da UCL

Pesquisadores identificaram 20 maneiras pelas quais a IA poderia ser usada para facilitar o crime nos próximos 15 anos.

O relatório explorou 20 maneiras pelas quais a tecnologia da IA poderia resultar em crime e terrorismo nos próximos 15 anos. Os usos mais preocupantes, depois dos deepfakes, eram uso de carros sem motorista como armas, spear phishing, notícias falsas sintetizadas por IA, interrupção de sistemas controlados por IA e coleta de dados para chantagem em larga escala.

O estudo, publicado na Crime Science, foi financiado pelo Centro Dawes para o Crime Futuro da UCL. 31 especialistas do meio acadêmico, de defesa e de aplicação da lei classificaram os crimes com base em seu potencial de dano, ganho criminal, facilidade de implantação e dificuldade em parar.

As deepfakes têm o potencial de desacreditar figuras públicas, extrair dinheiro por meio de imitações e infligir outros danos, que podem resultar em desconfiança generalizada da mídia de áudio e visual, observou o relatório.

Os crimes de IA classificados como menos prejudiciais incluem drones de ataque autônomo, perseguição assistida por IA, vendas de serviços fraudulentos e uso indevido de robôs militares.

Segundo professor Shane Johnson, diretor do Dawes Center, esse é o primeiro relatório de uma série que visa identificar ameaças de crimes ligadas a tecnologias emergentes.

Receba nossos posts GRÁTIS!
Deixe um comentário

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More