Estudo surpreende e mostra que rostos deepfakes podem ser vistos como mais confiáveis do que os reais

Um rosto comum é mais real e passa mais confiança. Uma lição que a IA já aprendeu.

Era questão de tempo. Há alguns anos a tecnologia deepfake vem atravessando o famoso uncanny valley, aquele meio-do-caminho em que as coisas ficam meio artificiais demais, entre o digital e o real. Agora, aparentemente, a tecnologia está chegando ao outro lado da vale, não apenas por se tornar indistinguível de rostos humanos, mas indo além e passando também uma sensação de confiança.

Se até hoje os “garotos(as) propaganda” nos seduziam usando beleza ou notoriedade, agora a Inteligência Artificial traz uma novidade para esse jogo de sedução: uma confiança inconsciente, daquele tipo que a gente não consegue nem explicar o motivo, aquele rosto amigável que volta e meia aparece entre grupos de amigos, vizinhos e familiares. Um julgamento que nosso cérebro faz em uma fração de segundo, baseado em características absolutamente sutis, e que, ao que tudo indica, estarão em breve à disposição de anunciantes, políticos e sabe-se lá mais quem.

A confiança que vem de um outro comum, como nós (só que não)

A proliferação da tecnologia deepfake causa uma preocupação de que a IA possa começar a distorcer nosso senso de realidade.

Em 2018, a Nvidia surpreendeu o mundo com uma IA que era capaz de produzir fotos ultra-realistas de pessoas que não existem. A tecnologia era baseada em um tipo de algoritmo conhecido como Rede Contraditória Generativa (GAN), que funciona com duas redes neurais, uma contra a outra. Uma tenta detectar falsificações e a outra tenta aprimorar resultados a partir do feedback da primeira. feedback. Depois de um certo tempo, as GANs vão aprendendo e melhorando suas criações e começam a gerar falsificações convincentes, até que não possam mais ser percebidas e/ou detectadas como fakes por humanos.

De lá pra cá, a tecnologia evoluiu ainda mais, agora com algumas implicações preocupantes, afinal viabilizam uma série de enganações, como por exemplo a utilização de rostos de pessoas (geralmente celebridades) em filmes pornográficos sem o seu consentimento, ou declarações falsas de figuras públicas e o consequente aumento na desconfiança da mídia online.

Embora seja possível usar a própria IA para detectar deepfakes, as falhas e falta de pro-atividade das empresas de tecnologia em efetivamente moderar material sugerem que isso não será uma solução definitiva.

A pesquisa

Para testar reações a rostos falsos, os pesquisadores (fonte: https://www.pnas.org/content/119/8/e2120481119) usaram uma versão atualizada do GAN da Nvidia para gerar 400 rostos, com uma divisão de gênero igual e com 100 faces de cada um dos quatro grupos étnicos: preto, caucasiano, leste asiático e sul-asiático.

abaixo, o Tom Cruise que não é o Tom Cruise

Uma amostragem com 315 participantes foi convidada a julgar 128 rostos e decidir se eram falsos ou não. Eles alcançaram uma taxa de precisão de 48%, na verdade pior do que os 50% de um palpite aleatório.

Um segundo grupo com outros 219 participantes, passou por um breve “treinamento básico” com apontamento de algumas dicas de falhas que costumam aparecer em rostos falsos. O desempenho desse grupo foi apenas ligeiramente melhor, com 59% de acerto.

Em um experimento final, a equipe decidiu testar se reações intuitivas poderiam dar um resultado melhor. Eles decidiram ver se a confiabilidade — algo que normalmente decidimos em uma fração de segundo, poderia ajudar as pessoas a fazer melhores escolhas. E foi aí que descobriram que os participantes classificavam 8% mais rostos falsos como sendo confiáveis. Uma diferença pequena, mas estatisticamente bastante significativa.

Dado o uso nefasto dos deepfakes, trata-se de um achado preocupante. Os pesquisadores sugerem que parte da razão pela qual os rostos falsos parecem ser mais confiáveis é porque eles tendem a se parecer mais com rostos comuns porque são feitas por junções de vários tipos de faces.

Os pesquisadores dizem que suas descobertas sugerem que aqueles que desenvolvem a tecnologia subjacente por trás dos deepfakes precisam pensar muito sobre o que estão fazendo. Um primeiro passo importante é se perguntar se os benefícios da tecnologia superam seus riscos. A indústria também deve considerar medidas protetivas obrigatórias, como a adição de marcas d’água e disclaimers.

Fonte: siga este link para o PDF com o estudo completo

Receba nossos posts GRÁTIS!
Deixe um comentário

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More