IA é a melhor a descobrir ‘deepfakes’ criados por IA

Investigadores da Universidade do Sul da Califórnia desenvolveram um modelo de IA capaz de detectar deepfakes com taxa de sucesso de 90%. A IA pode ser a solução para um problema criado por IA.

'Deepfake' simulando uma entrevista de Mark Zuckerberg

Primeiro: o que raio são deepfakes? São vídeos alterados digitalmente com recurso a software de computação gráfica e complexos algoritmos. Seja para entreter, desinformar ou criar pornografia com a imagem de celebridades, os deepfakes estão a ficar mais difíceis de distinguir de vídeos reais e percorrem em alta velocidade o caminho para a disseminação: as ferramentas de edição estão a ficar mais acessíveis e mais pessoas vão conseguir criar ‘deepfakes’ com os quais as plataformas online ainda não sabem muito bem como lidar com este tipo de conteúdos.

Criar um deepfake passa, geralmente, por modificar imagens de vídeo existentes de uma pessoa a falar, colocando palavras na sua boca que ela não disse e adequando o movimento dos lábios a esse discurso. Isto é feito com recurso a visão computacional, uma disciplina que envolve bastante inteligência artificial (IA) e alguma aprendizagem automática; dito assim, parece algo que só um engenheiro informático experiente saberá fazer, mas o surgimento de interfaces que escondem a complexidade do processo, bem como a disponibilização de modelos e datasets em código aberto, estão a pôr a tecnologia ao alcance de mais pessoas.

E como a internet é utilizada por bem intencionados mas também por agentes maliciosos, com essa popularização os deepfakes podem ser um perigo que ainda não foi totalmente calculado, levando embustes como a ‘pornografia de vingança’ ou as notícias falsas para outro nível.

Fake News: há quem esteja a levá-las ainda mais além

O termo ‘deepfake’ começou a aparecer por volta de 2017, apesar de o conceito de deepfake ter pelo menos uma década. Sites como o Reddit, o Twitter ou o Pornhub já tomaram medidas para travar estes vídeos, mas, com o próprio aperfeiçoamento da IA, pode ficar mais difícil distinguir deepfakes de vídeos não adulterados. Já o Facebook, que recentemente se cruzou com o deepfake do seu próprio CEO, Mark Zuckerberg, a anunciar os seus planos para dominar o mundo, optou por não eliminar esse vídeo do Instagram, onde foi partilhado. A empresa diz ainda não ter uma posição tomada quanto a esta temática e não queria abrir uma excepção só por ser Mark Zuckerberg o visado no vídeo.

Entretanto, a IA pode não ser só a causa do problema das deepfakes, mas também a sua solução. Um grupo de investigadores do Instituto de Ciências da Informação da Universidade do Sul da Califórnia, nos EUA, desenvolveu um modelo de IA capaz de detectar deepfakes com taxa de sucesso de 90%. Os investigadores chegaram a esse modelo treinando uma rede neural com inúmeros vídeos de pessoas a falar para que o sistema artificial aprendesse os movimentos faciais que são feitos por alguém durante um discurso; depois alimentaram essa rede com vídeos falsos, partindo de um pressuposto importante: os modelos de IA e as ferramentas mais populares para gerar deepfakes manipulam os vídeos frame-a-frame e não se preocupam com a coerência temporal.

Wael Abd-Almageed, co-autor deste trabalho, explica à revista Motherboard que o modelo pode ser usado para uma rede social para detectar deepfakes à escala de que precisa, sem precisar de analisar as particularidades de um determinado indíviduo quando fala. “As redes sociais não vão ter de treinar novos modelos pois vamos lançar o nosso modelo”, anuncia ainda o especialista.