Fake News: há quem esteja a levá-las ainda mais além

Mario Klingemann é um artista alemão que se dedica a criar audio e vídeo de eventos falsos.

O vídeo começa com a imagem pouco estática de Françoise Hardy no auge da sua carreira, nos anos 60. Entre zooms e uma falta de qualidade que parece remeter-nos apenas para a antiguidade das filmagens, ouvimos a intervenção de alguém que não vemos, – que nos soa como um jornalista ou apresentador de televisão – w lhe pergunta porque é que Donald Trump pediu ao seu porta-voz Sean Spicer que mentisse sobre o tamanho da multidão que assistiu à sua tomada de posse. A actriz francesa acaba por responder que Spicer não mentiu mas que apresentou “factos alternativos”.

O vídeo denuncia-se como uma montagem quase desde o início, ou não fosse Françoise Hardy ter agora 73 anos (e por isso nunca comentaria um assunto actual com os 20 anos que aparenta ter na imagem), e não fosse a voz que sai da “sua” boca pertencer a Kellyanne Conway, conselheira do Presidente dos Estados Unidos. É aliás quando ouvimos a expressão “factos alternativos” que começamos a adivinhar o verdadeiro motivo por trás deste vídeo, estranho (e assustador!) na forma, certeiro no propósito. Será isto uma crítica ao Governo que se queixa de Fake News mas se justifica com Alternative Facts?

O vídeo chama-se “Alternative Face v1.1” e é da autoria de Mario Klingemann, um artista alemão que conseguiu reproduzir o áudio de uma entrevista de Conway à NBC, pela boca do fantasma digital de Hardy. É a forma como Klingemann chegou ao vídeo que o torna tão interessante. Sim, porque isto não é uma montagem feita num programa de edição normal. O artista alemão criou o clip em dias usando uma GAN- generative adversarial network, um tipo de algoritmo de aprendizagem. O seu computador gerou-o automaticamente depois de ter sido alimentado com vídeos de Françoise Hardy, criando uma gravação de algo que nunca aconteceu.

Mario Klingemann chamou ao programa FaceTransfer e tem feito várias experiências digitais para o testar. Refere que ainda está a estudar alguns dos saltos do vídeo gerados pelo programa, mas o resultado final foi bom ao ponto de ter introduzido uma nova problemática no debate entre falsidade e veracidade. 

Se o conceito crescente de Fake News tem atacado a credibilidade da informação escrita, às imagens e gravações de som ainda é atribuída, na sua maioria, uma confiabilidade inerente. As GANs são a ponta de um iceberg tecnológico que ameaça essa confiança.

Lidamos no nosso dia-a-dia com uma série de áudio gerado digitalmente, é fácil fazê-lo. Foi assim que a Apple conseguiu que a Siri falasse contigo, ou que o teu GPS sabe como te indicar o melhor caminho para casa. Normalmente, os computadores criam frases conectando muitos fragmentos de som curtos gravados anteriormente mas estas vozes digitais estão dependentens da quantidade e qualidade de clips de som que disponibilizas ao computador. Contam-se pelos dedos das mãos as vezes em que soam verdadeiramente realistas.

O áudio gerado pelo tipo de programas como o usado por Klingemann funciona de forma diferente. Usa redes neurais para aprender as propriedades estatísticas da fonte de áudio em questão e, de seguida, reproduz essas propriedades directamente em qualquer contexto, modelando a fala milissegundo a milésimo de segundo. Colocar palavras na boca de quem quer que seja, é uma questão de alimentar este truque algorítmico com gravações dos seus discursos e depois dizer ao software treinado o que queres que essa pessoa diga.

Gerar imagens é mais difícil. As GANs foram introduzidas em 2014 por Ian Goodfellow, que observou que, apesar dos algoritmos permitirem que as máquinas distingam bem entre vários tipos de dados (como um cão de um gato, por exemplo), o software que tentou gerar imagens de cães e gatos não funcionava bem. Perante a dificuldade de gerar conteúdo recorrendo a uma base de dados vasta, a solução foi criar um software adversário que avaliaria se as imagens geradas pareciam reais ou realmente parecidas com as que existiam no banco de dados. Por ter que tentar “enganar” o adversário, o software primário acabou por aprender a gerar imagens que parecem reais, mas não são.

Hoje em dia, As GANs podem produzir imagens pequenas mas caminham a passos largos para a capacidade de criar conteúdo que realmente tenha impacto na sociedade. Ian Goodfellow, que trabalha actualmente na divisão de pesquisa de Inteligência Artificial da Google (Google Brain), disse ao The Economist que é provável que possam gerar-se falsificações de boa qualidade para o YouTube daqui a três anos.

E se a tecnologia desencadeia novas formas de falsificação, também oferece novas maneiras de as combater. Uma forma de verificação é exigir que as gravações venham com seus metadados, que mostram quando, onde e como foram capturados. A Amnistia Internacional, por exemplo, lida com esta questão com a ajuda do Citizen Evidence Lab, que verifica vídeos e imagens de supostos abusos de direitos humanos. Utilizando, por exemplo, o Google Earth para examinar paisagens de fundo e para testar se um vídeo ou imagem foi capturada quando e onde reivindica e o motor de busca Wolfram Alpha, para verificar o historial de condições meteorológicas no local, face às reivindicadas no vídeo.