Deep Nostalgia: entre o engraçado e o assustador, a importância da contextualização

A Deep Nostalgia usa uma serviço de IA criado pela empresa D-ID que fornece a plataforma para que qualquer empresa possa criar a sua própria aplicação de criação de DeepFakes.

Imagem: MyHeritage.com
 

Chama-se Deep Nostalgia e é um serviço que recorre a um algoritmo para animar fotografias antigas. A ideia de dar vida a fotos estáticas não é nova, nem o conceito de DeepFakes – o nome para os vídeos criados artificialmente que se assemelham em tudo à realidade –, mas este recurso da MyHeritage tornou-se viral nas redes sociais por ser, em simultâneo, “mágico” e “assustador”.

É a própria empresa israelita de genealogia online que se refere dessa forma à funcionalidade por si distribuída: “Algumas pessoas adoram a tecnologia Deep Nostalgia e consideram-no mágico, enquanto outras acham-no assustador e não gostam dele. Na verdade, os resultados podem ser controversos e é difícil ficar indiferente a esta tecnologia. Esse recurso é destinado ao uso nostálgico, ou seja, para trazer entes queridos de volta à vida.”

A Deep Nostalgia usa uma serviço de IA criado pela empresa D-ID que fornece a plataforma para que qualquer empresa possa criar a sua própria aplicação de criação de DeepFakes. Segundo o The Verge, que o explica de forma simples, esta plataforma recorre a um sistema de Inteligência artificial idêntico ao das iOS Live Photos, que adiciona alguns segundos de vídeo antes e depois do clique para ajudar quem fotografa a encontrar a melhor foto/frame. Neste caso concreto, o serviço Deep Nostalgia pode fazer isso com fotografias tiradas com qualquer câmara porque tem uma rede de armazenamento de vídeos pré-gravados de vários movimentos faciais que aplica, conforme fizer mais sentido, à foto em questão. “Os nossos vídeos não incluem fala, a fim de evitar o abuso, como a criação de vídeos DeepFake de pessoas vivas”, refere o serviço.

Não obstante, o serviço que se baseia a aplicação do MyHeritage, o D-ID (acrónimo para De-identification), é um caso de particular de estudo sobre o universo do reconhecimento facial. A empresa israelita criou esta tecnologia para que fosse aplicada em sistemas de videovigilância protegendo a privacidade das pessoas que eram filmadas, alterando ligeiramente a sua cara através dos algoritmos que agora se distribuem para fins lúdicos. Contudo, especialistas em privacidade temem que esta aplicação seja apenas uma forma de fugir às obrigações de privacidade a que estão sujeitas as recolhas de imagem, trocando o consenso de quem é filmado por uma pequena alteração tecnológica ao seu aspecto, mantendo contudo semelhanças visuais – conforme se pode ler no white paper da empresa. Aquando do seu surgimento, a D-ID foi tema de alguns artigos na imprensa internacional, nomeadamente este no MIT Technology Review que apontava a possibilidade de a aplicação ser ilegal em solo europeu – especialmente o seu uso não consentido como em circuitos de vigilância em público – e para o paradoxo inerente ao facto desta se apresentar como uma solução pró-privacidade.

Já o serviço, que apareceu em finais de fevereiro acessível a quase todos os telemóveis, é mais um exemplo de como a manipulação de imagens com recurso a IA está a tornar-se cada vez mais popular, em todos os contextos. Como a maioria dos algoritmos de criação de DeepFakes, também este é muito bom a animar de forma suave expressões e movimentos humanos, mas pode ter alguma dificuldade em gerar dados para preencher as “lacunas” das fotos de origem, como nos vídeos acima e abaixo.

Para utilizar o serviço, os utilizadores devem inscrever-se com uma conta gratuita no MyHeritage (concordando com a sua política de privacidade) e, em seguida, enviar uma foto. A partir daí, o processo é automatizado; o programa aprimora a imagem antes de a animar, criando um gif. Nas perguntas frequentes do site podemos ler que as fotografias não são fornecidas a terceiros, e na página principal é até possível ler uma mensagem que diz que “as fotos carregadas sem completar a inscrição são automaticamente excluídas para proteger a sua privacidade.” 

Mas, recuando até 2017, é de notar que a empresa se viu envolvida numa falha de segurança que tornou públicos os dados de mais de 92 milhões de utilizadores do site. Em meados de 2018, a MyHeritage veio a público com a informação, dizendo que dessa violação foram leakados os e-mails e palavras passe de utilizadores inscritos até ao dia 26 de outubro de 2017. Na altura, a empresa veio assegurar que nenhum outro tipo de dados foi encontrado no servidor hackeado, uma vez que as informações sobre árvores genealógicas e dados de ADN (os principais serviços da MyHeritage) são armazenadas em sistemas separados daquele que foi violado.

Se viajarmos no tempo e pensarmos nas reações do mundo aos primeiros passos do uso de inteligência artificial para reconhecimento facial e, por má fé no uso da tecnologia, para a criação de DeepFakes, não deixa de ser assustador que hoje em dia possamos criá-los nós próprios, com dos mesmos recursos, através do nosso smartphone e de uma aplicação gratuita.

Do outro lado da satisfação de poder ver uma fotografia antiga de uma avó já falecida em movimento, existem os casos confirmados de falhas de segurança de dados privados como o acima reportado, ou o caso mais recente do reaparecimento de um bot no Telegram que recorre à tecnologia deepfake para criar imagens falsas de mulheres sem roupa com qualquer foto que tenham publicado nas redes sociais. A DeepFake, que em Deep Nostalgia parece inocente e “mágica” é, aliás, uma das ramificações negativas mais visíveis da tecnologia de reconhecimento e processamento facial que tanto tem feito ao serviço da desinformação, levando Governos e instituições a reagir, e especialistas a tentar combater o mal pela raíz.

E embora os vídeos produzidos automaticamente com a Deep Nostalgia não induzam ninguém a pensar que são imagens reais, as melhorias e constantes actualizações da aplicação desta tecnologia podem tornar cada vez mais difícil essa distinção, esbatendo até a importância de se distinguir o falso do real à medida que a tecnologia se torna omnipresente.

Em 2019, um vídeo que transforma o comediante Bill Hader em Tom Cruise durante uma entrevista no programa de David Letterman de 2008 tornou-se viral. No mês passado, o mesmo ator, que parece ser um dos alvo favorito da técnica, é o protagonista de uma conta de TikTok chamada deeptomcruise que acumula milhões de visualizações em vídeos que são versões falsas do ator a falar para a câmara. Segundo o The Guardian, estas falsificações de Cruise são tão precisas que muitos programas criados para reconhecer a vídeos manipulados são incapazes de as identificar.

Numa altura em que as deepfakes se tornam cada vez mais ubíquas, talvez o foco deixe de ser tentar perceber se são reais ou não, mas sim tentar contextualizá-las. Sobre os recentes casos com a imagem de Tom Cruise, Mike Caulfield, especialista em literacia digital, salienta a importância de se fazer a prova do contexto, a chamada network heuristics (confirmação em rede), como na imagem que partilhou em cima. Estes são os princípios básicos! Lamento sinceramente se a Internet, nos últimos anos, te ensinou que eras um especialista forense em vídeo. Mas a abordagem mais simples é aplicar o “quem/o quê/quando/onde/porquê” que aprendeste na 4ª classe, e não partilhar o conteúdo até que essas perguntas sejam respondidas.”, escreve num dos seus tweets sobre o tema.

Gostaste do que leste? Quanto vale conteúdo como este?

Trabalhamos todos os dias para te trazer artigos, ensaios e opiniões, rigorosos, informativos e aprofundados; se gostas do que fazemos, apoia-nos com o teu contributo.