Google criou ferramenta para ajudar jornalistas a identificar imagens adulteradas

A Jigsaw, o braço mais experimental da Alphabet, empresa dona da Google, está a desenvolver uma tecnologia baseada em IA capaz de detectar indícios de manipulação em imagens.

Foto de The Creative Exchange via Unsplash

Uma imagem vale por mil palavras e no jornalismo esse ‘ditado’ ganha outro significado, com o fotojornalismo a contar histórias poderosíssimas através de uma só imagem. A imagem pode também ser uma fonte ou servir para reportar o que se passa num dado local, permitindo que energias e sentimentos cheguem aos ecrãs de uma outra ponta do globo. Contudo, há uma pequena grande ameaça à imagem ao serviço do jornalismo: a adulteração digital e cada vez mais sofisticada de imagens e as chamadas deepfakes.

Quando uma foto é tirada por um foto-jornalista, está tudo bem; existe uma confiança ética e profissional nessa pessoa. Contudo, o jornalismo de cidadão existe e o cidadão pode também ser a fonte de um acontecimento específico. Uma imagem difundida através das redes sociais, por exemplo, pode não ser necessariamente real mas o produto de uma edição que pode começar no Photoshop e terminar em ferramentas mais sofisticadas. A inteligência artificial (IA) pode, neste contexto, ajudar jornalistas a perceber que adulteração digital uma dada imagem pode ter recebido.

A Jigsaw, o braço mais experimental da Alphabet, empresa dona da Google, está a desenvolver uma tecnologia baseada em IA capaz de detectar indícios de manipulação em imagens e que consiste em sete “detectores” diferentes. A ferramenta no seu todo chama-se Assembler e, ao The New York Times, a equipa explica que ainda está em desenvolvimento.

Imagem via Jigsaw

Imagens editadas digitalmente podem parecer convincentes muitas vezes ao olho humano, mas existem pormenores artificiais que uma análise de um computador conseguirá detectar. Por exemplo, a ferramenta de clonagem do Photoshop, que permite copiar bocados de uma fotografia para outras partes dessa mesma imagem, cria padrões repetidos que uma pessoa pode não reparar mas que ao olho de um computador serão sinais de manipulação. A Assembler é capaz de detectar estes casos de edição mais comuns, bem como métodos mais sofisticados como as deepfakes.

Jared Cohen, director executivo da Jigsaw, diz que a Assembler só estará disponível para jornalistas e ‘fact checkers’. Existem outras ferramentas como o FotoForensics que também prometem ajudar a identificar fotos manipuladas. Afinal de contas, desinformação é mais que fake news.

O Shifter é gratuito e sempre será. Mas, se gostas do que fazemos, podes dar aqui o teu contributo.