Google criou ferramenta para ajudar jornalistas a identificar imagens adulteradas

Procurar
Close this search box.
Foto de The Creative Exchange via Unsplash

Google criou ferramenta para ajudar jornalistas a identificar imagens adulteradas

A Jigsaw, o braço mais experimental da Alphabet, empresa dona da Google, está a desenvolver uma tecnologia baseada em IA capaz de detectar indícios de manipulação em imagens.

Uma imagem vale por mil palavras e no jornalismo esse ‘ditado’ ganha outro significado, com o fotojornalismo a contar histórias poderosíssimas através de uma só imagem. A imagem pode também ser uma fonte ou servir para reportar o que se passa num dado local, permitindo que energias e sentimentos cheguem aos ecrãs de uma outra ponta do globo. Contudo, há uma pequena grande ameaça à imagem ao serviço do jornalismo: a adulteração digital e cada vez mais sofisticada de imagens e as chamadas deepfakes.

Quando uma foto é tirada por um foto-jornalista, está tudo bem; existe uma confiança ética e profissional nessa pessoa. Contudo, o jornalismo de cidadão existe e o cidadão pode também ser a fonte de um acontecimento específico. Uma imagem difundida através das redes sociais, por exemplo, pode não ser necessariamente real mas o produto de uma edição que pode começar no Photoshop e terminar em ferramentas mais sofisticadas. A inteligência artificial (IA) pode, neste contexto, ajudar jornalistas a perceber que adulteração digital uma dada imagem pode ter recebido.

A Jigsaw, o braço mais experimental da Alphabet, empresa dona da Google, está a desenvolver uma tecnologia baseada em IA capaz de detectar indícios de manipulação em imagens e que consiste em sete “detectores” diferentes. A ferramenta no seu todo chama-se Assembler e, ao The New York Times, a equipa explica que ainda está em desenvolvimento.

Imagem via Jigsaw

Imagens editadas digitalmente podem parecer convincentes muitas vezes ao olho humano, mas existem pormenores artificiais que uma análise de um computador conseguirá detectar. Por exemplo, a ferramenta de clonagem do Photoshop, que permite copiar bocados de uma fotografia para outras partes dessa mesma imagem, cria padrões repetidos que uma pessoa pode não reparar mas que ao olho de um computador serão sinais de manipulação. A Assembler é capaz de detectar estes casos de edição mais comuns, bem como métodos mais sofisticados como as deepfakes.

Jared Cohen, director executivo da Jigsaw, diz que a Assembler só estará disponível para jornalistas e ‘fact checkers’. Existem outras ferramentas como o FotoForensics que também prometem ajudar a identificar fotos manipuladas. Afinal de contas, desinformação é mais que fake news.

Se chegaste até ao fim, esta mensagem é para ti

Num ambiente mediático que, por vezes, é demasiado rápido e confuso, o Shifter é uma publicação diferente e que se atreve a ir mais devagar, incentivando a reflexões profundas sobre o mundo à nossa volta.

Contudo, manter uma projecto como este exige recursos significativos. E actualmente as subscrições cobrem apenas uma pequena parte dos custos. Portanto, se gostaste do artigo que acabaste de ler, considera subscrever.

Ajuda-nos a continuar a promover o pensamento crítico e a expandir horizontes. Subscreve o Shifter e contribui para uma visão mais ampla e informada do mundo.

Índice

  • Shifter

    O Shifter é uma revista comunitária de pensamento interseccional. O Shifter é uma revista de reflexão e crítica sobre tecnologia, sociedade e cultura, criada em comunidade e apoiada por quem a lê.

Subscreve a newsletter e acompanha o que publicamos.

Eu concordo com os Termos & Condições *

Apoia o jornalismo e a reflexão a partir de 2€ e ajuda-nos a manter livres de publicidade e paywall.

Bem-vind@ ao novo site do Shifter! Esta é uma versão beta em que ainda estamos a fazer alguns ajustes.Partilha a tua opinião enviando email para comunidade@shifter.pt