Gerador de texto com IA assusta os seus criadores que adiam publicação

Ainda não é desta que falamos de robots treinados para lutar contra os seus criadores ou alguma coisa que abra a caixa de pandora da interação física entre sistemas de inteligência artificial e humanos.

Apesar de o título poder criar essa primeira imagem mental, comecemos por esclarecer que ainda não é desta que falamos de robôs treinados para lutar contra os seus criadores – ou alguma outra coisa que abra a caixa de pandora da interação física entre sistemas de inteligência artificial e humanos. É no software que está o perigo e este exemplo serve perfeitamente para nos lembrar do que podemos enfrentar daqui para a frente numa série de campos, das notícias à ficção.

O sistema chamado GPT2 foi criado por uma empresa sem fins lucrativos, chamada OpenAI, apoiada por nomes como Elon Musk ou Reid Hoffman, co-fundador do Linkedin e trata-se de um simples gerador de texto como tantos outros, mas com uma capacidade nunca antes vista. O GPT2 consegue criar texto com uma elevada verosimilhança e sem cair nos erros dos sistemas apresentados até agora, como esquecer-se do texto a meio ou entrar em loops repetitivos. Em sentido contrário, o sistema consegue dar continuidade a um bloco de texto sem que se detecte imediatamente onde parou o homem e onde começou a máquina, criando os chamados “deep fakes”, desta feita em texto — e por agora apenas em inglês.

Na base de todo este potencial do sistema, os seus criadores dizem estar a forma como ele foi criado. O modelo é 12 vezes maior que o normal e foi treinado em 15x mais dados do que o normal, concentrado mais informação no seu sistema. Para o efeito, os investigadores recorreram a 10 mil artigos noticiosos partilhados no Reddit e com mais de 3 votos positivos, algo que perfez um total de 40 GB de informação em texto — como nota o The Guardian, o equivalente a 35 mil cópias do Moby Dick.

Se por um lado nada disto parece perigoso, os seus criadores acharam por bem não tornar totalmente pública a sua investigação e explicaram os motivos. Por ser treinada em conteúdo da web, temem que este sistema seja pródigo a criar spam e/ou teorias da conspiração com pequenas alterações, e que possa vir a ser uma potente arma na guerra de informação e desinformação que actualmente vivemos, atravessando fronteiras e eleições.

A decisão da equipa de investigação foi, por isso, manter o projecto internamente e continuar a investigar sobre ele tentando perceber como minimizar os usos maliciosos. Como Jack Clark, responsável pelas políticas da empresa disse em entrevista ao The Guardian, “há muito mais gente que nós que são melhores a pensar usos maliciosos”.