Este site diz-te quão normal és

Recorrendo a algoritmos de reconhecimento facial, a experiência How Normal Am I diz-te o teu índice de beleza, a esperança média de vida e o teu grau de normalidade. Mas como funcionam estes algoritmos? São fiáveis?

 
O Shifter precisa de dinheiro para sobreviver.
Se achas importante o que fazemos, contribui aqui.

O avanço da inteligência artificial para reconhecimento facial é dos fenómenos que mais entusiasma e assusta, quer a comunidade científica quer a sociedade civil. Desde o seu uso no controlo de estrangeiros nos aeroportos e em investigação criminal, para aceder a serviços públicos online, bem como aos nossos equipamentos eletrónicos, ao uso do reconhecimento facial por parte da polícia com óculos especiais, de câmaras de vigilância colocadas em espaços públicos, ou em apps para modificarmos as nossas caras e redes sociais para podermos ser automaticamente identificados em fotografias em vídeos, os usos potenciais são às dezenas envolvendo software com diferentes especificidades. Contudo esta tecnologia já se viu envolvida nos mais diversos escândalos, relacionados com a problemática da vigilância em massa, acusada de transformar o mundo numa “espécie de Black Mirror da vida real”, pôr em causa a privacidade e os direitos sobre a informação dos cidadãos, mas não só, sendo também apontada como uma forma de perpetuar preconceitos existentes na sociedade, ao basear a sua aprendizagem em bases de dados já por si enviesadas.

IBM e responsável de IA da Google contra utilização de reconhecimento facial

Há medo e suspeita por causa de casos confirmados de falhas de segurança de dados privados, e por má fé no uso da tecnologia, como o recente caso do reaparecimento de um bot no Telegram que recorre à tecnologia “deep fake” para criar imagens falsas de mulheres sem roupa, com qualquer foto que tenham publicado nas redes sociais. A “deep fake” é, aliás, uma das ramificações negativas mais visíveis da tecnologia de reconhecimento e processamento facial que tanto tem feito ao serviço da desinformação, levando Governos e instituições a reagir, e especialistas a tentar combater o mal pela raíz, mas está longe de ser o único, como mostram projectos como How Normal Am I.

Considerado um projeto artístico, How Normal Am I é dirigido pelo crítico de tecnologia holandês Tijmen Schep e foi financiado pelo programa de pesquisa Sherpa, da União Europeia, que analisa o impacto da análise de dados na ética e nos direitos humanos e pretende apontar os problemas mais sérios que a IA pode vir a criar até 2025. Em How Normal Am I pretende-se demonstrar como os algoritmos de reconhecimento facial podem usados ​​para nos julgar, caindo em preconceitos vulgares ou inferências pouco concretas e que pouco têm de factual, como a beleza, ou a previsão da esperança média de vida através da nossa cara.

Na experiência, é nos pedido que liguemos a câmara, com a garantia de que nenhum dado vai ser guardado – o site é, aliás, muito explícito sobre o uso que NÃO faz dos nossos dados e é, como diz o The Focus, “mais seguro de usar do que a maioria das coisas online hoje em dia”. Somos depois recebidos por Tijmen Schep que, ao longo da experiência nos vai explicando como funciona cada um dos algoritmos de reconhecimento facial. O primeiro diz respeito à nossa beleza, dando-nos uma pontuação de 0-10. Com humor, e sempre acompanhados por Schep, é nos explicada a forma como este algoritmo funciona ao comparar a nossa imagem com milhares de outras por toda a web já pontuadas por estudantes chineses. Logo aí somos confrontados com a falência do conceito universal de beleza, tendo em conta que há diferentes percepções culturais do que é belo. Este algoritmo em específico demonstra logo à partida a falência do algoritmo perante pessoas negras, uma vez que nem sequer as reconhece. Somos ainda convidados a tirar os óculos se os tivermos postos, e a afastar e aproximar a cara da câmara para vermos como, também isso, influencia a pontuação que recebemos. Embora aqui estejamos em ambientes de teste, Schep diz-nos que este algoritmo é usado em apps como o Tinder, por exemplo, que o usa para recomendar pessoas com pontuações semelhantes, ou como o TikTok, que é conhecido por promover conteúdo de utilizadores “mais bonitos”, ou com maior pontuação.

Segue-se uma previsão da nossa idade que, seguindo o mesmo formato; varia consoante a distância a que estamos da câmara, se ficamos sérios ou sorrimos e, principalmente, quando viramos a cara mostrando o perfil. O algoritmo aqui testado é usado por apps de encontros, por exemplo, para perceber os utilizadores que mentem sobre a sua idade. Segue-se o género, aqui representado por um algoritmo também ele falível, uma vez que se baseia em características socialmente atribuídas ao homem e à mulher, como o cabelo comprido, a barba ou a proeminência do maxilar – se se inclinar a cabeça para trás olhando para o tecto deixando apenas o maxilar à vista da câmara, é-se homem.

O último indicativo analisado é o BMI, abreviatura em inglês para índice de massa corporal (IMC). Tal como o algoritmo que avalia a beleza, também este tem como base milhares de imagens já pontuadas espalhadas pela Internet, comparando a nossa com as da sua base de dados. Uma das várias formas como este sistema “lê” a nossa massa corporal é através da distância que vai dos olhos às sobrancelhas, fazendo com que o nosso IMC baixe caso as levantemos. No fim, através dos dados recolhidos ao longo da experiência é calculada a nossa esperança média de vida através de um algoritmo que consegue ser ainda mais subjectivo que os anteriores, por resultar do conjunto de uma série de suposições mas que é, ainda assim, usado por empresas como seguradoras, a quem o dado interessa.

Também nos é mostrado como funciona a impressão digital da nossa cara através de uma data de códigos que fazem da nossa cara única e que são usados por sistemas de identificação da polícia, por exemplo, ou por sites que permitem fazer upload de qualquer foto, correndo a web à procura da pessoa na fotografia, revelando a sua identidade. Num easter egg cómico, e através de um algoritmo que se propõe a adivinhar o nosso estado de espírito, How Normal Am I revela se a nossa cara estava feliz, triste ou neutra no momento em que, no início da experiência, aparecem as imagens de um cão engraçado. Todos estes testes servem, afinal, para determinar quão normais somos tendo em conta o universo de participações na experiência, a nosso índice de beleza, idade, género ou massa corporal, tendo em conta se estávamos tristes ou não quando apareceu o cão, ou até se lemos os termos e condições do projecto quando clicámos em “aceitar” no início.

Este “documentário interativo”, como é considerado pelo autor, pretende “ajudar a sociedade a questionar a confiabilidade destes sistemas” revelando que, além de fáceis de manipular, são preconceituosos – desde logo considerando critérios tão subjectivos quanto a normalidade que aqui se usa para efeito experimentais. No fim da experiência, ao dar permissão para as nossas estatísticas sejam partilhadas de forma anónima, os resultados dos nossos testes serão usados para comparar aos de todas as outras pessoas que já viram o documentário – é assim que é determinada a nossa normalidade. Segundo Schep, é a forma mais fiel à realidade de o fazer, uma vez que estes sistemas de Inteligência Artificial são cada vez mais usados para nos classificar em comparação ao outro. How Normal Am I foi, por isso, a forma que Tijmen Schep arranjou de partilhar connosco os receios que cresceram das suas pesquisas de que, a longo prazo, estes sistemas de reconhecimento e consequente profiling por comparação nos incentivem a ser o mais “normais” possível.

Se não conseguirmos aumentar o número de patronos, a 2ª edição da revista será a última, e o Shifter como o conheces terminará no final de Dezembro. O teu apoio é fundamental!