Treinaram reconhecimento facial com as fotos que os utilizadores carregavam

"Eles estão a usar imagens das famílias das pessoas, fotografias de uma aplicação privada, e usam-nas para construir tecnologia de vigilância. É altamente preocupante", refere um advogado especialista em direitos digitais.

Imagem via Ever

Ainda há pouco tempo publicávamos o artigo sobre a Lookout e chamávamos à atenção para o facto de uma inovação tecnológica embrulhada numa narrativa bem polida se tornar difícil de deter. O apelo do marketing supera a razão do cepticismo numa altura em que os estímulos chegam de todo o lado e a utilização de um novo produto ou serviço está à distância de um clique para o download ou para o login. Foi isso que aconteceu com a aplicação Ever, como agora dá conta o canal norte-americano NBC.

Imagem via Ever

Com a assinatura “Make Memories”, a aplicação prometia, à semelhança do que fazem serviços como o Google Photos ou o Apple Photos, ajudar no armazenamento e na organização das infindáveis fotografias tiradas com o telemóvel. Como diferenciação tecnológica especialmente interessante, a Ever oferecia (e oferece) uma funcionalidade de análise automática das fotografias que prometia aos utilizadores auxiliá-los na gestão de fotografias repetidas, na organização por similaridades e na catalogação de cada registo.

O que os utilizadores não sabiam é que as suas fotografias também estava a ser utilizadas para treinar os algoritmos da empresa, entre eles um sistema de reconhecimento facial que a empresa vende posteriormente a empresas privacidades, autoridades e organizações militares.

O CEO da Ever, Doug Aley, garantiu à NBC News que a Ever AI não partilha fotografias nem qualquer outro tipo de informação com os compradores da tecnologia de reconhecimento facial. Ainda assim, Jacob Snow, advogado especialista em direitos digitais, considera a prática altamente preocupante e uma violação séria da privacidade dos utilizadores que não são informados do sucedido: “Eles estão a usar imagens das famílias das pessoas, fotografias de uma aplicação privada, e usam-nas para construir tecnologia de vigilância. É altamente preocupante.”

Imagem via Ever IA

Actualmente na política de privacidade da empresa já aparece uma referência a esta utilização do material mas, segundo a mesma peça, esta só surgiu após o contacto da NBC, em Abril, sendo que a Ever já opera desde 2013 e criou a empresa-irmã Ever AI no final de 2016.

De resto, apesar da discrição, nada desta estratégia comercial é secreta. Se Ever é o nome da aplicação, Ever AI é o nome da subsidiária que comercializa as soluções de reconhecimento facial; no site ever.ai, podemos ver uma descrição do serviço bem como da base de dados utilizada para treinar o algoritmo – sem menção à app Ever.

Screenshot via Ever IA

Contactados pela equipa de reportagem, utilizadores da aplicação revelaram que não sabiam que as suas fotografias estavam a ser utilizadas com esse fim. Já o CEO da empresa desde 2016, Doug Aley, acrescentou que considera que a política de privacidade é explícita, “clara e bem articulada”. Ainda assim, outros advogados ouvidos pela NBC denunciam que a empresa devia fazer mais para informar os utilizadores da app Ever.

Até agora, a Ever AI terá feito apenas um contracto com uma subsidiária da Softbank Robotics, mas a lista de serviços que a empresa oferece mostra a amplitude do potencial do algoritmo. A incursão por este modelo de negócio foi uma decisão relativamente recente da equipa – há cerca de dois anos e meio –, depois de se aperceber que uma aplicação gratuita com apenas pequenas funções pagas teria pouco futuro. Logo após a mudança de modelo de negócio, a Ever conseguiu um investimento de 16 milhões de dólares, sinónimo do potencial que é visto pelos investidores neste tipo de mercado.