Moderadores do Facebook quebram silêncio e falam sobre a sua vida traumática

Por detrás das interfaces limpas e bonitas do Facebook, há um lado sombrio e desumano – o dos moderadores de conteúdos.

Por detrás das interfaces limpas e bonitas do Facebook, há um lado sombrio e desumano – o dos moderadores de conteúdos. Pessoas que são subcontratadas pelo Facebook para decidir o que fica na rede social e os posts que devem ser removidos por desrespeitarem as normas que a empresa de Mark Zuckerberg definiu e que estão constantemente a mudar. Pessoas com vidas traumáticas, que têm de assistir a vídeos a que ninguém gostaria de ver, ver fotos que ninguém gostaria de ver, ler coisas que ninguém gostaria de ler.

Uma longa reportagem do The Verge, publicada esta semana pelo jornalista Casey Newton, descreve como é ser moderador do Facebook, relatando histórias chocantes, contadas na primeira pessoa por alguns ex-moderadores que decidiram quebrar o silêncio, ‘rasgando’ o acordo que as impedia de falar sobre o seu trabalho. “Esta história contém descrições de actos violentos contra pessoas e animais, relatos de assédio sexual e transtorno de stress pós-traumático e outros conteúdos potencialmente perturbadores”; é este o aviso que aparece no início da reportagem, e também no vídeo que apresentamos de seguida e que sintetiza a peça escrita.

Casey falou com alguns ex-trabalhadores de uma empresa chamada Cognizant e que fica na Florida, EUA. É uma das muitas firmas contratadas pelo Facebook para a moderação de conteúdo. O gigante azul terá ao todo uma rede de 15 mil moderadores, espalhados por diversos cantos do mundo e no mesmo regime de contratação: trabalham para uma empresa que por sua vez trabalha para o Facebook.

Fazem seis horas por dia, revendo entre 200 a 400 publicações, incluindo imagens bastante gráficas e perturbadoras. Ganham a começar nos 15 dólares por hora, ou seja, menos de 30 mil euros por ano – pouco para uma profissão que pode ter consequências gravíssimas ao nível de saúde mental; têm direito a duas pausas de 15 minutos, 30 minutos para almoçar e 9 minutos para sessões de bem estar, em que podem obter algum acompanhamento terapêutico.

Três ex-moderadores que falaram com o The Verge contaram algumas das imagens chocantes que viram durante o seu trabalho. As suas descrições são violentíssimas só por si e algumas incluem seres frágeis como animais e bebés; são conteúdos cruéis e criminosos que utilizadores carregam para o Facebook e que alguém tem de ver para que outros – nós – possam fazer scroll descansados.

Os ex-trabalhadores dizem que viam morte todos os dias; que assistiam a vídeos tão perturbadores que os deixavam sem sono à noite, deprimidos, ansiosos ou com stress pós-traumático; e que o acompanhamento psicológico que lhes davam era fraco para tamanha violência a que são sujeitos no seu trabalho. Um dos seus colegas morreu mesmo na secretária com um ataque cardíaco – situação que os responsáveis da Cognizant não quiseram encobrir com receio de poder prejudicar a produtividade da empresa.

Ao The Verge referem também a existência de pressão para manterem a pontuação da Cognizant alta, acima dos 96-98% – essa pontuação mede o quão acertadas são as decisões dos funcionários em relação às regras do Facebook. Se os moderadores tiverem uma pontuação abaixo dessa percentagem, podem ser despedidos.

Os três funcionários que se despediram da Cognizant contaram também ao jornalista Casey Newton que a expectativa que tinham do emprego é que até ia ser divertido – não imaginavam o lado negro do Facebook que viriam a descobrir depois e não lhes foram alertados sequer dos impactos negativos que poderiam vir a sofrer a nível de saúde.

Os ex-moderadores falaram também das condições pouco humanas das instalações da Cognizant: mesas de trabalho e casas-de-banho sujas, com pêlos púbicos ou dejectos à vista, agressões verbais e físicas em pleno escritório, roubos, sexo pelo edifício, infestações de insectos, etc. Contam que o espaço da Cognizant só foi limpo a sério aquando de uma visita de representantes do Facebook.

Em resposta à reportagem do The Verge, o Facebook diz que vai levar a cabo avaliações de todos os seus parceiros de moderação para garantir o bem estar dos funcionários subcontratados; e que está a avaliar outras formas de melhorar as suas condições de trabalho. No futuro, a empresa pretende trocar a moderação humana de conteúdo por inteligência artificial, mas esta tecnologia ainda não está suficientemente pronta.