Facebook manipulou as emoções de 690 mil utilizadores, sem eles sequer saberem


Falta de ética? O Facebook é mais que uma rede social, é também um laboratório online para realizar experiências sociais. Um estudo agora publicado na prestigiada revista Proceedings of the National Academy of Sciences sobre emoções nas redes sociais teve como amostra 689 003 utilizadores do Facebook, mas esses 689 003 nunca consentiram participar no referido estudo.

Aos 689 003 utilizadores, o Facebook alterou propositadamente o News Feed. A uns removeu os posts emocionalmente positivos; aos outros removeu os posts emocionalmente negativos. O objectivo? Como as emoções positivas e as emoções negativas se espalham através da rede social.

O estudo revelou que os posts que aparecem no News Feed afectam-nos emocionalmente. Por exemplo, se recebemos posts positivos, tendemos a postar coisas positivas e, por extensão, a sentimos-nos bem/positivos no meio offline. O contrário também ficou provado como válido: se recebermos posts negativos, somos afectados negativamente.

Em resumo: o contágio emocional acontece via redes sociais, isto é, as emoções mostradas por outras pessoas podem influenciar nossas próprias emoções.

O Facebook manipulou as emoções de 690 mil utilizadores, sem eles sequer saberem.

O estudo foi realizado por um grupo de investigadores, constituído por membros do Facebook, da Universidade de Cornell (Nova Iorque) e da Universidade da Califórnia (São Francisco). Apesar de só agora publicado, o “trabalho de campo” foi feito há dois anos, durante 1 semana, em Janeiro de 2012. Foi nesse período que os quase 700 mil utilizadores viram o seu News Feed manipulado.

Não é o primeiro estudo a usar utilizadores do Facebook como amostra. Mas é o primeiro a manipular a experiência deles na rede social para fins científicos. Todos os outros estudos apenas observaram o comportamento dos utilizadores.

Falta de ética

É legal, sim, mas a ética não importa também?

De acordo com os Termos de Uso do Facebook (que ninguém lê), os utilizadores aceitam, durante o registo no serviço, a cederem a sua informação para “operações internas, incluindo resolução de falhas/problemas, análise de dados, testes, investigação e melhorias do serviço”.

Mas fica a pergunta: é ético?

Facebook responde:

“O nosso objectivo nunca foi chatear alguém.”

Adam Kramer, co-autor do estudo e investigador no Facebook, esclareceu:

OK so. A lot of people have asked me about my and Jamie and Jeff‘s recent study published in PNAS, and I wanted to give a brief public explanation. The reason we did this research is because we care about the emotional impact of Facebook and the people that use our product. We felt that it was important to investigate the common worry that seeing friends post positive content leads to people feeling negative or left out. At the same time, we were concerned that exposure to friends’ negativity might lead people to avoid visiting Facebook. We didn’t clearly state our motivations in the paper.

Regarding methodology, our research sought to investigate the above claim by very minimally deprioritizing a small percentage of content in News Feed (based on whether there was an emotional word in the post) for a group of people (about 0.04% of users, or 1 in 2500) for a short period (one week, in early 2012). Nobody’s posts were “hidden,” they just didn’t show up on some loads of Feed. Those posts were always visible on friends’ timelines, and could have shown up on subsequent News Feed loads. And we found the exact opposite to what was then the conventional wisdom: Seeing a certain kind of emotion (positive) encourages it rather than suppresses is.

And at the end of the day, the actual impact on people in the experiment was the minimal amount to statistically detect it — the result was that people produced an average of one fewer emotional word, per thousand words, over the following week.

The goal of all of our research at Facebook is to learn how to provide a better service. Having written and designed this experiment myself, I can tell you that our goal was never to upset anyone. I can understand why some people have concerns about it, and my coauthors and I are very sorry for the way the paper described the research and any anxiety it caused. In hindsight, the research benefits of the paper may not have justified all of this anxiety.

While we’ve always considered what research we do carefully, we (not just me, several other researchers at Facebook) have been working on improving our internal review practices. The experiment in question was run in early 2012, and we have come a long way since then. Those review practices will also incorporate what we’ve learned from the reaction to this paper.