Facebook manipulou conteúdo de usuários e explodiu polêmica

Para o Facebook, todos poderíamos ser camundongos de laboratório. De fato, 689.003 usuários já foram, em janeiro de 2012, quando a rede social manipulou a informação que recebiam de parte dos seus contatos. A metade deles receberam principalmente publicações positivas, e os outros, publicações negativas. Sem saber, estes usuários estavam sendo submetidos a um experimento cientifico cujo objetivo foi conhecer como as emoções se transmitem através das redes sociais.

Seguramente ninguém teria ficado sabendo disto nem se escandalizado, se não fosse porque neste final de semana a mesma rede social revelou os resultado do experimento, sob a forma de um artigo científico que foi publicado na revista  Proceeding da National Academy of Sciences (PNAS).

Com a autoria de um engenheiro do Facebook, Adam Kramer, junto com dois cientistas das Universidades de Cornell e da California – Jamie Guillory e Jeffrey Hancock-, o trabalho conclui que os estados emocionas se transmitem nas redes sociais quase como se fosse “contagioso”. Quer dizer, aqueles que recebem boas noticias costumam publicar posts positivos. E vice-versa: quem recebe má noticias tem tendência a gerar informações negativas. Até agora se acreditava o contrário.

Para chegar a este resultado, os investigadores modificaram o algoritmo que rege o “Feed de Notícias” do Facebook. Este algoritmo não é mais do que um software interno do Facebook, que seleciona – sobre a base de certos critérios programados – que post dos contatos aparecem em primeiro lugar no muro de Facebook de cada usuário, e quais vão aparecendo depois. Como no caso do Google, o Facebook busca que primeiro apareçam aquelas publicações mais interessantes ou úteis para os usuários e o restante viria depois.

Porém às 689.003 pessoas submetidas ao experimento Facebook lhes foi modificado manualmente o algoritmo, de maneira que a metade delas recebesse, entre as primeiras publicações, só publicações positivas (filtradas mediante palavras chaves como “amor”, “belo”, “doce”), e a outra metade teve priorizadas notícias negativas (com palavras como “desagradável”, “dor”, “ruim”, etc).

O experimento foi realizado na semana do dia 11 ao 18 de janeiro de 2012 e somente entre pessoas que falam a língua inglesa. E se modificaram mais de 3 milhões de atualizações.

Logo que foi conhecida a notícia se desatou a polémica nas redes sociais e na mídia dos Estados Unidos. O foco do conflito radica em que nenhuma das pessoas estudadas sabia que estava sendo submetida a uma investigação científica e que tiha o seu algoritmo alterado. Diversos especialistas  em pesquisas  científicas advertiram sobre a falta de ética desta metodologia empregada (Ver opinião de Ligia de La Torre abaixo).

Consultado pelo jornal argentino Clarin, Alberto Arébalos, gerente de Comunicações de Facebook, explicou que todos os usuários dão o seu consentimento para este tipo de “pesquisas” no memento  que aceitam os termos do serviço da Rede Social. “Isto é o primeiro que você vê quando entra no Facebook”, disse. E agregou que o experimento foi feito com o 0,04% os usuários de Facebook, a quem não se ocultou nenhuma das publicações que receberam essa semana, simplesmente a ordem foi alterada.

Rápido na resposta , Adam Kramer, o engenheiro que liderou a pesquisa, publicou uma espécie de pedido de desculpa. “Posso entender a preocupação das pessoas sobre isto. Com meus co-autores sentimos muito a forma em que o artigo descreve a investigação e a ansiedade que isto possa ter provocado”, escreveu no seu mural no Facebook.

Facebook não é o único serviço de Internet que faz investigações com a informação dos usuários. De fato, os modelos de negócios de serviços como Google ou Yahoo! se baseiam nas enormes bases de dados pessoais que vão colhendo na medida em que as pessoas utilizam o serviço. Porém, esta é a primeira vez que se conhece uma investigação que aponta à psicologia e aos hábitos pessoais dos usuários.

Ricardo Braginski

Opinião da Dr. Lidia de la Torre (Doutora em Sociologia e especializada em Metodologia da Investigação, UCA).

Quando um grupo de cientistas leva a diante uma investigação com seres humanos – já seja na área de medicina ou na das ciências sociais – devem informar aos participantes que eles serão parte deste experimento.

Normalmente se divide a população em estudo em dois grupos: um deles será submetido ao estímulo (ou tomará a medicação) e outro não (receberão o placebo). Mas todos os envolvidos devem saber que estão participando do experimento.

Não é ético deixar de informar às pessoas que elas vão formar parte de uma pesquisa. A pessoa tem direito a poder escolher se quer participar ou não.

Afirmar que o consentimento está expresso ao momento de aceitar as condições do serviço é um armadilha. Porque a gente não acostuma ler a letra pequena dos contratos digitais. O consentimento, em esses casos, não é explicito. E deve ser.

Facebook diz que, ao se registrar no serviço, o usuário aceita participar de “investigações”. Isto é outra armadilha. Porque a gente aceita que utilizem a informação que a sobe ou compartilha na sua base de dados para que melhorem os algoritmos que eles utilizam, ou inclusive que utilizem essa informação com fins comerciais. Mas em nenhum momento a gente aceita ser objeto de estudo. Ou seja, sermos nos mesmos os investigados, que gerem um procedimento não habitual em Facebook para ver como reagem as pessoas.

Se isto acontece, então sim você se transformará em um camundongo de laboratório. Só os camundongos não são consultados sobre a investigação. As pessoas sempre devem ser informadas.

Traduzido do espanhol por Pavio. Original publicado em Buenos Aires, 1 de julho, Clarín, versão impressa.