Notícias

Itapema FM  | 30/06/2014 17h50min

Estudo que manipulou feed de 700 mil perfis do Facebook é questionado

O teste avaliou a influência dos posts no humor dos usuários

Atualizada em 02/07/2014 às 12h29min

Um estudo divulgado neste fim de semana causou revolta e apreensão em usuários do Facebook. Durante uma semana, quase 700 mil usuários da rede social tiveram seu feed de notícias manipulado pela própria empresa para avaliar o "contágio emocional" das publicações. Especialistas questionam se Mark Zuckerberg não estaria ultrapassando os limites éticos no tratamento dos usuários.

O teste: entre os dias 11 e 18 de janeiro de 2012, o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou o seu humor. O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da Academia Nacional de Ciência. Os pesquisadores pretendiam verificar se o número de palavras positivas ou negativas nas mensagens lidas pelos usuários resultaria em atualizações positivas ou negativas de seus posts nas redes sociais.Observou-se que, sim, os usuários eram afetados pelos posts e mudavam o humor de seus próprios posts depois de uma semana.

"A única diferença desse para outros estudos é que esse foi revelado", diz advogado

– Não me surpreende que o Facebook tenha feito uma coisa dessas. O ponto principal é que as cobaias do experimento não consentiram em participar, as pessoas foram manipuladas psicologicamente sem saber. Faz a gente se questionar: se o Facebook pode manipular dessa forma sem ninguém perceber, o que mais eles andam fazendo que não é publicado em uma revista acadêmica? – questiona o professor de comunicação digital da PUCRS Marcelo Träsel, que abandonou a rede social recentemente por não concordar com o grau de controle que a empresa possuia de suas informações.

De acordo com o advogado especializado em internet e propriedade intelectual Alexandre Atheniense, não é preciso nem se questionar: a única novidade desse estudo é que ele foi revelado. Atheniense garante que, judicialmente, o Facebook tem a permissão de fazer o que bem entender com as informações postadas na rede social:

– Quanto à legalidade, nos termos de serviço do Facebook consta que aquelas informações publicadas são de titularidade deles. As pessoas esquecem que o Facebook, o Google, o Twitter são empresas de marketing digital e que, para isso, eles usam as informações compartilhadas para todos os fins que acharem convenientes. Não há ilegalidade nenhuma. Eles fazem coisas muito mais avançadas sem revelar para ninguém, a única novidade é que dessa vez foi revelado – explica.

Porém, os temores de Träsel têm fundamento. É o que explica o psicólogo Erick Itakura, do Núcleo de Pesquisa da Psicologia em Informática (NPPI) da PUC-SP. Segundo o pesquisador, o estudo é "anti-ético" e "condenável":

– É necessário ter muito cuidado com esse tipo de ferramenta. Esse tipo de pesquisa é utilizado inclusive em terapia, mas quando você pega um grupo e não os avisa do experimento, é anti-ético. Porque isso, daqui a pouco, pode deixar uma pessoa mais vulnerável, caso ela esteja passando por um tratamento de depressão. Pode influenciar e pode influenciar muito. Se uma pessoa não está muito legal, com indícios de entrar em depressão, ela pode realmente entrar, pode levar a enfermidades clínicas e pode haver casos extremos em que é causa de suicídio. Infelizmente, é possível – alerta.

Para o professor da PUCRS Eduardo Pellanda, especializado em mídias digitais e cibercultura, porém, a questão vai além das leis. O Facebook passou dos limites, ele avalia. O grande problema seria a falta de clareza para o usuário.

– É uma questão bastante complicada, o Facebook extrapolou o limite do que pode e não fazer. Me parece que há um controle desse tipo de algoritmos que não fica claro para o usuário. Em outro tipo de produto, se acontece algo que não fica claro para o usuário final, há punições extremas. Na internet, isso parece não acontecer. Isso quebra algo muito importante, que é a confiança no serviço. Eu temo muito pelo futuro do Facebook, porque já faz algum tempo que eles vêm tomando atitudes antipáticas.

Nos Estados Unidos, questões vão além e questionam poder da rede social

Em outros países, a repercussão foi ainda mais negativa. Nos Estados Unidos, Clay Johnson, cofundador da empresa que criou e geriu a campanha digital de Barack Obama para a presidência em 2008, classificou o estudo como "assustador". Em uma série de tweets, ele questionou "Mark Zuckerberg poderia movimentar uma eleição promovendo posts do Upworthy (site americano que agrega conteúdo viral) duas semanas antes da votação?", e foi ainda mais longe: "A CIA poderia incitar uma revolução no Sudão pressionando o Facebook a promover descontentamento? Isso deveria ser legal?". Träsel acredita que não:

– Não acho que o Facebook se meteria em questões políticas dessa maneira, porque é algo muito perigoso. Mas nada impediria, é tecnicamente possível. Não sei se não seria possível um governo capturar uma rede social e começar a fazer esse tipo de manipulação. Mas acho que há maneiras menos detectáveis de promover esse tipo de influência, no marketing isso já acontece: o Facebook tem aquele sistema de promover posts, dá para imaginar que alguém promova textos para criar o clima que quiser.

Os resultados do estudo foram propagados quando as revistas online Slate e The Atlantic abordaram o assunto . "Estados emocionais podem ser transferidos para os outros por meio do contágio emocional, levando as pessoas a experimentarem as mesmas emoções de modo inconsciente", afirmam os autores da pesquisa. "Estes resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais."

Enquanto outros estudos usam metadados para estudar tendências, este parece ser o primeiro a manipular dados para verificar se há reação.

A pesquisa é considerada legal de acordo com as normas do Facebook. Susan Fiske, professora da Universidade de Princeton que editou o artigo para publicação, porém, disse que ficou preocupada com a pesquisa e entrou em contato com os autores. Eles disseram que o conselho institucional aprovou o estudo, já que "o Facebook manipula a atualização do feed dos usuários o tempo todo". Fiske admitiu ter ficado "um pouco assustada" com o estudo. O Facebook disse a The Atlantic que "considera cuidadosamente" a pesquisa e que há "um processo de avaliação interna".

Em seu perfil pessoal, Adam Kramer, funcionário do Facebook e um dos responsáveis pelo estudo, escreveu que o experimento foi feito "porque nos importamos com o impacto emocional que o Facebook causa e porque nos importamos com as pessoas que usam nosso produto". Disse ainda que a intenção era "entregar um serviço melhor", que "o objetivo nunca foi deixar ninguém magoado" e que "os beneficios da pesquisa talvez não tenham justificado a ansiedade causada", logo depois de pedir desculpa.

A ZH, Susan Fiske disse que não poderia responder porque o volume de e-mails que tem recebido torna isso impossível. Mas ela garante que o estudo passou por dois crivos éticos: um pela universidade e outro pelo próprio Facebook. Os pesquisadores não responderam até a publicação da matéria.

O Facebook divulgou nesta terça-feira um comunicado em que explica que o estudo foi feito "para melhorar nossos serviços e para assegurar que o conteúdo visto pelas pessoas seja o mais relevante e engajador possível". Confira a íntegra da nota enviada a ZH:

Esta pesquisa foi conduzida durante uma semana, em 2012, e nenhum dos dados analisados foi associado a qualquer conta específica de usuário do Facebook. Realizamos pesquisas para melhorar os nossos serviços e para assegurar que o conteúdo visto pelas pessoas seja o mais relevante e engajador possível. Uma grande parte desse trabalho decorre da compreensão de como as pessoas respondem a diferentes tipos de conteúdo, seja ele positivo ou negativo no tom, se provém dos feeds de amigos ou das informações das páginas que as pessoas seguem. Avaliamos cuidadosamente as pesquisas que fazemos e este processo é permanentemente reavaliado. Não coletamos informações desnecessárias dos usuários envolvidos nessas pesquisas e todos os dados são armazenados de forma segura.

Além disso, gostaríamos de ressaltar também que:

Todas as informações são colocadas em anonimato antes de qualquer análise, não há identificação qualquer do usuário.

O estudo ajustou o ranking do feed para incluir atualizações com mais palavras positivas ou negativas mais relevantes ao usuário de acordo com seu perfil e comportamento na plataforma.

Nenhum post foi “escondido”, ele simplesmente não apareceu no feed em determinado momento. Os posts sempre estiveram visíveis na linha do tempo dos amigos e poderiam aparecer posteriormente no feed de notícias.

Quando alguém se inscreve no Facebook, sempre pedimos permissão para usar suas informações para prestar os serviços ou melhorar aqueles que já oferecemos. Sugerir que nós conduzimos uma pesquisa corporativa sem qualquer permissão do usuário é mera especulação.

Trabalhamos constantemente para melhorar nossos processos internos de revisão de estudos. Conforme mencionado anteriormente, o experimento foi realizado no início de 2012 e percorremos um longo caminho desde então. Temos agora revisões multi-funcionais desde a concepção do estudo, restrições rigorosas sobre o uso de informações que possam impactar os usuários e análise prévia à execução do estudo.

* Zero Hora com agência AFP

Maiara Bersch / Agencia RBS

Questões de privacidade vêm ganhando destaque nas discussões sobre as redes sociais
Foto:  Maiara Bersch  /  Agencia RBS


Comente esta matéria
Sintonize a Itapema em Florianópolis 98.7, em Joinville, sintonize 95.3

Grupo RBS Fale Conosco | Anuncie | Trabalhe no Grupo RBS - © 2009
clicRBS.com.br • Todos os direitos reservados.