02/07/2014
Estudo
põe Facebook
no
centro de debate ético
sobre o
uso de dados
Usuários
não foram avisados da pesquisa,
mas site afirma que possibilidade é prevista em
termo de adesão
Pesquisadores manipularam o "feed"
de notícias de 700 mil usuários do Facebook em 2012
para
sondar como as emoções se espalham nas redes sociais
Por Reed Albergotti e Elizabeth Dwoskin
The Wall Street
Journal
Um estudo do Facebook sobre as emoções dos usuários levou a um exame de
consciência entre os pesquisadores e pedidos para que diretrizes mais éticas
sejam estabelecidas no mundo on-line.
"Eu acredito que esse incidente todo vai provocar uma
reavaliação" na relação entre empresas e pesquisadores acadêmicos, diz
Susan T. Fiske, a editora do estudo e professora de psicologia e relações
governamentais da Universidade de Princeton.
Pesquisadores do Facebook e da Universidade Cornell manipularam o
"feed" de notícias de cerca de 700 mil usuários do Facebook por uma
semana em 2012 para sondar como as emoções se espalham nas redes sociais.
Eles descobriram que usuários que viram mais postagens positivas tenderam
a escrever mais mensagens positivas, e vice-versa. O estudo foi divulgado na
publicação acadêmica "Proceedings of the National Academy of
Sciences" (PNAS) em junho, mas provocou indignação após um blog afirmar,
na sexta-feira, que ele usou os usuários do Facebook como "ratos de
laboratório".
O Facebook informou na segunda-feira que o estudo pode ter incluído
usuários com menos de 18 anos. A empresa afirmou que revisou suas diretrizes
desde que a pesquisa foi feita e que estudos propostos agora passam por três
avaliações internas, incluindo uma centrada na privacidade dos dados dos usuários.
O incidente destaca como empresas e pesquisadores usam o vasto volume de
dados criados on-line. Empresas de internet incluindo o Facebook e o Google
constantemente fazem ajustes nos sites por razões que incluem levar o usuário a
clicar em mais links, ou mais anúncios, que são as principais fontes de
receita.
As empresas mostram diferentes versões da mesma página para grupos de
usuários e monitoram como eles reagem. Na indústria, isso é conhecido como
teste "A/B". Os primeiros testes A/B focavam questões como as cores
do site. Agora, o processo é usado "para levar as pessoas a fazerem
exatamente o que a empresa quer que elas façam nos websites, nos aplicativos e
na vida", diz Nancy Hua, diretora-presidente da Apptimize, uma empresa
novata que realiza esses testes para outras companhias. Uma porta-voz do Google
não quis comentar.
Os críticos dizem que esses testes envolvem questões éticas quando
conduzidos em redes amplas como o Facebook, com 1,3 bilhão de usuários. "É
de fato uma oportunidade para discutir a grande força que essas empresas têm
sobre nossas vidas", diz Zeynep Tufekci, professor de sociologia da
Universidade da Carolina do Norte que estuda os impactos sociais da tecnologia.
Fiske, a editora do estudo, afirma que tinha preocupações éticas a
respeito do trabalho porque os pesquisadores podiam ser considerados
manipuladores do humor das pessoas. Ela disse que suas preocupações foram
dissipadas depois que os autores contaram que a pesquisa não precisaria de uma
avaliação integral do Conselho de Avaliação Institucional da Cornell, porque
ele era baseada em "dados pré-existentes", cuja identificação havia
sido eliminada, o que tornava os usuários anônimos para os pesquisadores.
A Cornell emitiu uma nota em seu site afirmando que seu conselho concluiu
que não teria que avaliar o estudo porque o professor envolvido apenas teve
acesso aos resultados e não aos dados dos usuários.
A equipe do Data Science, do Facebook, quer utilizar os dados dos usuários
para pesquisas de mercado e acadêmicas. Ela tem feito estudos sobre tudo, desde
quem está assistindo à Copa do Mundo até como a comunicação dos usuários muda
depois que os parceiros terminam o relacionamento e se mensagens positivas se
espalham mais rapidamente que as negativas.
Quando o Facebook trabalha com pesquisadores acadêmicos, os dados que
fornece devem ser aprovados pelo conselho de avaliação independente da
universidade. Mas alguns estudiosos dizem que o incidente ressaltou o
enfraquecimento desse sistema, porque esses conselhos não estão acostumados a
dados coletados de milhões de usuários que estão publicando informações sobre
si mesmos on-line.
"Os conselhos de avaliação institucional ainda estão colocando os pés
nas pesquisas de redes sociais", afirma Leslie Meltzer Henry, membro do
corpo docente do Instituto de Bioética da Universidade Johns Hopkins.
Andrew Ledvina, que trabalhou como cientista de dados no Facebook entre
2012 e 2013, disse que não existe um conselho de avaliação interna
supervisionando os estudos. Ledvina acrescentou que ele e outros membros da
equipe científica podiam fazer quase qualquer teste que quisessem, desde que
não incomodassem os usuários.
Ledvina disse que às vezes era difícil se lembrar que seus testes
envolviam centenas de milhares de pessoas, mesmo representando apenas uma
pequena fatia dos usuários do Facebook.
Muitos pesquisadores se questionaram se os 689.003 usuários do Facebook
cujo "feed" de notícias foi alterado foram devidamente informados
sobre o estudo e o autorizaram. O Facebook afirmou que os usuários concordaram
com os estudos quando eles se inscreveram na rede e concordaram com os termos
de serviço do site.
"É absolutamente ridículo sugerir que clicar em uma caixa em um site
constitui o anúncio de um consentimento", afirma David Gorski, um cirurgião,
pesquisador e editor do blog "Science-Based Medicine". Ele disse que
a reação ao experimento mostrou um "verdadeiro buraco cultural" entre
os pesquisadores médicos e da área de psicologia e os de empresas de
tecnologia. No mínimo, acrescenta ele, os usuários teriam que ter a chance de
escolher não participar do estudo.