Há duas lições interessantes a se tirar
da polêmica sobre o estudo do "contágio emocional" do Facebook. A
primeira é o que ela nos diz sobre os usuários do programa. A segunda é o que
ela nos diz sobre corporações como o Facebook.
Caso você tenha perdido, aqui vai o
resumo da história. A primeira coisa que os usuários do Facebook veem quando se
conectam é seu "feed de notícias", uma lista de atualizações,
mensagens e fotografias publicadas por seus amigos. A lista que é exibida
para cada usuário não é abrangente (não inclui todas as informações
possivelmente relevantes de todos os amigos dessa pessoa). Mas tampouco é
aleatória: os algoritmos exclusivos do Facebook escolhem quais itens devem ser
exibidos, em um processo às vezes chamado de "curadoria". Ninguém
conhece os critérios usados pelos algoritmos – é um segredo industrial, assim
como os adotados pelo algoritmo de classificação de páginas do Google. Tudo o
que sabemos é que um algoritmo decide o que os usuários do Facebook verão em
sua lista de "notícias".
Até aí é óbvio. O que provocou
controvérsia foi a descoberta, mediante a publicação de um trabalho de pesquisa
no prestigioso Proceedings of the National Academy of Sciences, de que durante
uma semana em janeiro de 2012 pesquisadores do Facebook deliberadamente
influenciaram o que 689.003 usuários do Facebook viam quando se conectavam.
Algumas pessoas viram conteúdo com predominância de palavras positivas e
alegres, enquanto outras foram expostas a conteúdo com sentimentos mais
negativos ou tristes. Ao findar a semana experimental, o estudo mostrou que as
cobaias inadvertidas tinham maior probabilidade de publicar atualizações de
"status" e mensagens que tinham (respectivamente) um tom positivo ou
negativo.
Do ponto de vista estatístico, o efeito
sobre os usuários foi relativamente pequeno, mas as implicações foram
evidentes: o Facebook tinha mostrado que podia manipular as emoções das
pessoas! E nessa altura o lixo atingiu o ventilador. Choque! Horror! Palavras
como "assustador" e "aterrorizante" foram as mais usadas.
Houve discussões sobre se a experiência era antiética e/ou ilegal, no sentido
de violar os "termos e condições" que os pobres usuários do Facebook
têm de aceitar. As respostas são, respectivamente, sim e não, porque as corporações
não fazem ética e os termos e condições do Facebook exigem que os usuários
aceitem que seus dados possam ser usados para "análise de dados, testes,
pesquisas".
Os relações-públicas do Facebook
parecem ter sido apanhados desprevenidos, levando a diretora de operações da
companhia, Sheryl Sandberg, a reclamar que "o problema do estudo é que ele
foi 'mal divulgado'". Ela se referia sem dúvida à afirmação da empresa de
que o experimento tinha sido conduzido "para melhorar nossos serviços e
tornar o conteúdo que as pessoas veem no Facebook tão relevante e envolvente
quanto possível. Uma grande parte disto é compreender como as pessoas reagem a
diferentes tipos de conteúdo, sejam de tom positivo ou negativo, notícias de
amigos ou informações das páginas que elas seguem".
Traduzindo, isso significa:
"Pretendemos garantir que nada que as pessoas vejam no Facebook reduza a
probabilidade de que elas continuem conectadas. A experiência confirma nossa
conjectura de que conteúdo negativo é má notícia (e é por isso que só temos um
botão 'Curtir'), e assim vamos configurar nossos algoritmos para garantir que a
conversa alegre continue dominando os 'feeds de notícias' dos usuários".
Quando a história deste período for
descrita, uma coisa que vai surpreender os historiadores é a facilidade
complacente com que bilhões de pessoas aparentemente sãs permitiram que fossem
monitoradas e manipuladas por órgãos de segurança do governo e corporações
gigantescas. Eu costumava pensar que a maioria dos usuários do Facebook deve
ter algum alguma ideia da extensão em que é conduzida por algoritmos, mas o
escândalo sobre esse experimento pode sugerir algo diferente. Mas suspeito de
que quando a comoção tiver diminuído a maioria dos usuários continuará enviando
para manipulação da companhia seu fluxo de informações e emoções. Aqueles que
os deuses desejam destruir, primeiro os tornam ingênuos.
As discussões sobre se o experimento
foi antiético revelam a extensão em que os grandes dados estão mudando nossa
paisagem regulatória. Muitas atividades que as análises de dados em grande
escala hoje possibilitam são sem dúvida "legais" simplesmente porque
nossas leis estão muito abaixo da curva. Nossos regimes de proteção de dados
protegem tipos específicos de informação pessoal, mas a análise de dados
permite que corporações e governos construam "mosaicos " de
informação muito reveladores sobre os indivíduos, agregando o grande número de
vestígios digitais que todos deixamos no ciberespaço. E nenhum desses vestígios
tem proteção jurídica no momento.
Além disso, a ideia de que as
corporações poderiam se comportar de forma ética é tão absurda quanto a tese de
que os gatos deveriam respeitar os direitos dos pequenos mamíferos. Gatos fazem
o que os gatos fazem: matam outras criaturas. Corporações fazem o que as
corporações fazem: maximizam as rendas e o valor dos acionistas e se mantêm
dentro da lei. O Facebook pode estar na extremidade da sociopatia corporativa,
mas na verdade é apenas a exceção que comprova a regra.
Nenhum comentário:
Postar um comentário