O discurso científico do Facebook Data Team e a legitimização do algoritmo do Facebook.

por Marilia PEREIRA

Imagine que, ao invés de largar a Harvard University para se dedicar ao Facebook, Zuckerberg tivesse resolvido seguir a carreira acadêmica. Sua criatividade e inovação revolucionariam a comunidade científica? A julgar pelo último artigo científico[1] de autoria do Facebook Data Science Team, diria que não. Falta-lhe método. O referido estudo, publicado no jornal Science, e informalmente conhecido como “It’s not our fault”, recebeu de Christian Sandvig, professor associado da University of Michigan duras críticas nesse sentido[2].

Grosso modo, o artigo investiga o comportamento dos usuários com orientação política definida (Conservadores X Liberais) quando expostos a notícias de orientação divergente das suas, seu consumo dessas notícias e qual a influência do algoritmo do Facebook nessa escolha. Não foi surpresa que os usuários tendem a selecionar as notícias com as quais se identificam e que essa atitude conduz a uma polarização. Entretanto, como aponta Sandving, as conclusões propostas a partir dessa observação são per se problemáticas. Vamos elencá-las a seguir.

 

Sobre a equivalência das variáveis.

Os pesquisadores concluem que a convicção política dos usuários é um fator muito mais determinante de suas escolhas do que a influência exercida pelo algoritmo em sua curadoria. Essas não são, entretanto, duas variáveis independentes que possam ser comparadas entre si. Ao contrário, uma é consequência direta da outra, uma vez que a gama de notícias apresentada a cada usuário já é fruto de uma seleção prévia do algoritmo.

 

Desconhecimento das variáveis.

Uma das características de um estudo científico é que ele possa ser reproduzido para fins de validação e comparação de resultados (critério de testabilidade ou refutabilidade tratado por Popper). É claro que, tratando-se de pessoas, é impossível ter uma reprodução exata das condições do experimento. Entretanto, o problema em questão é que o modos operandi do algoritmo do Facebook, peça-chave neste estudo, não é conhecido assim como seus parâmetros também não são definidos no cálculo dos resultados divulgados pelos pesquisadores. A definição de algoritmo, desta forma, não pode ser empregada de forma absoluta no campo científico, uma vez não é possível ter certeza de que dirá respeito ao mesmo conjunto de variáveis considerados em um estudo anterior ou mesmo correlato (princípio da incomensurabilidade de Feyerabend).

 

Representatividade da amostra.

O artigo apresenta a amostra de 10.1 milhões de usuários como representativa da base de 200 milhões de americanos que utilizam o Facebook. Entretanto, não esclarece quais os critérios demográficos empregados nesse processo de seleção. Apenas no apêndice, como ressalta Sandving, são elencadas as condições para inclusão na amostra: idade maior ou igual a 18 anos; frequência de acesso ao Facebook maior ou igual a 4 dias na semana; interação com pelo menos uma notícia considerada relevante pelo Facebook; orientação política declarada publicamente e de modo apreensível.

Mas, quem declara publicamente e de modo apreensível sua orientação política no Facebook? Essa é a maior ressalva feita por Sandving. Apenas 4% dos usuários do Facebook se encaixam nessa categoria. De onde se conclui que o estudo foi feito com base em um comportamento que não é padrão dos usuários da plataforma. Não trata-se, pois, de uma amostra representativa. E pior: a condição para elegibilidade, “declarar a orientação política publicamente e de maneira apreensível”, pode ser relacionada com um posicionamento altamente definido que já é, per se, um indicativo de quão abertos esses usuários estariam para consumir notícias divergentes de suas ideologias (proposta do estudo).

 

O risco da generalização.

À parte o fato da amostra não ser representativa do comportamento padrão dos usuários do Facebook, é pertinente fazer um breve apontamento sobre o perigo das generalizações dos estudos científicos em redes sociais. Com o projeto de antrolopogia digital “Why we post”[3], por exemplo, Daniel Miller e seu grupo de 8 pesquisadores fazem uma etnografia de 9 sítios fora do eixo Estados Unidos-Canadá, onde se produz parte expressiva do conhecimento científico neste campo. E alertam como os resultados empíricos do uso de redes sociais tidos como “senso-comum” são postos em cheque quando inseridos em outras culturas, como no Chile, Trindad, Brazil, China Rural, China Industrial, Turquia, Índia, Itália e Inglaterra. Neste sentido, é preciso rigor na linguagem para que, ao contrário do artigo analisado aqui, as conclusões não sejam apresentadas como um comportamento, uma tendência ou uma característica comum aos usuários do Facebook de maneira geral.

 

O perigo do discurso científico do Facebook para a ética.

Aristóles defende que o caráter de um homem é fruto de suas decisões. Entretanto, segundo ele, devemos ser responsabilizamos apenas pelas decisões deliberadas sobre questões das quais temos conhecimento. Se o algoritmo do Facebook seleciona as notícias com as quais os usuários já tendem a concordar, omite aquelas que apresentam seu contraponto, excluindo pontos de vistas e análises contrárias que dariam justamente o conhecimento mais completo e diverso da questão sobre a qual se debruça o ajuizamento ético de cada indivíduo e a possibilidade de uma mudança de opinião. Essa é a premissa desconsiderada pelo artigo do Facebook Data Team analisado aqui. E agravada por outras práticas do Facebook, como a curadoria extra-algorítmica da sua “Trending List”, por exemplo. Nesta lista, como apontado em matéria do site Gizmodo[4], não aparecem apenas as notícias mais comentadas organicamente na rede social, mas aquelas selecionadas por uma equipe de editores do Facebook. Isso significa que a percepção da realidade, o acesso ao “outro lado da moeda”, a deliberação bem informada e, por conseguinte, a própria ética estão comprometidas. E não há (nem haverá) lastro científico que exima o Facebook dessa responsabilidade.

 

Referências:

ARISTÓTELES. Ética a Nicômaco. São Paulo: Martin Claret, 2004.

FEYERABEND, Paul. Contra o método. Rio de Janeiro: Francisco Alves, 2003.

POPPER, Karl. Conjecturas e Refutações. Brasilia: Editora Unb, 2008.

[1]http://science.sciencemag.org/content/early/2015/05/06/science.aaa1160.abstract

[2] http://www.wired.com/2015/05/facebook-not-fault-study/

[3] http://www.ucl.ac.uk/why-we-post

[4] http://gizmodo.com/former-facebook-workers-we-routinely-suppressed-conser-1775461006?rev=1462799465508