Uma colaboração “sem precedentes”. Foi assim que alguns dos pesquisadores americanos avaliaram o estudo realizado com dados de mais de 200 milhões de usuários do Facebook e Instagram sobre as eleições dos Estados Unidos em 2020. Os resultados da pesquisa, publicados em quatro artigos nas revistas Science e Nature nesta quinta-feira (27), destacaram os impactos do algoritmo da Meta na exposição de conteúdo e no comportamento dos usuários.
Em um dos artigos publicados, o grupo de pesquisadores retratou o resultado de uma pesquisa que comparou o uso do feed algorítmico, ou seja, o feed em que o algoritmo classifica o conteúdo que vai aparecer para o usuário, com o feed cronológico, em que a classificação é feita a partir do horário da publicação dos conteúdos. Esse experimento foi realizado com 23 mil participantes no Facebook e 21 mil no Instagram e registrou que a opção cronológica diminuiu o engajamento e o tempo de permanência dos usuários nas plataformas, cerca de 20% no Facebook e 11% no Instagram.
Outro achado do ensaio alerta para o aumento considerável de fontes não confiáveis no feed cronológico. De acordo com a pesquisa, a mudança aumentou a exposição a conteúdos políticos e fez com que a porcentagem de postagens de fontes não confiáveis mais do que dobrasse no Facebook (+ 68,8%) e aumentasse em 22,1% no Instagram. Os autores do estudo, no entanto, alertam para a baixa quantidade desses conteúdos no modelo padrão.
“Mesmo com o algoritmo existente, as proporções da linha de base são bastante baixas: no feed padrão, a participação média dos feeds dos usuários em nossa amostra contendo postagens de fontes não confiáveis foi de 2,6% no FB; para conteúdos incivis, 3,2%; para palavrões: 0,03%. E menos ainda no Instagram”, explicou Andrew Guess, autor do estudo e professor assistente de política e relações públicas da Universidade de Princeton.
Apesar dessas mudanças, apontou o docente, a troca por um feed cronológico não altera de forma significativa os níveis de polarização afetiva, conhecimento e comportamento político. Essa constatação se deu pela etapa de entrevista com os participantes do estudo após os três meses em que ocorreu o experimento, durante setembro e dezembro de 2020.
A Meta foi parceira do estudo, mas se comprometeu a não incidir sobre os dados ou bloquear a publicação de nenhum resultado. No entanto, a empresa comemorou as conclusões do experimento. Em uma publicação no blog da big tech, o presidente de assuntos globais da Meta, Nick Clegg, comentou esses achados e destacou a falta de correlação entre algoritmos e polarização.
“Embora as questões sobre o impacto da mídia social nas principais atitudes, crenças e comportamentos políticos não estejam totalmente resolvidas, as descobertas experimentais se somam a um crescente corpo de pesquisa mostrando que há pouca evidência de que os principais recursos das plataformas da Meta sozinhos causem polarização ‘afetiva’ prejudicial ou têm efeitos significativos sobre esses resultados. Eles também desafiam a afirmação agora comum de que a capacidade de compartilhar novamente o conteúdo nas mídias sociais gera polarização”, disse Clegg no blog.
Os coordenadores do estudo, Talia Stroud (Universidade do Texas) e Joshua Tucker (Universidade de Nova York) pontuaram, no entanto, que o tempo da pesquisa pode não ter sido o suficiente para resultados em atitudes políticas.
“Agora sabemos o quão influente o algoritmo é em moldar as experiências das pessoas na plataforma, mas também sabemos que mudar o algoritmo por alguns meses provavelmente não mudará as atitudes políticas das pessoas”, disseram. “O que não sabemos é por quê. Pode ser porque o período de tempo em que os algoritmos foram alterados não foi longo o suficiente, ou essas plataformas já existem há décadas, ou porque, embora o Facebook e o Instagram sejam fontes influentes de informação, eles não são as únicas fontes das pessoas”.
Polarização política e informativa
Apesar dos achados no primeiro experimento, uma outra pesquisa do projeto dá indícios de como a segregação ideológica impacta na exposição das informações e notícias no Facebook. A partir de um inventário das notícias políticas que os usuários viram em seus feeds, os pesquisadores concluíram que essa polarização é alta, conservadores e liberais veem e se envolvem com diferentes conjuntos de notícias. Conclusão similar já foi apresentada no Brasil a partir de análise de consumo de informações sobre a pandemia da Covid-19.
A assimetria do consumo de informação foi outro achado da pesquisa. Os resultados revelam que a direita consome mais informações políticas que a esquerda. No entanto, o estudo norte-americano também pontua que a grande maioria, 97%, das notícias políticas classificadas como ‘falsas’ pelos parceiros de fact-checking da Meta foram vistas por mais conservadores em comparação com liberais.
“Não esperava encontrar alguns dos resultados que encontramos, com padrões tão radicais”, disse a pesquisadora responsável Sandra González-Bailón, da Universidade da Pensilvânia, ao EL PAÍS. “Mas é isso que os dados dizem”, acrescenta.
“No geral, esses padrões fazem parte de um conjunto mais amplo de mudanças de longa data associadas à fratura do ecossistema nacional de notícias, variando da Fox News ao rádio, mas também são uma manifestação de como as páginas e grupos fornecem uma curadoria muito poderosa e da máquina de divulgação que é utilizada de forma especialmente eficaz por fontes com audiências predominantemente conservadoras”, concluiu o estudo.
A influência das páginas e grupos também foi enfatizada na pesquisa. De acordo com o estudo, essas funcionalidades contribuem muito mais para a segregação política do que usuários. “Páginas e grupos se beneficiam da fácil reutilização de conteúdo de produtores estabelecidos de notícias políticas e fornecem um mecanismo de curadoria pelo qual conteúdo ideologicamente consistente de uma ampla variedade de fontes pode ser redistribuído”, destacaram os pesquisadores em artigo.
Impactos do compartilhamento
Outro experimento do mesmo projeto abordou o impacto do compartilhamento. Em um teste, os pesquisadores removeram conteúdo compartilhado do feed das pessoas, o que diminuiu a quantidade de notícias políticas em mais da metade e de conteúdo político em 20%. No entanto, como destacado no outro experimento, esse percentual não era tão alto assim.
A remoção de compartilhamento também diminuiu em quase um terço a quantidade de conteúdos de fontes não confiáveis, mas essa queda foi acompanhada de uma baixa no conhecimento de notícias. Andrew Guess, um dos autores do artigo, ressaltou que a maioria das notícias sobre política que as pessoas veem em seus feeds vem de novos compartilhamentos. Quando se retira esse conteúdo, se perde dos dois lados.
Como na pesquisa sobre o feed cronológico, este experimento também concluiu que não houve alteração significativa na polarização ou atitudes políticas com a retirada de conteúdo compartilhado.
Fontes de informação
Um outro eixo da pesquisa foi publicado na renomada revista Nature. Nesse teste, os pesquisadores analisaram as fontes às quais as pessoas estão expostas no seu Facebook e o impacto dessa exposição nas suas atitudes. Para isso, os acadêmicos estimaram as inclinações políticas do usuário e categorizaram os outros usuários, páginas e grupos como “afins” , “transversais” ou “nenhum dos dois”, dependendo da afinidade política.
O estudo concluiu que, no Facebook, 50,4% do conteúdo que um usuário médio consome são de fontes “afins” e apenas 14,7% de fontes consideradas transversais, ou seja, que estão do outro lado no espectro político. No entanto, 20,6% dos usuários possuem mais de 75% das exposições de fontes semelhantes.
Para avaliar os impactos dessa exposição, os pesquisadores experimentaram reduzir em um terço a exposição de publicações de fontes afins. Tal movimento reduziu a exposição de conteúdo incivil/não confiável e aumentou a exposição de conteúdos de fontes transversais. No entanto, “a diminuição da exposição ao conteúdo de fontes afins não teve efeito mensurável em uma série de medidas de atitudes políticas, incluindo polarização afetiva e extremismo ideológico”, colocou Brendan Nyhan, pesquisador e autor principal dessa pesquisa.