Início 9 pontos de vista 9 Facebook promete proteger o debate público, mas esta realidade está muito distante 

Pontos de vista

Acervo pessoal

maio 6, 2024 | pontos de vista

Facebook promete proteger o debate público, mas esta realidade está muito distante 

Acervo pessoal
COMPARTILHAR:

Quando se trata de desinformação, as ações do Facebook não correspondem à sua retórica sobre proteger a democracia e o debate público. Um estudo recente revela o quão inadequados têm sido os esforços da plataforma para combater o flagelo das “fake news” quando esse tipo de conteúdo é mais frequente: eleições e crises sanitárias.

Durante as eleições brasileiras de 2018 e 2020 e a pandemia de COVID-19, nós examinamos o uso de etiquetas de alerta, checagens e outras iniciativas destinadas a conter a desinformação em torno de grande atenção pelo Facebook. A pesquisa e suas conclusões estão sintetizadas no artigo publicado na revista Media, Culture and Society intitulado  “Mind the Gap: Facebook’s measures against information disorder do not go far enough”.  O que encontramos foi uma bagunça de políticas inconsistentes, brechas e aparente indiferença que permitiram que conteúdos falsos ou enganosos escapassem desses processos de mitigação e continuassem se espalhando para os usuários da plataforma.

Mesmo quando as agências de checagem parceiras do Facebook através do programa Meta’s Third-Party Fact-Checking confirmavam que algo estava comprovadamente errado ou enganoso, isso nem sempre resultava na aplicação de etiquetas de aviso na plataforma. Encontramos exemplos de casos em que fatos errados inicialmente rotulados como falso ou enganoso, mas continuavam se espalhando sob o radar depois de edições superficiais por disseminadores desse tipo de conteúdo. A desinformação comprovada conseguia driblar os mecanismos do Facebook com base em algo tão simples quanto a forma como a alegação falsa era exibida visualmente.

Postagens vendendo as mesmas mentiras sobre vacinas contra a COVID-19 poderiam inexplicavelmente receber tratamentos diferentes. Enquanto em algum forma de visualização poderia ter uma rotulagem de “informação falsa”, outros formatos não possuíam nada. 

Mesmo post etiquetado de forma diferente

Ainda mais preocupante é o quão previsíveis muitas dessas deficiências deveriam ter sido para um gigante da tecnologia como o Facebook. É claro que truques de baixa tecnologia, como alterar ligeiramente imagens ou usar previews de sites, seriam usados para driblar tentativas de moderação. 

Imagem mostra preview com desinformação

Claramente, os venerados algoritmos do Facebook, apesar de sua complexidade elogiada, não podem detectar a desinformação de forma confiável em todas as formas que ela se manifesta em uma plataforma de bilhões de usuários, constantemente adaptando suas táticas. Os moderadores de conteúdo humanos também inevitavelmente perdem coisas pelo simples volume.

Mas o que nosso estudo realmente destaca é a falta de motivação genuína. Regras inconsistentes, brechas sistemáticas, incentivos financeiros incorporados ao sistema de recomendação, isso mostra que o Facebook realmente falha ao interromper o modelo de negócios da desinformação que faz sua máquina de anúncios funcionar.

Enquanto veículos de notícias legítimos têm que seguir regras draconianas sobre qualquer coisa que possa ser considerada desinformação, as fábricas de desinformação parecem sempre encontrar brechas, porque os incentivos econômicos do Facebook são para manter o engajamento e a indignação ao máximo.

A resposta do Facebook sempre é de “investimentos substanciais”, porém chegamos a um ponto em que reforçar os rótulos de desinformação, contratar mais checadores de fatos ou dobrar os investimentos em inteligência artificial não será suficiente. Se o Facebook quiser honrar suas responsabilidades cívicas e valores autodeclarados, precisará reconstruir completamente as dinâmicas fundamentais de sua plataforma para purgar a disseminação viral sustentável de desinformação como modelo de negócios.  

Isso significaria privar rigorosamente todos os propagadores de conteúdos falsos da capacidade de monetizar através de vídeos com reprodução automática, amplificação algorítmica impulsionada pelo engajamento ou artifícios de promoção paga. Também reduzir impiedosamente o alcance de quaisquer atores que persistentemente lidem com a desinformação em um purgatório de sombras onde suas mentiras não possam se espalhar. Significaria também facilitar a identificação da mais sutil mutação de campanhas recicladas de desinformação antes que possam florescer novamente.

E mais fundamentalmente, proteger o discurso público de ser subjugado pela tentação do engajamento fácil através da raiva e da indignação promovida pela indústria da desinformação.

Isso pode soar como um dilema existencial para o Facebook. Os atuais esforços descoordenados e insuficientes da plataforma – talvez motivados mais por relações públicas do que pela proteção genuína da democracia – a deixam cúmplice dos perigos e danos sociais reais da desinformação. É hora de Zuckerberg e sua equipe decidirem até onde irão para mudar de rumo e viver de acordo com seus ideais declarados.

COMPARTILHAR:
Mathias Felipe

Mathias Felipe é jornalista, cientista da computação e pesquisador. Atualmente é professor de Jornalismo Multiplataforma na Macquarie University na Austrália. Também é pesquisador associado do Observatório de Mídia e Sociedade Digital (DMSO) da Universidade Federal de São Paulo (Unifesp), do qual é cofundador. Já trabalhou como jornalista esportivo para Olympic Channel, La Nación, *desinformante, InfoAmazonia, entre outros. Anteriormente, foi pesquisador na Universidade de Navarra, Espanha, no âmbito do projeto JOLT, uma Marie Skłodowska-Curie European Training Network financiada pelo programa Horizonte 2020 da Comissão Europeia. Também é fundador da MediaMF, uma empresa de consultoria que oferece um portfólio diversificado de serviços nas áreas de mídia, tecnologia e inovação.

0
Would love your thoughts, please comment.x