“A gente precisa lembrar que a desinformação no contexto eleitoral sempre existiu”, afirma Ester Borges, coordenadora da área de informação e política do Internetlab. O que muda, de acordo com a pesquisadora, é que agora não só os marqueteiros e partidos políticos controlam essa narrativa, mas também os apoiadores podem participar do debate público e pautar as discussões sobre as eleições. Isso é ainda amplificado pelos algoritmos das plataformas e pelo poder de alcance desses conteúdos.
Pesquisas mostram a ampla circulação de desinformação eleitoral no pleito de 2018 e, quatro anos depois, o cenário não parece ter se alterado significativamente. O relatório “Democracia Digital – Análise dos Ecossistemas de Desinformação no Telegram durante o processo eleitoral brasileiro de 2022” aponta o aumento exponencial de conteúdos antidemocráticos e convite à desobediência civil no aplicativo Telegram. Um outro levantamento aponta anúncios com desinformação sobre eleições publicados nas redes da empresa Meta.
O contexto pede por medidas de contenção. Em junho, entidades da sociedade civil – entre elas o *desinformante e o Internetlab – lançaram a campanha #DemocraciaPedeSocorro, reivindicando ações das plataformas digitais para o combate mais efetivo da desinformação, principalmente aquela que fere a integridade eleitoral. Borges destaca que o problema exige, além de soluções tecnocêntricas, observar um conjunto de outras saídas. No âmbito das plataformas, é preciso ter atenção, entre outras ações, à filtragem realizada por elas.
“Uma vez que está na redes, o conteúdo passou pela filtragem de moderação de conteúdo das plataformas. Então elas precisam fazer essa filtragem de uma maneira responsável, de uma maneira que seja comprometida com os valores democráticos e com os valores do pluralismo”, explica Ester Borges.
João Brant, coordenador geral do *desinformante, também indica a importância de, a dois meses das eleições, ressaltar o papel e a responsabilidade das plataformas nesse cenário: “É preciso que as plataformas deem conta de frear os casos em que o conteúdo está atacando diretamente o nosso sistema eleitoral a partir de informações falsas ou enganosas. Só quem tem condição de observar e perceber esses casos no conjunto são as plataformas. Claro, com cuidados para que não seja retirado discurso legítimo sobre o sistema eleitoral e que todos os afetados tenham direito a um devido processo, no sentido de poder recorrer àquela decisão”.
Ester Borges, que conduz um estudo com a equipe do Internetlab sobre as políticas das empresas de tecnologia, pontua que as plataformas têm atuado no sentido de combater a desinformação sobre o sistema eleitoral em si, e não em relação à desinformação sobre candidatos, a não ser que sejam acionadas judicialmente.
No entanto, mesmo com o compromisso, a atuação ainda não é eficaz e não segue um padrão. Em julho deste ano, por exemplo, o YouTube removeu uma live do presidente Jair Bolsonaro com informações falsas sobre o processo eleitora. A live, no entanto, foi veiculada um ano atrás, em julho de 2021. No mesmo dia, o presidente fez uma outra live destacando as mesmas informações falsas, que só foi removida no dia 10 de agosto.
Um dos pontos do documento, portanto, destaca exatamente isso: As plataformas não devem permitir a veiculação de conteúdos com alegação infundada de fraude eleitoral ou ataque direto à integridade do sistema eleitoral, dada sua capacidade de minar a confiança no sistema eleitoral e no processo democrático. “Nós entendemos que está na mão das plataformas uma resposta efetiva. A ausência de resposta delas significará um ambiente certamente mais afetado pela desinformação, portanto a nossa expectativa é que elas reconheçam essa responsabilidade e possam atuar naquilo em que ainda não fizeram”, expressa Brant.
Além da remoção em si, o documento pontua que é preciso que se tenha transparência de como ocorre essa remoção. Por isso, entre as 15 diretrizes indicadas no documento, está a necessidade de que as plataformas apontem quantas pessoas, dentro de suas equipes, estão dedicadas à proteção da integridade eleitoral e que falam português e compreendem o contexto local.
“A gente precisa que pessoas que entendam o contexto brasileiro estejam trabalhando nessa filtragem tanto da desinformação, quanto do discurso de ódio e da violência política, porque existem muitas coisas que não são tão óbvias. Quando a gente fala de violência política contra grupos minoritários, por exemplo, isso não fica tão claro isso, não é tão explícito. A gente tem vários momentos cinzas, uma ironia, um sarcasmo, coisas que muitas vezes uma filtragem de conteúdo automática não vai pegar”, pontua Borges.
Veja todas as medidas indicadas pelo documento:
- As plataformas devem ter a proteção da integridade eleitoral como valor refletido em suas políticas de moderação de conteúdo e em seus termos de uso. Essa proteção não deve se dar apenas sobre o momento do voto e apuração, mas sobre todo o processo eleitoral, de forma a garantir sua higidez.
- As plataformas devem garantir a adequação das políticas ao contexto brasileiro, e devem estabelecer protocolos de gerenciamento de eventuais crises institucionais de grande porte com indicação de contatos responsáveis diretamente ao Ministério Público Eleitoral e à Justiça Eleitoral.
- As plataformas devem garantir transparência e direito de apelação sobre conteúdos que tenham sofrido medidas restritivas, em especial no caso de remoção e bloqueio de usuário, bem como reversão ágil no caso de erros na aplicação das políticas pelas plataformas.
- As plataformas não devem permitir a veiculação de conteúdos com alegação infundada de fraude eleitoral ou ataque direto à integridade do sistema eleitoral, dada sua capacidade de minar a confiança no sistema eleitoral e no processo democrático.
- Também não devem ser permitidas manifestações infundadas de questionamento ao resultado eleitoral (ou incitação a tais manifestações) após a divulgação dos resultados finais pelo Tribunal Superior Eleitoral.
- Conteúdo que semeia desconfiança no sistema eleitoral por ataques indiretos (insinuações, ilações e manipulações sobre fatos etc.), ainda que sem alegação de fraude, não devem ser passíveis de impulsionamento nem de monetização, nem devem ser recomendados pelas plataformas.
- Devem ser estabelecidos termos de buscas que podem ser redirecionados para páginas específicas com informações verificadas (como prevê o acordo assinado pelas plataformas com o TSE). No caso da venda de palavras-chave em sistemas de busca, as plataformas devem indisponibilizar aquelas utilizadas majoritariamente para a promoção de notícias falsas ou enganosas.
- Quando houver publicação de conteúdos idênticos àqueles que já tiverem sido removidos por determinação da Justiça Eleitoral, deve haver a aplicação de medidas análogas de moderação, sempre que se tratar do mesmo contexto. Deve ser criado canal específico para a notificação, pelos usuários, dessas situações.
- Sobre exceções em relação às políticas das plataformas sobre desinformação:
- a) As plataformas não deverão dar tratamento de exceção a postagens realizadas por atores políticos.
- b) Exceções dadas a conteúdos jornalísticos não devem contemplar artigos ou colunas de opinião que envolvam alegações sabidamente falsas ou inverídicas.
- Sobre prazos e temporalidade das medidas:
- a) Especificar marcos temporais claros a respeito da celeridade com a qual a plataforma promete atuar nos casos de notificações enviadas pelo TSE e órgãos da Justiça Eleitoral, tanto para remoção quanto para reversão de erros.
- b) Ajustes nos termos de serviço e nos padrões de comunidade feitos durante o período eleitoral para preservar a integridade eleitoral e democrática não devem passar por período de carência para sua aplicação, mas devem ser divulgadas imediatamente e notificadas à Justiça Eleitoral e aos partidos políticos.
- c) As políticas e o esforço operacional específicos do período eleitoral devem ser mantidos até a posse dos eleitos.
- As políticas devem ser redigidas de forma precisa, que não seja genérica, e que contenha exemplos que abranjam as diferentes situações de aplicação. As informações devem estar reunidas em um único documento, de fácil acesso, e apresentadas de forma clara e inteligível.
- As plataformas devem ser transparentes e tornar públicas as informações de:
- a) quantas pessoas têm dedicadas à proteção da integridade eleitoral que falam português e compreendem o contexto local;
- b) quais os mecanismos internos externos de moderação, inclusive parcerias com agências de checagem.
- Redes abertas e aplicativos de mensagens devem ter mecanismos claros e efetivos de aplicação (enforcement) de suas políticas contra a desinformação.
- As plataformas devem disponibilizar dados, via API, para pesquisadoras(es) independentes e organizações civis que queiram realizar pesquisas relacionadas à aplicação dos termos de uso, as normas de comunidade, assim como estabelecer possíveis parcerias entre plataformas e pesquisas, no geral, atentando-se à proteção de dados das(os) usuárias(os).
15. As plataformas devem vedar anúncios e impulsionamentos de propaganda eleitoral que não sejam realizadas pelos atores legitimados pela legislação eleitoral.