As eleições presidenciais dos Estados Unidos, marcadas para o próximo dia 5, acontecerão em meio a lacunas no combate à desinformação e falta de transparência por parte das plataformas digitais. É o que mostrou recentemente dois estudos de organizações internacionais que buscaram testar as ações das big techs na manutenção da integridade do pleito no país, marcado por forte polarização.
Há poucas semanas da votação, a Global Witness examinou se o YouTube, Facebook e TikTok conseguiam identificar e remover desinformação eleitoral nas suas respectivas plataformas. Apesar de melhorarem os sistemas de moderação, Facebook e TikTok aprovaram anúncios com informações falsas. O YouTube saiu melhor nos resultados.
A plataforma chinesa de vídeos foi a pior entre as três analisadas, aprovando 50% dos anúncios com desinformação, mesmo tendo uma diretriz que proíbe explicitamente todos os anúncios com teor político. De acordo com o estudo, isso indica que, apesar de ter aperfeiçoado a capacidade de detectar e bloquear desinformação, a rede continua a falhar em aplicar adequadamente suas políticas.
Já a empresa da Meta aprovou um dos oitos anúncios testados, um desempenho melhor em relação ao mesmo teste feito no Brasil pela organização há dois anos. “Os sistemas de moderação do Facebook parecem ter melhorado nos últimos dois anos. Mas seus resultados ainda não são bons o suficiente, pois deveria ter sido fácil para seus sistemas detectar nossa desinformação, o que claramente violava suas políticas”, afirmou a organização.
O Youtube aprovou 50% dos anúncios enviados, mas acabou rejeitando a publicação das peças por não haver mais identificação da conta anunciante, como passaporte ou carteira de motorista. No entanto, de acordo com a Global Witness, isso indica que, caso tivessem dado mais informações pessoais, os anúncios com desinformação poderiam ter sido aceitos e publicados normalmente.
Sobre a plataforma, o estudo afirma que ela “precisa verificar se suas medidas de integridade estão funcionando corretamente e garantir que sejam aplicadas de forma robusta em todas as eleições ao redor do mundo, para proteger os usuários globalmente”.
Organização recomenda reforço na moderação
Além de pontuar os problemas, o estudo da Global Witness também trouxe sete recomendações para que as plataformas analisadas reforcem as ações contra desinformação tanto para as eleições norte-americanas de novembro como para os próximos pleitos mundo afora.
As recomendações foram:
- Aumentar os recursos de moderação de conteúdo e os sistemas de integridade implantados para mitigar riscos antes, durante e depois das eleições em todo o mundo, não apenas nos EUA.
- Fornecer recursos adequados para moderação de conteúdo em todos os países em que operam ao redor do mundo, incluindo o pagamento de um salário justo aos moderadores de conteúdo, permitindo que eles se sindicalizem e fornecendo apoio psicológico.
- Avaliar, mitigar e publicar rotineiramente os riscos que seus serviços impactam nos direitos humanos das pessoas e outros danos sociais em todos os países em que operam.
- Publicar informações sobre as medidas tomadas em cada país e em cada idioma para garantir a integridade das eleições.
- Incluir detalhes completos de todos os anúncios (incluindo público-alvo pretendido, público real, gasto com anúncios e comprador de anúncios) em suas bibliotecas de anúncios.
- Permitir auditorias independentes verificadas de terceiros para que eles possam ser responsabilizados pelo que dizem estar fazendo em todos os países em que operam.
- Publicar avaliações de risco pré-eleitorais abrangentes e detalhadas para as eleições de 2024 nos EUA.
Ao Facebook e ao TikTok, especificamente, a Global Witness recomendou urgentemente o aumento de reforços na moderação de conteúdo antes, durante e depois das eleições; além do aperfeiçoamento nos processos de identificação de conteúdo político nos anúncios.
Eleições sem transparência
Um outro relatório, desta vez produzido pelo Institute for Strategic Dialogue (ISD), concluiu que as eleições norte-americanas acontecerão em meio a falta de transparência das plataformas sobre detalhes das políticas, esforços de segurança e recursos das plataformas em relação a questões como extremismo, discurso de ódio e propaganda política.
“Nos EUA, há uma falta de regulamentação que permita a avaliação externa da adesão das plataformas às suas próprias políticas e compromissos por pesquisadores e reguladores”, pontuou o estudo. “Isso cria um ambiente no qual o público (e os legisladores) têm uma compreensão limitada e obscura da natureza e do escopo dos danos presentes nas plataformas que os eleitores usam diariamente.”
O estudo buscou identificar se as plataformas têm compromissos e políticas claras, além de entender se elas estão aplicando e implementando essas diretrizes. Um dos pontos de destaque foi também o potencial desinformativo nos anúncios políticos veiculados pelas plataformas, ponto que corrobora com os resultados do relatório do Global Witness.
“Os anúncios enfrentam padrões diferentes — às vezes mais baixos — para verificação de fatos e moderação, especificamente para contas políticas, tornando mais fácil para aqueles que compram anúncios publicar informações falsas ou enganosas na plataforma e atingir um público mais amplo”, concluiu o relatório, afirmando também que a transparência sobre esse ponto são insuficientes para avaliar o quão bem as políticas de moderação de anúncios são aplicadas.
Já sobre Inteligência Artificial, o instituto afirma que os conteúdos sintéticos continuam sendo um risco para qual as redes sociais ainda possam estar mal equipadas para lidar. Isso porque, de acordo com o estudo, as políticas das empresas trazem definições vagas ou confusas sobre o tema e responsabilizam excessivamente os usuários pela divulgação do conteúdo gerado por IA.
“Isso provavelmente contribui para um ecossistema de informações em que o conteúdo gerado por IA e o espectro do conteúdo gerado por IA tornam ainda mais difícil para os usuários determinarem quais informações são precisas”, trouxe o documento.