Início 9 pontos de vista 9 Os desafios de fechar o cerco a campanhas desinformativas

Pontos de vista

acervo pessoal

jul 3, 2023 | pontos de vista

Os desafios de fechar o cerco a campanhas desinformativas

acervo pessoal
COMPARTILHAR:

Ao lado das tradicionais técnicas de fact checking, os estudos da desinformação têm avançado com o uso de abordagens computacionais, criação de algoritmos como o GOTCHA Bot Detection –  ferramenta desenvolvida pelo Netlab em parceria com a Twist (empresa de Data Science) que utiliza inteligência artificial para identificar a presença de “social bots” nas redes sociais -,   além de entendimento do ecossistema multiplataforma em que dados não checados viralizam e se propagam na forma de cadeias de contágio. 

Ao invés de se centrarem em um único canal, as campanhas de desinformação têm adotado diferentes níveis e táticas de coordenação para espalhar a poluição informacional pelo máximo de canais.  São ações orquestradas, como afirma o artigo do professor da PUC RJ, Marcelo Alves.

Além da dificuldade de acesso aos dados para mapear de onde partiu determinado conteúdo  fake (muitas vezes, o conteúdo original é deletado, migrado para outra conta ou criado um novo perfil), as mudanças e fechamento das APIs, como recentemente ocorreu com as ferramentas Hoaxy e Botometer, também representam desafios para comunicadores e pesquisadores que navegam nesse complexo ecossistema, marcado pela promoção de conteúdo de forma distribuída e multiplataforma. 

Outros desafios têm marcado a jornada dos pesquisadores e estudiosos da desinformação, como a necessidade de adoção de metodologias combinadas, realização de estudos multiplataforma e que tentam mapear a complexidade do ecossistema de poluição informacional (Alves, 2020); lidar com propagadores de desinformação que vem sendo deplataformizados  (Rogers, 2020) e migrando para mídias alternativas com outras características e regras, discussões sobre políticas de moderação do Conteúdo e Coregulação, lidar com a velocidade de mudança de tecnologias e criação de novos bots. 

Divulgados em cascatas, os conteúdos enganosos são apenas a parte visível de um processo que vai além e que Wardle e Derakhshan (2017) denominaram “desordem informativa”, da qual a desinformação é uma das principais características.

Com as recentes mudanças de diretrizes de publicação de conteúdo em plataformas como Youtube, alguns vídeos  foram removidos, perfis banidos e até mesmo canais foram desmonetizados.  Mas, como aponta o pesquisador Rogers (2020), tais perfis ‘deplataformizados’ migraram para outros canais, como Telegram, Tiktok e até mesmo Kwai, até então consideradas mídias voltadas para entretenimento, mas cujas regras podem ser mais atrativas para a divulgação de conteúdos contendo promessas de cura, receitas milagrosas e conteúdo que simula ser científico, chamado fake Science.

Com isso, produtores de conteúdo foram deplataformizados e adotaram táticas coordenadas para migrar de canal, sem perder sua base de engajamento e monetização.  Diante de tantas transformações, muito mais que classificar os perfis e tentar utilizar formas automáticas de checagem para avaliação de credibilidade de perfis fake e disseminadores de falso conteúdo, é preciso entender que novas estratégias também foram adotadas pela outra ponta. 

Os canais de disseminação de conteúdos falsos e enganosos reagiram aos ajustes nas regras e diretrizes de conteúdo, por exemplo, do Youtube, passando a ocultar palavras que seriam banidas pela detecção algorítmica dos títulos, inserindo trechos de vídeos, vozes e imagens geradas por inteligência artificial generativa, criando contas adicionais para propagar anúncios enganosos,  no caso de uma delas ser derrubada, além do investimento nas chamadas mídias alternativas (redes em que as regras de moderação são menos rígidas) , lançamento de aplicativos próprios e orquestração de anúncios que levam o  usuário para sites falsos em que inserem seus dados e são vítimas de golpes. 

No caso do Youtube, a criação de sites clones, que simulam fonte, cores, logo e a própria arquitetura da plataforma tem sido recorrente, como aponta a pesquisa de Marcelo Alves (2021). 

É importante entender que a própria estrutura e modelo de negócios em torno da desinformação se tornaram tão complexos de 2021 para cá que não podemos adotar as mesmas estratégias tradicionais que eram populares anteriormente.  

Nesse momento de pós-verdade, para empresas que querem preservar sua imagem e reputação, esse trabalho ativo de planejamento, mapeamento de temas críticos e monitoramento de redes sociais e sites de notícias poderia representar uma solução.  Mas, será que apenas classificar as notícias com rótulos de verdadeiro e falso é uma ação capaz de fazer recuar ou desaparecer por completo as cadeias de contágio e o ecossistema de desinformação?  

Goltzman (2022, p.2) complementa que a desinformação, muito mais que referente a algum tipo de conteúdo ou canal em específico, deve ser analisada e gerenciada sob a ótica multidisciplinar, pois “envolve áreas do conhecimento diversas, como a comunicação social, a tecnologia da informação, computação, a psicologia, a sociologia e o direito. Não existe resposta simples para um problema ‘complexo como esse’”.

Assim, é preciso um olhar atento para não reduzir o processo de educação em comunicação à mera criação de rótulos e entrega de checagens prontas, sem qualquer envolvimento do receptor.  Afinal, as pessoas confiam naquilo que aparece em suas timelines e nos seus grupos próximos, já que têm um laço de relacionamento e reconhecimento com a pessoa ou página que propagou a informação. 

Nesse sentido, percebe-se cada vez mais a crescente importância de uma abordagem multidisciplinar, tanto dos estudos da desinformação, quanto nas táticas de gerenciamento, mitigação e combate.

Como aponta Ítalo Alberto, diante das rápidas transformações, desenvolvimento de ferramentas de inteligência artificial, poderia-se considerar a checagem algorítmica das notícias como uma possível solução para o fact checking.  Mas, o pesquisador sugere um trabalho conjunto: “ o uso do algoritmo não viria como um tomador de decisão final, mas sim como um filtro que realiza uma pré-classificação cuja função é vasculhar a web para trazer tópicos de informações que podem ter maiores chances de serem consideradas falsas. Utilizar abordagens com esses graus avançados de desenvolvimento para lidar com questões críticas informacionais que estamos lidando é fazer o trabalho necessário”, afirma. 

Muito mais do que comunicar e emitir classificações sobre ‘falso  e verdadeiro’, precisamos analisar o fenômeno da desinformação sob a ótica complexa que ele exige, abandonando a posição de ‘super heróis’  e trabalhando de forma multidisciplinar, utilizando novas abordagens e tecnologias a nosso favor.

COMPARTILHAR:
Isabela Pimentel

Isabela Pimentel é Mestre em Mídias Digitais (UFRJ), Gestora de Projetos Digitais, Professora da ESPM/FGV e pesquisadora.

0
Would love your thoughts, please comment.x