Início 9 destaques 9 Rigor acadêmico, na velocidade dos fatos, contra a desinformação

Últimas notícias

acervo pessoal

jan 4, 2023 | destaques, notícias, panorama2023

Rigor acadêmico, na velocidade dos fatos, contra a desinformação

acervo pessoal
COMPARTILHAR:

#Panorama2023

Esta entrevista faz parte da série #Panorama2023, entrevistas para entender o contexto da desinformação no pós eleições, seus impactos na sociedade e futuros possíveis para combater o problema

A produção de dados e análise dos mesmos a partir de monitoramento das redes sociais foi ação determinante para uma atuação precisa do Judiciário no combate à desinformação e até mesmo para as plataformas digitais, cuja autorregulação se mostrou incipiente nestas eleições. Um ator que se destacou neste trabalho foi o NetLab, o Laboratório de Estudos de Internet e Mídias Sociais da UFRJ, coordenado pela professora e pesquisadora Marie Santini. 

De olho nas plataformas digitais sob vários aspectos, Santini descobriu irregularidades nas  bibliotecas de anúncios e uma ´parceria´ do Youtube com a rede Jovem Pan, por exemplo, com carga suficiente para influenciar o resultado das eleições. 

Nesta entrevista, ela conta um pouco dos desafios da atuação do Netlab e projeta dificuldades e soluções futuras para o problema da desinformação. 

LIZ NÓBREGA – O NetLab atuou de forma muito intensa nas eleições deste ano, produzindo dados bem importantes para a gente conseguir entender a responsabilidade da atuação das plataformas nesse processo eleitoral. Como você avalia esta atuação, acha que é uma forma de a academia também promover uma resposta mais rápida à sociedade, de uma forma mais ativa, digamos assim?

MARIE SANTINI –  Ah, sem dúvida. A gente teve oportunidade, nessa eleição, de colocar todo nosso esforço de pesquisa, de trabalho prévio, para a sociedade civil. Para que esse conhecimento pudesse ser aproveitado enquanto um panorama do que poderia acontecer. E, fora isso, a gente pode usar esse know-how para produzir, com rigor acadêmico, com as metodologias acadêmicas, mas na velocidade dos acontecimentos de uma eleição, que já é uma velocidade muito alta para quem trabalha no mercado. Para a academia, que precisa de um tempo para ruminar as coisas, é uma velocidade inimaginável, né? 

Foi um desafio imenso, ao mesmo tempo, uma oportunidade e uma felicidade de ver que a gente poderia produzir acompanhando os acontecimentos e dar insumos com evidências científicas do que estava acontecendo para a sociedade civil, para o TSE, para as próprias campanhas e provocar alguns agentes para que determinadas ações fossem feitas. 

Para mim, dentro das proporções, é equivalente ao que aconteceu na pandemia com a pressão em cima da academia para dar uma resposta muito rápida a um problema muito grande. 

Eu fico feliz de a gente estar acompanhando essas mudanças e estar podendo entender que a produção acadêmica precisa responder a problemas sociais e precisa ter impacto. 

LIZ NÓBREGA – Quais foram os maiores desafios desse processo em relação à pesquisa mesmo, à coleta dos dados, à interpretação deles, quais foram os maiores desafios nesse sentido, até do contato com as plataformas e acesso a essas informações? 

MARIE SANTINI –  Uma coisa que a gente confirmou é que a coleta de dados é uma coisa complexa, que demanda tempo, investimento. São desenvolvedores trabalhando em cada problema, para lidar com cada questão na coleta de dados. A verdade é que as plataformas dificultam a coleta de dados ao máximo. E a gente tem que driblar todos esses problemas – muitas plataformas não têm nem API, nas que têm APIs, os dados são limitados, a amostra não é suficiente. 

Nós, enquanto academia, precisamos conhecer nossa amostra e entender as limitações dos dados, dos métodos. Para compor um conjunto de dados que seja válido é um desafio imenso e a gente tem que lidar com essa barreira das plataformas, que têm pouca transparência, dados com baixa qualidade ou nenhuma. 

O primeiro aprendizado é: é muito importante ter essa infraestrutura, que não se monta na véspera, precisa de tempo. Por isso é importante o investimento em laboratórios de pesquisa, que possam investir na coleta, no tratamento, no processamento, em ferramentas de análise que usam inteligência artificial e outras ferramentas da computação para dar conta do big data. Para que a gente possa entrar com o conhecimento humano para dar sentido àquilo. 

Então você ter que montar todos esses pedaços ao mesmo tempo, em tempo real, é um desafio imenso. Por exemplo, a questão das bibliotecas de anúncio, que foi uma novidade do Brasil, pelo menos a biblioteca do Google, a gente não tinha nenhuma coleta de anúncios do Google, e a biblioteca da Meta, que a gente já vinha investindo, mas ela foi mudando. Ter que montar uma infraestrutura de coleta de anúncios da plataforma do Google – e eles lançaram a plataforma no último dia que podiam, no segundo semestre, para uma eleição que estava começando um mês depois – e todos os problemas que essa coleta tinha, as inconsistências, entender como eles estavam organizando os dados, isso foi bem difícil. 

Mas mesmo assim eu acho que a gente conseguiu fazer muitas análises muito interessantes sobre os anúncios. Com isso, além das conversas que a gente teve com as plataformas, com a sociedade civil, a gente acabou tendo conversas paralelas, principalmente com o Google, por conta dessas dificuldades da biblioteca. E foram interessantes e importantes para a gente testar alguns entendimentos, confirmar algumas dificuldades e até para a gente interpretar melhor o problema. 

Mas o fato é que, em relação à transparência de dados, o interesse maior deles é de proteger modelos de negócios, e o que eles dizem que fazem para mitigar a desinformação não corresponde com o que a gente coletou e com o que a sociedade civil percebe que acontece de fato. 

E isso não acontece só no Brasil, lá fora também, então a versão deles das ações e das atitudes, dos desenvolvimentos, não é compatível com o que a gente identifica. Então aí temos um problema: como a gente vai avançar diante dessas duas versões?

É fundamental que a gente tenha contribuído coletando evidências para mostrar que o que eles estavam falando que estavam fazendo não era suficiente ou não estavam fazendo. E já que eles têm todos os dados, tudo é deles, então de fato isso comprova que não existia uma vontade verdadeira de fazer. 

A gente percebeu também que eles são muito suscetíveis a escândalos na mídia. Então quando saía uma matéria eles decidiam conversar. Quando não tinha tanta repercussão, eram mais escorregadios. Então temos, felizmente ou infelizmente, a ferramenta de fazer pressão através da mídia, mas isso não é suficiente para legislar sobre o assunto. Precisamos de resoluções e instrumentos jurídicos para proteger nossa democracia. Todos estes foram aprendizados do trabalho nesta eleição e agora temos mais elementos para avançar. 

LIZ NÓBREGA – Em algumas entrevistas que você deu nesse período você destacou que a máquina da desinformação está mais complexa e mais sofisticada. A que você atribui esse cenário e como você chegou a essa conclusão a partir dos estudos realizados neste ano? 

MARIE SANTINI – A gente chegou a essa conclusão acompanhando esses anos todos. Então a gente foi vendo esse ecossistema evoluindo, principalmente porque não teve nenhum instrumento limitador, como regulamentação. Foi ficando mais complexo na medida em que algumas ações são descobertas. Então, por exemplo, o que era uma estratégia de desinformação em 2018 muito forte, que era o uso de automação do Twitter e disparos em massa no WhatsApp, isso já tinha chamado atenção de diversos atores, das próprias campanhas, então de fato seria uma estratégia fraca em 2022, já que isso já estava mapeado e, de alguma forma, já existiam anticorpos da própria plataforma e das próprias campanhas, da sociedade civil, contra isso. Então a coisa é dinâmica e vai mudando. E a gente foi vendo que foi aumentando a integração entre as plataformas. Quer dizer, as campanhas de desinformação são cada vez mais coordenadas e multiplataformas, de forma que você não consegue estancar o problema, você não tem mais uma coisa linear. Ela é uma coisa rizomática.  

E ela é principalmente coordenada porque isso dá muita velocidade. Em algumas horas você consegue fazer um estrago que, mesmo que depois tenha uma ação judicial que mande retirar o conteúdo ou remova o site ou perfis, o mal já está feito, porque tem uma determinada escala e tem um tipo de conteúdo que circula independente de estar na plataforma ou não. 

Vou dar alguns exemplos: vídeos do Youtube que foram colocados como privados, mas continuavam circulando no WhatsApp; perfis que foram banidos no Brasil, mas continuavam ativos fora do Brasil; vídeos do TikTok que eram links, mas quando você compartilha virava um vídeo independente, você já não consegue controlar a circulação daquele conteúdo.

E fora o que circula na mensageria, no WhatsApp e Telegram, que é muito difícil de monitorar. É impossível controlar o compartilhamento das pessoas, que é o momento em que as pessoas participam da desinformação, daí a gente não consegue mais fazer nada. 

Percebendo toda essa dinâmica, a gente viu que se sofisticou, porque eles foram criando estratégias para que fosse cada vez mais coordenado, mas multiplataforma e mais veloz a ponto de as ações de mitigação não terem tanto efeito. 

E o que a gente também identificou é que, cada vez mais, essa indústria da desinformação usa todas as ferramentas de marketing disponíveis pelas próprias plataformas, pelo próprio mercado digital, para segmentar as mensagens, fazer testes de anúncios, os anúncios são muito usados para isso, para segmentar, para fazer testes de narrativas, testes dos públicos mais vulneráveis, entender onde você tem que investir mais para tornar um público mais suscetível a determinada narrativa, e estratégias de engajamento do usuário, estéticas… Então a gente pegou evidências dessas várias frentes que mostram uma sofisticação. E acho que, por último, tem a entrada das plataformas chinesas, que são o TikTok e o Kwai, nesse ecossistema. Isso também complexifica o cenário. 

LIZ NÓBREGA –  A partir do que você disse, uma solução para o problema da desinformação deveria ser pensada no contexto multiplataforma? Porque sabemos que outras vão surgindo. Qual solução você apontaria? 

MARIE SANTINI – Eu acho que tem que caracterizar todas essas plataformas como plataformas de mídia, empresas de mídia, independente do tipo de estética, conteúdo ou de modelo de negócio. 

A partir daí pensar em regulamentação e políticas públicas. Fazer esse diálogo e apostar numa autorregulamentação é uma tentativa importante, um primeiro passo, mas a gente percebeu que nas plataformas a resistência é tão grande que a gente terá que passar para o segundo passo, que é a regulamentação. Não tem outra maneira, não vejo outra saída. 

E a regulamentação tem que caracterizar essas empresas como de mesmo setor, com funções parecidas, modelos de negócio parecidos para não criar um desequilíbrio de mercado. Elas tentam oferecer algo único para se tornar a plataforma principal daqueles usuários. Então eu acho que a gente teria que pensar uma regulamentação para esse tipo de empresa. 

LIZ NÓBREGA – E, para finalizar, neste ano houve alguns movimentos importantes em regulação das big techs, como a aprovação do DSA na Europa, que prevê transparência de dados para os pesquisadores, acesso a APIs, mas ao mesmo tempo a gente acompanha as polêmicas no Twitter depois da compra por Elon Musk. Quais as perspectivas para a pesquisa acadêmica sobre plataformas digitais em 2023?

MARIE SANTINI –  Preocupante, pelo menos estando no Brasil. Se eu estivesse na Europa talvez eu estaria mais animada. Um dos problemas principais é ter acesso a dados das plataformas, a coleta é muito complexa. Precisa ter equipes multidisciplinares, com habilidades super refinadas, para criar estratégias de quebrar algumas barreiras das plataformas e criar métodos que não existem para a gente poder fazer pesquisa sobre o que acontece dentro dessas plataformas. 

Porque só com acesso aos dados, podemos analisá-los, entender o que está acontecendo e as consequências sociais e depois disso debater a regulamentação. 

Não há como pensar em regulamentação se essas plataformas não foram observáveis porque a gente não vai entender o que é o problema de fato. O primeiro passo, então, é a transparência e acesso aos dados. 

2023 me preocupa porque a compra por Elon Musk do Twitter é uma ação surpreendente porque a gente está vendo o homem mais rico do mundo comprando uma das plataformas mais influentes na política no mundo. O Twitter não é a plataforma que tem a maior quantidade de usuários, mas é a plataforma que se mostrou, desde 2011, a plataforma onde os influenciadores, os políticos, os jornalistas, os artistas estavam, e é uma plataforma que pauta o debate político, pautou a Primavera Árabe, pautou 2013 no Brasil, pautou Black Lives Matter. 

E aí a gente começou, a partir de 2014, 2015, ver a ocupação dessa plataforma pela extrema-direita, que não fez isso à toa, fez porque era uma plataforma importante para manipular, para controlar as massas, para interferir no debate. A gente começou a ver o crescimento absurdo de robôs, de bots, de ataques, de violência política, então é uma plataforma muito estratégica. E aí de repente o homem mais rico do mundo, alinhado com políticos de extrema-direita, compra a plataforma e ele já tem um histórico de uso dessa plataforma para interesses pessoais, para especulação de criptomoeda, uma série de coisas. Agora é o interesse de um homem só e ele tem ideias, ele está alinhado ideologicamente com a extrema-direita e tem sócios árabes. É uma combinação de forças bastante preocupante. 

Isso afeta completamente a coleta de dados, por exemplo, que a gente tinha até então no Twitter. O Twitter que a gente conhecia não vai existir mais, vai existir um outro, e a gente não sabe qual será. Por que eu estou falando do Twitter e não estou falando dos outros? Porque o Twitter, além de ser estratégico, ele era a plataforma que tinha uma API mais aberta para a gente coletar o que os usuários diziam e como eles reagiam às postagens. 

Ao coletar dados das conversas dos usuários, a gente conseguia classificar o tipo de conta, se era automatizada, se não era, desenhar rede, entender como estava acontecendo o debate. As outras nem isso oferecem, quer dizer, a única que a gente tinha mais dados, corre o risco de não ter mais nada. Então o cenário é muito preocupante, vamos ter que criar estratégias para seguir pesquisando, o que torna a  pesquisa nesse campo mais cara, mais difícil, e exigindo um tipo de pesquisador mais eclético, que é muito difícil de encontrar. 

LIZ NÓBREGA – A gente observa que as plataformas oferecem mais transparência em níveis diferentes para determinadas regiões globais. O TikTok disse que vai abrir a API, mas não sabemos como e por onde vai começar. A União Europeia já vai sentir as mudanças exigidas pelo DSA. Como você vê essa diferença de tratamento do entre o Norte e o Sul Global? 

MARIE SANTINI – O quanto eles puderem negar acesso, eles negam. E claro que eles acabam cedendo mais rapidamente aos países e aos mercados mais importantes para eles. A gente teve uma experiência agora nas eleições de 2022 no Brasil, que foi a seguinte: a gente não tinha acesso a alguns dados, por exemplo, sobre anúncios que já estavam disponíveis na Europa e nos Estados Unidos. E a gente se viu obrigado a só exigir o que estava disponível para outros países, o que é absolutamente insuficiente. 

A gente não se achava empoderado o suficiente para pedir o que deveria realmente ser pedido porque a gente ainda não tem transparência nesses dados, os dados têm baixíssima qualidade, são inconsistentes, incompletos, têm muitos problemas. 

Considerando que existe esse jogo de forças e que são países que têm um poder de pressão maior que nós, o fato de eles conseguirem avançar é muito bom para a gente, porque faz com que a gente possa exigir coisas que já existem e aí isso dificulta um pouco negar para o Sul global, porque caracteriza esse tratamento diferenciado, que pega muito mal. 

COMPARTILHAR:
0
Would love your thoughts, please comment.x