Na semana passada, Mark Zuckerberg, CEO da Meta – proprietária do Instagram e do Facebook -, fez um anúncio dizendo que a empresa fará mudanças e voltará às suas raízes. O vídeo, amplamente noticiado, trazia seis medidas para, de acordo com ele, retomar a “livre expressão” no Instagram e Facebook. No entanto, especialistas acreditam que o cenário proposto por Zuckerberg deve trazer graves efeitos para a desinformação nas plataformas.
Essas são as mudanças anunciadas:
- Começando pelos Estados Unidos, a Meta vai eliminar os checadores de fatos e trocar o sistema pelas notas da comunidade, como acontece no X;
- A empresa já simplificou as políticas de conteúdo e eliminou várias restrições sobre temas como imigração e gênero;
- A Meta está mudando a forma como aplica suas políticas e vai retirar os filtros para o que chamou de “violações de baixa gravidade”;
- A big tech vai trazer de volta a recomendação do conteúdo cívico/político;
- Vai migrar as equipes de segurança e moderação de conteúdo para fora da Califórnia e a revisão de conteúdo nos EUA será baseada no Texas;
- O CEO disse que vai trabalhar com o presidente Trump para, em suas palavras, “resistir a governos ao redor do mundo que estão perseguindo empresas americanas e pressionando por mais censura”.
Quais os efeitos?
Para o pesquisador e professor da PUC-Rio, Marcelo Alves, uma das formas de se perceber o impacto é a partir de um afrouxamento das políticas de moderação da Meta, que passa a permitir uma série de discursos antes proibidos. Em uma das mudanças, por exemplo, a empresa passou a permitir “alegações de doença mental ou anormalidade quando baseadas em gênero ou orientação sexual, considerando discursos políticos e religiosos sobre transgenerismo e homossexualidade”.
Iná Jost, coordenadora de pesquisa do InternetLab, pontua que a moderação do conteúdo envolve tanto a redação das políticas da plataforma, como a aplicação dessas normas. Com as mudanças, as regras que regem esse espaço são mais simples e permissivas. “Existe uma percepção do campo dos direitos digitais em geral que tende a antever que vamos ter mais discursos mais violentos circulando”, comenta Jost.
O diretor jurídico do Sleeping Giants, Humberto Ribeiro, destaca que essas políticas flexibilizadas foram desenvolvidas ao longo dos últimos por meio de um intenso processo de pressão e engajamento da sociedade civil, dos anunciantes e dos investidores da empresa. “A decisão da Meta de retroceder nessas políticas pode produzir, como resultado, uma acentuação do já grave problema da circulação da desinformação e do ódio online, a exemplo do que aconteceu com o X quando a empresa revogou políticas de enfrentamento ao discurso de ódio”, comenta Ribeiro.
A advogada especialista em direito digital e representante da Coalizão Direitos na Rede, Bruna Santos, concorda com a avaliação: “O principal impacto da decisão com relação à flexibilização das regras e relativização da importância da moderação de conteúdo é que o ambiente digital pode ficar tomado por conteúdos relacionados ao discurso de ódio, racismo, homofobia e outros vários que já têm sido muito presentes no debate digital”.
No caso do X, comentado pelo diretor do movimento Sleeping Giants, foi identificado, por meio de uma pesquisa conduzida pela Anti Defamation League (ADL), um aumento de três vezes na utilização de expressões racistas na plataforma, ao mesmo tempo em que discursos homofóbicos e transfóbicos aumentaram 58% e 62%, respectivamente. “Acreditamos que o mesmo deve acontecer nas plataformas da Meta, já que o grupo econômico passou a autorizar expressamente discursos desumanizantes contra grupos sociais protegidos, a exemplo da possibilidade de associação de indivíduos LGBTQIA+ a doenças mentais”, coloca Ribeiro.
Além da flexibilização dessas regras, a empresa também fechou o seu programa interno de diversidade e inclusão. Bruna Santos avalia que dessa forma a Meta deixou claro que o interesse deles não é mais proteger comunidades vulneráveis, ou seja, aqueles que precisam da moderação de conteúdo para não se tornarem vítimas do debate digital. Com isso, a big tech se alinha com uma liberdade de expressão absoluta. “É altamente preocupante”, avalia a especialista.
A liberdade de expressão, ou a concepção de liberdade de expressão que Zuckerberg adota, é um dos pontos centrais de seu pronunciamento e a justificativa para moderar cada vez menos conteúdos. “Agora temos a oportunidade de restaurar a liberdade de expressão, e estou animado para fazer isso. Vai levar tempo para acertar. Estes são sistemas complexos e nunca serão perfeitos”, diz o CEO.
“Também há muitas coisas ilegais, que ainda precisamos trabalhar muito para remover. Mas o ponto principal é que, depois de anos de trabalho de moderação de conteúdo focado principalmente em remoção, é hora de focar em reduzir erros, simplificar nossos sistemas e voltar às nossas raízes de dar voz às pessoas”, complementa Zuckerberg.
Esse anúncio, de acordo com Marcelo Alves, é visto como uma vitória entre setores da extrema direita que observam essa decisão de não-moderação ou de uma política leniente de moderação, em que atua de forma mais generalista em relação a discursos e campanhas de desinformação. “Então há uma percepção muito clara de alinhamento ideológico, em que a partir de agora tudo passa a ser permitido”, comenta.
O alinhamento ideológico não se concentra, no entanto, apenas entre os estadunidenses – onde as mudanças devem começar a vigorar. Políticos da extrema direita brasileira, como o deputado federal Nikolas Ferreira, comemoraram as novas medidas. Em uma publicação, Ferreira elogiou e disse que “brasileiros querem liberdade de expressão e que a tirania da esquerda não prevalecerá”.
Esse é um caminho que já vinha sendo traçado por outras plataformas. Alves lembra que essa ideia mais irrestrita de liberdade de expressão já havia sendo adotada em redes alternativas (alt-tech), como o Gettr, mas agora também alcança as plataformas mainstream, inaugurando com o X após a compra pelo bilionário Elon Musk, e agora alcançando a Meta.
Além das mudanças nas regras que podem afrouxar as diretrizes sobre desinformação, como a coordenadora de pesquisa do InternetLab pontuou, a moderação do conteúdo envolve tanto a redação, como a aplicação das políticas. E, dentro do escopo da aplicação, há diversas formas de efetivar a moderação de conteúdo, desde parar de recomendar determinadas publicações, até remover um conteúdo ou até um perfil da plataforma.
O impacto na efetivação das regras deve ser difícil de mensurar, explica Iná Jost, justamente pelo “apagão de dados” que pesquisadores e jornalistas vivem após o fim do CrowdTangle, o que impede a compreensão de como as políticas são aplicadas na prática. A forma que alguns pesquisadores ainda têm acesso aos dados também pode ser precarizada com esses movimentos, analisa o pesquisador Marcelo Alves.
E especificamente sobre desinformação?
Para Natália Leal, CEO da Agência Lupa, um dos principais impactos das decisões de Mark Zuckerberg é o “empobrecimento da qualidade da informação que circula nas redes”. No pronunciamento, a checagem de fatos, além de ter sido criticada por Zuckerberg e em alguns momentos erroneamente igualada à moderação de conteúdo, teve sua parceria encerrada nos Estados Unidos – o que pode ser estendido para os outros países.
“Os verificadores de fatos têm sido politicamente tendenciosos demais e destruíram mais confiança do que criaram, especialmente nos EUA”, disse o CEO no seu discurso. Além disso, no blog da empresa, Joel Kaplan, vice-presidente de assuntos globais, escreveu: “Ao longo do tempo, acabamos por ter muito conteúdo sendo verificado que as pessoas entendiam como discurso político legítimo e debate. Nosso sistema então adicionou consequências reais na forma de rótulos intrusivos e distribuição reduzida. Um programa destinado a dar mais informação para as pessoas se tornou, com frequência, uma ferramenta de censura”.
Leal avalia irresponsável a comparação entre o trabalho de checagem de fatos e a censura. Essa comparação, de acordo com ela, pode cristalizar no imaginário do público que os checadores são censores, o que é falso. Na verdade, o trabalho das organizações se limita a verificar o conteúdo, pois os checadores não possuem a capacidade ou a autoridade para remover conteúdos ou contas.
“A checagem não tem como objetivo censurar ou diminuir a liberdade de expressão de qualquer ator, de qualquer pessoa, de qualquer usuário. A gente não quer que as pessoas deixem de dizer coisas ou que elas adotem um determinado discurso. A gente quer que as pessoas emitam as suas opiniões com base em dados, fatos e evidências”, explica a CEO da Lupa.
Como resposta a esses ataques ao fact-checking, mais de 100 iniciativas de checagem de fatos ao redor do mundo assinaram uma carta endereçada a Mark Zuckerberg, em que caracterizam a decisão como um “retrocesso para aqueles que desejam ver uma internet que prioriza informações precisas e confiáveis”.
O anúncio do encerramento do programa nos EUA também pode, para Leal, causar um mal entendido. No Brasil, as pessoas podem entender que, porque a checagem de fatos foi proibida nos Estados Unidos, essa prática também estaria aqui. No entanto, a checagem de fatos continuará a ser aplicada no país, mas a falta de entendimento sobre essa diferença pode gerar ataques aos verificadores de fatos e aos jornalistas, avalia a jornalista. Isso pode levar a outros problemas para as agências de checagem brasileiras: a intensificação da violência digital e a uma nova onda de assédio judicial contra os checadores.
Além disso, Natália Leal avalia o impacto financeiro que isso pode ter para as organizações. Isso porque os contratos com a Meta, em alguns casos, pode representar grande parte da receita das agências. “Muitas organizações de checagem ao redor do mundo surgiram no escopo desse projeto e que se dedicam quase que inteiramente a esse projeto. E não tendo mais a ingestão desse dinheiro, talvez a gente tenha um empobrecimento dessa indústria de maneira geral a nível mundial”, analisa.
As Notas da Comunidade são eficazes?
Nos EUA, no lugar da checagem de fatos, a Meta vai instituir as Notas da Comunidade, mecanismo inaugurado pelo X. A ferramenta permite que os próprios usuários – os que são selecionados – colaborem com a checagem das informações nas plataformas.
Para Natália Leal, as notas oferecem uma eficácia limitada porque apenas uma pequena porcentagem das notas da comunidade enviadas em português chega aos usuários. Especificamente, apenas 8% das notas em português foram entregues aos usuários. Além disso, a ferramenta do X não possui, de acordo com a jornalista, uma estrutura bem definida. Por exemplo, não é possível se inscrever como empresa para ajudar no sistema, o que limita a participação.
Marcelo Alves diz que pesquisas acadêmicas mostram efeitos mistos das notas no combate à desinformação. De qualquer forma, pontua que é uma mudança substancial de como ocorre a verificação de fatos. “O fact-checking é feito de uma forma profissional, com regras consolidadas, treinamentos profissionais e a partir de princípios jornalísticos consolidados globalmente. E esse modelo dá lugar a uma prática relativamente populista, em que busca-se ativar um certo conhecimento coletivo das redes e os membros das comunidades que ficam também incubidos desse trabalho. Em última análise é a terceirização de um trabalho de moderação de conteúdo para a própria comunidade”, analisa.
Bruna Santos também destaca que há preocupação de que as notas da comunidade possam ser usadas para disputas de narrativas e para influenciar usuários a acreditarem em determinadas questões, sem a devida checagem.
Outro elemento preocupante, acrescenta Humberto Ribeiro, é a possibilidade de que contas automatizadas e semiautomatizadas interfiram no processo de categorização de uma determinada informação, o que pode aumentar o total de interações com as notas de acordo com interesses políticos e não com a integridade das informações.
Há uma mudança sobre o entendimento do problema da desinformação?
“No vídeo publicado, Zuckerberg declarou expressamente que considera que os impactos da desinformação sobre a democracia não são reais, mas sim uma mera narrativa construída pelo que chamou de “legacy media”. Trata-se de uma sinalização importante de que o grupo Meta se somará ao X na adoção de uma abordagem que nega a literatura produzida em todo o mundo e que identifica a desinformação online enquanto um problema central da crise da democracia no século XXI”, analisa o diretor jurídico do Sleeping Giants.
De acordo com ele, a mudança dessa abordagem deve ser interpretada como um indicativo de que o modelo de autorregulação “faliu”. Uma análise parecida é feita por Bruna Santos, que destaca que essa mudança de quase 180 graus na atuação da Meta gera uma “merecida falta de confiança nos mecanismos de autorregulação”.
Iná Jost avalia que, para as empresas, a desinformação talvez não seja mais algo que preocupa tanto. “Eu acho que muda um pouco o foco da empresa de acordo com esse novo vento político ideológico nos Estados Unidos”, conclui.