O InternetLab apresentou este mês um relatório sobre moderação de conteúdo em que defende a moderação realizada pelas plataformas digitais em camadas, com a ressalva de que o processo deve se atentar a contextos e direitos humanos, além de ser transparente aos usuários.
Esse sistema “em camadas” é uma diferenciação que as plataformas fazem em relação aos seus usuários, ou seja, alguns recebem uma atenção especial na hora de decidir se seu conteúdo fere ou não alguma regra da empresa.
“A moderação do conteúdo tem diversos problemas e desafios, mas acho que o primeiro deles é um problema logístico. É uma quantidade absurda de conteúdo e esse sistema está fadado ao equívoco. Com certeza em algum momento ele vai se equivocar. Seja pra menos, seja para mais. A ideia desse estudo é pensar em melhorar esses sistemas de moderação de conteúdo para que eles fiquem mais atentos às nuances contextuais, sociais, políticas, econômicas e para que eles evitem falhas, sobretudo quando essas falhas prejudicam a expressão de comunidades minoritárias”, explica Iná Jost, coordenadora da área de Liberdade de Expressão do InternetLab e uma das autoras do estudo.
A pesquisa publicada volta-se ao sistema de “camadas” na verificação dos conteúdos. Apesar de não ser exclusividade da Meta, o sistema cross check da empresa é o mais conhecido. Exposto pelo The Wall Street Journal em 2021, o sistema foi encaminhado ao Oversight Board (Comitê de Supervisão) da empresa no ano passado e sofreu críticas pela possibilidade de causar danos. Na ocasião, o comitê fez 32 recomendações à Meta para aperfeiçoar o sistema.
Um dos casos mais notórios da moderação em camadas é do jogador de futebol Neymar. Em 2019, para se defender de uma acusação de estupro, o brasileiro usou suas redes sociais e divulgou conversas com a mulher que o acusava, inclusive fotos dela nua. O conteúdo, que é proibido no Facebook e no Instagram, não foi removido de imediato e nem a conta foi suspensa. Isso porque o jogador estava em uma lista prioritária da Meta, que garante uma camada extra na moderação dos conteúdos de determinadas personalidades.
A pesquisa “Iguais perante as plataformas? Equidade e transparência na moderação de conteúdo em plataformas digitais” trouxe os principais pontos de atenção dessa moderação assimétrica a partir do diálogo com diversas pessoas interessadas no tema para entender como o sistema pode ser aperfeiçoado e pode favorecer determinados grupos, como jornalistas, ativistas e comunidades historicamente marginalizadas.
“É fundamental que exista um sistema de moderação diferenciado para determinados grupos primeiro porque existe uma questão de tratamento da quantidade de conteúdo muito delicada e essa é uma operação logística muito complexa. Dentro dessa operação certas questões se perdem e muitas vezes pessoas que já vivem padrões de discriminação são novamente discriminadas por essas plataformas e a moderação de conteúdo em camadas pode auxiliar para que essa discriminação reduza porque você daria um tratamento especial para pessoas que já tem o seu discurso mais vulnerabilizado ou já estão em condições de vulnerabilidade”, explica Iná Jost.
Na pesquisa realizada, o InternetLab colheu impressões de ativistas e pesquisadores sobre as experiências com a moderação de conteúdo e recebeu sugestões de como as camadas poderiam auxiliar na criação de um ambiente mais seguro. Entre as falhas apontadas, os entrevistados relataram a falta de transparência das plataformas sobre as suas próprias decisões e como os contextos das publicações e regiões não são compreendidos ou levados em consideração no momento da moderação.
“Sou habitante de um país pequeno, e nosso contexto é menos valorizado e considerado na análise da empresa porque os moderadores e as políticas não estão envolvidos nem têm conhecimento do contexto”, relata um dos entrevistados na pesquisa.
Outra falha indicada é a falta de contato com a própria plataforma após a retirada dos conteúdos. Um dos entrevistados relata que sua organização fez uma campanha denunciando um discurso LGBTfóbico e o Facebook removeu esse conteúdo. A apelação direta à empresa não trouxe resultados, somente após a Aliança Nacional LGBTQIA+ – parceira da Meta – entrar em contato, a postagem foi restabelecida. No entanto, o discurso preconceituoso não foi retirado em nenhum momento. “Portanto, este é o apelo: ser mais cuidadoso na moderação do conteúdo das denúncias”, pede a organização.
Em relação à moderação por camadas, os participantes da pesquisa questionam os critérios para a inclusão de determinados perfis ou pessoas na “lista vip”, indicando que essa escolha é feita frequentemente com base em interesses comerciais. A pesquisa indica como é problemático porque os métodos não são transparentes e geram discriminação, ou seja, pode acontecer de serem dadas respostas diferentes para situações que sejam semelhantes, isso dependendo dos usuários envolvidos na propagação do discurso.
Esse é um dos pontos em que são propostas melhorias porque, no geral, há um consenso sobre a importância de camadas extras. “É importante tratar indivíduos desiguais de acordo com suas desigualdades. Isso é uma alternativa à moderação em escala e automatizada – que tem potencial para interpretações equivocadas e erros em casos sensíveis – especialmente ao buscar promover os direitos humanos ao proteger discursos políticos e de populações historicamente marginalizadas, jornalismo de interesse público e ativismo”, conclui o relatório.
Iná Jost aponta como esse sistema pode ser utilizado para preservar comunidades marginalizadas. Para ela, a moderação em camadas abre esse espaço para que se pense em perspectivas locais, para a proteção de discursos e conteúdos específicos.
“Por exemplo, a nudez seria uma violação em qualquer plataforma, mas para pessoas indígenas talvez isso não seja uma violação de privacidade porque algumas das pessoas indígenas têm outra vivência, outra percepção sobre a nudez e esse conteúdo não precisa retirado se você tem pessoas indígenas dentro de uma fila de priorização de análise distinta de conteúdo”, exemplifica Jost. “A moderação em camadas ajuda você a incorporar essas nuances regionais locais e complexifica no melhor dos sentidos o trabalho da moderação de conteúdo para que você possa dar tratamento diferenciado a situações diferenciadas”, complementa.
O InternetLab traz cinco recomendações para garantir equidade aos discursos. São elas:
- Critérios claros e públicos para estar ou não nas listas de usuários que serão aceitos em programas de moderação em camadas;
- Divulgação das categorias dos perfis e das porcentagens de cada grupo na composição da lista – por exemplo, número de parceiros de negócios, políticos, jornalistas, defensores de direitos humanos, bem como suas regiões, gênero e raça;
- Transparência em relação ao procedimento e sua lógica, especialmente se há processos de veto de participantes e uma fila de espera para novos participantes, como funciona o processo de entrada e saída, e se é possível inscrever-se ou retirar-se;
- Implantação de processos e critérios que levem em conta as particularidades políticas, culturais e sociais de cada região ao adicionar usuários às listas;
- Divulgação periódica de dados sobre a operação dos sistemas, incluindo o número de decisões que foram revertidas pela moderação em camadas, falsos positivos, falsos negativos e assim por diante.