Em 2019, para se defender de uma acusação de estupro, o jogador brasileiro Neymar usou suas redes sociais e divulgou conversas com a mulher que o acusava, inclusive fotos dela nua. O conteúdo, que é proibido no Facebook e no Instagram, não foi removido de imediato e nem a conta foi suspensa. Isso porque o jogador estava em uma lista prioritária da Meta, que garante uma camada extra na moderação dos conteúdos de determinadas personalidades. Esse foi um dos casos divulgados, no ano passado, pelo The Wall Street Journal para expor a ‘verificação cruzada’ – que até então era secreta – da Meta, medida criticada pelo Oversight Board (Comitê de Supervisão) nesta semana.
O comitê foi chamado pela própria Meta para a avaliação do caso em outubro de 2021. O resultado da análise foi divulgado nesta terça-feira (6) com 32 recomendações para a plataforma. “O Comitê entende que a Meta é uma empresa, mas, ao fornecer proteção extra a determinados usuários – em grande parte segundo os interesses comerciais, a verificação cruzada permite que o conteúdo que de outra forma seria removido rapidamente permaneça ativo por um período mais longo, podendo causar danos”, destacou o texto.
A proteção extra dada a Neymar e outros VIPs se refere a uma moderação humana antes da exclusão de algo. Qualquer usuário comum geralmente recebe apenas a moderação automática, realizada por inteligência artificial, mas os que estão na lista VIP recebem um olhar a mais – mesmo que demore algum tempo para isso.
A big tech havia pontuado ao Comitê que realiza por volta de 100 milhões de tentativas de aplicação de políticas no conteúdo todos os dias e, mesmo que tivesse 99% de precisão, ainda cometeria um milhão de erros por dia. “De acordo com a Meta, tomar decisões sobre conteúdo nessa escala significa que ela pode remover por engano conteúdo que não viola suas políticas. O programa de verificação cruzada visa resolver isso fornecendo camadas adicionais de análise humana para certas publicações inicialmente identificadas como violadoras”, explicou o relatório a partir das justificativas dadas pela empresa.
Entre as principais conclusões da análise realizada, o Oversight Board pontuou o atraso na remoção dos conteúdos. De acordo com informações da própria Meta, a decisão sobre determinado conteúdo publicado por algum usuário que esteja na lista de verificação cruzada pode levar, em média, mais de cinco dias. Ou seja, enquanto não é analisado, o material segue visível e circulando no Facebook e no Instagram, com possibilidade de causar danos.
Além disso, foi destacado o tratamento desigual dado aos usuários: “Os usuários comuns, por outro lado, têm muito menos probabilidade de ter seu conteúdo alcançado pelos analistas que podem aplicar toda a gama de regras da Meta. Esse tratamento desigual é particularmente preocupante devido à falta de critérios transparentes para as listas de verificação cruzada da Meta”.
Outro ponto elencado é a opacidade desse processo, não há transparência sobre quem está nessa lista e nem como ela é composta. “Não está claro, por exemplo, se as entidades que publicam continuamente conteúdo infrator são mantidas em listas de verificação cruzada com base no perfil”, explicou o Comitê.
Recomendações para a verificação cruzada da Meta
Para aperfeiçoar o sistema de verificação cruzada da Meta, o Comitê apontou recomendações, como priorizar manifestações de direitos humanos e não usar apenas a métrica de número de seguidores para integrar a lista. Além disso, a transparência deve ser radicalmente maior. “A empresa deve definir critérios claros e públicos para inclusão nas listas de verificação cruzada, e os usuários que atendem a esses critérios devem poder se inscrever no programa”, recomenda.
Em razão da demora para a avaliação por moderadores humanos, o comitê recomenda que os danos devem ser reduzidos com a remoção ou ocultação do conteúdo caso, a partir da primeira análise, ele seja considerado infrator. “Esse conteúdo não deve permanecer na plataforma ganhando visualizações simplesmente porque a pessoa que publicou é um parceiro de negócios ou uma celebridade”, explica o comitê.
O presidente de assuntos globais da Meta, Nick Clegg, afirmou nesta terça (6) que o sistema de verificação cruzada foi criado para evitar a possível aplicação excessiva e para verificar novamente os casos em que pode haver um risco maior de erro ou quando o impacto potencial de um erro é especialmente grave. Nas suas redes sociais, indicou que a Meta responderá o relatório em até 90 dias.