Um dos muitos desafios de criar leis para combater a desinformação é encontrar um equilíbrio saudável entre a moderação de conteúdo e a liberdade de expressão. Esse embate foi o tema da terceira audiência pública, na Câmara dos Deputados, do grupo de trabalho que busca o aperfeiçoamento da legislação da internet, PL 2630/20, conhecido como o PL das fake news.
Como reforçou o professor associado do Laboratório de Políticas de Comunicação (LapCom) da Universidade de Brasília (UnB), Jonas Valente, esse não é um debate simples. “Trata-se da busca de um equilíbrio complexo entre a liberdade de expressão e o direito à informação, à pluralidade e à diversidade. É um desafio garantir diretrizes na lei e agilidade para o combate a práticas nocivas e prejudiciais que a gente vê na internet”, destacou. Para o pesquisador, somente os termos de uso e diretrizes das plataformas para moderar os conteúdos publicados por usuários não é suficiente.
A regulação pública, com ênfase na categorização das plataformas digitais, também foi sustentada por representantes da Associação Brasileira de Rádio e Televisão (Abratel). O presidente da instituição, Márcio Novaes, defendeu o fim do tratamento diferenciado entre veículos de comunicação e plataformas.
O debate ainda se aprofundou nos critérios para a moderação e remoção de determinados conteúdos nas redes sociais. Paulo Lara, coordenador do Programa Direitos Digitais da organização Artigo 19, apontou para a necessidade de garantias para que o usuário possa recorrer de decisões e transparência nas informações de termos de uso e processo de coleta de dados pessoais pelas plataformas. Já Marcelo Träsel, presidente da Associação Brasileira de Jornalismo Investigativo (Abraji), reforçou o cuidado que se deve ter na exclusão de conteúdos jornalísticos a partir de denúncias coordenadas de usuários.
A audiência pública também contou com a participação de Alana Rizzo, gerente de Relações Públicas do Youtube. Ela explicou como funciona a moderação de conteúdo na rede social e quais os cuidados praticados pela empresa para minimizar os erros, atuando por meio da tecnologia para atingir uma revisão em larga escala e com atores humanos que verificam as nuances e contextos dos vídeos identificados. A cada hora são publicadas 500 horas de vídeo na plataforma e, de acordo com os registros, trimestralmente são excluídos 10 milhões de vídeos por ferirem algum dos termos estabelecidos nas diretrizes de comunidade.
O próximo debate que vai embasar a análise e o parecer do Projeto de Lei 2630/20 (PL das fake news) acontece na próxima terça-feira, dia 17, e vai abordar a temática “Conteúdo Pago, Publicidade e Impulsionamento nas Redes Sociais”. Acompanhe aqui no Desinformante.