A busca pela construção de um espaço público digital saudável passa, muitas vezes, pela moderação do conteúdo que é publicado nas plataformas digitais. Essa moderação pode ser proveniente das próprias regras das plataformas, mas também de legislações, e em ambos os casos o desafio é como balanceá-la com a liberdade de expressão do indivíduo e usuários. Essa foi a questão principal da mesa realizada nesta segunda-feira (6) pela Relatoria Especial para a Liberdade de Expressão da Comissão Interamericana de Direitos Humanos.
O debate contou com especialistas do Brasil, Uruguai e Canadá que se debruçaram sobre a temática a partir de perspectivas regionais e diversas. A partir de sua pesquisa, a professora adjunta da Universidade Concordia em Montreal, Stefanie Duguay, destacou o impacto da moderação de conteúdo na comunidade LGBTQIA+, apontando para a dificuldade de visibilidade de certos termos em plataformas. Duguay também ressaltou os problemas de uma moderação automatizada ou uma avaliação realizada por profissionais que não compreendem o contexto, o que acaba caracterizando uma forma de censura.
A temática foi um consenso entre os participantes do debate que foi mediado por Amalia Toledo, especialista em Políticas Públicas na Wikimedia Foundation. Para eles, a moderação de conteúdo pode afetar algumas comunidades mais que outras e pode ser que as plataformas não estejam preparadas para lidarem com a diversidade cultural, como colocou Michael Geist, professor da Universidade de Ottawa. João Brant, coordenador do *desinformante, exemplificou, no mesmo sentido, questões e tensionamentos sobre remoção do conteúdo de pessoas indígenas, medida que deixava de considerar a cultura daquele povo. “Trata-se fundamentalmente da possibilidade de reconhecer identidades e a diversidade cultural como parâmetro relevante para o tratamento da moderação de conteúdos”, apontou Brant.
Além disso, um ponto comum foi a necessidade da transparência por parte das plataformas sobre a remoção e diminuição do alcance de conteúdos e contas. Matías Jackson, professor da Universidade da República do Uruguai, destacou a importância desse quesito e do diálogo com as plataformas digitais, além de apontar para o papel dos poderes na regulação dessas questões. O docente lembrou ainda a necessidade de olhar para casos concretos para compreender o cenário. “Eu diria que nessas pequenas coisas dos usuários no dia a dia é onde vemos esses princípios que poderíamos elaborar no âmbito mais abstrato. Mas como as plataformas não são claras no modo como as decisões são tomadas significa que ainda estamos muito distantes”, acrescentou.
Além da moderação de conteúdo e o impacto dela nos direitos dos usuários e na liberdade, foram debatidos os limites da liberdade de expressão. João Brant, que também é diretor do Instituto Cultura e Democracia, apresentou as duas dimensões dessa liberdade, uma individual e outra social e coletiva, que está consagrada no sistema interamericano. Brant destacou que a desinformação é uma violação dessa segunda dimensão, porém, a moderação de informações falsas não deve ser realizada por uma decisão unilateral dos provedores. “Assim me parece que cabe à relatoria discutir qual a importância dos parâmetros públicos para a moderação de conteúdo. Parâmetros que possam eventualmente ser adotados como referência em legislações nacionais, especialmente, se o que está em jogo são direitos coletivos, como a proteção à democracia e à saúde pública”, destacou.