#Propostas
Centralidade institucional, transparência na moderação, proteção aos direitos humanos e desmonetização das fake news estão entre os destaques.
O Comitê Gestor da Internet lançou uma cartilha que traz 23 diretrizes e 11 ações visando a regulação das plataformas digitais no Brasil. As formulações foram resultado de uma oficina promovida pelo CGI que reuniu mais de 40 pesquisadores, realizada em setembro do ano passado. As contribuições foram divididas em quatro eixos temáticos: 1) Regulações de Plataformas Digitais: Critérios e Abordagens; 2) Economia, concorrência e modelos de negócios baseados em dados; 3) Transparência e Prestação de Contas; e 4) Moderação de Conteúdo e Recomendação Algorítmica.
Dentre as propostas, destaca-se a que sugere “uma centralidade institucional para regular a atuação de plataformas digitais”, embora reconheça a necessidade de aprimorar a coordenação e a articulação entre instituições já existentes.
A cartilha aponta que é importante que a regulação tenha claras exigências para facilitar o compartilhamento de dados entre plataformas digitais proprietárias. “Essas obrigações de interoperabilidade podem ser tecnológicas (definição de parâmetros e requisitos técnicos) e institucionais”.
O documento trata da necessidade de orientar o desenvolvimento de algoritmos e inteligência artificial para que protejam direitos fundamentais. “Os impactos do emprego de algoritmos na moderação de conteúdos são severos: passam por questões de racismo, discriminação, aumento da polarização, do discurso extremo, do discurso de ódio, “washing” racial, entre outros”, aponta a cartilha.
Nesse sentido, o desenvolvimento de algoritmos e da Inteligência Artificial precisa respeitar princípios e valores já consolidados na sociedade. “Valores éticos, por exemplo, são fundamentais para que se possa consolidar o que se denomina atualmente como ‘human rights by design’ ou seja, que o desenho de tecnologias já considere o respeito aos direitos humanos e outros valores sociais que mitiguem ou minimizem os efeitos negativos do seu emprego”.
Moderação de conteúdo e desinformação
Ponto sensível na discussão de regulamentação das plataformas digitais, o documento afirma que é fundamental que se produza uma definição de moderação de conteúdo consensual, “que seja aceita pelo conjunto de atores que têm se debruçado sobre o desafio de regular plataformas digitais”. Pede, ainda, maior transparência nas operações de moderação realizadas por algoritmos, Inteligência Artificial e por revisão humana sobre os conteúdos postados por usuários.
A oficina apontou que a separação entre curadoria de conteúdos e hospedagem precisa ser debatida, “bem como há uma clara preocupação com a proteção do modelo de responsabilidade civil de intermediários estabelecido no Marco Civil da Internet”.
Um dos elementos centrais do fenômeno da desinformação é o tipo de organização dos atores e processos que se consolidou em torno da produção e distribuição de notícias falsas e enganosas. “O uso do termo ‘indústria da desinformação’ faz referência ao aumento contínuo da complexidade, tamanho das cadeias produtivas e redes de atores que surgiram estimuladas por altos investimentos financeiros destinados a essas atividades”, contextualiza o documento.
Atuar sobre o desincentivo econômico é central para o combate a esta articulação, segundo a cartilha, e foi sugerido que se desenvolva mecanismos para “rastrear a origem do dinheiro e das postagens com conteúdos falsos e enganosos, bem como foi enaltecida a preocupação com a punição de atores envolvidos com a indústria das ‘fake news’”.
Para Nina Santos, coordenadora-geral do *desinformante, “um dos pontos mais importantes levantados pelo documento é sobre a necessidade de produção conjunta de diretrizes sobre moderação de conteúdo. Essas regras impactam diretamente no debate público e precisam ser construídas coletivamente”. E acrescenta: “o documento é muito importante especialmente porque sua elaboração contou com a participação de uma gama ampla de atores, desde as próprias plataformas digitais até diversas entidades da sociedade civil”.
Victor Durigan, do Instituto Vero, que participou da oficina consultiva, considera o assunto uma pauta mundial e pondera: “O debate de regulação de plataforma não é brasileiro, ele é mundial. E se o Brasil ficar para trás, depois nós podemos ser levados a fazer esse debate com base em modelos outros que não o nosso, o brasileiro”.