Após tentar pautar o debate por meio de medida provisória, a primeira sugestão para o Projeto de Lei 2630/2020 foi finalizada pela equipe do governo federal. O texto ao qual o *desinformante teve acesso amplia o conteúdo do último substitutivo da Câmara dos Deputados e traz novas obrigações às plataformas digitais, além da previsão de um Código de Conduta de Enfrentamento à Desinformação.
A proposta ainda não foi apresentada publicamente, mas deverá ser enviada ao relator do PL 2630, deputado Orlando Silva, para que seja – ou não – incorporada ao texto original e siga sua tramitação na Câmara. Veja os principais pontos propostos pelo governo federal:
Código de Conduta de Enfrentamento à Desinformação
Estabelece a criação de um “Código de Conduta de Enfrentamento à Desinformação” em até 45 dias após a sanção da lei pelo Congresso Nacional.
Esse Código de Conduta deverá incluir medidas para impedir a disseminação de desinformação com potencial de causar dano significativo; medidas para garantir a desmonetização de conteúdo que contenha desinformação; regras para impedir conteúdo publicitário que contenha desinformação; medidas para identificação de responsáveis por estratégias coordenadas de desinformação.
O texto também prevê que o Código deverá abarcar o desenvolvimento de canais entre plataformas para cooperação na elaboração de políticas e soluções técnicas contra a desinformação; o desenvolvimento de ferramentas para que os usuários possam denunciar conteúdo que contenha desinformação; sanções para o descumprimento do código; e um mecanismo de revisão periódica para o código.
Essa comissão para elaboração deverá ser composta por um membro de cada uma das plataformas de grande porte (aquelas com mais de 10 milhões de usuários) – o que pode garantir que as plataformas tenham maioria dentro da comissão -, dois da Câmara dos Deputados, dois do Senado Federal, três na academia, três da sociedade civil e três representantes de entidades representativas de jornalistas ou agências de checagem.
Obrigações e responsabilidades das plataformas digitais
O texto do governo federal mantém a ideia de “regulação assimétrica” do PL 2630/2020, ou seja, propõe responsabilidades diferentes para as chamadas “plataformas digitais de grande porte”, Essas empresas deverão implementar medidas de transparência ativa prestando informações sobre o seu funcionamento geral, fornecer acesso gratuito de conjuntos de dados a pesquisadores – o que é especificado em outro capítulo -, publicar relatórios de auditoria independente e relatórios de riscos sistêmicos e outras pesquisas internas.
A proposta de legislação também traz a ideia de “dever de cuidado” sobre o conteúdo de terceiros. Assim, as plataformas terão que atuar de “forma diligente e em prazo hábil e suficiente, para prevenir ou mitigar práticas ilícitas no âmbito do seu serviço”, aprimorando seus esforços para o combate de conteúdo ilegal que configurem ou incitem:
- Crimes contra o Estado Democrático de Direito;
- Crimes de terrorismo;
- Crimes contra crianças e adolescentes;
- Crimes resultantes de preconceito de raça ou de cor;
- Crimes contra a saúde pública;
- Indução, instigação ou auxílio a suicídio ou a automutilação;
- Violência de gênero.
Caso as plataformas permitam que publicações desse tipo se mantenham em seus espaços de, elas poderão ser responsabilizadas civilmente pelos danos decorrentes desses conteúdos, o que se configura como uma exceção ao artigo 19 do Marco Civil da Internet.
O texto também cria a obrigação de que as plataformas criem mecanismos para que os usuários possam notificar a presença de conteúdos ilegais e estabeleçam ponto de contato com autoridades policiais e judiciárias para o intercâmbio de informações.
Entidade autônoma de supervisão
Em vários momentos da sugestão para o PL 2630/2020 é mencionada uma “entidade autônoma de supervisão”. Entre as atribuições dela estão a avaliação do dever de cuidado, criação de procedimentos para apuração e critérios das sanções administrativas e a supervisão do cumprimento do Código de Conduta de Enfrentamento à Desinformação.
Essa entidade deverá ser viabilizada financeiramente pelas plataformas digitais que estarão sujeitas a uma cobrança de uma taxa de supervisão anual proporcional ao número médio mensal de usuários ativos e de receita de cada. O texto também prevê que esse órgão poderá solicitar às plataformas os dados necessários para a fiscalização das obrigações impostas na lei.
Apesar de ter essas atribuições, não há previsão para criação desse órgão. Não há prazo para a composição dessa entidade, nem critérios do seu formato ou do processo de composição. Nas disposições finais do texto indica-se que essa seria um incubência do Executivo que “poderá estabelecer entidade autônoma de supervisão para detalhar em regulamentação os dispositivos de que trata esta Lei, fiscalizar sua observância pelas plataformas digitais de conteúdo de terceiros, instaurar processos administrativos e, comprovado o descumprimento das obrigações pela plataforma, aplicar as sanções cabíveis”.
Além disso, é indicado que esse órgão deverá contar com garantias de autonomia administrativa e independência no processo de tomada de decisões e com espaços formais de participação multissetorial.
Apesar de diversos artigos do projeto fazerem referência a essa entidade de supervisão como uma instância de decisão ou de estabelecimento de regras, a lei não cria esse órgão. Não fica claro o que acontece caso a lei seja aprovada, já que parte das decisões depende dessa instância.
Termos de uso e regras de moderação de conteúdo
O novo texto traz um capítulo sobre termos de uso das plataformas digitais e as suas regras para a moderação do conteúdo. As big techs devem indicar aos usuários de forma clara o que é proibido pela rede, quais os potenciais riscos de uso do serviço e os meios pelos quais os usuários podem notificar as plataformas sobre possíveis violações de seus termos e políticas de uso, conteúdo ilícito ou atividade ilegal.
Além disso, há uma nova obrigação para que as empresas esclareçam os critérios e métodos usados na moderação e descrevam, de forma geral, como funcionam os sistemas algorítmicos utilizados no processo de moderação.
Para os conteúdos moderados, que sejam excluídos, indisponibilizados ou que tenham o alcance reduzido, a plataforma deve notificar o usuário sobre a natureza da medida aplicada e os procedimentos para o pedido de revisão da ação, além de informar se foi uma decisão tomada por meios automatizados ou não.
O capítulo se estende para as regras relacionadas à publicidade nas plataformas digitais e as obrigam a informar ao usuário o que pode ser objeto de publicidade, qual o tipo de conteúdo pode ser limitado e proibido. Caso acatado, também será proibida o impulsionamento de conteúdos ilegais que violem os direitos fundamentais previstos na Constituição e que promovam ou incitem o ódio, a discriminação e a intolerância.
A proibição de publicidade avança para conteúdos que “neguem fatos históricos violentos bem documentados, com o objetivo de minimizá-los, que incitem a sublevação contra a ordem democrática, com indícios de crimes contra o Estado Democrático de direito e com indícios de crimes de terrorismo”.
O novo texto também prevê a possibilidade de as plataformas serem responsabilizadas solidariamente pelos danos causados caso não façam o requerimento da identidade por meio de documento de todos os anunciantes e coloca a obrigação de bibliotecas de anúncios para as empresas que permitam a veiculação de publicidade de cunho político.
Riscos sistêmicos
Assim como a Lei de Serviços Digitais da União Europeia, a nova proposta do governo federal traz a ideia de riscos sistêmicos, determinando que as plataformas devem identificar, analisar e avaliar os perigos dos seus serviços. Essa análise deverá ser feita anualmente e sempre que alguma nova funcionalidade for ser incluída.
De acordo com o texto proposto, é necessário que se analise o risco da difusão de conteúdos ilegais, os efeitos negativos significativos, os efeitos de discriminação direta, indireta, ilegal ou abusiva e os efeitos negativos relacionados à prática de crimes contra o Estado Democrático de Direito e crimes de terrorismo. Essa análise deverá ser feita levando em conta os sistemas de recomendação e moderação de conteúdo, além dos termos de uso, sistema de exibição de anúncios publicitários e as práticas de uso dos dados pessoais.
Após essa avaliação de riscos, cabe às plataformas a adoção de medidas que diminuam de forma proporcional e eficaz esses perigos, mudando as características do serviços, adaptando os termos de uso e os modelos de moderação de conteúdo. O texto também prevê a necessidade de uma auditoria externa e independente para a avaliação de diversos aspectos, como o cumprimento da lei e os impactos da moderação de conteúdo na disseminação de conteúdo danoso e ilícito, que inclui “discurso de ódio, discriminatório, desinformação política e de saúde pública, conspirações terroristas, campanhas para minar a integridade eleitoral ou atacar os poderes constitucionais e o Estado Democrático de direito”.
Imunidade parlamentar
Um dos pontos de polêmica do texto anterior do PL 2630 era o artigo que previa a imunidade para parlamentares nas redes. Entidades criticam amplamente o texto, o ITS-Rio destacou, na época, que “o PL 2630 pode acabar, em nome da imunidade parlamentar, dando um passe livre para que contas de deputados e de senadores possam ser usadas para ampliar a disseminação de notícias falsas e desinformação nas redes”.
No novo texto, o governo federal deslocou o foco de proteção dos conteúdos para as contas de pessoas eleitas. De acordo com a proposta, ficaria vedada às plataformas o bloqueio ou exclusão das contas, salvo por decisão judicial. Às plataformas seria possível apenas suspender, por até 7 dias, contas consideradas “contumazes violadoras dos termos e políticas de uso ou disseminadores de discursos de ódio, conteúdos ilícitos ou com potencial de provocar dano iminente de difícil reparação”.
Transparência
A obrigação das plataformas também abarca a necessidade da publicação de relatórios semestrais de transparência que incluam:
- O detalhamento dos procedimentos adotados e do cumprimento das obrigações;
- Uma descrição qualificada das providências adotadas para eliminar atividades criminosas da plataforma;
- Informações sobre mudanças significativas realizadas nos sistemas de recomendação;
- Descrição geral dos sistemas algoritmos usados e os principais parâmetros que determinam o direcionamento, recomendação ou exibição dos conteúdos para os usuários.
Os relatórios de transparência devem abranger o número total de usuários no Brasil, o número de denúncias e notificações realizadas por usuários e o número total de solicitações e decisões relativas à moderação em contas e conteúdos. Também devem ser transparentes as medidas aplicadas pela violação dos termos e políticas de uso, as medidas aplicadas pela violação da legislação nacional, o número de notificações tratadas por meios automatizados e o tempo médio gasto para moderação em contas e conteúdos, além de outras informações.
Crianças e adolescentes
Além do dever de cuidado, a proteção às crianças e adolescentes também possui um ponto específico na sugestão do governo federal. De acordo com o texto, as plataformas devem criar mecanismos para impedir que crianças e adolescentes utilizem seus serviços caso eles não tenham sido desenvolvidos ou não estejam adequados às necessidades deles.
A proposta também proíbe publicidade direcionada a esse público e a segmentação dos perfis das crianças e dos adolescentes.
Automatização
A nova proposta mantém a ideia anterior de vedação do funcionamento de contas automatizadas que não sejam identificadas como tal. Quanto à automação dos seus próprios sistemas, as plataformas deverão ser transparentes, indicando a existência de decisões automatizadas nos seus serviços e fornecendo informações claras sobre a interação com esses sistemas e o papel dos algoritmos nos processos.
Também deverão ser divulgadas medidas para a segurança, confiabilidade e não-discriminação dos serviços automatizados, além da finalidade e a precisão dos algoritmos de moderação de conteúdo. O texto avança na direção da recomendação de conteúdo, estabelecendo padrões gerais de transparência para esses sistemas de algoritmos. Aponta-se também obrigações específicas para plataformas de conteúdo musical ou audiovisual, que são impedidas de aumentar ou reduzir de forma artificial a frequência das obras.
Mensageria instantânea
Um dos maiores desafios para a regulação é como equilibrar a transparência e a proteção de dados dos usuários. No centro desse debate esteve o antigo artigo 10 do PL 2630/2020 sobre rastreabilidade e mensageria instantânea. Neste novo texto, o capítulo sobre o tema determina que, por meio de ordem judicial, os serviços de mensageria devem preservar e disponibilizar “informações suficientes para identificar a primeira conta denunciada por outros usuários quando em causa o envio de conteúdos ilícitos” de acordo com critérios específicos.
Além disso, são estabelecidas obrigações específicas para esses serviços. As empresas responsáveis devem determinar que listas de transmissão só poderão ser encaminhadas e recebidas por pessoas que estejam identificadas nas listas de contatos de remetentes e destinatários e incluir um mecanismo para aferir o consentimento prévio do usuário para inclusão em grupos de mensagens e listas de transmissão.
Alguns serviços de mensageria, como o WhatsApp, possuem sistemas de criptografia de ponta a ponta. Para os que não possuem, as mensagens enviadas em canais públicos deverão, ao serem compartilhadas, manter uma etiqueta de identificação da conta de origem.
Sanções
No caso de descumprimento das decisões judiciais para a remoção de conteúdo dos crimes previstos em 24 horas, as plataformas estarão sujeitas a multas de R$ 50.000,00 até R$ 1.000.000,00 por hora de descumprimento. Tal sanção poderá ser aplicada também em caso de impulsionamento e patrocínio desse tipo de conteúdo.
A proposta legislativa também obriga as plataformas a guardarem dados que possam contribuir com material para processos administrativos ou judiciais por um ano após a remoção de conteúdo ou desativação da conta.
Além disso, o texto prevê, em caso de descumprimento das normas previstas:
- Advertência, com indicação de prazo para adoção de medidas corretivas;
- Multa diária;
- Multa simples, de até 10% do faturamento no Brasil no seu último exercício ou multa de R$ 10,00 (dez reais) até R$ 1.000 (mil reais) por usuário cadastrado do provedor sancionado, limitada, no total, a R$ 50.000.000,00;
- Publicação da decisão pelo infrator;
- Proibição de tratamento de determinadas bases de dados;
- Suspensão temporária das atividades; ou
- Proibição de exercícios das atividades.
Autorregulação regulada
A proposta prevê uma entidade de autorregulação com as plataformas que se enquadram na lei que deverá rever decisões de moderação de conteúdo e contas por seus associados; conter um órgão competente para tomar decisões sobre a revisão de medidas de moderação; assegurar a independência e a especialidade de seus analistas; disponibilizar serviço eficiente de atendimento e encaminhamento de reclamações; estabelecer requisitos claros, objetivos e acessíveis para a participação dos provedores de redes sociais e serviços de mensageria privada; incluir uma ouvidoria independente e desenvolver boas práticas para suspensão das contas de usuários cuja autenticidade for questionada ou cuja inautenticidade for estabelecida.
Administração Pública
O texto impõe que as contas de interesse público (as contas institucionais das entidades e órgãos da Administração Pública, direta ou indireta) não poderão restringir a visualização de suas publicações por outras contas, ou seja, não poderão bloquear outras contas.
Além disso, essas contas terão a obrigação de incluir no portal da transparência os dados sobre impulsionamento nas redes sociais, indicando o valor do contrato, a empresa contratada, o mecanismo de distribuição dos recursos e os critérios utilizados para a definição do público-alvo. Ainda sobre a publicidade online, fica proibido anunciar em sites que promovam discursos criminosos.
Educação Midiática
O texto proposto pelo governo federal traz um capítulo inteiro sobre educação midiática, assim como o texto anterior que tratava de “fomento à educação”. A proposta indica que a União, os Estados e os Municípios devem aplicar esforços para ampliar e qualificar a participação das crianças, adolescentes e jovens nas práticas escolares que promovam a educação midiática conforme as diretrizes dispostas na Base Nacional Comum.
Para basear a sugestão, o texto traz o dever constitucional do Estado na prestação da educação, pontuando que isso inclui a capacitação para o uso seguro da internet e o desenvolvimento do pensamento crítico, da capacidade de pesquisa, da ética e do respeito ao pluralismo de opiniões.
Remuneração jornalística
Tema de debate e críticas por especialistas, o dispositivo que prevê remuneração pelo conteúdo jornalístico foi mantido na proposta do governo federal. A redação foi ampliada para a conteúdo musical e audiovisual, além de incluir a ideia dos conteúdos protegidos por direitos de autor e direitos conexos. Pelo texto, os conteúdos deverão ser remunerados pelas plataformas na forma de uma regulamentação posterior.