Microssérie Entendendo as regras das eleições 2024
O Tribunal Superior Eleitoral divulgou, na última sexta-feira (1), as resoluções que vão reger as eleições municipais deste ano. As 12 normas, aprovadas pela Corte, fixam as regras do pleito, previsto para o dia 6 de outubro (1º turno). Os textos servem de diretrizes para candidatas, candidatos, partidos políticos e o eleitorado que vai às urnas escolher novos prefeitos, vice-prefeitos e vereadores para os próximos quatro anos.
Nesta microssérie #Entendendo as normas das eleições 2024, vamos abordar três principais temas relativos à pauta digital:
• as regras para uso da Inteligência Artificial na propaganda eleitoral;
• o repositório de anúncios e avanços na transparência;
• as novas responsabilidades das plataformas digitais.
As resoluções para as eleições de 2024, aprovadas no dia 27 de fevereiro e divulgadas na última sexta-feira (1), trouxeram mudanças significativas para o regime de responsabilidade das plataformas digitais. A partir deste pleito municipal, as redes sociais passam a exercer uma “responsabilidade solidária”, ou seja, as big tech terão a mesma responsabilidade que os usuários que publicarem, porventura, o conteúdo desinformativo e, portanto, sofrerão as mesmas consequências jurídicas. O texto diz assim:
Art. 9º-E. Os provedores de aplicação serão solidariamente responsáveis, civil e administrativamente, quando não promoverem a indisponibilização imediata de conteúdos e contas, durante o período eleitoral
Porém a responsabilização se refere apenas ao período eleitoral e em casos de risco, como:
- condutas, informações e atos antidemocráticos;
- divulgação ou compartilhamento de fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral;
- grave ameaça, direta e imediata, de violência ou incitação à violência contra a integridade física de membros e servidores da Justiça eleitoral e Ministério Público eleitoral ou contra a infraestrutura física do Poder Judiciário para restringir ou impedir o exercício dos poderes constitucionais ou a abolição violenta do Estado Democrático de Direito;
- comportamento ou discurso de ódio, inclusive promoção de racismo, homofobia, ideologias nazistas, fascistas ou odiosas contra uma pessoa ou grupo por preconceito de origem, raça, sexo, cor, idade, religião e quaisquer outras formas de discriminação;
- divulgação ou compartilhamento de conteúdo fabricado ou manipulado, parcial ou integralmente, por tecnologias digitais, incluindo inteligência artificial, em desacordo com as formas de rotulagem.
Apesar de os especialistas concordarem que a decisão do TSE vem para atender a um vácuo regulatório – o PL 2630 que prevê responsabilização das plataformas digitais conforme o risco e em situações especiais está parado no Congresso – também há um consenso de que a norma altera o que está estabelecido no Marco Civil da Internet. Neste vídeo da série *desinformante Explica tratamos desta importante lei para a internet no Brasil.
“Essa resolução do TSE é diretamente contrária ao regime de responsabilidade previsto no Marco Civil da Internet”, avalia Paulo Rená, jurista e co-diretor executivo na ONG Aqualtune Lab: Direito, Raça e Tecnologia. A mesma visão é partilhada por Iná Jost, coordenadora de pesquisa da área de Liberdade de Expressão no InternetLab, que considera que a nova norma vai de encontro ao que está disposto no artigo 19 do Marco Civil da Internet (MCI).
Na redação atual do artigo 19, as plataformas só podem ser responsabilizadas civilmente por danos decorrentes de conteúdo gerado por terceiros se após ordem judicial não tomarem providências para tornar indisponível o conteúdo que infringe a lei, ou seja, a responsabilização só ocorre se elas não cumprirem a ordem judicial. Esse entendimento jurídico foi motivo de consulta pública em 2023 e a defesa dessa visão prevaleceu entre as entidades da sociedade civil.
O texto da resolução do TSE não incluiu a necessidade de ordem judicial, o que torna a redação abrangente, gerando dúvidas de como será a aplicação da nova regra. O *desinformante entrou em contato com o TSE, via assessoria, para entender como a norma será aplicada, mas não obteve retorno.
Para Paloma Rocillo, diretora do Instituto de Referência em Internet e Sociedade (IRIS), a mudança na responsabilização é um “exagero normativo muito grande” e “uma extrapolação das próprias competências do TSE”. Isso porque, argumenta a especialista, o MCI é uma legislação elaborada por muitos anos em um processo multissetorial e alterar esse dispositivo por meio de uma resolução ultrapassa o escopo do Judiciário.
Apesar de o processo para a atualização das resoluções ter previsto a participação popular por meio de audiências públicas e envio de sugestões, o dispositivo em si que trata da mudança do regime de responsabilidades não foi à consulta popular na minuta apresentada pelo Tribunal anteriormente.
Iná Jost concorda com a questão de competências. A coordenadora do InternetLab destaca que as resoluções da justiça eleitoral deveriam, em tese, aprofundar o que já está previsto em leis eleitorais. “Essa resolução vem com um dispositivo contrário a uma lei federal”, afirma.
“Essa nova previsão implica uma mudança de regime muito drástica para ser criada por meio de resolução, que só deveria regulamentar a legislação vigente”, também comenta Paulo Rená. “E no mérito entendo que ela simplifica demais um problema que é muito complexo, e coloca mais poder nas mãos das plataformas, ainda que com a ótima intenção de preservar a democracia e o processo eleitoral”, acrescenta Rená.
Com esse “poder”, os especialistas temem uma moderação massiva de conteúdos que podem ser legítimos para evitar possíveis sanções (que não estão claras quais serão a partir da resolução).
Uma outra ressalva elencada por Iná Jost se refere à instrumentalização da resolução do TSE. “A gente expede uma resolução como essas e tem medo de que os artigos dessa resolução sejam instrumentalizados por uma presidência que tenha menos comprometimento com os valores democráticos e com os princípios republicanos”, alerta a especialista.
Projeto de lei para regulação das plataformas prevê dever de cuidado
O projeto de lei mais avançado que tratava da regulação de plataformas no Brasil é o PL 2630/2020, que está parado na Câmara dos Deputados após quase ser votado no ano passado. Algumas versões do texto traziam debates similares ao que está na resolução do TSE, como a previsão do dever de cuidado.
No entanto, como ressaltou a jornalista da Globonews, Daniela Lima, o texto aprovado por unanimidade pelo Tribunal no último dia 27 é praticamente idêntico ao sugerido pelo ministro Alexandre de Moraes, presidente do TSE, ao presidente do Senado Federal, Rodrigo Pacheco. A sugestão não foi incorporada, mas agora foi elencada na resolução.
“Acho uma pena que a gente tenha um projeto de lei que é cada vez mais robusto, que é fruto de uma ampla participação social, discutido em diversas instâncias da sociedade civil e do poder público e que não tenha sido aprovado e, portanto, deixa lacunas para esse tipo de atuação das Cortes. O 2630/2020 aborda essas questões, tem diversos diversos tentáculos e, se a gente tivesse ele aprovado, a gente não precisaria de uma atuação tão ativa do TSE”, argumenta Iná Jost.
“A resolução evidentemente acelera um processo que está travado no Parlamento. Todavia, ela só opera diretamente no âmbito eleitoral, e no pior dos casos pode até ser vista como um laboratório”, analisa Rená.
Na semana passada, a Comissão de Juristas responsável pela revisão e atualização do Código Civil (CJCODCIVIL) apresentou uma prévia do relatório que está preparando e, entre as sugestões, está a exclusão do artigo 19 do Marco Civil da Internet. De acordo com a Telesíntese, a versão do anteprojeto a ser entregue aos senadores deve ser votada em abril.
O que as plataformas dizem?
Questionamos as principais plataformas digitais sobre as novas obrigações impostas pelo Tribunal Superior Eleitoral a partir da resolução de propaganda eleitoral. Com as mudanças, as plataformas terão que, por exemplo, adotar medidas para impedir ou diminuir a circulação de fatos notoriamente inverídicos, vedar o impulsionamento de fatos descontextualizados que possam atingir a integridade do processo eleitoral e disponibilizar repositórios de anúncios, além de se tornarem responsáveis por um grupo de conteúdos que circulam nelas.
Em nota, o YouTube disse que está “fazendo atualizações para informar os usuários quando o conteúdo que assistirem for artificial” e trabalha “junto com as autoridades locais e fazemos remoções seguindo ordens judiciais”. Já o Kwai disse que tem o “compromisso em contribuir para garantir um processo democrático justo no Brasil” e “ acompanha de perto as discussões sobre o tema e está à disposição para cooperar com as autoridades brasileiras, respeitando sempre as leis e regulamentações dos países onde opera, para garantir a proteção dos usuários e prevenir a disseminação de conteúdo prejudicial”.
Até a publicação dessa matéria Google, Meta e TikTok não retornaram os questionamentos. Não conseguimos contato com o X.