Início 9 Destaques 9 A tecnologia avança, as regras eleitorais também precisam avançar

Pontos de vista

fev 18, 2026 | Destaques, Pontos de Vista

A tecnologia avança, as regras eleitorais também precisam avançar

COMPARTILHAR:

Até o dia 5 de março o Tribunal Superior Eleitoral deve aprovar as regras que vão reger as eleições de 2026. As resoluções são atualizadas a cada ano eleitoral e recebem contribuições públicas por meio de consultas e audiências, que neste ano ocorreram no começo de fevereiro. O intuito é justamente ter um mecanismo capaz de atualizar de forma mais flexível os parâmetros para cada eleição, considerando as mudanças tecnológicas e da própria sociedade. Nos últimos anos, o TSE inovou estabelecendo regras para novos desafios e colocou o Brasil como pioneiro na regulamentação do uso de IA em eleições, por exemplo. No entanto, é necessário avançar, especialmente no que tange à inteligência artificial.

A resolução de 2024 trouxe pontos muito importantes com o intuito de vedar determinadas práticas — como a proibição de deepfakes — e dar transparência em relação a outras — com a obrigação de rotular conteúdos sintéticos gerados por IA. Aquela foi a primeira eleição que ocorreu com a popularização da inteligência artificial generativa (um dos marcos desse boom foi o lançamento do ChatGPT no fim de 2022, cujo uso se intensificou em 2023) e a expectativa de alguns estudiosos do tema era a de que a tecnologia poderia trazer ameaças substanciais ao pleito. No entanto, ao contrário do esperado, o relatório publicado pelo Observatório de IA nas eleições no fim de 2024 mostrou que “a impressão de que haveria um uso massivo de IA nas campanhas não se confirmou” e, embora tenha havido casos graves de deepnudes, a massificação não foi concreta.

Cenário bem diferente em 2026

Ao longo de 2025 vimos uma popularização ainda maior de ferramentas de geração de imagens, áudios e vídeos. Como apontaram meus colegas Matheus Soares, Carla Rodrigues e Ethel Rudnitzki, começamos a ver uma enxurrada de conteúdos de IA no debate político. Além disso, há uma outra camada: a entrada das ferramentas de IA no dia a dia da população para as mais diversas tarefas. Por exemplo, cerca de 10% da população brasileira já usa chatbots (como ChatGPT, Gemini, DeepSeek, Grok…) de IA como fontes de informação. E isso também precisa ser abarcado nas regras eleitorais, que foram tímidas esse ano em relação a novos avanços sobre o tema.

Um grupo de organizações da sociedade civil, incluindo o Aláfia e outros componentes da Sala de Articulação contra Desinformação (SAD), enviou propostas para garantir mais segurança e transparência aos sistemas de IA. A ideia é que as obrigações aos provedores de internet também sejam aplicadas a empresas de IA generativa, assim como novas salvaguardas sejam incluídas, como a transparência das fontes usadas para a geração de respostas sobre as eleições, além da remissão a sites oficiais. Como as ferramentas se apresentam muitas vezes como neutras e objetivas, alucinações desses sistemas podem ameaçar a integridade das informações, assim como o ranqueamento  ou opiniões sobre candidaturas por parte deles também pode trazer assimetrias ao debate eleitoral.

Assim como a resolução prevê que os provedores de aplicação de internet tomem “medidas para impedir ou diminuir a circulação de fatos notoriamente inverídicos ou gravemente descontextualizados”, é necessário que essa ideia de dever de cuidado também abarque explicitamente empresas de IA para vedar, por exemplo, a criação de conteúdo sexualmente explícito envolvendo pessoas candidatas, as chamadas deepnudes, ainda que por meio de solicitações realizadas por usuários. Os casos amplamente noticiados no começo do ano evidenciam esses riscos.

Há diversos desafios intrínsecos a essa temática. Além da formulação dessas regras, há inúmeros obstáculos para a sua devida aplicação, que vão desde a ação limitada das resoluções, passando pelo comprometimento das plataformas digitais, até um entendimento uniforme por parte dos juízes, entre outros. Um exemplo trata até do próprio julgamento sobre o que é ou não uma deepfake e qual o nível de aceitação delas. Um estudo do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) analisou 56 decisões relacionadas ao uso da tecnologia em 2024 e identificou uma diversidade de perspectivas. 

“Um grupo de decisões adotou uma postura mais permissiva, considerando apenas deep fakes que se assemelham à realidade a ponto de enganar os eleitores. Já outra vertente interpretativa defende uma proibição total, argumentando que qualquer uso de deep fake representa um risco à integridade do processo eleitoral”. 

Esse é apenas um dos pontos que é necessário chegar em um consenso. O que é ou não lícito? O que é ou não uma ameaça? Se o é, como proteger a integridade do processo? Como todos os grandes problemas, não há respostas rápidas nem soluções fáceis, mas devemos — esperamos — ver nas próximas semanas as propostas finais do TSE para endereçar as questões que a sociedade civil, partidos, acadêmicos e plataformas trouxeram na primeira semana de fevereiro. E também esperamos ver neste ano como podemos extrapolar essas preocupações para além do período eleitoral e, quem sabe, voltar a avançar em uma legislação mais ampla sobre o ambiente digital.

COMPARTILHAR:
Liz Nóbrega

Coordenadora de Comunicação Estratégica e Inovação, Aláfia Lab

0
Would love your thoughts, please comment.x