Início 9 Destaques 9 Dois em cada três conteúdos políticos com IA circulam sem aviso nas redes

Últimas notícias

Reprodução de conteúdos de IA - Observatório IA nas Eleições

Dois em cada três conteúdos políticos com IA circulam sem aviso nas redes

Reprodução de conteúdos de IA - Observatório IA nas Eleições
COMPARTILHAR:

A nove meses das eleições de 2026, a maior parte dos conteúdos gerados por inteligência artificial sobre política nas redes sociais circula sem qualquer tipo de identificação. Dados do Observatório IA nas Eleições mostram que dois a cada três conteúdos sintéticos não sinalizam o uso da tecnologia, prática que contraria regras do Tribunal Superior Eleitoral (TSE) para propaganda política.

O levantamento analisou 137 casos registrados entre dezembro de 2025 e fevereiro de 2026. Desses, apenas 37 (27%) continham algum tipo de aviso – como marcas d’água ou legendas – indicando o uso de IA. Ao menos 100 conteúdos circularam sem transparência, incluindo publicações feitas por políticos.

Segundo o relatório, o crescimento no uso dessas ferramentas acompanha a proximidade do pleito, com aumento de 50% na média diária de casos em relação a 2025.

O cenário marca uma mudança em relação ao que foi observado nas eleições municipais de 2024, quando o uso de inteligência artificial ainda era considerado pontual e, na maioria dos casos, com baixa repercussão. À época, o observatório identificou aplicações mais experimentais da tecnologia, como a criação de jingles de campanha, conteúdos de baixo custo e deepfakes com alcance limitado, muitos deles produzidos por eleitores, e não diretamente por campanhas.

Apesar do impacto ainda restrito naquele momento, o primeiro monitoramento já apontava o potencial desinformativo dessas ferramentas e riscos como a produção de deepnudes contra candidatas.

Para 2026, a avaliação se confirma: com a popularização das tecnologias generativas e sua integração ao cotidiano digital, o uso político da IA se torna mais frequente, sofisticado e relevante para o debate público, ampliando também os desafios para a integridade da informação e do processo eleitoral.

Uso político da IA cresce e envolve atores institucionais

O estudo aponta que ao menos 34% das publicações analisadas partiram de agentes políticos. Foram identificados conteúdos publicados por nomes como Flávio Bolsonaro, Eduardo Bolsonaro, Marcos do Val, Nikolas Ferreira, Mário Frias, Damares Alves, Tarcísio de Freitas, Túlio Gadelha e Lindbergh Farias, além de postagens feitas por partidos como PL e PSDB.

Para Matheus Soares, co-coordenador do projeto e coordenador do *desinformante, o cenário indica uma mudança no papel da tecnologia na comunicação política. “A IA já é uma ferramenta popular de comunicação para políticos e pré-candidatos, diferente de 2024, quando a tecnologia era utilizada de forma mais pontual e experimental”, afirma. Segundo ele, o crescimento vem acompanhado de possíveis violações às normas eleitorais.

A maior parte dos casos foi identificada no Instagram, que concentrou 55% das publicações. Em seguida aparecem TikTok (20%) e X (11%). Também foram registrados conteúdos no Facebook, YouTube e Kwai, em menor escala.

Leia também>> 2026 é logo ali: o que esperar da Inteligência Artificial nas eleições do próximo ano?

Entre desinformação, humor e ataques

Os conteúdos analisados se dividiram entre desinformação (45%) e publicações com caráter humorístico ou satírico (55%). Ainda assim, independentemente da intenção, 62% dos casos foram usados para críticas ou ataques políticos.

O relatório também chama atenção para usos mais graves da tecnologia, como a disseminação de violência política e de gênero. Entre os exemplos estão manipulações envolvendo a deputada Érika Hilton, além de deepfakes da ex-primeira-dama Michelle Bolsonaro em contextos sexualizados e ofensivos.

Esse tipo de prática já havia sido identificado em menor escala nas eleições municipais de 2024, quando o observatório registrou ao menos cinco casos de deepnudes contra candidatas, incluindo episódios que atingiram Tabata Amaral e Marina Helena, além de candidatas em cidades como Rio de Janeiro, Taubaté e Bauru. À época, os casos ainda eram pontuais, mas já evidenciavam o potencial da tecnologia para ampliar formas de violência política de gênero.

De acordo com Carla Rodrigues, co-coordenadora do observatório, os casos de 2026 indicam um processo de sofisticação dessas práticas. “[…] a IA generativa vem se sofisticando e ampliando a violência política e de gênero, inclusive com deepfakes. A resolução do TSE proibiu alterações sexuais em imagens de candidatas, mas é fundamental responsabilizar as plataformas pela circulação de conteúdos que atentem contra a integridade de mulheres e do processo eleitoral”, afirmou.

Lula é principal alvo de deepfakes

O presidente Luiz Inácio Lula da Silva foi o principal alvo dos conteúdos sintéticos, aparecendo em 46 dos 137 casos. Em seguida aparecem Jair Bolsonaro (12 casos), Nikolas Ferreira (9) e Flávio Bolsonaro (8).

Também foram identificadas manipulações envolvendo ministros do Supremo Tribunal Federal, como Alexandre de Moraes e Dias Toffoli, além de figuras internacionais como Nicolás Maduro e Donald Trump.

Um dos casos mapeados pelo observatório ilustra como essas peças têm sido usadas no debate político. Em publicação feita em março de 2026, Flávio Bolsonaro (PL-RJ) divulgou um vídeo em seu perfil no Instagram que combinava trechos de reportagens televisivas com imagens geradas por inteligência artificial, nas quais Lula aparece ao lado de criminosos armados.

O conteúdo, que trazia uma marca d’água indicando o uso de IA, revela como a tecnologia tem sido empregada para construir associações negativas entre adversários políticos.

Eventos recentes impulsionam manipulações

Os conteúdos analisados dialogam diretamente com temas em evidência no noticiário. Entre os principais gatilhos estão os desfiles de escolas de samba, a mobilização para Brasília liderada por Nikolas Ferreira, a suposta prisão de Jair Bolsonaro, a pré-candidatura de Flávio Bolsonaro e o escândalo do Banco Master.

Um dos casos identificados pelo observatório envolve justamente a mobilização convocada por Nikolas Ferreira (PL-MG). Imagens que mostravam centenas de pessoas caminhando ao lado do deputado, em uma rodovia, foram geradas por inteligência artificial e circularam nas redes como se fossem registros reais do ato. Em uma das fotos, também apareciam Gustavo Gayer (PL-GO) e André Fernandes (PL-CE).

As imagens apresentavam indícios típicos de conteúdo sintético, como aspecto plastificado, distorções nas proporções e erros em cartazes exibidos pela multidão. Ainda assim, foram usadas para inflar a percepção de adesão ao protesto organizado pelo parlamentar. O material chegou a ser compartilhado por um perfil reserva ligado a Nikolas Ferreira, criado após a suspensão temporária de suas contas.

Além de políticos, celebridades como Gusttavo Lima, Roberto Carlos, Renata Vasconcellos e Ratinho também foram alvo de conteúdos manipulados com conotação política.

Monitoramento e participação pública

Os casos foram identificados a partir de coleta sistemática em redes sociais, com base em termos e hashtags relacionados a política e inteligência artificial. O Observatório IA nas Eleições funciona como um repositório público desses conteúdos e também recebe contribuições de usuários que se deparam com materiais suspeitos no ambiente digital.

Desde 2024 a iniciativa, criada pelo Aláfia Lab em parceria com a Data Privacy Brasil, monitora o uso de inteligência artificial generativa em conteúdos com potencial de impactar o debate público e a integridade eleitoral.

Ao mapear, organizar e analisar esses casos, o observatório busca compreender como a tecnologia vem sendo utilizada no contexto político, em um cenário em que a IA se consolida, ao mesmo tempo, como ferramenta estratégica de comunicação e como vetor de risco para a integridade da informação e dos processos democráticos.

COMPARTILHAR: