Início 9 Destaques 9 Votação do marco da IA fica para 2026 em meio a impasses políticos e críticas ao texto

Últimas notícias

Câmara dos Deputados

Votação do marco da IA fica para 2026 em meio a impasses políticos e críticas ao texto

Câmara dos Deputados
COMPARTILHAR:

Depois de semanas marcadas por declarações públicas que indicavam uma votação “ainda este ano”, o cenário para o Projeto de Lei 2.338/2023 – que estabelece o marco legal da inteligência artificial no Brasil – mudou de forma definitiva. A tramitação foi oficialmente empurrada para fevereiro de 2026, com a previsão de que o texto entre em pauta logo na primeira semana de retomada dos trabalhos legislativos. A confirmação partiu de integrantes da Comissão Especial, encerrando, ao menos por ora, a narrativa de urgência que vinha sendo construída em torno do projeto.

A decisão de adiar a votação foi alinhada entre as presidências da Câmara dos Deputados e do Senado Federal, em um contexto de forte desgaste político no Congresso. Crises recentes, disputas internas, dificuldades de consenso em outras matérias sensíveis e o esvaziamento do calendário legislativo no fim do ano pesaram na avaliação de que não haveria condições políticas para concluir a análise do texto em dezembro. Além disso, pontos ainda considerados sensíveis, como direitos autorais e exceções no uso de sistemas de alto risco, seguem precisando de ajustes.

O adiamento altera o ambiente em torno do PL 2338. Se até poucos dias atrás o discurso predominante era o da necessidade de “não perder o timing” da regulação, agora o projeto passa a disputar espaço em um início de ano tradicionalmente congestionado, atravessado por pautas econômicas, pela reorganização das comissões e pelo aquecimento do calendário pré-eleitoral.

A expectativa manifestada por parlamentares é de que o texto seja votado de forma célere em fevereiro. Embora o PL 2.338/2023 já tenha sido aprovado pelo Senado Federal, ele ainda precisa ser apreciado e aprovado pela Câmara dos Deputados.

Como o texto deve sofrer ajustes, a tramitação não se encerra na Câmara: após a votação, o projeto retorna ao Senado para nova análise. Ainda assim, há a sinalização de que esse vaivém entre as Casas possa ocorrer em ritmo acelerado, o que mantém a pressão por rapidez, ainda que em um novo prazo.

A mudança de cenário também reabre disputas sobre o próprio processo legislativo. Para setores da sociedade civil e especialistas, o adiamento pode representar uma janela para qualificar o debate, ampliar a participação social e ajustar pontos críticos do texto. Já entre representantes do setor empresarial, há interesse em que a tramitação avance rapidamente, sobretudo diante da tentativa de apensar ao PL 2.338 o Redata, regime que prevê incentivos fiscais e garante vantagens econômicas para a expansão de data centers no Brasil.

Transparência limitada e lacunas no texto

O adiamento da votação do PL 2.338 também reacendeu críticas ao próprio processo de discussão da proposta no Congresso. No último dia 10, a Coalizão Direitos na Rede (CDR) divulgou uma nota pública, que já foi assinada por 49 organizações, cobrando urgência na adoção de medidas de transparência e maior participação da sociedade civil nos debates sobre o marco legal da inteligência artificial. 

Especialistas ouvidos pela reportagem destacam que, para além do ritmo da tramitação, o conteúdo do projeto ainda carece de aprofundamento em pontos considerados centrais para que a regulação seja capaz de mitigar os principais problemas já observados no uso de IA no Brasil. Entre os aspectos que demandam maior atenção estão:

  • Direitos das pessoas afetadas por sistemas de IA: necessidade de um rol claro e robusto de direitos, aplicável tanto a sistemas de propósito geral quanto de alto risco, que assegure contestação de decisões automatizadas, revisão humana, supervisão adequada e a possibilidade de questionar resultados discriminatórios ou desfavoráveis.
  • Classificação de riscos e tecnologias inaceitáveis: aprimoramento do modelo de classificação de riscos, com exigências mais rigorosas de governança e transparência para sistemas de alto risco e definição objetiva de quais tecnologias devem ser consideradas inaceitáveis no contexto brasileiro.
  • Reconhecimento facial: manutenção da tecnologia como de risco excessivo, com revisão das exceções atualmente previstas. A CDR alertou que o texto em discussão tende a afrouxar as regras para o uso de sistemas de identificação biométrica em espaços públicos, sobretudo na segurança pública. A entidade explica que apesar da classificação como risco excessivo, o amplo rol de exceções permite, na prática, o uso irrestrito da tecnologia por órgãos de segurança e persecução penal, criando um vácuo regulatório sem salvaguardas efetivas.
  • Mitigação de vieses discriminatórios: previsão explícita de medidas obrigatórias de prevenção e mitigação de vieses, levando em conta as desigualdades estruturais do país e os impactos desproporcionais sobre populações historicamente discriminadas.
  • Estrutura de governança e participação social: fortalecimento e não flexibilização dos mecanismos de governança previstos no PL e no sistema nacional de IA, com participação social efetiva e obrigações capazes de garantir fiscalização e proteção de direitos.
  • Proteção trabalhista: retomada de salvaguardas mínimas para o mercado de trabalho, retiradas na tramitação na Câmara, diante dos impactos da automação e da adoção de sistemas de IA em contextos marcados por precarização.
  • Direitos autorais: enfrentamento mais claro das disputas relacionadas ao uso de obras protegidas no treinamento de sistemas de IA, evitando que o desenvolvimento tecnológico seja usado como justificativa para práticas predatórias na economia cultural.
  • Impactos ambientais: inclusão de regras substantivas sobre os efeitos ambientais da cadeia produtiva da IA, consideradas hoje praticamente ausentes do texto, indo além de menções genéricas a data centers “verdes” e abordando consumo de energia, recursos naturais, comunidades afetadas e danos associados à mineração e à extração.

Redata no PL da IA: atalho ou risco?

As dificuldades de avanço da Medida Provisória 1.318/25, que institui o Redata passaram a influenciar diretamente o rumo da regulação da inteligência artificial no Congresso. A MP, que prevê incentivos fiscais como isenção de IPI, PIS/Cofins e Imposto de Importação, tem vigência até fevereiro de 2026, mas segue sem a instalação de uma comissão especial, o que aumenta o risco de caducidade – quando a proposta perde a validade por falta de votação dentro do prazo legal. Diante desse cenário, cresce a pressão do setor de tecnologia e de infraestrutura digital para destravar a tramitação.

A estratégia escolhida pelo governo foi tentar atrelar o Redata ao PL 2.338/2023, aproveitando o avanço do marco legal da IA para viabilizar a conversão da MP em lei. Defensores da proposta apontam potenciais ganhos, como a atração de investimentos, o fortalecimento da soberania digital e o aumento do processamento de dados em território nacional, argumentos que já foram explorados pelo desinformante* em matéria anterior, ao apresentar os prós e contras do regime tributário especial.

Especialistas, no entanto, alertam para os riscos desse “casamento” legislativo. Além de acelerar a aprovação do marco de IA sob pressão econômica, há o temor de que um texto como o Redata, já alvo de críticas da sociedade civil, avance sem o devido escrutínio, comprimindo o debate sobre direitos, governança e impactos sociais da tecnologia.

Para André Fernandes, pesquisador e diretor do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec), a manobra pode até destravar a tramitação, mas cobra um preço alto: “Pragmaticamente, isso pode resolver o problema da MP que caduca, mas o interesse público fica em último plano.”

Leia também>> Atração de data centers ao Brasil provoca preocupação ambiental

Contexto eleitoral e riscos à democracia

O adiamento da votação do PL 2.338 amplia preocupações sobre os impactos da ausência de uma regulação de inteligência artificial construída com participação social no processo eleitoral de 2026. Os riscos, segundo especialistas ouvidos pela reportagem, vão desde o avanço da desinformação até o aprofundamento de desigualdades e violências políticas mediadas por tecnologia.

Para Fernanda Rodrigues, coordenadora de pesquisa do Instituto de Referência em Internet e Sociedade (IRIS), a evolução das ferramentas de IA generativa tende a intensificar o uso de conteúdos sintéticos no debate público. “A tendência é que, com a evolução das tecnologias de IA generativa, casos de deepfakes se intensifiquem no contexto eleitoral”, afirma. 

Ela cita como exemplo recente a Operação Rosa Branca, deflagrada pela Polícia Federal no Rio Grande do Sul, que investigou a produção e disseminação de deepnudes de congressistas, além de crimes como racismo e apologia ao nazismo. Para a pesquisadora, trata-se de um episódio grave que não teve a repercussão pública necessária. “É cada vez mais difícil navegar pelas redes sociais sem se perguntar se um conteúdo foi gerado por IA. Sem uma regulação adequada, o debate público e o processo eleitoral ficam desamparados”, alerta.

Fernanda também chama atenção para a instrumentalização política da segurança pública, especialmente em torno do reconhecimento facial. “Esses sistemas são reconhecidamente falhos, sobretudo para pessoas negras e mulheres negras, e a expansão sem regras rígidas tende a gerar mais prejuízos do que benefícios.”

Na avaliação de André Fernandes, o atraso legislativo agrava esse cenário. “Entramos em um contexto eleitoral em que a anualidade já começa a pesar e a legislação, mesmo que aprovada, pode não ter efeitos adequados sobre o próximo processo eleitoral”, afirma. 

SIA: a proposta do governo para governança da IA

Para suprir uma lacuna jurídica do PL 2.338/2023, o Poder Executivo encaminhou, no início de dezembro, um projeto de lei que cria o Sistema Nacional para Desenvolvimento, Regulação e Governança de Inteligência Artificial (SIA).

Assim como o Redata, a proposta também deve ser apensada ao marco legal da IA e trata especificamente da governança do setor, tema que, por envolver a criação de estruturas administrativas, autoridades e despesas públicas, só pode ser iniciado pelo Executivo. Sem esse ajuste, a parte institucional do PL 2.338 correria o risco de ser considerada inconstitucional.

Para André Fernandes, o envio do novo PL era inevitável. “O sistema de governança previsto no PL 2338 envolve criação de despesas e autoridades, o que, constitucionalmente, só pode ser iniciado pelo Poder Executivo. Se isso vier do Legislativo, há vício de iniciativa e o texto será declarado inconstitucional pelo Supremo”, explica. 

O modelo proposto prevê a Agência Nacional de Proteção de Dados (ANPD) como autoridade central para normas gerais e para setores ainda não regulados, com atuação complementar de autoridades reguladoras setoriais, além da criação de instâncias como o Comitê de Regulação e Inovação em IA (CRIA), o Comitê de Especialistas e Cientistas de IA (CECIA) e o Conselho Brasileiro de Inteligência Artificial (CBIA).

COMPARTILHAR: