Início 9 Destaques 9 PL de IA é aprovado no Senado: saiba o que está previsto no texto

Últimas notícias

Marcos Oliveira/Agência Senado

PL de IA é aprovado no Senado: saiba o que está previsto no texto

Marcos Oliveira/Agência Senado
COMPARTILHAR:

O Senado aprovou nesta semana o substitutivo do Projeto de Lei 2338/2023 que cria regras para o uso e desenvolvimento de sistemas de Inteligência Artificial no país. Também chamado de “PL de IA”, o texto passou por diversas reformulações no último ano, quando foi discutido pela Comissão Temporária Interna sobre IA (CTIA) na casa legislativa, sendo alvo de forte pressão por parte do setor empresarial e da base bolsonarista. O projeto segue para a Câmara dos Deputados, onde deverá ser votado somente ano que vem.

“Nós entendemos que foi uma grande vitória para a sociedade civil esse texto ter sido aprovado, porque sabemos que houve muito lobby contrário, inclusive para enterrar o texto como um todo”, afirmou Paula Guedes, pesquisadora do Núcleo Legalite da PUC-RJ e ponto focal do Grupo de Trabalho sobre IA da Coalizão Direitos na Rede.

A pesquisadora pontua ainda que, apesar do projeto ter sofrido “desidratações” em alguns pontos – como direitos na proteção dos trabalhadores em relação a sistemas de IA –, o texto aprovado nesta semana traz direitos mínimos, medidas de governança e sistemas de fiscalização.

O co-diretor da Data Privacy Brasil, Rafael Zanatta, também afirma que o avanço do projeto pode colocar o Brasil novamente num posicionamento de protagonismo no cenário internacional, como aconteceu durante o Marco Civil da Internet. Além disso, o modelo adotado aqui pode servir de referência para os países do Sul Global.

“Os europeus trabalham com a noção de que o valor máximo da regulação de IA é proteger a dignidade dos cidadão europeu e mitigar os riscos aos direitos individuais. E o que o Brasil está dizendo é que pode ser muito mais que isso: regulação de IA também é diretrizes para o trabalho, diretrizes para termos remuneração justa de criadores de conteúdo, para pequenas e médias empresas, além de critérios de sustentabilidade”, comentou Zanatta.

O PL 2338, de autoria do senador Rodrigo Pacheco (PSD-MG), busca balancear direitos para os cidadãos, diretrizes de governança e incentivos de inovação para o setor empresarial – resultado de uma extensa “luta de braço” entre ministérios, big techs e sociedade civil, como mostrou o Núcleo.

O projeto de regulação brasileiro segue a abordagem de riscos, determinando diretrizes de uso e de desenvolvimento de acordo com os riscos trazidos à sociedade pelos sistemas de IA. Na prática, quanto mais riscos, mais regras os desenvolvedores deverão seguir. Essa abordagem também é utilizada pelo AI Act, a lei de IA da União Europeia, que entrou em vigor este ano no bloco econômico.

Na Câmara, pressão das big techs poderá ser pior

Com a aprovação no Senado, o PL de IA segue agora para a Câmara dos Deputados, onde deve ser votado no ano que vem. Paula Guedes analisa que, partindo para essa próxima fase, o projeto pode sofrer uma pressão ainda maior do setor empresarial, principalmente das big techs e gigantes do setor de IA. 

Isso pode acontecer, ainda segundo Guedes, pois as empresas possuem lobby mais intenso nessa casa legislativa, além de se associarem aos deputados de extrema direita. “A Câmara vai ser um novo desafio, uma nova luta, talvez mais intensa”, projetou a pesquisadora.

Rafael Zanatta também pontua que existe o risco do processo se perder na Câmara por ser um ambiente mais volátil e com mais chances de discussão ideológica. “[Com o processo de aprovação] o Senado passou uma mensagem clara para a Câmara: nós fizemos nossos acordos e deixamos de lado nossas diferenças, vocês não podem deixar isso se transformar numa discussão ideológica”, explicou o co-diretor da Data Privacy.

Ao longo do debate na CTIA no Senado, que durou um ano e três meses, a pressão do setor empresarial foi frequente. Em julho deste ano, por exemplo, a Confederação Nacional da Indústria (CNI) e a Mobilização Empresarial pela Inovação (MEI) lançaram juntas uma nota contrária ao PL 2338, resultando em um dos diversos adiamentos da votação do texto, que só foi acontecer semana passada.

A articulação do setor também foi essencial para que os mecanismos de recomendação, curadoria e distribuição de conteúdos aplicados pelas plataformas digitais saíssem da lista de sistemas de IA de alto risco na versão aprovada ainda na CTIA.

O que prevê o PL 2338 (PL de IA)?

Veja abaixo alguns pontos importantes que estão previstos no texto aprovado nesta semana pelo Senado:

1. Direitos para pessoas afetadas por sistemas de IA

O projeto propõe uma série de direitos para pessoas ou grupos afetados por sistemas de IA, como o direito de informação quanto às interações com tecnologias automatizadas (exceto em tecnologias voltadas à cibersegurança e ciberdefesa), direito à privacidade e proteção de dados e o direito à não-discriminação e à correção de vieses discriminatórios.

Em relação aos sistemas considerados de alto risco, o texto afirma que os cidadãos terão o direito de explicação e de revisão sobre as decisões, recomendações ou previsões realizadas pelas tecnologias; bem como o direito de revisão humana sobre essas decisões.

2. Restrições de sistemas de risco excessivo

O PL de IA proíbe o uso e o desenvolvimento de sistemas de IA de risco excessivo, como as armas autônomas, os sistemas que buscam induzir o comportamento de indivíduos ou grupos e aqueles que exploram quaisquer vulnerabilidades dos cidadãos. O uso de reconhecimento biométrico, ponto criticado pela sociedade civil brasileira, é aceito em situações como na busca de vítimas de crimes e recaptura de réus evadidos.

Além disso, o projeto traz uma lista de doze sistemas considerados de alto risco, como as tecnologias de recrutamento e de avaliação de candidatos, os sistemas de controle de trânsito e de redes de abastecimento e os sistemas de identificação e autenticação biométrica para o reconhecimento de emoções.

O Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) ficará encarregado de regulamentar a classificação dos sistemas de IA de alto risco, além de identificar novas hipóteses de aplicação de alto risco conforme dez critérios. Aqui, houve a supressão da “integridade da informação” como um dos critérios a serem considerados pelo sistema de fiscalização.

3. Diretrizes para os desenvolvedores de IA

Os “Agentes de IA”, como são chamadas no texto as empresas e desenvolvedores da tecnologia, são encorajados a realizar avaliação preliminar dos riscos trazidos por seus produtos. A avaliação preliminar é considerada uma “boa prática” – em versões anteriores do PL 2338, a medida era obrigatória – que pode acarretar benefícios em possíveis futuras sanções.

Em relação aos sistemas de alto risco, os desenvolvedores terão que cumprir medidas de governança, como a documentação de testes de segurança e a aplicação de medidas para combater vieses discriminatórios. Avaliação de impacto algorítmico também deve ser feito pelos desenvolvedores dessa categoria de sistemas.

4. Diretrizes para IAs generativas

As IAs generativas, como o ChatGPT, por exemplo, também foram incluídas. De acordo com o PL de IA, os desenvolvedores desse tipo de tecnologia deverão realizar avaliações preliminares dos sistemas com o objetivo de identificar seus respectivos níveis de risco esperado. Eles deverão também publicar um resumo do conjunto dos dados utilizados no treinamento dos sistemas e reduzir a utilização de energia e recursos.

5. Direitos autorais e proteção dos trabalhadores

O texto também traz um trecho específico sobre uso de dados protegidos por direitos autorais. De acordo com o projeto, os desenvolvedores terão que remunerar autores cujos conteúdos protegidos por direitos forem utilizados no treinamento dos sistemas. Além disso, os autores poderão proibir o uso dos conteúdos pelos sistemas automatizados.

Esse tópico, defendido principalmente pela classe artística e jornalística, sofreu pressão do setor de data centers às vésperas da votação desta terça-feira, quando representantes de empresas nacionais e internacionais publicaram uma carta pedindo que o tema fosse retirado do texto. 

O projeto também apresenta um trecho específico sobre proteção do trabalhador brasileiro, prevendo mitigação de impactos negativos sobre os profissionais e valorização dos instrumentos de negociações e convenções coletivas. Nas últimas versões, esse trecho sofreu perdas em relação a garantias de supervisão humana em decisões automatizadas e na avaliação de impacto algorítmico dos sistemas de uso de IA na força de trabalho.

6. Um sistema de fiscalização nacional de IA

O PL de IA cria o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), um sistema de fiscalização e supervisão híbrido que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD) e que também contará com as agências reguladoras, representantes do setor técnico, da sociedade civil e da academia.

Como coordenadora da SIA, a ANPD terá o objetivo, por exemplo, de expedir regras gerais sobre IA no país, dar suporte aos órgãos setoriais e exercer competência normativa, regulatória, fiscalizatória e sancionatória sobre a implementação da tecnologia. “A SIA é um sistema sofisticado que propõe um fórum permanente”, avaliou Rafael Zanatta.

7. Sanções para infratores

Se cometidas infrações, as empresas de IA poderão sofrer, além de advertência, multas que podem chegar até 50 milhões de reais por infração ou até 2% do faturamento bruto no Brasil. Também está prevista a possibilidade da suspensão total ou parcial do sistema no país.

COMPARTILHAR: