Apesar de conter avanços, o novo projeto sugerido pela comissão do Senado para regular a inteligência artificial no Brasil apresenta dois pontos considerados retrocessos pela Data Privacy Brasil: o não banimento total dos usos de tecnologias de reconhecimento facial e a inclusão de armas letais no território nacional. A Data Privacy Brasil é uma organização da sociedade civil que atua sobre questões envolvendo privacidade de dados e tecnologias digitais e publicou uma análise com quatro avanços e dois retrocessos presentes na nova proposta brasileira de regulação de Inteligência Artificial, apresentada mês passado pela Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado Federal. O texto substitui o Projeto de Lei 2338/2023, considerado até então a principal iniciativa de criação de regras para o uso e o desenvolvimento da tecnologia no país.
A organização destaca que, diferente da abordagem original do PL 2338, que estabelecia uma espécie de moratória, a nova versão legaliza as tecnologias de reconhecimento facial, ainda que submetidas a determinadas condições. “A Data historicamente se opôs à adoção de tecnologia que, empiricamente, tem se mostrado racista e ineficiente para a melhoria da segurança pública”, pontuou a organização.
Vale lembrar que, na Europa, durante as discussões para a construção da Lei de IA (AI Act, em inglês), organizações da sociedade civil organizada do bloco econômico também alertaram sobre a necessidade de banimento do uso e do desenvolvimento dessas tecnologias na região. O texto final do AI Act não chega a proibir totalmente essas tecnologias, mas restringe seu uso para situações específicas, como a busca por possíveis vítimas de um crime, incluindo crianças desaparecidas, e a prevenção de uma ameaça específica iminente à vida ou à segurança física de pessoas.
Já a inclusão no texto brasileiro do tema das armas letais com base em IA, sistemas bélicos que selecionam alvos e fazem uso de força sem intervenção humana, foi considerada “esvaziada de sentido e efetivamente inócua”, pois o uso se dá massivamente em contexto de defesa nacional.
“Saudando positivamente a iniciativa de apresentação de um texto como sendo preliminar para que a sociedade possa digerir e afinar os avanços das nova proposta, a Data também se posiciona firmemente contrária aos pontos entendidos como retrocessos”, afirmou a Data Privacy.
A organização da sociedade civil brasileira também defendeu a necessidade da regulação de IA ser baseada em riscos – como ocorre com o AI Act – e ser policêntrica, abrangendo diversos setores e agentes. “Em diálogo com diversos acadêmicos internacionais, criticamos abordagens de autorregulação e defendemos que, dada a complexidade da regulação de IA, uma abordagem deve ser policêntrica, atribuindo responsabilidades e obrigações para vários agentes”, afirmou a Data Privacy. A organização pontuou ainda que, uma regulação dentro desses aspectos, “evita erros do século passado e tipos tradicionais de regulação de “comando e controle”.
Sistema híbrido de fiscalização e fomento à inovação são considerados avanços
O primeiro ponto positivo no novo texto, de acordo com a Data Privacy, é a proposta do sistema híbrido de fiscalização, chamado de Sistema Nacional de Regulação e Governança de IA (SIA), coordenado por uma autoridade competente, a ser nomeada pelo executivo, mas que também contará com a participação das agências e órgãos reguladores existentes, que ficarão responsáveis pela fiscalização da IA em suas respectivas áreas de atuação, como a Anvisa (Agência Nacional de Vigilância Sanitária) na saúde e a Anatel (Agência Nacional de Telecomunicações) na comunicação.
“Uma estrutura híbrida que busca valorizar o trabalho de regulação e de fomento já feito pelas agências reguladoras setoriais existentes, mas que devem cooperar entre si e com uma autoridade que seja coordenadora deste sistema”, avaliou a organização.
A proposta de fiscalização, ainda segundo a organização, é uma síntese dos modelos regulatórios presentes nos projetos de leis anteriores sobre IA, como o PL 21/20 e o próprio PL 2338/23, tomando como referência também as abordagens norte-americanas, britânicas e europeias.
O segundo avanço é a adição no texto dos capítulos que tratam de fomento à pesquisa e à inovação nacional. O trecho cria diretrizes programáticas para que o poder público invista em pesquisa e educação na área de IA. Em seguida, a Data Privacy também celebrou a valorização do humano como elemento central no texto proposto pela comissão.
“O novo texto se mostra preocupado com o que há de material por trás das linhas de código de sistemas de IA”, destacou. “Além de ter um capítulo dedicado à proteção do trabalho, também acena para os impactos ambientais destes por consumirem muitos recursos naturais, o que afeta principalmente o chamado Sul Global.”
Por fim, o novo projeto de regulação de IA manteve a estrutura de direitos que estava prevista no original do PL 2338/23. Dessa forma, foram mantidos direitos como o de não discriminação, de transparência, de explicação e de revisão quando um sistema de IA pode gerar impactos materiais significativos sobre uma pessoa ou um grupo.
“Há a manutenção de mecanismos como avaliação de impacto e uma base de dados públicas sobre sistemas de IA para uma efetiva accountability e escrutínio público sobre quais são os riscos aceitáveis do lançamento desta tecnologia em nosso meio ambiente”, concluiu.