Uma nova versão do texto substitutivo do Projeto de Lei 2338/2023, que cria regras para o desenvolvimento e uso dos sistemas de Inteligência Artificial no país, foi apresentada ontem (18) pela Comissão Temporária Interna sobre Inteligência Artificial do Senado (CTIA). A atualização do projeto foi um balde de água fria para quem esperava que a matéria fosse votada pelos integrantes da comissão ainda na terça-feira. Mais uma rodada de cinco audiências públicas sobre o assunto será realizada nas próximas semanas, em meio a pressões da presidência da comissão para a finalização do processo até o recesso de julho.
Uma das mudanças no texto foi a retirada das palavras “desinformação” e “discurso de ódio”, que estavam incluídas na versão apresentada pela comissão no último dia 7. Os termos apareciam na antiga versão, por exemplo, no artigo 15 e 32, que os incluíam como riscos a serem considerados, respectivamente, pelo sistema nacional fiscalizador e pelos desenvolvedores de IAs gerais e generativas. Apesar disso, as menções à “integridade da informação” continuam no novo texto.
Paula Guedes, pesquisadora do Núcleo Legalite da PUC-RJ e ponto focal do Grupo de Trabalho sobre IA da Coalizão Direitos na Rede, comenta que tal mudança se deu em razão do relator do projeto, senador Eduardo Gomes (PL-TO), entender que o combate à desinformação e ao discurso de ódio são pontos que não deveriam estar no PL de IA, apesar de serem essenciais. Na semana passada, o PL 2338 foi alvo de articulações da extrema-direita nas redes sociais.
“Acredito que tenha sido positiva a manutenção, pelo menos, do termo integridade da informação e a preocupação de que sistemas de IA não causem danos a essa integridade e a processos democráticos”, afirmou Paula. “A matéria não deixou de ser endereçada, apenas não de forma tão específica”
As menções à integridade da informação, desinformação e discurso de ódio no texto anterior tinham sido saudadas pelo Secretário de Políticas Digitais da Secretaria de Comunicação Social (Secom), João Brant, na semana passada durante uma sessão realizada no Senado para a discussão do projeto. Na ocasião, Brant também pontuou a ausência dos problemas relacionados aos deepfakes. “O projeto acaba sendo tímido ao não tratar diretamente sobre esse tema”, afirmou.
Novo projeto apresenta avanços, mas também retrocessos
Ainda de acordo com Paula Guedes, o novo projeto avança em alguns pontos, mas mantém problemas críticos. Uma das atualizações positivas no texto, para a pesquisadora, é a nomeação da Autoridade Nacional de Proteção de Dados (ANPD) como órgão de coordenação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). “Mas isso tem que ser associado ao aumento de pessoal, independência e recursos [da ANPD]”, lembra.
Outra novidade no texto é a criação do Conselho Permanente de Cooperação Regulatória de IA (CRIA), prevendo a participação de representantes governamentais e da sociedade civil para sugerir ações e elaborar estudos sobre o IA para o sistema de fiscalização.
Apesar da inclusão da sociedade civil ser um ponto positivo, Paula lembra que o texto não traz atribuições a esses atores. “Houve apenas uma menção, sem definição de competências, o que pode, na prática ser algo apenas formal que não vá se manifestar concretamente em algo útil”, alerta.
Em relação aos pontos críticos, o novo texto do substitutivo mantém as exceções de uso dos sistemas biométricos de IA, como o reconhecimento facial. “Já sabemos como o reconhecimento facial não é eficiente para a Administração Pública e para os objetivos que se propõe, assim como tem grande tendência de resultados enviesados contra determinados grupos, como negros, mulheres, pessoas não binárias, trans”, comentou Paula.
Continuam no texto também os usos de IA para identificação de emoções, policiamento preditivo e previsão de crimes com base em perfis. Além disso, não foi adicionado ao rol de sistemas de alto risco as tecnologias de classificação de crédito, que analisam o histórico de inadimplência dos cidadãos.
Em relação à parte de proteção do trabalho, a jornalista Taís Martins, do Intercept, destacou a ausência de menção ao grupo de trabalhadores que treinam as IAs e que já apresentam condições profissionais precarizadas. “Não dá para separar IA do trabalho precário dessas pessoas que estão ao redor do mundo, muitas no Brasil, recebendo centavos de dólar para executar centenas de microtarefas que melhoram e afinam as IAs”, afirmou Martins no seu perfil pessoal no X.
Audiências públicas vão privilegiar setor empresarial
Na sessão da terça-feira, a pedido do Senador Marcos Pontes (PL-SP), a CTIA aprovou mais uma rodada de cinco audiências públicas a serem realizadas nas próximas semanas para o debate da última versão do projeto. Em sua fala, Pontes argumentou a necessidade das audiências devido às constantes mudanças no texto original do PL 2338, o que, segundo ele, trouxe “bastante insegurança” sobre a proposta de regulamentação de IA.
A lista de convidados para as audiências sugerida pelo senador, porém, privilegia o setor empresarial. Dos 27 nomes indicados por Pontes, pelo menos 18 fazem parte de empresas de tecnologia ou de associações que as representam. As audiências sobre governança e riscos de IA, por exemplo, serão realizadas sem nenhuma participação da sociedade civil ou da academia.
“Temos visto um lobby forte das big techs e do setor produtivo para tentar frear e regulação, inclusive com a tentativa de captura de argumentos da sociedade civil. Seria essencial que houvesse a inclusão de nomes da sociedade civil nesses espaços e que o setor privado apresentasse iniciativas reais de estímulo à inovação no Brasil, não apenas querer desmantelar uma regulação que vai proteger direitos das pessoas”, alertou Paula.