Início 9 Destaques 9 Organizações da sociedade civil brasileira alertam sobre retrocessos no novo PL de IA

Últimas notícias

Organizações da sociedade civil brasileira alertam sobre retrocessos no novo PL de IA

COMPARTILHAR:

Um grupo de mais de 30 organizações da sociedade civil brasileira lançou nesta sexta-feira (29) uma carta alertando para possíveis retrocessos presentes na nova versão do Projeto de Lei 2338/2023, chamado de “PL de IA”. As organizações afirmam que o texto que deverá ser votado no próximo dia 3 na Comissão Temporária Interna sobre Inteligência Artificial do Senado (CTIA) é o “mínimo necessário”, mas ainda há aprimoramentos que podem ser feitos para evitar retrocessos ou trazer ameaças de proteção aos cidadãos.

De acordo com os signatários, o PL de IA traz dispositivos importantes, como o estabelecimento de uma regulação baseada em riscos e de direitos a pessoas afetadas pela tecnologia, mas “avanços podem ser seriamente comprometidos diante de recuos e ameaças ao texto”. A nova versão foi apresentada ontem (28) pelo senador Eduardo Gomes (PL-TO), relator do projeto, durante reunião da CTIA.

O documento aponta que o artigo 58, que visa a proteção aos trabalhadores diante de sistemas automatizados sofreu um “retrocesso grave”. Na nova versão, foram removidos, por exemplo, a garantia de supervisão humana em decisões automatizadas que instituem punições disciplinares e dispensa de trabalhadores e a avaliação de impacto algorítmico dos sistemas de uso de IA na força de trabalho.

“Foi removido aquilo mais protetivo”, avaliou Rafael Zanatta, co-diretor da Data Privacy Brasil, uma das organizações signatárias da carta. “Apesar de ainda termos o tema do trabalho no texto, não ficou uma linguagem de direito forte, apenas algo mais programático para o futuro”.

Zanatta explica que a remoção das diretrizes para o trabalho – demanda defendida pelos movimentos dos trabalhadores – foi resultado de uma pressão da indústria e do setor privado acatada pelo governo. De ontem para hoje, o fomento para programas de treinamento e qualificação voltou ao texto.

Além disso, a nova versão do PL também trouxe retrocessos em relação à participação social nos processos de prestação de contas dos agentes de IA e nas avaliações de impacto dos sistemas. “Para garantir sistemas de IA responsáveis e protetivos de direitos, é essencial o escrutínio público dos regulados e dos reguladores, por meio de participação pública”, pontuou a carta.

Apesar de apontar pontos críticos, as organizações também afirmam que a aprovação do PL 2338 é urgente. Zanatta lembrou o avanço que o projeto atual representa em relação às propostas regulatórias anteriores. “O PL 2338 é um projeto de lei que possui uma gramática muito forte de direitos, trazendo a regulação por riscos. E não é uma lei ‘copia e cola’ da União Europeia, podendo ser um padrão interessante pro Sul Global”, comentou.

Empresas pressionam para derrubar pontos importantes

Outros pontos considerados importantes pelas organizações foram mantidos no novo texto, mas estão sob forte pressão de empresas do setor para serem removidos. Um deles é a possibilidade de atualização da lista de sistemas de alto risco pelo Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), atualmente garantido pelo artigo 15 do texto.

“Esta possibilidade é fundamental para que a lei não nasça desatualizada, considerando o dinamismo do setor de IA”, pontua o documento. “Se a lista de sistemas de alto risco for taxativa e restrita àquela elencada hoje no texto, a sociedade brasileira ficará refém de riscos postos por quaisquer novos sistemas de IA não contemplados ali. A legislação precisa ser viva.”

Outro trecho que está sob forte pressão do setor empresarial é o que diz respeito às regras sobre sistemas de IA utilizados por plataformas digitais para curadoria, recomendação e distribuição de conteúdos. Atualmente, essas tecnologias são consideradas de alto risco no texto. “Estes modelos algorítmicos estão classificados como de alto risco, justamente pelo reconhecido impacto que podem ter sobre o comportamento humano, sobre o debate público e para a democracia”, trouxe o documento.

As organizações também destacam que há “vontade de flexibilização” do compromisso irrestrito contra IAs que facilitem a produção e distribuição de conteúdo de abuso e de exploração sexual de crianças e adolescentes, atualmente consideradas de risco excessivo. Segundo a carta, há intenção de retrocesso no texto e proibir apenas as ferramentas criadas para esse propósito.

Veja o que dizem as organizações sobre o novo PL de IA

Pontos que devem ser mantidos:

  • Rol de alto risco e risco excessivo como exemplificativos com a definição de critérios e procedimentos de atualização (art. 15);
  • Rol de direitos (Capítulo III);
  • Sistemas de curadoria e recomendação de conteúdo no rol de alto risco (Art. 14, inciso XIII);
  • Remuneração por uso de conteúdos protegidos por direitos autorais (Capítulo X, Seção IV);
  • Medidas de governança obrigatórias (Capítulo IV).

Pontos que podem ser melhorados:

  • Redução de exceções ao escopo de aplicação (Art. 1, inciso I);
  • Direito à revisão como aplicável a todo sistemas de IA (Art. 6, inciso III);
  • Avaliação preliminar como obrigatória (Art. 12)
  • Desvinculação das alíneas do inciso I do Art. 13 a um propósito;
  • Definir contornos precisos quanto ao risco relevante à integridade das pessoas (Art. 14, inciso VIII) e em relação ao conjunto de dados que podem ser acessados para identificação de padrões e perfis comportamentais (Art. 14, inciso IX);
  • Garantia de participação social nas avaliações de impacto e no SIA (Art. 25, inciso VIII) e de consulta pública prévia a normas infralegais (Art. 49, versão anterior);
  • Aumento das garantias trabalhistas (Art. 58);
  • Retomada dos direitos de informação prévia e de determinação e de participação humana (Art. 5, incisos I e III).
COMPARTILHAR: