Início 9 Pontos de Vista 9 O que os brasileiros querem ver na regulação de IA?

Pontos de vista

acervos pessoais

jun 24, 2024 | Pontos de Vista

O que os brasileiros querem ver na regulação de IA?

acervos pessoais
COMPARTILHAR:

A inteligência artificial (IA) está no centro das atenções do debate nacional e internacional. A recente aprovação do Regulamento Europeu de Inteligência Artificial (EU AI Act) aqueceu ainda mais as discussões sobre a necessidade de fixação de regras para a IA. No Brasil não foi diferente, com esta pauta movimentando o cenário geopolítico na atual presidência do país no G20, do governo federal e sua Estratégia e Plano brasileiros de IA e, mais ainda,  em ambas as casas do Congresso Nacional. 

Desde 2021, o Legislativo brasileiro vem propondo projetos de lei para regular o desenvolvimento e uso da IA, passando pela Câmara dos Deputados com o PL 21/2020 até chegar ao Senado Federal, com a proposta do PL 2338/2023. Mesmo com cerca de três anos de debate no país e da crescente constatação internacional quanto à necessidade de regular os usos de IA para que se possa extrair  o máximo de benefícios simultaneamente à mitigação e prevenção de seus danos, a regulação de IA ainda é tema sensível. Isso se verifica, especialmente, para setores da sociedade que defendem uma regulação frouxa, seja por meio da manutenção do status quo com estratégias de autorregulação ou pela aprovação de um modelo regulatório principiológico e pouco normativo, o que, na prática, se equipara à ausência de regulação.

Para aqueles que defendem esta abordagem, os argumentos mais utilizados passam pela ideia de que um instrumento regulatório prescritivo seria um entrave ao avanço da inovação no Brasil, que o tema ainda é pouco maduro ou mesmo que houve pouca discussão social. Estas justificações fazem parte de narrativas que não se comprovam na prática e são sustentadas justamente pelos que se beneficiam deste cenário sem regras harmonizadas e previsibilidade jurídica, em detrimento da proteção de direitos e interesses sociais.

A melhor fórmula para estímulo à inovação responsável e protetiva de direitos, no entanto, é através de uma regulação baseada em riscos e em direitos, como segue o atual PL 2338/2023. Somente a partir desta abordagem é que se poderá endereçar particularidades nacionais a partir da proteção reforçada das vulnerabilidades e ao combate a diferentes formas de discriminação, com a fixação de regras proporcionais de governança e deveres para os agentes regulados, além da criação de um arranjo institucional que também privilegia as autoridades setoriais e a participação pública. 

Para além de análises técnicas sobre o tema, interessa também notar como estes fatores estão incutidos nas visões da própria sociedade brasileira. Uma pesquisa recém lançada pelo Instituto IDEIA em parceria com o Brazil Forum UK 2024 sobre a percepção do brasileiro a respeito da inteligência artificial traz dados interessantes para esse debate regulatório da IA. De acordo com a pesquisa, para 73% dos entrevistados há a necessidade de criação de regras para o uso de IA no Brasil, ressaltando que a urgência de se estabelecer regras vinculantes para o bom uso da IA no país não é apenas uma preocupação de governos e da sociedade civil que buscam a proteção de direitos fundamentais, mas também uma demanda social.

Somado à importância de se regular, o governo aparece como o principal agente responsável pela regulação, segundo 21% dos respondentes. Outras parcela da sociedade ou não soube informar (29%) ou indicou outros atores (24%). Interessante destacar que apenas 2% dos entrevistados apontaram que não deveria haver um ente responsável pela regulação e 1% que essa regulação deveria ser feita via empresas privadas. 

Nesse contexto, o PL 2338/2023 surge mais uma vez como a melhor opção na mesa, como um modelo regulatório protetivo de direitos e com a necessária força vinculante do Estado para fazer com que os agentes regulados efetivamente alterem seus comportamentos na prática. Apesar disso, ainda há pontos críticos no texto do PL que precisam e podem ser melhorados. E é nesse sentido que a pesquisa também orienta. 

Primeiramente, chama a atenção que mais da metade dos participantes não se declararam otimistas sobre como se sentem em relação à IA. A pesquisa ajuda a entender alguns dos pontos que podem estar gerando tamanha incerteza.  Em uma das perguntas questionou-se a percepção das pessoas sobre a IA, a partir de uma escala que variava de “concordo totalmente” para “discordo totalmente”. No que se refere à frase “a IA ou Inteligência Artificial pode ser utilizada na identificação de crimes”, 58% dos entrevistados discorda, sendo que destes, 39% discorda totalmente, enquanto apenas 17% concorda em algum grau, 8% concorda totalmente e 9% concorda. Tal percepção vai de encontro ao que está no atual art. 14 do PL 2338/2023 que, mediante certas condições, permite o uso de IA para: (i) estudo analítico de crimes no intuito de identificar padrões e perfis comportamentais (inciso IX); e (ii)  prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis (inciso X). Parece que a percepção do brasileiro se alinha com o fato de que tais usos não têm eficácia comprovada cientificamente e, pelo contrário, evidências mostram o potencial de reforço de práticas discriminatórias.

Outro dado interessante diz respeito ao nível de conforto do brasileiro com o uso de IA para certas atividades, que foi avaliado em uma escala de 1 (muito alto) a 5 (muito baixo). No que diz respeito ao uso de reconhecimento facial, somando os que se sentem muito desconfortáveis e desconfortáveis, o número é de 47% em comparação com 25% que sentem alto ou muito alto conforto. Especificamente sobre o uso de reconhecimento facial pelo governo para identificar crimes e suspeitos, o número de desconforto sobe para 55% em comparação com os 20% que se sentem confortáveis em um nível alto ou muito alto. Tal percepção assemelha-se à Campanha Tire Meu Rosto da sua Mira, mobilização da sociedade civil que pede pelo banimento total do uso de tecologias de reconhecimento facial na segurança pública no Brasil.

Mesmo com este apelo popular, o atual texto do PL 2338 que, apesar de a princípio proibir o uso de sistemas de identificação biométrica à distância, em tempo real e em espaços publicamente acessíveis para fins de segurança pública e justiça criminal (art. 13, VII), traz tantas exceções à proibição que, na prática, equipara-se a um aval para utilização nesse contexto. Diferentes estudos, nacionais e internacionais, revelam como sistemas de reconhecimento facial discriminam com base em raça e gênero, o que, no Brasil, ainda é mais problemático considerando o histórico de racismo estrutural e violência policial contra a população negra e periférica. Se já não bastasse tal efeito negativo, não há comprovação de que o uso da tecnologia no âmbito da segurança pública e justiça criminal cumpre ao que se propõe, gerando excessivos gastos aos cofres públicos em prol de uma presunção tecnosolucionista. 

Em um momento tão importante para o contexto brasileiro de regulação de IA, os dados da pesquisa podem servir como norte para os próximos passos no processo legislativo do PL 2338/2023: a constatação de que a sociedade quer uma regulação de IA vinda do Estado, que a maior parte das pessoas não concorda com o uso da tecnologia para identificação de crimes e não se sente confortável com sistemas de reconhecimento facial, principalmente no contexto de segurança pública e justiça criminal. 

Desta forma, ao invés de seguir o caminho de desregulação ou até mesmo de uma “regulação principiológica”, apoiados por agentes interessados na manutenção da lacuna regulatória que lhes é favorável, o Brasil pode ser um exemplo de proteção de direitos simultaneamente ao estímulo à inovação responsável com a aprovação do PL 2338/2023, com as devidas aprimorações, principalmente quanto ao banimento, ou minimamente uma moratória, do uso de reconhecimento facial para fins de segurança pública. Cabe ao país escolher o melhor caminho que deseja adotar, inclusive aproveitando de sua posição estratégica com a presidência do G20 em 2024, enquanto o mundo todo nos observa. A escolha não parece difícil e a opinião popular já deu as pistas.

COMPARTILHAR:
Cynthia Picolo e Paula Guedes

Cynthia Picolo G. de Azevedo é advogada, diretora-executiva do Laboratório de Políticas Públicas e Internet - LAPIN. Bacharel em Direito pela PUC-Campinas e LL.M. em Direito Internacional Público pela Universidade de Leiden (Holanda). Especialista em Privacidade e Proteção de Dados e Inteligência Artificial (Academy of European Law; Vrije University Amsterdam). Certificada pelo Comitê Gestor da Internet no Brasil (CGI.br) em assuntos avançados de Governança da Internet. Foi consultora para a UNESCO no processo de aplicação da Metodologia de Avaliação de Prontidão (RAM). E-mail: [email protected].

Paula Guedes é advogada, doutoranda em Direito com foco em regulação de inteligência artificial no Brasil e membro do Núcleo Legalite da PUC-RJ.

0
Would love your thoughts, please comment.x