Início 9 Destaques 9 Como equilibrar inovação e desenvolvimento ético 

Últimas notícias

@thiagoilustrado

Como equilibrar inovação e desenvolvimento ético 

@thiagoilustrado
COMPARTILHAR:

MICROSÉRIE REGULAÇÃO DE IA: São 3 textos para você entender: 1- o que está em jogo 2- qual o andamento da regulação da inteligência artificial no Brasil e 3- experiências internacionais que a gente precisa conhecer.

No último ano, a Inteligência Artificial esteve na boca do povo. Muito impulsionada pelo ChatGPT e outras funcionalidades generativas, a tecnologia ganhou repercussão no debate público internacional, chegando a influenciar a palavra de 2023 escolhida pelo Cambridge Dictionary. E junto disso, a necessidade de regulação de IA também ganhou destaque. Diferentes países, incluindo o Brasil, já avançam para criar suas próprias legislações com diretrizes de desenvolvimento e usos seguros desses novos sistemas.

Christian Perrone, consultor de Políticas Públicas e head das áreas de Direito & Tecnologia e GovTech no ITS Rio, explica que, apesar da discussão sobre IA estar estabelecida há vários anos, as formas de regulá-la ainda estão em discussão. “Estamos no início desse processo. Até mesmo os países que desenvolvem tecnologias de IA há mais tempo ainda têm muitas dúvidas sobre como vão regular”, explica o pesquisador.

Mas, mesmo que ainda haja incertezas e discordâncias sobre a criação de bons mecanismos legislativos, algumas questões já despontam como norteadoras desses processos. É o caso, por exemplo, do desafio de mitigar os riscos sociais – como discriminação, desigualdade e exclusão social – enquanto se mantêm condições para inovação e desenvolvimento do setor, que já desponta como um dos principais no contexto econômico futuro.

A Unesco, no documento “Recomendações sobre a Ética e Inteligência Artificial”, publicado em 2021, reconhece que as tecnologias de IA podem sim ser de grande utilidade para a humanidade, beneficiando todos os países, mas também “levantam questões éticas fundamentais” que colocam cidadãos em risco e que precisam ser consideradas por governos, empresas e sociedade civil.

O ponto de equilíbrio entre inovação e desenvolvimento ético, então, é o que busca grande parte dessas regulações em diversos países. “A grande questão é: como a gente faz para ter um desenvolvimento e uso responsável ou saudável dessa Inteligência Artificial? Mundo afora está tentando compreender como é que podemos ter incentivos e desincentivos de IA”, explica Perrone.

A Academia Brasileira de Ciências (ABC) publicou uma carta com suas recomendações para o desenvolvimento brasileiro de IA. De acordo com o documento, o país precisa aproveitar as oportunidades trazidas pelos sistemas inteligentes, além de gerenciar os benefícios e riscos associados a eles, tudo isso investindo em pesquisa, inovação e na formação de recursos humanos para lidar com os desafios e a corrida tecnológica internacional.

“O Brasil não pode correr o risco de ser apenas um usuário de soluções IA concebidas no exterior”, alerta a carta. “A dependência de outros países e de grandes empresas nesta área pode prejudicar a segurança e a soberania nacional, além da competitividade das empresas nacionais no país e no exterior”.

Bruno Bioni, diretor-executivo do Data Privacy Brasil, reforça a possibilidade da inovação e da busca por direitos andarem lado a lado. De acordo com o especialista em privacidade e proteção de dados, a rivalização desses dois pontos é um mito já que a implementação de diretrizes para mitigar os danos causados por essas tecnologias é essencial para impulsionar a inovação e o desenvolvimento do setor. Isso porque, ao causar menos danos e ser mais confiáveis, esses sistemas podem fortalecer as trocas econômicas nos contextos em que estão inseridos.

“Isso é importante, sobretudo no Brasil, dada as nossas assimetrias estruturais: se quisermos ter uma sociedade mais inovadora, a gente precisa abraçar a diversidade da nossa sociedade e pautar por sistemas de IA que sejam anti-racistas e que não causem discriminações ilegais e abusivas”, avalia Bioni.

Impactos sociais e transparência são alguns dos princípios que orientam regulação de IA

Christian Perrone também pontua que há outras discussões que já são consideradas consenso quando se fala de regulação desses sistemas, como a importância de definir o que se entende propriamente por Inteligência Artificial. Segundo o pesquisador, estabelecendo a definição do que é ou não IA, é possível enxergar com mais clareza o que e como vai ser regulado.

Outro ponto é a necessidade de uma governança de dados relacionada a essas funcionalidades. “Como vamos lidar com os dados? Há o princípio que deva existir uma governança, tanto sobre os dados de treinamento, como os dados que vão ser disponibilizados como resultado dos usos”, pontua Perrone.

Além disso, lidar com os impactos reais advindos dessas tecnologias também é considerado uma discussão importante. Bruno Bioni relaciona dois princípios que entende basilares na construção dessas regulações: o princípio de crescimento sustentável e de bem estar social e os princípios da não maleficência e da proporcionalidade da adoção de sistema.

Segundo ele, esses princípios vão propor análises de custo-benefício para decidir se determinados sistemas inteligentes serão ou não adotados de acordo com seus impactos no bem-estar social. É como acontece, por exemplo, com as tecnologias de reconhecimento facial, cuja aplicação, como mostram evidências empíricas, ampliam prisões ilegais e causam mais discriminação com pessoas negras. A União Europeia, na sua lei de IA (ou AI Act, em inglês) considera essas funcionalidades como de altíssimo risco, banindo o seu desenvolvimento e uso em todo território do bloco econômico.

Outros três princípios são considerados importantes nesse processo:  prestação de contas/responsabilidade, autodeterminação e transparência. Conforme explica Bioni, eles procuram assegurar que haja a criação de um “devido processo informacional”, que busca garantir a agência, a autodeterminação e a liberdade de escolha das pessoas em relação aos sistemas de IA utilizados. “O que se busca garantir é a nossa capacidade de autodeterminação e entender como somos vistos, julgados e analisados”.

COMPARTILHAR:
0
Would love your thoughts, please comment.x