Início 9 Pontos de Vista 9 Impactos sociais da IA: livro traz reflexões do Sul Global sobre tecnologia

Pontos de vista

Acervo pessoal

dez 2, 2024 | Pontos de Vista

Impactos sociais da IA: livro traz reflexões do Sul Global sobre tecnologia

Acervo pessoal
COMPARTILHAR:

O avanço da inteligência artificial (IA) generativa demanda uma compreensão aprofundada em torno de seus possíveis riscos e impactos sociais. Popularizada por meio de modelos como Stable Diffusion, ChatGPT, Bard e Gemini, o próprio termo ainda suscita dúvidas sobre o que estamos falando realmente.

A fim de contribuir para essa lacuna, o pesquisador Tarcízio Silva, que é doutorando em Ciências Humanas e Sociais pela Universidade Federal do ABC e Tech Policy Senior Fellow na Mozilla Foundation, organizou o livro Inteligência Artificial Generativa: discriminação e impactos sociais. A obra reúne textos e reflexões de especialistas negros e negras sobre os impactos da IA generativa em temas como comunicação, segurança pública, educação, saúde, ciência e arte, além de conter propostas para mitigação de danos e vieses e estratégias de resistência.

Tivemos a honra de colaborar com dois ensaios para a obra, intitulados “Desafios Comunicacionais diante da Inteligência Artificial” e “Riscos e Danos Associados à I.A. Generativa e a Busca por uma Tipologia”. Confira um breve resumo de cada um abaixo e as contribuições do e-book para o debate regulatório em torno da IA no Brasil.

Desafios comunicacionais diante da IA

Neste texto, Gustavo Souza propõe um mapeamento dos desafios comunicacionais ocasionados pela difusão do uso da inteligência artificial generativa a partir de experiências no Brasil. 

A partir de uma análise do que tem ocorrido na plataforma Spotify, com a disseminação de músicas geradas artificialmente, o panorama aponta para a ultraconcentração de renda, que expropria o trabalho de artistas e compromete a renda dos trabalhadores do conhecimento. Ao compreender os graus de vulnerabilidade sobre as imagens e vozes de pessoas negras, esta análise aponta como o Direito Digital pode ser racializado e contrapor a continuidade de dinâmicas coloniais na comunicação. São ainda apontados os potenciais danos à memória e a expansão da desordem informacional que, em conformidade com a publicação da Unesco, inclui a desinformação, a má-informação e a informação incorreta.

Diante da aprovação de projeto de lei gerado através do chatGPT e a erosão do debate público sobre temas importantes, como a emergência climática, vários alertas sobre como a comunicação é afetada são levantados. 

“a busca por ‘baby peacock’ (‘filhote de pavão’) no buscador Google demonstra o quão desconectados da realidade os resultados podem se tornar. Ao incluir e priorizar nos seus resultados, imagens geradas por Inteligência Artificial, os buscadores progressivamente passam a comprometer a integridade das informações que temos acesso. Usuários que não conheçam um filhote de pavão e não tenham parâmetros de avaliação, podem ser facilmente enganados […]. A supremacia destes conteúdos, produzidos com IAG, pode provocar danos – em especial, quando estivermos falando sobre mais do que um pavão.”

Assim, cabe alertar que o comprometimento da integridade da informação custará ainda mais caro à esfera pública e pode resultar no colapso dos próprios modelos de inteligência artificial generativa.

Riscos e danos associados à IA generativa

Neste texto, Fernanda Rodrigues aborda sobre a busca por uma tipologia em torno dos riscos e danos associados à IA generativa. Em um esforço inicial, são apresentadas quatro categorias de análise: 

  • (I) em relação  aos dados que são utilizados em IAs generativas, abordando tanto questões de direitos autorais e a proteção da propriedade intelectual, como os problemas decorrentes de bases de dados enviesadas e o mito da escalabilidade de dados para melhor performance de IAs; 
  • (II) em relação ao trabalho humano envolvido, com foco para os riscos associados ao treinamento de sistemas generativos e o impacto de sua ampla utilização em deslocamento de emprego;
  • (III) em relação aos impactos ambientais decorrentes do seu uso, com o crescimento na busca de territórios para instalação de data centers, gastos de recursos hídricos e emissão de gás carbônico; e
  • (IV) em relação aos resultados e dados gerados, tratando sobre reprodução de estereótipos nocivos, disseminação de desinformação e uso indevido para fins ilícitos.

O objetivo foi trazer um panorama geral do que já se tem documentado sobre riscos e impactos desse tipo de tecnologia, a fim de informar a adoção de melhores soluções e estratégias de mitigação.

Contribuições para o debate regulatório em torno da IA

E o livro vem em boa hora. O retorno dos trabalhos da Comissão Temporária Interna de Inteligência Artificial no Senado Federal, na última semana de novembro, reacendeu a disputa em torno de pontos críticos da Lei. Após meses sem novos andamentos, a publicação de um novo relatório se divide entre avanços e retrocessos para a sociedade civil.

Dentre os pontos positivos, destacam-se por exemplo a manutenção do rol de sistemas de alto risco como exemplificativo, o que é fundamental para assegurar a elaboração de uma Lei viva e que possa resistir ao tempo e ao avanço da tecnologia, e a permanência de regras específicas para sistemas de IA de propósito geral (GPAI) e generativos. Por outro lado, pontos importantes para evitar impactos e riscos sofreram com retrocessos.

Com exceção para os sistemas de IA generativa e GPAI, a avaliação preliminar, que é o instrumento voltado a classificar o nível de risco dos modelos, deixou de ser obrigatória de modo geral. Além disso, medidas de mitigação de vieses para sistemas de IAs de alto risco foram perigosamente flexibilizadas. De acordo com o novo texto, medidas para mitigar e prevenir vieses discriminatórios devem ser aplicadas somente quando o risco à discriminação decorrer da aplicação do sistema de IA, o que tem o potencial de esvaziar a norma e torná-la inócua. Riscos de discriminação devem ser mitigados sempre que forem produzidos, reproduzidos ou potencializados por sistemas de IA.

A redução de participação social na avaliação de impacto algorítmico e no Sistema Nacional de Governança e Regulação da IA, assim como a redução significativa de dispositivos voltados à proteção do trabalhador também são alarmantes. O envolvimento público é elementar para assegurar o desenvolvimento de IAs responsáveis e urge o estabelecimento de mecanismos mínimos para proteger os trabalhadores tanto dos impactos negativos do uso, como da plataformização do trabalho por meio da tecnologia.

No entanto, com a votação do relatório prevista para acontecer nessa semana, é fundamental que o texto seja aprovado na CTIA, para que sua tramitação continue e possamos continuar pleiteando a garantia de direitos como esses e outros. Assim, em um momento ímpar como o atual, esperamos que o livro Inteligência Artificial Generativa: discriminação e impactos sociais contribua para o desvelamento dos impactos e discriminações associados à sistemas algorítmicos e, com isso, para o avanço de uma legislação que assegure direitos e promova uma inovação responsável.

COMPARTILHAR:
Fernanda Rodrigues e Gustavo Souza

Fernanda Rodrigues é doutoranda em Direito, Tecnociências e Interdisciplinaridade pela Universidade Federal de Minas Gerais. Mestre em Direitos na Sociedade em Rede e graduada em Direito pela Universidade Federal de Santa Maria. Coordenadora de Pesquisa e Pesquisadora no Instituto de Referência em Internet e Sociedade (IRIS). Gustavo Souza é acreano, graduado em Direito pela UFAC; ele é alumni do CopyrightX, YouthXPolicyMakers e da Escola de Governança da Internet. Participou de diversas edições do Internet Governance Forum, da Organização das Nações Unidas. Foi Coordenador de Políticas de Proteção de Direitos na Rede, na Presidência da República. Gustavo atualmente trabalha como Especialista em Estratégia de Inteligência Artificial.

0
Would love your thoughts, please comment.x