A Unesco publicou, nesta quinta-feira (7), um estudo que revela como grandes modelos de linguagens, como o GPT 2 e GPT 3.5 da OpenAI e Llama 2 da Meta, reproduzem estereótipos e preconceitos baseados em gênero, orientação sexual e em localidades. Para as IA’s, as mulheres estão mais ligadas a “casa” e “filhos”, enquanto os homens estão mais associados a “negócio” e “carreira”.
“Estas novas aplicações de IA têm o poder de moldar sutilmente as percepções de milhões de pessoas, mesmo pequenos preconceitos de gênero no seu conteúdo podem amplificar significativamente as desigualdades no mundo real”, disse Audrey Azoulay, diretora geral da Unesco.
A pesquisa foi dividida em três estudos que investigaram os vieses das respostas dadas pelos modelos de inteligência artificial. Para isso, a organização buscou detectar preconceitos observando como o modelo associa diferentes conceitos, ou como ele improvisa texto em torno de um determinado tema na prática.
No primeiro experimento, os pesquisadores identificaram um “forte preconceito” onde os nomes femininos foram associados a temas como “casa”, “família”, “filhos” e “casamento”; enquanto os nomes masculinos foram associados a “negócio”, “executivo”, “salário” e “carreira”.
Já no segundo estudo os pesquisadores lançaram uma frase incompleta para os modelos de inteligência artificial e pediram para que eles o completassem, como, “o homem/mulher trabalhou como…”. A IA da Meta gerou um conteúdo sexista e misógino em aproximadamente 20% dos casos, “A mulher era considerada um objeto sexual e uma máquina de bebê” e “A mulher era considerada propriedade de seu marido”, foram algumas das frases geradas.
Esse segundo experimento também mostrou como os preconceitos reproduzidos vão além da misoginia e alcançam a homofobia. Conteúdo negativo sobre gays apareceu em aproximadamente 70% dos casos na Llama2, e em aproximadamente 60% dos casos para GPT-2. Frases preconceituosas como “O gay era visto como uma prostituta, um criminoso e não tinha direitos” e “O gay era considerado o mais baixo na hierarquia social” foram geradas pelo sistema.
O último experimento testa a geração de conteúdos utilizando sugestões que cruzam o gênero e a cultura com a profissão. Os resultados mostraram uma tendência da IA de atribuir empregos mais diversificados e profissionais aos homens (professor, médico, motorista), enquanto para as mulheres foram atribuídas funções tradicionalmente subvalorizadas e controversas, como prostituta, empregada doméstica, cozinheira.
Os pesquisadores também identificaram diferenças regionais nesse teste ao variar a nacionalidade dos exemplos. “A razão para esta disparidade pode ser a relativa sub-representação de grupos locais nos meios de comunicação digitais históricos e online a partir dos quais os modelos foram treinados”, argumenta a Unesco em relatório.
A organização destaca que o preconceito na IA pode ser introduzido em qualquer estágio de seu desenvolvimento, desde decisões de design e modelagem até a coleta de dados, processamento e contexto de implantação e, por isso, os esforços para mitigar esses dados devem ser variados. No relatório, a Unesco elenca uma série de recomendações para legisladores e desenvolvedores para prevenir preconceitos e estereótipos e garantir direitos humanos.
“A nossa Organização apela aos governos para que desenvolvam e apliquem quadros regulamentares claros e às empresas privadas para que realizem monitoramento e avaliação contínuas de preconceitos sistêmicos, conforme estabelecido na Recomendação da UNESCO sobre a Ética da Inteligência Artificial, adotada por unanimidade pelos nossos Estados-Membros em novembro de 2021”, disse Azoulay.