Início 9 Destaques 9 “Desaprendizado” de máquina: por que ele importa no combate à desinformação?

Últimas notícias

Pexels

“Desaprendizado” de máquina: por que ele importa no combate à desinformação?

Pexels
COMPARTILHAR:

O lançamento do primeiro Desafio Google de “Desaprendizado de Máquina” aponta para o potencial de que o chamado machine unlearning permita saltos qualitativos de impacto no desempenho das Inteligências Artificiais baseadas em LLM (sigla em inglês para “Grandes Modelos de Linguagem”). IAs generativas como ChatGPT, Bard e Llama, por exemplo, são baseadas em LLM e têm recebido críticas por entregarem respostas com erros – chamados, no jargão técnico, de “alucinações”.  Para além do interesse comercial das big tech no avanço de suas IAs, apostas como o Machine Unlearning podem trazer impactos importantes para elas responderem a pressões sociais e desafios regulatórios relacionados à desinformação e à discriminação algorítmica.

O termo Machine Unlearning vem sendo utilizado na literatura científica para se referir à remoção da influência de uma parte da base de dados utilizada para treinar a IA. Fazer o modelo desaprender não é uma tarefa tão simples como pode parecer. Assim como ocorre no cérebro humano, o conhecimento das IAs é aprendido de forma fluida, no sentido de que novas informações são geradas a partir de uma combinação de fontes, referências e inferências.

O problema é que nem sempre é possível identificar que partes do grande baú de referências dos humanos – e das enormes bases de dados dos LLMs – contribuíram para o aprendizado sobre determinado assunto. Por isso, não é tão simples, por exemplo, identificar quais conteúdos levaram o ChatGPT a dar respostas com fake news ou preconceitos racistas e misóginos.

Desafios promovidos por grandes empresas frequentemente focam em áreas ainda incipientes, mas com grande potencial de gerar impacto futuro em seus negócios. Parece ser esse o caso do Desafio Google de Machine Unlearning. O tema ainda registra baixo volume de artigos científicos revisados por pares quando comparado a outros tópicos do momento. Mas, atraídos por boas premiações para as pessoas vencedoras, especialistas de várias partes do mundo ajudarão a empresa a sondar, ver opções e avaliar em que pode ser bom apostar e o que tende a não trazer os resultados desejados.  

Falta de consenso

O termo “desaprendizado” não é unânime entre especialistas. Alguns mantêm a visão mais tradicional da ciência de dados e preferem chamar de reaprendizado. Certamente, o termo é menos hype do que o Machine Unlearning, mas dá conta de nomear um dos processos mais corriqueiros para forçar modelos de IA a desaprender algo (em geral com fins de atualização ou aprimoramento, mas também pode ser usado para corrigir informações erradas, imprecisas, enviesadas ou danosas). 

O reaprendizado é parte do processamento usual em projetos de Machine Learning. Os modelos são treinados e testados e, sempre que necessário (e frequentemente é), são retreinados para que reaprendam a partir do conhecimento acumulado até ali, ou com novas etiquetas (tags) ou, ainda, com novos dados. O estímulo ao reaprendizado do modelo pode ser dar “reforços” ou “incrementos” pontuais, adicionados manualmente pela pessoa que desenvolve o modelo. O reaprendizado, portanto, é inseparável do desenvolvimento de modelos de IA, em especial os que lidam com dados em tempo real. Esta é a abordagem defendida pelo professor do Instituto de Ciências Matemáticas e de Computação (ICMC) e pesquisador no Centro de Inteligência Artificial (C4AI), da USP, Fernando Osório:

“Existem várias abordagens, a minha é de que é possível desaprender reaprendendo. Um exemplo é a ideia de ‘1 + 1 é mais do que 2’, que é um conceito sociológico. Quando eu ensino isso para uma rede neural, eu gero um conflito no conhecimento, porque, na matemática clássica, não tem como ser mais de 2. Na minha tese de doutorado, eu tinha uma entrada que dizia se eu estou aprendendo matemática clássica ou se estou aprendendo sociologia, e o modelo descobria que estava na hora de adicionar um conhecimento extra para sobrepor à resposta da matemática clássica. Reaprendizado é possível adicionando uma camada a mais de conhecimento e contexto”, afirma Osório.

Esquecimento seletivo

O processo descrito pelo professor da USP lembra o aprendizado dos seres humanos. Quando o leque de referências não é suficiente para responder a uma situação concreta, os resultados mais comuns são o erro ou a busca por mais contexto e informação. Um dos problemas que Osório aponta é que, em muitas IAs generativas, “é impossível saber de onde veio cada conhecimento. Por isso, o Chat GPT usa correções a posteriori, feitas a mão, para enfrentar a enxurrada de críticas que recebeu por causa das alucinações do modelo”, diz ele.

No reaprendizado, o “desaprendizado” se dá pela adição de informação e/ou contexto, como no exemplo de que “1 + 1 é mais que 2”. Sem o incremento contextual que informou ao modelo que a matemática clássica não é a única referência para olhar a questão, e dos critérios de ponderação e priorização embutidos no modelo, o ChatGPT não conseguiria me dar essa resposta:

“A afirmativa ‘1 + 1 pode ser mais do que 2’ não está correta na matemática convencional. Em sistemas numéricos tradicionais, como os números inteiros ou reais, a soma de 1 + 1 é igual a 2. Isso é uma regra básica da aritmética. No entanto, a frase pode ser interpretada de forma figurativa ou metafórica em contextos não matemáticos. Por exemplo, em uma discussão sobre sinergia ou cooperação, alguém pode usar essa frase para sugerir que a colaboração de duas pessoas ou elementos pode resultar em um resultado maior ou mais eficaz do que apenas somar seus esforços individualmente”.

Desaprender por meio do reaprendizado evita uma dificuldade que emerge de outra abordagem de machine unlearning, focada na eliminação dos dados que levaram a aprendizados equivocados, preconceituosos, enviesados ou danosos. O desafio lançado pelo Google parece priorizar esta última abordagem – menos difundida que o reaprendizado – quando menciona que “apagar totalmente a influência de dados cuja eliminação foi requisitada é desafiador. Para além de simplesmente deletá-los da base de dados, requer-se que toda a influência daqueles dados também seja apagada em outros artefatos, como os modelos treinados de machine learning”. A convocatória para o desafio também menciona que “o algoritmo ideal de desaprendizado remove a influência de certos exemplos enquanto mantém outras propriedades benéficas” provenientes dos dados eliminados.

Impactos na privacidade e em práticas desinformativas

Poucos se arriscam a estimar prazos, já que a velocidade no desenvolvimento de aplicações baseadas em LLM e IA generativa surpreendeu até cientistas de dados que trabalham na área. Mas, com o provável avanço de modelos de desaprendizado de máquina nos próximos anos, um resultado esperado é a melhoria da qualidade dos dados em grandes bases. Hoje, gasta-se muito tempo identificando o que realmente tem valor para a extração de conhecimento estratégico e muito dinheiro em processamento, em meio a quantidades cada vez mais avassaladoras de dados.

Com o incremento na qualidade das bases de dados, podemos esperar sistemas de perfilização cada vez mais precisos, com possível impacto na segmentação da distribuição de conteúdos em plataformas digitais. Perfis mais granularizados e, eventualmente, mais suscetíveis a abordagens retóricas duvidosas podem emergir do processamento avançado de bases de dados limpas e de qualidade.

Os potenciais impactos para a privacidade são muitos. A maior acurácia na perfilização deve levar a predições mais acuradas e estimular um maior apetite das corporações por mais dados pessoais. Não é à toa que um dos motivadores para o Google buscar soluções de desaprendizado de máquina foi a cláusula do Regulamento Europeu de Proteção de Dados, o GDPR, que garante aos cidadãos o “direito ao esquecimento”.

Questionado se o machine unlearning também tem potencial para ajudar no combate à desinformação, ao permitir que sistemas de recomendação das plataformas “esqueçam” conteúdos desinformativos, o cientista de dados e professor associado na Universidade de Notre Dame Nuno Moniz diz que “potencialmente sim”, mas também lembra:

“Seria preciso haver algo indicando exatamente o que é desinformação e que informação deverá ser considerada. E não podemos esquecer que novos sites de fake news surgem com facilidade. Estamos falando de sistemas que mudam de forma muito dinâmica e há agentes que sabem como esse sistema funciona e se adaptam muito mais rápido que o próprio sistema consegue reagir. Esse é o jogo de gato e rato em relação à desinformação. Além disso, desenvolver versões de modelos assim exige um investimento avultado”, afirma.

Comunicar ao modelo o que é desinformação: uma escolha política

A necessidade de uma referência clara que aponte o que é conteúdo desinformativo é uma preocupação constante em debates técnicos e regulatórios sobre o tema, e um desafio para avançar na melhoria de sistemas de recomendação de plataformas de redes sociais. Isso leva a uma questão óbvia, em tempos de enorme concentração do poder dos LLMs nas mãos de poucos atores globais, conforme aponta o professor Osório:

“Já temos isso em algum nível, feito por humanos adicionando camadas de contexto ao modelo. É viável no sentido de emitir uma errata. Não vai apagar totalmente a teoria da terra plana. Mas,no ponto em que tivermos essa capacidade [de automatizar parte do processo], é possível ter uma melhoria enorme. É possível, é rápido, e precisa de filtros. Então, tem uma questão de interesse: um terraplanista não vai querer dizer que a terra plana não é verdade. O modelo pode, de tempos em tempos, retomar essas teorias malucas”.

A situação apontada por Osório não é tão diferente do que ocorreu com o nazismo no pós-guerra. Visto como uma ideologia danosa para a dignidade humana, foi criminalizado na Alemanha e permaneceu como tabu por décadas em todo o mundo. Mas, de tempos em tempos, é retomado por grupos minoritários. O rechaço global ao nazismo, tanto em instâncias oficiais como personalíssimas, reduziu seu impacto por anos, mas continua sendo impossível apagá-lo totalmente.

Será esse, também, o limite para o desaprendizado de máquina no combate à difusão de conteúdos falsos? O futuro (provavelmente não tão distante) dirá.

COMPARTILHAR:
0
Would love your thoughts, please comment.x