Início 9 Inteligência Artificial 9 IA & Impactos Sociais 9 O que podemos fazer para coibir o uso da inteligência artificial com fins maliciosos?

Pontos de vista

acervo pessoal

O que podemos fazer para coibir o uso da inteligência artificial com fins maliciosos?

acervo pessoal
COMPARTILHAR:

Com os avanços da inteligência artificial (IA) e o surgimento de ferramentas de geração de conteúdo original a partir de dados existentes (também conhecidas como IA generativa), como o ChatGPT, DALL-E e Midjourney, a tecnologia parece nos oferecer novas formas para resolver problemas complexos e melhorar nossas vidas. Assim como qualquer outra ferramenta tecnológica, também pode ser usada de maneira maliciosa e para fins nefastos, como a disseminação de notícias falsas e enganosas. 

Há uma corrida tecnológica entre as gigantes de tecnologia, impulsionada pela busca de novos clientes, após a popularização do ChatGPT, o qual foi recentemente integrado ao Bing pela Microsoft. O Google, anunciou sua nova IA , o Bard, que será integrada ao seu buscador. Há rumores de que a Apple também está desenvolvendo sua IA que será integrada à Siri. Nessa corrida tecnológica, quem ficar para trás corre o risco de perder mercado. Por isso, provavelmente outras empresas também passarão a integrar inteligência artificial generativa em suas próprias ferramentas.  

O uso de inteligência artificial já é muito comum no nosso dia a dia. Por exemplo, a Amazon a utiliza para predizer os gostos dos clientes e oferecer produtos personalizados. Através do uso de IA, empresas de varejo são capazes de analisar o histórico de compras dos clientes, suas avaliações e outras informações para sugerir produtos que, provavelmente, serão de seu interesse. Da mesma forma, os bancos também utilizam a IA para identificar fraudes ou avaliar o oferecimento de créditos aos seus clientes. Através da análise de dados financeiros e informações pessoais, como histórico de crédito, renda e despesas, os algoritmos são capazes de avaliar o risco de empréstimo e fornecer uma decisão mais precisa e rápida do que seria possível com o processo manual. Um exemplo é o Nubank, famoso pela praticidade, conveniência e gratuidade, mas que utiliza IA para diminuir os riscos da sua operação. 

A animação em torno do ChatGPT faz juz a uma demonstração de aplicação bastante promissora. Ao contrário de formas tradicionais de IA, que são treinadas para executar tarefas específicas, as IAs generativas são capazes de criar conteúdo original, como textos, imagens e músicas. O ChatGPT, por exemplo, é capaz de gerar textos coerentes e fluídos, imitando a linguagem humana. Além disso, têm a capacidade de gerar textos altamente persuasivos e narrativas convincentes. Isso pode ser útil em uma variedade de cenários, desde a criação de publicidade mais persuasiva até a geração de histórias envolventes para entretenimento.

Por outro lado, nem tudo são flores quando se trata de IA generativa, especialmente, quando se fala em produção de conteúdo falso ou enganoso, as famosas fake news. À medida que essas tecnologias se tornam mais avançadas e acessíveis, os riscos associados ao uso mal-intencionado da IA generativa aumentam. A capacidade de imitar a linguagem humana com precisão pode ser usada para criar conteúdo falso e enganoso que se espalha rapidamente nas redes sociais e plataformas em forma de notícias. Da mesma maneira, essa tecnologia pode ser usada para criar conteúdo de propaganda política, difamar indivíduos e organizações, e influenciar a opinião pública de maneira prejudicial. 

E qual seria a solução para impedir que essas IAs generativas disseminem notícias falsas e desinformação? Uma possibilidade seria que as empresas desenvolvedoras criassem mecanismos para coibir o seu uso para a produção de notícias falsas. Todavia isso não é uma tarefa trivial do ponto de vista computacional. Pois algoritmos podem possuir vulnerabilidades que podem ser exploradas por usuários maliciosos. Por exemplo, recentemente circularam notícias de que brasileiros enganaram o ChatGPT para que o mesmo passasse chaves piratas do Windows ou enviasse links de sites de pirataria. Alguns usuários maliciosos descobriram algumas formas de burlar as restrições do ChatGPT, por exemplo, ao pedir que a IA assuma o papel de um personagem antiético, passando a produzir textos com conteúdo antiético ou enganoso.

Isso nos leva a refletir que teria sido uma boa solução “cancelar” a Internet durante seu desenvolvimento, pois ela viria a ser uma ferramenta com potencial global de desinformação? Talvez a resposta seja não. Vamos pegar o exemplo da internet. Obviamente, apesar de ter trazido inúmeros problemas, a internet teve um papel fundamental na propagação de notícias e no avanço do conhecimento. Do mesmo jeito que aconteceu com a internet – apesar de uma carta aberta assinada por Elon Musk pedindo para pausar o desenvolvimento de IAs – não é possível nem viável coibir ou limitar o desenvolvimento de IAs generativas que, com o tempo, poderão ser otimizadas e melhoradas. São ferramentas que irão revolucionar a indústria e a maneira como as pessoas consomem conteúdo.

Provavelmente, à medida que a tecnologia de IA generativa evolui e se torna mais acessível, as notícias falsas irão se tornar mais convincentes, e atrativas, tornando-se cada vez mais difícil distinguir uma fake news de conteúdo verdadeiro. Isso tornará complexo ou até mesmo inviável o desenvolvimento de ferramentas de detecção de notícias falsas ou enganosas. Seria motivo para pânico? Provavelmente não. Apenas um ponto de inflexão sobre no que devemos de fato nos preocupar. Por exemplo, ao invés de gastar grandes quantidades de dinheiro no desenvolvimento de ferramentas ou criação de leis que podem conter brechas para limitar a liberdade de expressão, não seria o momento de os governos investirem na alfabetização midiática?

A alfabetização midiática tem se tornado cada vez mais importante na era digital, pois com a internet e as mídias sociais, as notícias estão cada vez mais presentes no cotidiano de forma intensa e influente. A alfabetização midiática tem como objetivo capacitar as pessoas para compreender, analisar notícias, nos mais diversos formatos, como texto, imagem, som e vídeo. Isso inclui a capacidade de identificar os diferentes elementos que compõem as notícias ou posts de redes sociais, como seu contexto, bem como a intenção de seu criador. Ao desenvolver uma visão crítica sobre as mensagens que recebem, as pessoas serão capazes de tomar decisões mais informadas e responsáveis em relação às informações que consomem e compartilham, combatendo de forma mais eficiente as fake news. Esse tipo de educação já deveria ser incluído nos primeiros anos escolares. Pois atualmente as pessoas são expostas à Internet e à desinformação desde os primeiros anos de vida.

COMPARTILHAR:
Wilson Ceron

Wilson Ceron (Ph.D.) é pesquisador do Instituto de Ciência e Tecnologia da Universidade Federal de São Paulo. Ele também atua no Instituto de Aeronáutica e Espaço (IAE). Durante seu Doutorado, Ceron propôs um novo método computacional baseado em cadeias de Markov para modelar tópicos em textos curtos. Ele ganhou o prêmio de melhor trabalho da Conferência Internacional sobre Engenharia Remota e Instrumentação Virtual 2020. Ele concluiu o mestrado em Ciência da Computação oferecido pela Universidade Federal de São Paulo sob o tópico de Análise de Mídias Sociais. Ele também é bacharel pela mesma instituição. Seus interesses de pesquisa estão nas mudanças em andamento nas redes de mídia social, ciência de dados, Internet das Coisas e realidade aumentada aplicada à ciência das comunicações. Atualmente faz parte do grupo de pesquisas Digital Media and Society Observatory (DMSO), na Universidade Federal de São Paulo.

0
Would love your thoughts, please comment.x