Com os riscos e também as possibilidades criativas trazidas pela Inteligência Artificial, o jogo político contemporâneo passa a contar com uma “caixinha de criação de multiversos”, nas palavras do professor Diogo Cortiz. O pesquisador avalia que o desenho atual da regulação da IA no Brasil acerta ao avaliar os riscos dependendo do uso da tecnologia. Professor na PUC-SP e pesquisador no NIC.br, Diogo Cortiz investiga a intersecção entre tecnologia, ciência cognitiva e comunicação. Doutor em Tecnologias da Inteligência e Design Digital pela PUC-SP, ele foi pesquisador visitante no laboratório de Ciência Cognitiva da Queen Mary University of London. Leia a entrevista concedida à série #panorama2024 do *desinformante.
Lena Benz: A gente tem pensado muito sobre a popularização do Chat GPT, sobre os impactos negativos, mas também as oportunidades que essa tecnologia traz. Na sua opinião, devemos temer ou aproveitar a IA? E, no caso de aproveitá-la, quais cuidados você recomenda?
Diogo Cortiz: As duas coisas são válidas, mas eu acho que a gente deve aproveitar mais, porque ela vai trazer uma série de benefícios, de facilidades, de processo de inovação, de produtividade, de novas formas de criar, só que toda tecnologia também vai trazer consequências às vezes indesejáveis e às vezes até difíceis de antecipar. Então, em alguma medida a gente tem que olhar não com medo para a Inteligência Artificial, porque isso é ruim, mas com cautela. Entender que é uma ferramenta que faz uma série de coisas, mas que tem uma limitação. O Chat GPT funciona criando conteúdos. Ele não é uma representação confiável de uma base de conhecimento.
Matheus Soares: A gente teve recentemente o AI Act avançando na União Europeia. Queria saber como você avalia os esforços brasileiros durante 2023 para regular a IA. O país está avançando no próprio projeto de regulação dessa tecnologia? Podemos prever a aprovação de uma lei brasileira de regulação de IA já para 2024?
Diogo Cortiz: O Brasil tem um movimento de regular a Inteligência Artificial que teve uma melhora em seu desenho quando o Senado resolveu criar uma comissão de juristas, que trabalham com especialistas, e criou ali uma proposta que agora está sendo modificada. É uma proposta inspirada na União Europeia, que trabalha com uma abordagem baseada em risco, então ela não é uma regulação simétrica, que [prevê que] tudo que é IA vai ser regulado da mesma forma. Não, ela é bem assimétrica porque diz que, dependendo do caso de uso, se trouxer mais riscos para a sociedade, vai ter requisitos mais específicos do ponto de vista de regulação. Eu gosto dessa abordagem baseada em risco, que não regula a tecnologia em si, olha muito para o uso, para os riscos, e coloca requisitos para quem vai ter um risco maior.
Por outro lado, quando a gente vai ler esse projeto de lei surgem muitas dúvidas técnicas. E aí eu trago um exemplo aqui que é a questão da [explicabilidade] da Inteligência Artificial. É uma parte do projeto de lei que é muito ampla e às vezes você não entende muito bem o que ele está querendo colocar. É a IA explicar com a linguagem natural, é trazer mecanismos de explicação? Então tem pontos que precisam de um debate e um aprofundamento maior.
Lena Benz: Nas redes sociais a gente já começa a ver muitos exemplos de conteúdos sintéticos criados por IA e isso muito provavelmente se tornará ainda mais comum nos próximos anos. Qual o impacto disso no ecossistema da informação? As plataformas também serão responsáveis por conter esse tipo de conteúdo? Como você prevê isso?
Diogo Cortiz: É um desafio gigantesco porque a gente vai ser inundado por conteúdos criados por IA em diferentes modalidades, tanto texto, quanto imagens, quanto áudio. A dificuldade que a gente tem é: como a gente faz para identificar esses conteúdos e dar um tratamento adequado para eles? A gente tem um desafio que é no processo de criação do conteúdo e um outro que é na distribuição. Isso ficou bastante comum no caso recente que teve no Brasil, de alunos que usaram Inteligência Artificial para fazer deepfakes pornográficos de algumas alunas da escola. Aí muita gente fala: “tem que regular a tecnologia”. Sim, a gente tem que pensar a regulação, só que às vezes a regulação não vai solucionar esse problema porque você pode exigir dos desenvolvedores que façam essa marcação dos conteúdos feitos por IA, mas esses desenvolvedores já estão fazendo isso. Não é algo muito fácil porque envolve uma questão técnica de como fazer isso sem que seja quebrado de uma maneira muito fácil, que seja interoperável entre os diferentes desenvolvedores e empresas de Inteligência Artificial.
E aí quando vai para a regulação, a gente tem que pensar: As pessoas que estão fazendo deepfake já estão cometendo um crime, já estão fora da legalidade, então elas vão usar ferramentas que não são comerciais. São ferramentas em que a regulação nem vai chegar, então não é só regulação, é um desafio técnico olhando especificamente também para quem distribui esse conteúdo, principalmente as plataformas. Como elas vão conseguir identificar e marcar esses conteúdos e algumas vezes promover algum tipo de moderação de um conteúdo sintético?
Matheus Soares: As deepfakes e outras funcionalidades baseadas em IA já são realidade nos contextos eleitorais, como nós pudemos ver recentemente na Argentina com o [Javier] Milei, com diversas deepfakes. Como você vê esses próximos anos com a deepfake bastante popularizadas nos contextos eleitorais? Como isso impactará nos processos desinformativos?
Diogo Cortiz: Eu vejo como o multiverso da loucura. Eu falo que a Inteligência Artificial é como se fosse uma caixinha de criação de multiversos, de realidades paralelas, porque você consegue criar tanto narrativas que são super coerentes, mas também imagens, vídeos, então a gente entra numa fase da desinformação ultrarrealista, da desinformação em alta resolução. A Inteligência Artificial vai impactar nesse sentido da criação de conteúdos falsos, com a disseminação de áudios falando que um candidato disse algo que ele não disse, colocando o candidato em um vídeo que ele não fez, esse é um problema muito danoso que a gente vai ter que pensar realmente em como resolver. Acho que as plataformas vão ter que, num primeiro momento, criar políticas para isso, e num segundo momento olhar para a questão técnica de como fazer para marcar esses conteúdos, identificar.
Mas a gente também vai ter outros usos, não só a deepfake, isso vai dar uma outra dinâmica para o próprio processo comunicacional. É uma ferramenta que não vai ficar só na mão de partidos ou da campanha eleitoral oficial, vai ficar na mão de apoiadores. Teremos uma outra dinâmica, por exemplo, com criação de paródias, novos tipos de criação de memes, um novo processo comunicacional político mesmo saindo desse universo da Inteligência Artificial. Então tem duas grandes dimensões: uma que é muito danosa, que é o deepfake, e outra que é muito mais criativa, do jogo da comunicação política, de criação de memes, criação de cenários, de deixar um candidato mais fofinho como um personagem da Pixar ou mais demonizado, com uma caricatura extrema. Então muda também o jogo político, informacional, e a gente vai acompanhar isso para entender.
Lena Benz: O que você acha que a gente pode esperar no campo da IA para 2024?
Diogo Cortiz: De forma geral, eu vejo um acirramento de competição entre as bigtechs. Isso é uma coisa que já começou em 2023 e vai se estender. Vejo também uma competição acirrada entre as bigtechs que estão olhando muito para um modelo proprietário, mas também emergindo uma disputa com os modelos open source, que são de código aberto. Você tem a Meta, que apesar de ser bigtech, está impulsionando muito esse movimento open source. Ela tem um modelo que está aberto, apesar de ser um modelo aberto até a página dois porque tem uma limitação ali se tiver acima de tantos usuários. Mas tem uma série de startups que estão surgindo olhando muito para essa questão do open source, descentralizando esse poder geopolítico. Hoje as duas principais startups que estão tentando ganhar mercado e propor uma inovação local a partir de modelos de código abertos são uma chinesa, que é do Kai-Full Lee, um grande pesquisador de IA, e agora recentemente a Mistral, que é uma startup francesa, olhando muito para o contexto da Europa.