Início 9 Destaques 9 Eu vejo conteúdos de IA. Com que frequência? O tempo todo!

Pontos de vista

Eu vejo conteúdos de IA. Com que frequência? O tempo todo!

COMPARTILHAR:

Acompanhar o desenvolvimento e o impacto das Inteligências Artificiais generativas nos últimos anos é perceber determinados “momentos-chave” que marcam pontos de não retorno no ambiente digital. Foi assim, por exemplo, com o próprio lançamento do ChatGPT, no final de 2022, e a deepfake do casaco do Papa, em março de 2023, que nos mostrou a capacidade dessas imagens hiper-realistas de embaralhar de vez a linha da realidade e da falseabilidade.

Na semana passada, vivemos um desses períodos importantes no cenário nacional: pela primeira vez, tivemos nas redes uma disputa narrativa de fôlego sobre política que usou os conteúdos sintéticos como estratégia principal e oficial de engajamento coletivo.

A campanha, no caso, foi encabeçada pelo Partido dos Trabalhadores (PT) em torno da taxação dos super-ricos, numa investida do governo federal em meio a crise com o Congresso. Vídeos criados com IA eram publicados diariamente no perfil do partido e republicados pelos usuários apoiadores nas plataformas – uma das publicações somou mais de 20 milhões de visualizações até o final da manhã desta segunda-feira (7).

A disputa narrativa da semana passada chamou atenção da grande mídia e foi o ponto alto de uma movimentação que vem sendo percebida desde o final de maio: a enxurrada de conteúdos criados com IA nas redes sociais.

A diversidade de assuntos e propósitos é tanta que já é possível dizer que, se antes os usos eram pontuais (sem muito impacto viral) – como mostrou o Observatório de IA nas Eleições no ano passado –, agora as deepfakes e conteúdos sintéticos vieram para ficar e serão cada vez mais presentes na esfera pública daqui em diante.

O humor como ponto de partida

Nas últimas semanas, você deve ter esbarrado nas redes sociais com uma senhora de cabelo chanel e maiô preto no comando de um programa de auditório. Marisa Maiô é uma apresentadora de televisão criada pelo escritor Raony Phillips com ajuda de uma inteligência artificial generativa, que angariou milhares de visualizações nas redes, fez “publis” com marcas famosas e até chegou a ser imitada na TV aberta.

Como Marisa, outros conteúdos e deepfakes circularam de forma generalizada pelos perfis alheios, angariando risadas do público. Por alto, vale citarmos o canguru de apoio emocional (que esperava pacientemente ser embarcado num avião e que chegou a enganar diversas pessoas) e até mesmo uma variedade de vídeos que emulam entrevistas jornalísticas com personagens em situações absurdas.

A principal causa para essa profusão de conteúdos sintéticos na rede foi o lançamento do Veo3, a nova IA generativa do Google, que já desbanca as opções concorrentes por permitir a criação de vídeos de 8 segundos altamente realistas, com trilhas e até dublagem das personagens. A criação de memes, inclusive, é uma das produções sugeridas pela própria empresa no site oficial da funcionalidade.

Enquanto isso, no TikTok e no Instagram, músicas criadas com IA impulsionam trends de danças aparentemente inofensivas e engraçadinhas; e em plataformas de streaming, bandas que nunca existiram somam milhares de ouvintes mensais.

Do meme inofensivo ao conteúdo problemático

Se a porta de entrada desses conteúdos sintéticos é o meme e o humor, o que vem na esteira dessa enxurrada de IA nas redes são peças problemáticas com alto teor desinformativo, manipulativo ou que podem até mesmo infringir direitos humanos. É o que investigações jornalísticas já começam a descobrir.

O jornal francês Le Monde, por exemplo, noticiou como milhões de vídeos curtos gerados por IA, todos eles trazendo alguma cena absurda ou até mesmo obscena, estão sendo compartilhados nas redes para gerar engajamento e, consequentemente, receita para os donos dos respectivos perfis. 

Em meio a imagens que mostram tubarões com pernas ou uma galinha com o rosto de Mark Zuckerberg, os usuários vendem PDFs e cursos na tentativa de ganhar alguma receita a partir da viralização dessas imagens. É a economia do “brainrot” (cérebro podre, em português) sendo construída ao vivo, diante dos nossos olhos, com ajuda da IA.

No ano passado, pesquisadores da Universidade de Stanford e de Georgetown publicaram um artigo que concluiu que páginas no Facebook estavam usando imagens surrealistas geradas por IA para aplicar golpes em usuários. 

De acordo com os estudiosos, o conteúdo de spam servia para atrair os usuários a páginas fraudulentas que tentavam vender produtos inexistentes ou roubar dados pessoais. O estudo também sugeriu que as páginas estavam sendo impulsionadas pela própria plataforma. Essa prática também é comum no Brasil por meio de deepfakes de figuras ilustres.

Além disso, casos de imagens e vídeos sintéticos de cunho racista já começam a aparecer nessa enxurrada de conteúdos de IA. Uma matéria da Wired mostrou como o Veo3 do Google está sendo utilizado para criar peças que relacionam mulheres negras a primatas, repercutindo clichês racistas.

Uma outra notícia da ArsTechnica também mostrou outros exemplos de vídeos racistas que estão sendo criados com a ferramenta do Google e postados aos montes no TikTok, com o objetivo de gerar ódio e consternação para angariar maior engajamento na rede.

Uma nova fase do Observatório de IA

Os conteúdos criados com IA já estão entre nós, pipocando nas redes e sendo elemento fundamental nas narrativas e debates a partir de agora – como mostraram não só a campanha do PT, mas também os inúmeros exemplos de “conteúdos brainrot” – e também como elemento de ataques às populações historicamente marginalizadas.

Some a isso as eleições presidenciais que serão realizadas no próximo ano. Esse é um momento em que disputas políticas e discursivas, temperadas com a polarização, darão tração a conteúdos e narrativas desinformativas desta vez com as ferramentas de IA cada vez mais acessíveis e poderosas.

Partindo desse cenário, o Aláfia Lab e a Data Privacy Brasil estão desenvolvendo uma nova fase do Observatório de IA, que atuou ano passado para entender os tipos de uso da tecnologia para manipulação de informações por candidatos e eleitores. O nosso desafio, agora, é compreender e registrar como a IA está impulsionando a criação de narrativas e argumentos no campo da política, mas também no meio ambiente, nas violências de gênero e no racismo online.

Não é exagero dizer que estamos vivendo um outro “momento-chave”, sem ponto de retorno, na história do ecossistema digital. E estaremos acompanhando o que estiver surgindo para, assim, nos prepararmos melhor para os desafios que nos rondam num futuro próximo.

COMPARTILHAR:
Matheus Soares

Jornalista, coordenador de conteúdo do Aláfia Lab e do *desinformante.