Início 9 Destaques 9 Vamos ter de conviver com deepfakes nas eleições, como disse o ministro Barroso?

Últimas notícias

@thiagoilustrado

Vamos ter de conviver com deepfakes nas eleições, como disse o ministro Barroso?

@thiagoilustrado
COMPARTILHAR:

“Não há como, neste momento, conter o uso do deepfake”. Foi com essas palavras que o presidente do Supremo Tribunal Federal (STF), o ministro Luís Roberto Barroso, levantou a preocupação com a presença dos conteúdos criados com Inteligência Artificial generativa nas próximas eleições brasileiras, previstas para outubro, durante uma entrevista a Globonews . “Nós vamos lidar com deepfakes nas eleições”, sentenciou Barroso, que, em outros momentos, já havia sinalizado também a necessidade de regulações de IAs.

A fala do ministro – que veio antes da publicação das minutas pelo Tribunal Superior Eleitoral (TSE), que proíbem, entre outros pontos, a produção de deepfakes nas eleições de outubro – gerou debate nas redes sociais. O jornalista Bruno Sartori, produtor de deepfakes satíricas, discordou de Barroso, afirmando que a contenção desse tipo de conteúdo é possível de ser feita. “As redes sociais são capazes de detectar e bloquear os deepfakes, assim como fazem com pornografia. Só falta as autoridades obrigarem as redes a tomarem essas medida”, escreveu Sartori em seu perfil no X (antigo Twitter).

Descobrir se as plataformas vão conseguir realmente conter deepfakes nas eleições brasileiras e internacionais em 2024 não é uma tarefa fácil. Além de ser um fenômeno de proporções inéditas e que se aperfeiçoa rapidamente, as iniciativas propostas pelas empresas de tecnologia também são novas e apresentam limitações técnicas. A  ineficiência das big tech em moderar conteúdos já conhecidos, como discurso de ódio e notícias falsas, também contribui para o ceticismo sobre a real disponibilidade de ação desses atores.

As próprias gigantes de tecnologia parecem estar cientes dos riscos das deepfakes em desestabilizar e influenciar eleições. Desde o ano passado, os líderes do setor estão assinando compromissos coletivos que envolvem a construção de ferramentas de segurança, como as marcas d’água, e a promoção de iniciativas de educação midiática. O acordo mais recente foi fechado no mês passado, quando 20 empresas se comprometeram a combater os conteúdos sintéticos durante os pleitos eleitorais de 2024.

Carla Rodrigues, coordenadora de Plataformas e Mercados Digitais do Data Privacy Brasil, acredita que, apesar dos esforços que as plataformas estão empenhando, não será possível conter totalmente esses conteúdos sintéticos. “Isso vai muito além de como as plataformas irão reagir”, afirmou. Para Carla, mesmo as marcas d’água ou rótulos explícitos não serão suficientes para impedir que um usuário produza ou compartilhe um conteúdo sintético que confirme seus pontos de vista.

“A conscientização pública e contenção completa desses conteúdos é um grande desafio, vai ser algo contínuo. Porque envolve não apenas as plataformas, mas os governos, pesquisadores e sociedade civil”, comentou.

Já o coordenador de projetos do centro de pesquisa NetLab-UFRJ, Bruno Mattos, pontua que as ações de moderação das plataformas já se mostram insuficientes para conter o avanço das deepfakes. “É difícil imaginar uma reversão deste cenário com base apenas nos esforços de autorregulação das big tech”, comentou o pesquisador. Nesta semana, imagens falsas criadas com IA mostravam Donald Trump, um dos candidatos republicanos na corrida eleitoral norte-americana, com pessoas negras, sugerindo que a comunidade negra o apoiava. As imagens falsas foram postadas no Facebook.

“O ritmo imposto por esse desenvolvimento faz com que seja muito mais difícil apresentar soluções técnicas que sejam capazes de limitar o avanço de deepfakes por si só”, afirma Bruno. “Acima de tudo, é necessário restringir a disseminação descontrolada e o consequente acesso a ferramentas de Inteligência Artificial generativa por parte de agentes maliciosos.”

O que as plataformas estão fazendo para conter deepfakes?

Uma das principais saídas para conter deepfakes nocivas sugeridas pelas empresas de tecnologia é a criação de marcas d’água, como estão sendo chamados os mecanismos que identificam se o conteúdo foi criado por meio de IAs generativas. Essas marcações são feitas no código dos conteúdos, invisíveis ao olho humano, para que os sistemas reconheçam a procedência da peça audiovisual ou imagética. Uma das promessas dessa aplicação é a possibilidade de auxiliar a identificação e posterior moderação desses conteúdos dentro das plataformas.

Em agosto do ano passado, o Google anunciou a criação do SynthID, que imprime marcas d’água nos conteúdos sintéticos gerados pelas IAs generativas da empresa. Em novembro, a funcionalidade, criada pelo Google DeepMind em conjunto com o Google Research, também foi implementada em conteúdos de áudio. “Embora não seja uma solução mágica para resolver o problema da desinformação, o SynthID é uma solução técnica precoce e promissora para esta questão urgente de segurança da IA”, dizia o comunicado do Google.

A Meta também desenvolve tecnologia semelhante, chamada de Stable Signature. Em fevereiro, ao anunciar novas medidas de rotulagem de conteúdos sintéticos para o Facebook, Instagram e Threads, a big tech adiantou novidades da sua funcionalidade de marca d’água, como a construção de ferramentas que podem identificar marcadores invisíveis em escala – especificamente as informações geradas por IA nos padrões técnicos C2PA e IPTC – para que seja possível rotular imagens de outras empresas como Google, OpenAI, Microsoft, Adobe e Midjourney.

Além disso, a Meta disse que passou a exigir que anunciantes de todo o mundo divulguem quando utilizarem IA ou métodos digitais de criação ou alteração de informações em anúncios sobre questões políticas e sociais. A empresa afirmou também que os conteúdos sintéticos são elegíveis para serem avaliados pelos quase 100 parceiros independentes de verificação de fatos e que  os potenciais riscos de IA estão em grande medida cobertos por políticas já existentes relacionadas, por exemplo, ao comportamento das pessoas que usam os aplicativos.

“A empresa reforça que  IA é parte fundamental do seu trabalho de integridade, sendo amplamente aplicada na detecção e remoção em escala de conteúdos violadores de nossas plataformas”, afirmou a Meta por e-mail. Entramos em contato com o Google e TikTok, mas até o fechamento desta matéria, não houve resposta.

Marcas d’água para identificar conteúdo gerado por IA ainda são limitadas

Apesar das marcas d’água serem uma das principais alternativas propostas, ela apresenta limitações. De acordo com a própria Meta, ainda não é possível identificar todo o conteúdo gerado por inteligências artificiais e os marcadores invisíveis podem ser retirados ou burlados.

George Valença, professor adjunto do departamento de Computação da Universidade Federal Rural de Pernambuco (UFRPE), confirmou que, apesar de as empresas estarem publicamente preocupadas com a avalanche de deepfakes criadas por IAs generativas, o mecanismo de marcas d’água ainda é frágil. Essa iniciativa, segundo o pesquisador, só funciona se os deefakes forem feitos em ferramentas que já inserem as marcações em seus resultados. “Se a pessoa optar por ferramentas de GenAI de código aberto, não haverá tais marcas d’água. Mesmo que uma versão atualizada destas soluções surja e inclua tais proteções, as versões anteriores ainda existirão”, comentou.

Já a solução da Meta de rotular resultados gerados por IA nos padrões técnicos C2PA e IPTC pode ser driblada com um simples print. Conforme explicou George, uma imagem obtida, por exemplo, via DALL-E, da OpenAI, possui uma credencial que atesta o seu caráter sintético. Essa marcação, porém, não acompanha o material quando fazemos uma captura de tela da imagem ou do vídeo. 

“Ao fazermos uma captura de tela desta imagem, removemos a marca d’água. Ou seja, há uma ‘luta de gato e rato’ pela frente para criar uma tecnologia de detecção e, depois, verificar como ela está sendo driblada por malfeitores, usando isso como insumo para criar uma nova versão”, disse George.

Considerando esses problemas atuais, a Meta afirmou em comunicado que está trabalhando para aperfeiçoar seu sistema de detecção de conteúdos de IA mesmo que eles não possuam marcadores, além de buscar maneiras de dificultar a remoção ou alteração das marcas.

Plataformas ainda falham com moderação de conteúdo

Na prática, os usos maliciosos das deepfakes não se limitam aos contextos eleitorais. Os conteúdos sintéticos também estão sendo utilizados para a criação de anúncios falsos, recriando principalmente rostos de famosos e pessoas conhecidas com a intenção de ludibriar usuários. Recentemente, deepfakes da cantora Anitta e do jogador Neymar foram compartilhadas no Facebook e no TikTok para divulgar prêmios fantasiosos.

Quando perguntado se as plataformas estão conseguindo conter esse tipo de conteúdo, Bruno Mattos, afirmou que elas não só são incapazes de barrar o avanço das IAs generativas, como também são favorecidas diretamente por sua utilização. Isso ocorre, segundo o pesquisador, porque esses golpes são, muitas vezes, impulsionados como mídia paga. Os golpes dos anúncios são um dos temas monitorados pelo centro de pesquisa vinculado à Universidade Federal do Rio de Janeiro (UFRJ).

“O fato de lucrarem com a veiculação destes anúncios torna as plataformas beneficiárias diretas das ações de agentes maliciosos e nos leva a questionar se elas têm qualquer interesse de fato em conter sua disseminação”, comentou Mattos.

Situações como essas, envolvendo famosos, mostram que se não está fácil para figuras com prestígio público, para os cidadãos comuns o desamparo por parte das empresas ainda é maior. Segundo Mattos, atualmente nenhuma plataforma digital possui ações públicas que dêem suporte a usuários que são vítimas de deepfakes, o que pode levar a uma intensa judicialização da questão enquanto uma saída regulatória não for aprovada. 

Apesar disso, o pesquisador pontua que episódios envolvendo deepfakes de celebridades podem dar fôlego para a discussão popular, como aconteceu recentemente após imagens falsas da cantora Taylor Swift ganharem as redes nos Estados Unidos. “No entanto, até que essa saída se concretize de fato — isso se for concretizada —, o usuário comum segue desamparado pelas plataformas”, concluiu.

Países correm para regular as deepfakes

A pressão para que governos criem regras específicas para as deepfakes cresce no contexto da sociedade civil internacional. Mais de 1.200 pesquisadores, políticos e integrantes do mercado de IA assinaram uma carta aberta pedindo que as deepfakes sejam urgentemente reguladas, considerando os riscos que elas trazem à democracia e à privacidade dos cidadãos.

Na União Europeia, a Lei de Inteligência Artificial (AI Act, como é conhecido em inglês), traz um trecho que trata especificamente do assunto. De acordo com o terceiro parágrafo do artigo 52, que trata de obrigações de transparência, os implantadores de IA devem que gere ou manipule conteúdo de imagem, áudio ou vídeo devem divulgar que o conteúdo foi gerado ou manipulado artificialmente. A aprovação do AI Act está prevista para o próximo mês de abril.

Já os Estados Unidos estão buscando atualizar leis previamente aprovadas, que proíbem a personificação geral de pessoas, para abarcar os fenômenos atuais das deepfakes. A China possui regulações específicas para deepfakes desde janeiro do ano passado, obrigando, por exemplo, que provedores de IAs generativas autentiquem previamente as identidades dos usuários antes de editar suas vozes e imagens.

No Brasil, as deepfakes também são foco de projetos de leis apresentados ao longo de 2023, como o PL 5931/2023, de autoria do deputado Carlos Chiodini (MDB-SC), apresentado à Câmara dos Deputados em dezembro passado e que busca alterar a Lei das Eleições (Lei 9.504) com o objetivo de proibir e punir o uso de Inteligência Artificial em propaganda eleitoral para produção de deepfakes e outros conteúdos falsos. Já o PL 2338/2023, apesar de não fazer menção direta às deepfakes, é a principal proposta que busca regular as IAs no Brasil, criando normas gerais para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial.

COMPARTILHAR:
0
Would love your thoughts, please comment.x