Um estudo recente do Centro para o Combate ao Ódio Digital – sim, aquele processado por Elon Musk – mostrou que as tecnologias de clonagem de voz com uso de Inteligência Artificial ainda estão produzindo áudios hiperrealistas de políticos internacionais. Dos 240 testes realizados pelos pesquisadores utilizando as principais ferramentas de clonagem de voz, em 193 deles (80%) as funcionalidades atenderam as instruções e produziram declarações falsas imitando as vozes de figuras políticas conhecidas.
Entre as vozes clonadas estão a do ex-presidente dos Estados Unidos Donald Trump e do atual presidente Joe Biden, do primeiro-ministro do Reino Unido Rishi Sunak e do presidente francês Emmanuel Macron. Os pesquisadores conseguiram criar áudios deepfakes, por exemplo, de Trump alertando às pessoas para não votarem diante de ameaças de bombas e de Biden pedindo que haja manipulação eleitoral nas próximas eleições.
Foram testados 6 clonadores de vozes: ElevenLabs, Speechify, PlayHT, Descript, Invideo AI, and Veed. Sendo o Speechify e o Play HT os que tiveram as piores performances, falhando em 100% dos testes realizados pelos pesquisadores. Além de permitir a criação das declarações falsas, a plataforma Invideo AI também forneceu discursos automatizados contendo desinformação.
Já a EvenLabs, empresa cujo software foi utilizado para impersonificar o presidente Biden durante as eleições primárias do estado de New Hampshire, teve os melhores resultados e até impediu que os pesquisadores utilizassem as vozes de políticos norte-americanos e britânicos, mas gerou conteúdos sintéticos com vozes de figuras da União Europeia.
“Embora algumas ferramentas tenham introduzido barreiras na clonagem das vozes dos políticos, os pesquisadores descobriram que o processo de criação dos clipes de áudio exigia, em geral, um esforço mínimo”, pontuou o estudo.
Deepfakes de áudios já são realidade nas eleições internacionais de 2024
Os resultados do experimento levantam a preocupação, cada vez maior, sobre os impactos das deepfakes de áudios na integridade eleitoral e nas democracias. Os receios surgem em razão do rápido desenvolvimento dessas tecnologias, capazes de produzir conteúdos sintéticos altamente convincentes de forma mais eficiente e acessível ao grande público.
O uso dos clonadores de vozes já está sendo realizado por agentes maliciosos mundo afora. Casos nos Estados Unidos, Reino Unido e Índia já foram mapeados pela imprensa e por pesquisadores. Na Índia, que realizou recentemente um longo pleito eleitoral de quase dois meses, diversos casos de clones de IA de políticos viralizaram nas redes sociais do país.
No Brasil, deepfakes de áudios parecem mais tímidos, mas já existem. De acordo com uma matéria publicada no início do ano em O Globo, estados como Amazonas, Sergipe e Rio Grande do Sul já registraram possíveis áudios sintéticos falsos envolvendo prefeitos e políticos que tentam reeleição em suas respectivas regiões.
Em Manaus, no final de 2023, o prefeito David Almeida denunciou à Polícia Federal um suposto falso áudio que estava circulando nas redes sociais em que a voz do político chamava os professores da rede municipal de ensino de “vagabundos”. Já em março deste ano, no Rio Grande do Sul, o prefeito de Crissiumal também denunciou à PF uma possível deepfake usando a sua voz para atacar servidores públicos.
Por aqui, a principal iniciativa judicial para combater a produção de conteúdos sintéticos em contexto eleitoral são as resoluções publicadas no início do ano pelo Tribunal Superior Eleitoral (TSE), que proíbem a criação de deepfakes e obrigam o uso de rótulos para indicar quando um conteúdo foi criado com IA.
Empresas de IA devem agir mais para prevenir mau uso da tecnologia
O estudo do centro internacional também trouxe três recomendações para que as plataformas e empresas de IA reforcem as ações de combate aos usos políticos de suas respectivas tecnologias. A primeira delas é a criação de sistemas de emergência, que coloquem humanos no centro das operações, para garantir que em momentos críticos, como o eleitoral, vulnerabilidades das tecnologias não sejam exploradas por agentes maliciosos.
Criação de padrões para indústria da IA para garantir a segurança das tecnologias também foram sugeridas pela organização. De acordo com o centro, isso evitaria que empresas se arrisquem a lançar produtos problemáticos na busca pela dianteira da corrida comercial da tecnologia.
“As empresas de IA muitas vezes proclamam que vislumbraram o futuro, mas parece que não conseguem ver além das suas avaliações. Em vez disso, devem olhar para os próximos meses cruciais e enfrentar a ameaça da desinformação eleitoral da IA antes que seja tarde demais”, afirmou Imran Ahmed, diretor-executivo do centro.
Além disso, a organização sugere que países atualizem suas legislações eleitorais de forma que consigam enfrentar os novos desafios trazidos pelas tecnologias de IA. O estudo do CCDH, em inglês, pode ser lido na íntegra no site oficial da organização.