Início 9 Destaques 9 Campanha para regulação de deepfakes reúne mais de 800 nomes de peso do mercado e da academia

Últimas notícias

Pexels

Campanha para regulação de deepfakes reúne mais de 800 nomes de peso do mercado e da academia

Pexels
COMPARTILHAR:

Mais de 800 pesquisadores, políticos e integrantes do mercado de Inteligência Artificial assinaram uma carta aberta pedindo que as deepfakes sejam urgentemente reguladas, considerando os riscos que elas trazem à democracia e à privacidade dos cidadãos. O documento endossa o coro internacional cada vez mais forte a favor da regulação de IA em meio a uma crescente preocupação sobre o impacto de conteúdos sintéticos no momento em que o mundo realiza um megaciclo de eleições.

A carta, que ainda está com assinaturas abertas, afirma que as deepfakes são uma “ameaça” para a sociedade e que governos devem “impor obrigações à cadeia de produção para interromper a sua proliferação”. O documento pede a criminalização total das deepfakes pornográficas infantis, sejam elas feitas com imagens de crianças reais ou fictícias, e a criação de penalidades para quem produz e facilita conscientemente o compartilhamento de peças profundamente falsas consideradas prejudiciais.

Também é sugerida a implementação de leis que pressionem as empresas de tecnologia a desenvolver salvaguardas em torno de deepfakes e que as responsabilize caso as medidas preventivas sejam facilmente contornadas pelos usuários. “Se concebidas de forma sensata, essas leis poderiam fomentar empresas socialmente responsáveis”, concluiu o documento.

A lista de signatários conta com nomes como Frances Haugen, ex-funcionária da Meta e ativista dos direitos digitais, Stuart Russel, professor da Universidade da Califórnia e autor de vários livros sobre IA, e Yoshua Bengio, cientista da computação considerado um dos gurus dos sistemas inteligentes. Também assinaram a carta representantes das gigantes OpenAI, Google DeepMind e Microsoft. Até o fechamento desta matéria não houve inscrição de nomes vinculados à Meta, Apple, Anthropic, Adobe ou Amazon.

Apesar de não estarem em peso como apoiadores da carta aberta, as grandes empresas de tecnologia se comprometeram, na semana passada, a tentar impedir que conteúdos falsos produzidos com IA interfiram nas eleições deste ano. Ao todo, 20 corporações assinaram um acordo coletivo que prevê, por exemplo, o desenvolvimento de tecnologias para identificar e rotular conteúdos produzidos com IA generativa.

“Continuaremos a desenvolver os esforços que construímos coletiva e individualmente ao longo dos anos para combater os riscos da criação e disseminação de conteúdo eleitoral enganoso de IA e sua disseminação, incluindo o desenvolvimento de tecnologias, padrões, ferramentas de código aberto, recursos de informações ao usuário e muito mais”, trouxe o documento que pode ser lido na íntegra, neste link.

Porém, mesmo com o posicionamento público das empresas, testes recentes em funcionalidades como Gemini, do Google, e ChatGPT, da OpenAI, mostraram que é possível contornar as medidas preventivas criadas pelas empresas de IA para conter desinformação eleitoral. Um experimento feito pelo Gizmodo, por exemplo, conseguiu fazer com que os chatbots criassem slogans, discursos políticos e discursos de campanha. 

Além disso, a presença generalizada de deepfakes e outros conteúdos criados com ajuda de IA já são realidade nas corridas eleitorais de países como Índia e Taiwan, evidenciando o baixo potencial de ação efetiva por parte das plataformas digitais enquanto o megaciclo de eleições acontece.

No Brasil, TSE busca criar regras de IA antes das eleições municipais

A discussão sobre a presença generalizada de conteúdos profundamente falsos também ganha destaque no cenário brasileiro à medida que as próximas eleições se aproximam. O tema da IA está presente nas minutas de resoluções para o processo eleitoral de 2024 divulgadas e colocadas em consulta pública, em janeiro, pelo Superior Tribunal Eleitoral (TSE). Nas novas propostas trazidas pela corte, está a criação de regras sobre o uso de IA durante o pleito. 

Segundo o texto, o conteúdo utilizado nas propagandas eleitorais que seja fabricado ou manipulado por tecnologias digitais para “criar, substituir, omitir, mesclar, alterar a velocidade, ou sobrepor imagens ou sons” deve ser rotulado com informações explícitas sobre as mudanças realizadas e ferramentas utilizadas para tal. 

Apesar desses esforços, o presidente do Supremo Tribunal Federal (STF), o ministro Luís Roberto Barroso, afirmou em entrevista ao canal GloboNews que, neste momento, não seria possível conter o uso de deepfakes nas eleições brasileiras, marcadas para o mês de outubro. “A notícia boa é que a imprensa vai ter que reocupar boa parte do espaço que perdeu para as plataformas digitais, porque passa credibilidade que as redes sociais não têm”, afirmou Barroso. As deepfakes também são foco de projetos de leis apresentados ao longo de 2023, como o PL 5931/2023, de autoria do deputado Carlos Chiodini (MDB-SC), apresentado à Câmara dos Deputados em dezembro passado e que busca alterar a Lei das Eleições (Lei 9.504) com o objetivo de proibir e punir o uso de Inteligência Artificial em propaganda eleitoral para produção de deepfakes e outros conteúdos falsos. Já o PL 2338/2023, apesar de não fazer menção direta às deepfakes, é a principal proposta que busca regular as IAs no Brasil, criando normas gerais para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial.

COMPARTILHAR:
0
Would love your thoughts, please comment.x