Neste primeiro semestre do ano, as principais plataformas digitais (Meta, YouTube, TikTok e X) pouco atualizaram suas políticas para lidar com os riscos das Inteligências Artificiais generativas, apontou um estudo da organização europeia DisinfoLab, que mapeia desde setembro de 2023 as iniciativas das redes sociais contra os usos maléficos da nova tecnologia. O foco das empresas permanece mais em rotulagem dos conteúdos sintéticos e menos em moderação.
De acordo com a organização, a escolha da rotulagem como solução principal não aborda todos os riscos que as IAs trazem para o ecossistema informacional, devendo ser aplicada junto com outras medidas de moderação. Outro ponto destacado foi como as plataformas continuam a colocar o fardo da responsabilidade da rotulagem sobre os usuários e as indústrias de IA.
“Pouco esforço é feito na autodetecção, o que pode deixar uma brecha para conteúdos que a indústria de tecnologia ou os usuários não identificam”, trouxe o relatório, que ainda destacou como os conteúdos em texto gerados por IA e seus respectivos riscos estão sendo ignorados pelas políticas das redes sociais.
Além disso, plataformas como o YouTube declaram “abordagem proativa” na marcação de conteúdos se houver potencial para enganar usuários, mas não detalha claramente as premissas e fundamentos para tal ação.
Já a Meta, segundo o relatório, reforçou a abordagem de rotulagem nas suas plataformas, mas mostrou relutância em remover conteúdos gerados por IA. A empresa também transferiu o quadro de funcionários que tratavam especificamente dos vídeos manipulados para outros temas.
“Considerando que essas políticas [gerais] possivelmente não cobrem todos os danos potenciais que essa tecnologia pode causar, essa movimentação pode ser considerada até mesmo um passo para trás”, comentou a organização.
As plataformas precisam moderar o conteúdo como fizeram na Covid-19
Como solução para lidar com os riscos trazidos pelas IAs generativas, o DisinfoLab sugere que as plataformas apliquem uma abordagem proativa em relação à nova tecnologia semelhante à que foi feita durante a pandemia de Covid-19 para conter desinformação sobre saúde.
“As plataformas devem reforçar a cooperação com colaboradores externos e especialistas em IA, seguindo o modelo de colaboração, implementado durante a pandemia com especialistas médicos, para conter a infodemia”, recomendou a organização.
Desde o ano passado, os líderes do setor estão assinando compromissos coletivos que envolvem a construção de ferramentas de segurança, como as marcas d’água, e a promoção de iniciativas de educação midiática. Em fevereiro, 20 empresas se comprometeram a combater os conteúdos sintéticos durante os pleitos eleitorais de 2024. Em maio, a Microsoft e a OpenAI anunciaram um fundo de 2 milhões de dólares para combater deepfakes eleitorais.
O que cada plataforma fez para conter desinformação com IA em 2024?
Youtube: nova ferramenta para rotulagem
- A plataforma disponibilizou em março uma nova ferramenta no Estúdio de Criação do Google que obriga os criadores a divulgarem se o conteúdo usou ou não a IA generativa. Porém, há exceções: o YouTube não exige que os criadores divulguem conteúdo claramente irreal que inclua efeitos especiais ou quando a tecnologia foi usada para assistência à produção.
- O YouTube menciona uma possibilidade pouco clara de adicionar uma divulgação de IA aos vídeos, mesmo que o remetente não o tenha feito, “especialmente se o conteúdo alterado ou sintético tiver o potencial de confundir ou enganar as pessoas”.
Meta: mais rotulagem, menos moderação
- Em fevereiro, a Meta anunciou que iria começar a aplicar etiquetas em postagens contendo IA no Facebook, Instagram e Threads;
- Em abril, a empresa atualizou sua política com novas regras que incluem rotular vídeos, áudios e imagens feriados por IA com a etiqueta “Feito com IA” e adicionar contexto a materiais considerados de alto risco, como conteúdo político.
- A partir de julho, o Meta não removerá conteúdo gerado ou manipulado por IA com base apenas na política de vídeo manipulado, a menos que viole outras políticas (como interferência de eleitores, intimidação, assédio, violência, incitação ou outros problemas de Padrões da Comunidade).
TikTok: rotulagem automática
- Em maio, o TikTok anunciou uma abordagem mais proativa para a rotulagem. Até então, a plataforma estava rotulando conteúdo criado usando a tecnologia de IA do TikTok e exigindo que os criadores marcassem qualquer outro conteúdo que produzissem contendo IA realista. A mudança consistiu em expandir proativamente e gradualmente essa rotulagem para incluir conteúdo gerado por IA carregado de outras plataformas. A política se aplica a imagens e vídeos e será expandida para áudio em um futuro próximo.
X (Antigo Twitter): sem atualizações
- O X não anunciou alteração neste ano em sua política de conteúdo de IA, que ainda é baseada na política de mídia sintética e manipulada.