A Meta anunciou hoje (6/2) que vai começar, nos próximos meses, a rotular imagens que os usuários publicam no Facebook, no Instagram e no Threads que tenham sido geradas por IA. No caso de vídeos e áudios, a empresa vai obrigar que o produtor do conteúdo orgânico sinalize que a imagem foi criada por inteligência artificial para que, então, a Meta coloque o rótulo. “Caso determinemos que a imagem, vídeo ou áudio criado ou alterado digitalmente crie um risco particularmente elevado para enganar substancialmente o seu público sobre uma questão importante, poderemos adicionar um rótulo mais proeminente, se necessário, para que as pessoas tenham mais informações e contexto”, diz o comunicado assinado por Nick Clegg, presidente de Assuntos Globais da Meta.
A empresa informou que a rotulagem já é feita para conteúdos feitos com a ferramenta Meta AI, e que agora vai estender a medida para outras empresas porque “os nossos usuários nos disseram que apreciam a transparência em torno dessa nova tecnologia”. A Meta não informou quando os conteúdos brasileiros começarão a ser rotulados, mas disse que todos os países que utilizam suas redes sociais serão contemplados. “Seguiremos utilizando essa abordagem ao longo do ano, em que ocorrerão diversas eleições importantes ao redor do mundo”, afirma o comunicado.
A empresa informou que está construindo ferramentas que podem identificar marcadores invisíveis em escala – especificamente as informações “geradas por IA” nos padrões técnicos C2PA e IPTC – para que seja possível rotular imagens de empresas como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock à medida em que elas adicionam metadados às imagens criadas por suas ferramentas.
Ressalva, no entanto, que ainda não é possível identificar todo o conteúdo gerado pela inteligência artificial e existem maneiras para que as pessoas removam os marcadores invisíveis. “Esse trabalho é especialmente importante porque é provável que este se torne um espaço cada vez mais adverso nos próximos anos”, alerta a empresa, e completa: “Pessoas e organizações que desejem ativamente enganar outras pessoas com conteúdos gerados por inteligência artificial vão buscar maneiras de contornar as medidas de segurança implementadas para detectá-los. Em toda a nossa indústria e na sociedade em geral, precisaremos continuar procurando maneiras de estar um passo à frente”.
Uso de IA pela Meta ajudou a detectar discurso de ódio
No mesmo comunicado em que anunciou a rotulagem das imagens feitas por IA, a Meta deu algumas informações sobre como utiliza internamente ferramentas de Inteligência Artificial. Segundo a empresa, a tecnologia ajudar a detectar discurso de ódio e outros conteúdos que violem as suas políticas. “Essa é uma grande parte da razão pela qual conseguimos reduzir a prevalência do discurso de ódio no Facebook para apenas 0,01-0,02% (dados do terceiro trimestre de 2023). Em outras palavras, para cada 10 mil visualizações de conteúdo, estimamos que apenas uma ou duas conterão discurso de ódio”, garante a big tech.
A empresa acrescentou que os modelos de IA generativa estão sendo testados para momentos críticos, como eleições, em que grandes volumes de conteúdo devem ser analisados quanto à conformidade com as políticas. Os grandes modelos de linguagem (LLM) têm sido usados para remover conteúdos das filas de revisão, de acordo com a Meta, deixando os moderados de conteúdo humanos mais disponíveis para avaliar conteúdos com mais probabilidade de violar as regras.