Documentos internos obtidos pela Reuters revelam que padrões do Meta AI permitiam que assistentes de inteligência artificial mantivessem conversas de cunho romântico ou sensual com crianças, gerassem declarações racistas e informações médicas falsas, e criassem conteúdos violentos em certas circunstâncias.
As regras, aprovadas por áreas jurídicas, técnicas e de ética da empresa, também autorizavam a produção de deepfakes e afirmações comprovadamente falsas, desde que identificadas como tal. Após questionamentos, a Meta afirmou que revisou e removeu exemplos inadequados, mas admitiu aplicação inconsistente das políticas.
Com informações do G1.