COMPARTILHAR:

O sistema de inteligência artificial da Meta deu respostas erradas aos usuários que perguntaram sobre o atentado sofrido por Trump no mês passado. Perguntado sobre a tentativa de assassinato, o chatbot respondeu que o ataque não ocorreu. Em um comunicado, a empresa reconheceu o erro e disse que irá trabalhar para corrigir.

Esse tipo de resposta é referido como alucinações, que é um problema em toda a indústria que vemos em todos os sistemas de IA generativa, e é um desafio contínuo para como a IA lidará com eventos em tempo real no futuro”, disse Joel Kaplan, chefe global de políticas da Meta. “Como todos os sistemas de IA generativa, os modelos podem retornar resultados imprecisos ou inadequados, e continuaremos a abordar essas questões e melhorar esses recursos à medida que evoluem e mais pessoas compartilham seus feedbacks”, complementou.

Com informações do The Verge.

COMPARTILHAR:
0
Would love your thoughts, please comment.x