A OpenAI anunciou que passará a divulgar com mais frequência os resultados de testes de segurança de seus modelos de inteligência artificial, em uma iniciativa para aumentar a transparência. A empresa lançou nesta quarta-feira (15) o Safety Evaluations Hub, página que reúne dados sobre desempenho em testes de geração de conteúdo nocivo, jailbreaks e alucinações. A medida surge após críticas por suposta pressa nos testes de segurança e falta de relatórios técnicos sobre modelos lançados. A OpenAI afirmou que o hub será atualizado com as principais mudanças nos sistemas e poderá incluir novas métricas ao longo do tempo.
Com informações do TechCrunch