Um artigo publicado recentemente na revista Nature mostrou que modelos de linguagem maiores e mais instruídos podem ser menos confiáveis, respondendo de maneira aparentemente sensata, mas com informações falsas sobre determinados assuntos. Na prática, isso significa que, quanto mais poderosos e experts se tornam esses sistemas, mais propensos a mentiras. O estudo foi desenvolvido por um grupo de pesquisadores da Universidade de Cambridge, no Reino Unidos, e da Universidade de Valência, na Espanha.
Os cientistas analisaram modelos como GPT, da OpenAI, LLaMA, da Meta, e o BLOOM do grupo BgScience. Os testes buscaram abordar temas variados, como questões matemáticas e sobre geografia. O artigo destaca que as descobertas apontam para a necessidade de mudanças fundamentais no design das funcionalidades, principalmente em questões de alto risco.
Com informações do Olhar Digital.