Uma investigação revelou que pesquisadores de ao menos 14 instituições em oito países esconderam comandos invisíveis em artigos científicos no repositório arXiv para manipular pareceres positivos de ferramentas de inteligência artificial usadas na revisão por pares.
As instruções, ocultas em texto branco ou fontes minúsculas, orientavam as IAs a destacar supostas inovações ou aprovar os estudos. A maioria dos casos envolve pesquisas em ciência da computação. A prática levanta alertas sobre a crescente automação na avaliação científica e levou instituições como a KAIST a prometer regras mais claras sobre o uso ético de IA na produção acadêmica.
Com informação de TecnoBlog