Duas das maiores empresas de Inteligência Artificial, OpenAI e Anthropic, concordaram em disponibilizar seus sistemas para que o Instituto de Segurança de IA dos Estados Unidos teste-os antes do lançamento ao público. A iniciativa, que é resultado da ordem executiva emitida pelo presidente Joe Biden ano passado, busca identificar e avaliar possíveis riscos à segurança e aos direitos dos cidadãos norte-americanos.
O instituto, sediado no Departamento de Comércio do Instituto Nacional de Padrões e Tecnologia (NIST), disse em um comunicado à imprensa que terá “acesso aos principais novos modelos de cada empresa antes e depois de seu lançamento público”. “Estamos felizes por termos chegado a um acordo com o US AI Safety Institute para testes de pré-lançamento de nossos futuros modelos”, escreveu o CEO da OpenAI, Sam Altman, em um post no X.
Com informações da CNBC.