Um novo relatório foi disponibilizado, esta semana, pela Microsoft com informações detalhadas sobre o que foi feito pela empresa para o lançamento de ferramentas de IA seguras. No “Relatório de Transparência de IA Responsável”, focado em 2023, a corporação afirma que lançou criou 30 ferramentas de IA responsáveis, aumentou a equipe de segurança e exigiu o mapeamento e a medição de riscos das ferramentas de IA ao longo dos ciclos de desenvolvimento. Adição de marcas d’água nas imagens criadas por IA também foram relatadas pela empresa.
A publicação do relatório é resultado de um compromisso assinado ano passado com a Casa Branca. A Microsoft e outras empresas do setor prometeram estabelecer sistemas responsáveis e se comprometer com a segurança das tecnologias.
Nesta semana, a empresa também reafirmou a proibição do uso de IAs generativas pelos departamentos de polícia dos Estados Unidos para reconhecimento facial. A decisão foi adicionada aos termos de serviço do Azure OpenAI Service.
Com informações do The Verge e do TechCrunch.