Líderes da OpenAI, empresa desenvolvedora do ChatGPT e do DALL-E, posicionaram-se a favor de ações coordenadas de regulação de Inteligência Artificial para conter possíveis riscos à sociedade. Em texto publicado esta semana no site da empresa, o CEO Sam Altman junto com os co-fundadores Ilya Sutskever e Greg Brockman também sugeriram a criação de um órgão de supervisão internacional para as “superinteligências” nos moldes da Agência Internacional de Energia Atômica.
No posicionamento, os executivos afirmaram que a IA será a tecnologia mais poderosa criada até então, podendo trazer riscos que devem ser administrados para chegarmos a um futuro próspero. “Também devemos mitigar os riscos da tecnologia de IA de hoje, mas a superinteligência exigirá tratamento e coordenação especiais”, frisaram.
Uma das saídas sugeridas foi a criação de ações governamentais para garantir que o desenvolvimento de IAs ocorra de maneira segura e que sua integração na sociedade seja feita de maneira suave. Altos padrões de segurança a serem seguidos por empresas do setor também foram indicados.
“Os principais governos ao redor do mundo poderiam estabelecer um projeto do qual muitos esforços atuais se tornem parte, ou poderíamos concordar coletivamente que a taxa de crescimento na capacidade de IA seja limitada a uma determinada taxa por ano”, pontuaram os líderes da empresa.
Um segundo ponto tratado foi o estabelecimento de um órgão de supervisão internacional para iniciativas de “superinteligências” nos moldes da Agência Internacional de Energia Atômica, instituída na década de 50 com o objetivo de promover o uso pacífico da energia nuclear e o desencorajamento dos usos da tecnologia para fins militares.
Segundo a empresa, essa agência teria a função de autoridade internacional, podendo inspecionar sistemas, exigir auditorias, testar a conformidade com padrões de segurança e impor restrições. “Seria importante que tal agência se concentrasse na redução do risco existencial e não em questões que deveriam ser deixadas para países individuais, como definir o que uma IA deveria ter permissão para dizer”, afirmaram.