Na manhã desta quinta-feira (4), o chefe de políticas e parcerias internacionais da OpenAI, James Hairston, e o pesquisador sênior da empresa, André Saraiva, encontraram-se em São Paulo com representantes da sociedade civil e da academia para debater as ações e as propostas de segurança da empresa de Inteligência Artificial para o Brasil e o mundo.
Na ocasião, os planos da empresa para o mercado internacional foram brevemente apresentados, como a expansão para a América Latina, com a contratação de um representante no Brasil. Ainda assim, Hairston afirmou que a OpenAI não possui planos de criar forças-tarefas contra desinformação com foco em eleições nacionais, como fazem atualmente as plataformas da Meta e o TikTok, para o Brasil e outros países.
O debate sobre a desinformação e as eleições de 2024 foi recorrente no encontro. De acordo com Hairston, a OpenAI está ciente da importância do momento em escala global e regional e do impacto que as funcionalidades de IA podem causar nesse contexto. O representante da empresa também deixou claro o desejo de ampliar a colaboração com organizações da sociedade civil e outros atores para a identificação e mitigação dos maus usos da tecnologia. “Nós queremos fazer parte desse debate”, afirmou.
Questionado sobre as práticas efetivas contra desinformação, vieses e usos potencialmente danosos, André Saraiva explicou que a empresa está comprometida em tentar mitigar os riscos e mal usos das tecnologias, realizando testes e ações preventivas para evitar, por exemplo, usos com fins políticos – prática já proibida pelas políticas internas da empresa.
De acordo com o pesquisador, os dados coletados para treinamento são filtrados para que conteúdos de ódio e pornográfico, por exemplo, não sejam utilizados como base de treinamento para os produtos de IA. Além disso, a empresa faz medições de vieses que possam aparecer nos resultados, eliminando-as antes que cheguem aos usuários. A remoção de conteúdos danosos e usos que ferem as políticas internas ainda é feita a partir de denúncias e feedbacks de usuários e parceiros.
A OpenAI ganhou destaque no cenário tecnológico internacional após o lançamento do ChatGPT, em novembro de 2022. De lá para cá, a empresa vem desenvolvendo e anunciando novos produtos, como o Sora, capaz de criar vídeos hiper-realistas a partir de comandos de texto, e o Voice Engine, que clona vozes humanas com precisão apenas com uma amostra de 15 segundos. Essas duas novas funcionalidades ainda não foram lançadas por questões de segurança.
“Quando as funcionalidades têm potencial, mas ainda não entendemos bem quais são os impactos, contratamos especialistas e pesquisadores para trazer ideias de quais riscos as ferramentas podem trazer”, afirmou André.
Segurança infantil e regulação
A segurança de crianças e adolescentes também foi um ponto de destaque no debate desta segunda. Hairston contou que essa foi uma das primeiras preocupações na construção das políticas de uso das ferramentas da OpenAI. “Não podemos produzir conteúdos que não são seguros para crianças”, disse o chefe de políticas e parcerias internacionais.
Outro ponto levantado foi a regulação de IA, que nos últimos meses vem ganhando destaque principalmente após a aprovação da Lei de IA da União Europeia. Nas palavras de Hairston, a empresa está apoiando as ações de regulação de IA em nível global, compreendendo a necessidade de adequação das atividades de acordo com os contextos jurídicos nacionais.