Enquanto os brasileiros caíam nas ruas para celebrar o carnaval, nas largas e movimentadas avenidas de Nova Delhi, na Índia, entre tuk-tuks e carros, só se via o rosto do primeiro-ministro Narendra Modi estampado em outdoors anunciando a realização da quarta edição do AI Impact Summit, a Cúpula Global de Inteligência Artificial, que se estendeu entre os dias 16 a 20 de fevereiro.
A euforia do governo indiano em sediar o evento não veio apenas da tentativa de se posicionar como líder global nas discussões de IA, mas também demonstrou o peso que tal reunião vem ganhando no contexto internacional – marcado pela sede voraz de crescimento das empresas e por tentativas de captação da atenção e do capital delas por governos de países em desenvolvimento.
O AI Summit cada vez mais se firma como um momento importante no setor de tecnologia. Não à toa estiveram presencialmente nomes fortes no mercado, como Sam Altman, Sundar Pichai e Dario Amodei, diretores-executivos da OpenAi, do Google e da Anthropic, respectivamente. Além de líderes globais, como o presidente da França, Emmanuel Macron, e o presidente Lula.
Na prática, o evento deste ano apresentou uma série de contradições. A começar, por exemplo, com a promessa de tocar o debate de governança da IA partindo da constatação de que a tecnologia apresenta riscos e desafios (o AI Summit estava ancorado em 3 grandes pilares – planeta, pessoas e progresso – que deveriam definir como a IA deve ser aproveitada por meio de cooperação multilateral para benefício coletivo).
O que se viu, porém, foram os temas da segurança e da regulação de IA esmaecidos diante das promessas de aplicação desenfreada da tecnologia para o desenvolvimento econômico. A própria Índia, no seu documento de diretrizes de governança de IA, excluiu a possibilidade de por para frente uma regulação específica da tecnologia, afirmando que a legislação atual já daria conta de proteger os cidadãos dos riscos desencadeados.
“As leis existentes sobre direitos autorais podem precisar ser alteradas, por exemplo, para permitir o treinamento em larga escala de modelos de IA, garantindo ao mesmo tempo proteções adequadas para detentores de direitos autorais e titulares de dados”, traz o documento.
Além disso, enquanto o governo indiano levantou a bola da soberania digital e do desenvolvimento tecnológico nacional (o que acarretou, é preciso reconhecer, no acordo com o Brasil), os representantes das big techs prometeram investimentos bilionários para o país, evidenciando a continuação de um entrelaçamento entre grandes empresas e infraestrutura pública.
Sociedade civil precisa estar na mesa de discussões
A sociedade civil esteve presente no evento com bem menos evidência que as grandes empresas e os líderes de Estado, o que é preocupante. Ano passado, quando o AI Summit foi realizado em Paris, na França, um coletivo de organizações já havia alertado para a importância do evento abrir e impulsionar espaços de participação para esses atores.
Para termos um verdadeiro desenvolvimento de IA justa, equânime e confiável – algumas das palavras repetidas pela organização do evento – é preciso que o conhecimento e a experiência das organizações sejam realmente considerados nos debates internacionais de governança da tecnologia.
Não basta ir muito longe para entender isso. Na semana passada, com a eclosão do conflito entre Estados Unidos e Irã, o governo estadunidense fez uso de IA para planejamento, identificação de alvos e processamento de informação. Na semana passada, a Anthropic flexibilizou sua política de segurança, argumentando dificuldade em cumprí-las de forma unilateral em meio a um cenário de antirregulação e de corrida econômica.
Some a isso os debates sobre uso de recursos naturais e energéticos pelos data centers, as infraestruturas fundamentais para o funcionamento dos modelos de IA, bem como a proteção dos trabalhadores da cadeia internacional da tecnologia.
Nós do Aláfia Lab e *desinformante procuramos levar às discussões em Nova Delhi os riscos das IAs, principalmente as generativas, que devem ser considerados na integridade da informação e do processo eleitoral. Desde 2024, com a implementação do Observatório IA nas Eleições – que desenvolvemos juntos com o Data Privacy Brasil – estamos evidenciando como deepfakes, deepnudes e outros conteúdos sintéticos podem impulsionar desinformação e atrapalhar o voto dos cidadãos.
Estamos vivendo um momento-chave para construirmos coletivamente os princípios e bases do futuro da IA. Todos os pontos críticos estão postos à mesa, o problema é que as cadeiras estão aparentemente todas ocupadas por líderes de estados e chefes das grandes empresas. Para onde seguiremos nessa toada?
