Por Aline Noronha, Clara Zamboni, Clara Hanek, Clara Viterbo, Júlia Sardinha, Mariana Ricci e Theo Schwan
Na última década, a demanda pelo uso de Inteligência Artificial (IA) aumentou consideravelmente. A tecnologia, antes utilizada por laboratórios de pesquisa e empresas de comunicação, popularizou-se a partir de novas técnicas de linguagem e aprendizagem de máquina. Por isso, cresce a procura de locais aptos para a instalação de data centers (DC) — centros de processamento de dados em que se concentram sistemas computacionais – cruciais para o funcionamento dessa tecnologia.
O que são Data Centers?
O DC é um ambiente projetado para abrigar servidores e outros componentes como sistemas de armazenamento de dados ativos de rede. O seu principal objetivo é garantir a disponibilidade dos equipamentos que mantêm os sistemas cruciais para o pleno funcionamento de uma organização.
Para além da IA como um mecanismo presente em aplicativos e redes sociais para recomendação de conteúdo, o público pode recorrer diretamente a chatbots de IA generativa como o ChatGPT e o Gemini. Entretanto, cada contato entre uma pessoa e esses serviços de IA resulta em um impacto ambiental significativo, informação por vezes negligenciada por usuários ao utilizarem estes mecanismos.
Pedro Nuno de Souza, professor do Departamento de Informática Aplicada da Universidade Federal do Estado do Rio de Janeiro (UNIRIO), aponta que a IA como subárea da computação surgiu ainda no século 20, em uma tentativa da ciência de imitar as ligações do cérebro humano. “Atualmente, em especial desde 2012, é que consideramos que começou a revolução de fato da Aprendizagem Profunda, do inglês Deep Learning, que é constituída pelas técnicas de redes neurais.”
O desenvolvimento das recentes técnicas de Machine Learning (ML) e Deep learning (DP), foram um passo significativo para a popularização da IA. Essas estratégias de aprendizagem são aplicadas aos dispositivos como criadores de redes de informação que se atualizam constantemente. Enquanto ML é um subcampo da Inteligência Artificial que desenvolve máquinas capazes de aprender sem que sejam explicitamente programadas para isso, DP é uma técnica desenvolvida a partir de ML, que simula o jeito com que os seres humanos adquirem conhecimento.
À medida que estes modelos aumentam em escala, a tendência é que se tornem mais precisos e capazes. No entanto, modelos maiores geram demandas computacionais e energéticas maiores. Essas conquistas tecnológicas acarretam custos, principalmente às quantidades de energia elétrica necessárias para treinar algoritmos de IA, construir, operar e manter o hardware, no qual esses algoritmos são armazenados.
O gasto energético das IAs e Data Centers
Os data centers, ao menos na escala vista hoje, são relativamente novos atores no consumo global de energia. Em 2024, a Agência Internacional de Energia (IEA), órgão ligado à Organização para Cooperação e Desenvolvimento Econômico (OCDE), estimou que a quantidade de energia consumida pelos centros é de, aproximadamente, 415 terawatt hora (TWh), ou seja, 1.5% do consumo global de energia. Este número corresponde a um crescimento de 12% ao ano nos últimos cinco anos.
Os data centers utilizam energia elétrica para quatro ações principais: servidores, armazenamento, rede de contatos e resfriamento. Servidores e resfriamento lideram o consumo com, respectivamente, 60% e 20% dos gastos totais, segundo a IEA. Em 2023, essas infraestruturas também respondiam pelo consumo de 4,4% da energia dos Estados Unidos, maior usuário global de eletricidade por data centers, seguido pela China. A estimativa é que esses números tripliquem até 2028.
Consumo de eletricidade (em TWh) em data centers por região, 2020-2030 [Fonte: International Energy Agency/Energy Demand From IA]
Nuno explica que a Aprendizagem Profunda (Deep Learning), ou mais especificamente a Aprendizagem de Máquina (Machine Learning), tem duas grandes etapas: a de treinamento de modelo e a de inferência.
A primeira é baseada em um aprendizado auto-supervisionado, em que se submete à IA uma série de textos com o objetivo de ensiná-la modelos de linguagem e conteúdo para respostas.
A segunda etapa é realizada a partir de um modelo de aprendizado de reforço por feedback humano, em que pessoas analisam se as respostas da IA são suficientes, claras, corretas e precisas para o entendimento humano.
“O que realmente custa muito, e aí quando eu falo custo, falo em termos financeiros, energéticos e em termos de impacto ambiental, é o treinamento da IA”, explica.
A etapa de inferência acontece com o modelo já pronto. Usando o Chat GPT como exemplo, o professor explica que a cada consulta realizada com ferramenta da OpenAI, realiza-se uma inferência. Ela, por sua vez, é bem menos custosa que a etapa de treinamento, mas quando analisada em um plano de milhares de recorrências ao mecanismo, a inferência também apresenta um impacto significativo.
Segundo uma análise efetuada pelo The Washington Post com investigadores da Universidade da Califórnia, Riverside, gerar um texto de 100 palavras no Chat GPT consome, aproximadamente, 500 mililitros de água para resfriar os data centers. À medida que os modelos de IA evoluem e a capacidade de processamento aumenta, mais água é necessária para o resfriamento.
Impacto das IAs e data centers no meio ambiente
Nas emissões de CO2, o tamanho e a complexidade dos modelos computadorizados interferem diretamente no seu impacto. O CO2 é um gás do efeito estufa agravante das mudanças climáticas globais diretamente associado à elevação da temperatura média da Terra.
O modelo GPT-3 da OpenAI, pioneira no ramo das IAs generativas de larga escala, emitiu mais de 500 toneladas de CO2 na atmosfera apenas no ano de 2023 – número semelhante a uma rede elétrica dependente de combustíveis fósseis. Esse valor equivale a um carro popular movido a gasolina dirigido por quase dois milhões de quilômetros.
Versões recentes do algoritmo exigem mais energia e emitem mais poluentes, e profissionais da área afirmam que a falta de informação pública sobre seu funcionamento dificulta a análise do problema. Atualizações e ajustes finos de sistemas costumam impulsionar o enorme consumo de energia da IA. Como o aprendizado de máquina ainda é, em grande parte, um processo de tentativa e erro, é comum que os profissionais construam centenas de versões antes de encontrarem o melhor design.
Data centers ainda exigem volumes significativos de energia e água para sua operação e para o resfriamento dos equipamentos. O consumo de água e lixo eletrônico gerado pela alta demanda das máquinas é alarmante, sem tratar dos possíveis desastres ambientais que podem ser agravados. O uso da IA ainda impacta as reservas hídricas, já que os supercomputadores mais modernos requerem refrigeração líquida, mais eficientes quando comparados ao sistema de ar-condicionado.
Segundo pesquisa do Morgan Stanley de setembro de 2024, data centers são responsáveis por uma parcela significativa das emissões globais de gases de efeito estufa — em muitos casos, provocadas pelo uso de geradores de energia movidos a óleo diesel, acionados em momentos de escassez hídrica. Paralelamente, relatório do Banco Mundial de 2023 já alertava que enchentes poderiam aumentar ainda mais os gastos com energia dessas infraestruturas.
Se um modelo for treinado usando eletricidade gerada majoritariamente por fontes renováveis, sua pegada de carbono – pagamento em poluentes pelo “serviço prestado” – será proporcionalmente menor. No entanto, os resultados de liberação de carbono refletem a composição da matriz energética de grandes potências, que tendem a ser em maior parte não renováveis e de baixa rotatividade.
Os projetos de regulamentação da IA
Em dezembro de 2024 foi aprovado no Senado o Projeto de Lei (PL) 2338/2023, sobre a regulamentação de IA no Brasil. O texto, proposto por iniciativa do então presidente do Senado Rodrigo Pacheco (PSD/MG) e preparado por uma comissão especial de juristas, é considerado o primeiro marco regulatório de IA, ou seja, define regras para o desenvolvimento e uso desses sistemas de forma segura e ética. Destacam-se a proteção de direitos autorais e a exigência de transparência e responsabilização, apesar de não ser clara a metodologia de aplicação desses fatores.
Os sistemas das IAs foram classificados no projeto em relação ao nível de risco à vida humana e ameaça aos direitos fundamentais. Nele, foram incluídos diversos tipos de IA, inclusive a generativa (destinada a modificar textos, imagens ou áudios preexistentes) que gasta 33 vezes mais energia que a IA “tradicional”, de acordo com um estudo liderado por pesquisadores dos Estados Unidos e Canadá.
O termo “meio ambiente” é citado apenas cinco vezes na versão do PL aprovada pelo Senado. No artigo 2º, por exemplo, coloca a proteção e o desenvolvimento sustentável como fundamentais para a implementação e o uso de sistemas de inteligência artificial no Brasil. Outra menção acontece no capítulo VII (da comunicação de incidentes graves), artigo 42º, e prevê que os agentes de IA deverão comunicar às autoridades competentes a ocorrência de incidentes que causem danos ao meio ambiente. Já o artigo 30º determina que agentes de IA generativa devem reduzir a utilização de energia e recursos antes do lançamento de funcionalidades.
Atualmente, o PL 2338 está em discussão na Câmara dos Deputados, sob relatoria de Aguinaldo Ribeiro (PP-PB) e presidência de Luísa Canziani (PSD-PR), em comissão especial para acelerar a tramitação. Audiências públicas estão sendo realizadas e a expectativa é que o texto seja votado no final deste ano.
O plano nacional de data centers
No dia 17 de setembro de 2025, o governo federal apresentou, por meio de Medida Provisória, o Redata (Regime Especial de Tributação para Serviços de Data Center), com a promessa de colocar o Brasil como um futuro polo para a instalação de data centers. O principal destaque é o regime especial — redução de impostos — que será concedido às empresas que os instalarem em território brasileiro. A expectativa estatal é que a facilitação atraia R$ 2 trilhões de investimento, ao longo de uma década.
Ainda em maio, Haddad afirmou que pretendia acelerar a desoneração de bens associados a data centers – bens de capital, maquinário e equipamentos. As mudanças ligadas à reforma tributária são mais uma forma de atrair investimentos das empresas desenvolvedoras de IA ao país.
O Redata preocupa organizações civis devido à fragilidade de sua formulação. A LAPIN, o IDEC e o Ip.rec publicaram uma nota conjunta, que destaca a falta de transparência na formulação da Medida Provisória, a exclusão da sociedade civil e a negligência aos riscos socioambientais. “Essa contradição expõe a fragilidade de um modelo de digitalização que privilegia interesses privados em detrimento da democracia, da justiça socioambiental e da autonomia do país” , explica o texto.
No meio empresarial, a medida foi bem recebida. Segundo a Associação das Empresas de Tecnologia da Informação e Comunicação (TIC) e de Tecnologias Digitais (Brasscom) “a MP potencializa a capacidade brasileira de geração de energia limpa e renovável, estabelecendo um diferencial estratégico no cenário global”.
Em teoria, esse regime tributário só será concedido a empresas que cumpram com os requisitos de sustentabilidade estabelecidos pelo governo. A proposta é que utilizem energia limpa e renovável, com alta eficiência energética (baixo consumo de água), reservem 10% da capacidade ao mercado doméstico e direcionem 2% da sua receita para o Fundo Nacional de Desenvolvimento Industrial e Tecnológico (FNDIT).
Entretanto, a nota publicada pela LAPIN, IDEC e Ip.rec considera vagos os trechos do projeto que apresentam os deveres ambientais das bigtechs.
Em entrevista, Flávio Fujita, advogado coordenador da Comissão Especial de Tecnologia e inovação da OAB-SP, comenta: “Já temos, por exemplo, intenções em facilitar o licenciamento ambiental para data centers, sem levar em consideração o impacto ambiental indireto que o consumo energético pode causar.”
De acordo com Fujita, o esforço em criar um marco legal parece demonstrar um anseio por protagonismo, mais do que uma preocupação de fato com a insegurança jurídica em relação aos licenciamentos ambientais. Ou seja, para os políticos que ganham ao colaborar com a ação e instalação dessas grandes empresas, facilitar os licenciamentos é vantajoso.
Os direitos difusos e coletivos, ambientais incluídos, são igualmente vulneráveis aos direitos imediatos do usuário de IA. “Exemplos incluem aqueles relacionados à democracia e à dignidade [ameaçados pela desinformação, por exemplo], liberdade [de expressão], acesso e pluralidade da informação, livre concorrência e igualdade [ameaçados pelas ‘oligarquias’ das BigTechs sobre o controle da IA], e o meio ambiente”, pontua.
Sobre o PL 3018/24, ainda em trâmite, proposto pelo Senador Styvenson Valentim (PODEMOS/RN), que dispõe acerca da regulamentação de data centers, o advogado argumenta: “Embora tenham sido incluídas [no PL] disposições relacionadas ao impacto energético e ambiental — como a eficiência energética, uso de energia renovável, e redução de emissões — a ausência do MMA no início dos debates é prova dessa influência [dos aspectos políticos e econômicos].”
Data centers em cidades brasileiras com escassez hídrica
O The Intercept Brasil noticiou que o Tiktok instalará um data center em Caucaia, cidade cearense que sofre há anos com a seca e a estiagem. Esse é o caso de pelo menos cinco dos 22 data centers em fase de autorização pelo Ministério de Minas e Energia: estão em cidades que sofrem sistematicamente com a seca e com o desabastecimento de alimentos nos últimos 20 anos.
A região metropolitana de Fortaleza é vítima de eventos climáticos extremos, mas atrativa para a instalação de centros por inúmeros fatores estratégicos. O mais relevante é que a capital cearense abriga a maior parte dos cabos submarinos que transportam dados internacionalmente e ligam o Brasil a outros continentes — a rede é mais potente conforme a proximidade aos cabos.
Outro exemplo destacado pelo The Intercept Brasil é a cidade de Igaporã, na Bahia. A Renova (fundação da Vale, BHP e Samarco) pretende instalar dois data centers nesse município, que decretou estado de emergência pela seca com frequência nos últimos anos. A Renova afirmou que o consumo de água para resfriamento será “quase nulo”, mas não existem dados públicos sobre o uso hídrico previsto nos centros. Locais sensíveis continuam a ser procurados conforme as demandas crescem: a Microsoft, em relatório do ano passado, afirmou que 42% da água utilizada em 2023 era original de áreas sob estresse hídrico.
Fujita explica que os aspectos políticos, influenciados pelos econômicos, pesam mais na regulamentação do que os ambientais. Esse cenário não é exclusivo ao Brasil e é observado internacionalmente na corrida tecnológica entre os EUA e a China.
No entanto, o advogado pontua que, historicamente, o país tende a ser menos liberal e que dificilmente adotará a postura do progresso a qualquer custo. “A nossa matéria ambiental, ao menos no papel, é um exemplo internacional, afinal temos uma responsabilidade ecológica crítica, e até mesmo o mercado internacional leva isso em consideração em suas políticas de investimento”, destaca.
Quando questionado acerca das diferenças de regulamentação de IA nos países com maior concentração de data centers, Fujita comenta: “A regulação da China é muito mais impositiva e centralizada — inclui metas obrigatórias e homogêneas — enquanto os EUA delegam essas disposições aos estados, deixando muito a cargo de suas agências reguladoras.”
As diferenças são consideráveis devido à diferença das administrações. “As regras estadunidenses tendem a se basear nas metas corporativas — que podem incluir responsabilidade ambiental, embora haja um enfraquecimento recente disso em alguns setores —, e são dispostas mais para remediar do que para prevenir”, explica.
Por ora, empresas e governos utilizam a compra de créditos de carbono para compensação ambiental — o que, apesar de útil no papel, não reduz as emissões de CO2. Regras mais fortes poderiam garantir a implementação de técnicas para mitigar os impactos do uso de IA, como indicado no artigo The Carbon Footprint of Artificial Intelligence , de Keith Kirkpatrick para a Association for Computing Machinery.
Entre elas, destacam-se, para reduzir o tempo de treinamento e consequente consumo de eletricidade: quantização de dados e poda, que remove parâmetros e conexões redundantes; evitar experimentos desnecessários no treinamento; destilação, que treina um modelo menor utilizando o conhecimento de um modelo maior; e aprendizado por transferência, que utiliza o aprendizado de um modelo menor como ponto de partida para o maior.
(*) Esta matéria foi produzida por alunas da disciplina Legislação em Jornalismo do curso de Jornalismo da Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP) durante o primeiro semestre de 2025.
