Um estudo sobre o consumo de energia, água, minerais e o ciclo de vida da infraestrutura por trás da inteligência artificial.
Atualmente muito se fala sobre o aumento da produtividade e benefícios na utilização de inteligências artificiais generativas, como para fazer pesquisas escolares e acadêmicas ou o uso de agentes em IDEs para explicação de código-fonte ou sugestão de melhorias. Uma pesquisa do Observatório Fundação Itaú e do Datafolha aponta que 93% das 2.798 pessoas entrevistadas utilizam alguma ferramenta de IA. Além disso, estatísticas divulgadas pela Hostinger preveem um aumento na taxa de crescimento anual de 37,7% no mercado de IA.
Esses números reforçam a ideia de que cada vez mais a inteligência artificial será integrada em nosso dia a dia. O "boom" na inteligência artificial ocorreu graças ao desenvolvimento da IA generativa, que permite que IA gere textos, imagens e vídeos em resposta a prompts. Em 2022, com o lançamento do ChatGPT, a utilização de chatbots foi consolidada devido ao GPT-3, um Large Language Model treinado em 175 bilhões de parâmetros.
Porém existe um lado oculto no aumento da utilização da IA, que é seu impacto no meio ambiente e utilização de recursos naturais.
A IA é, ao mesmo tempo, ferramenta e fardo. Por um lado, o Programa das Nações Unidas para o Meio Ambiente (PNUMA) usa IA para detectar emissões de metano em instalações de petróleo e gás, mapear dragagem destrutiva de areia e melhorar previsões climáticas. Por outro, a infraestrutura que sustenta esses modelos consome eletricidade, água e minerais raros em escala planetária — e produz toneladas de lixo eletrônico tóxico.
"Ainda há muito que não sabemos sobre o impacto ambiental da IA, mas alguns dos dados que temos são preocupantes. Precisamos ter certeza de que o efeito líquido da IA no planeta é positivo antes de implantarmos a tecnologia em escala." — Golestan (Sally) Radwan, Diretora Digital do PNUMA
Dados de pesquisas recentes (PNUMA, EESI, IEA, ONU e estudos científicos revisados por pares) revelam a escala da pegada ambiental da IA.
de CO₂eq emitidas no treinamento do GPT-3 (175B parâmetros)
mais eletricidade por requisição ao ChatGPT vs. uma busca no Google
de água por prompt de 100 palavras em modelos como o ChatGPT
de data centers em operação — eram 500 mil em 2012
de lixo eletrônico cumulativo de servidores de IA até 2030
de matérias-primas para fabricar um único computador de 2 kg
do consumo elétrico da Irlanda virá de data centers até 2026
de água/dia em um data center grande — equivale a uma cidade de 10 a 50 mil pessoas
A maior parte do debate público se concentra apenas no consumo elétrico durante o uso. Mas um estudo de 2025 publicado por pesquisadores da Universidade de Bonn, Hugging Face e parceiros — "More than Carbon: Cradle-to-Grave environmental impacts of GenAI training on the Nvidia A100 GPU" — analisou 16 categorias de impacto ao longo de todas as fases da vida de uma GPU, a peça central da IA moderna.
Mineração de cobre, ouro, lítio, cobalto e terras raras. Fabricação de chips em fundições altamente intensivas em água e energia.
Eletricidade para rodar GPUs, refrigerar racks e manter data centers ativos 24/7.
Transporte aéreo de componentes de altíssimo valor entre Ásia, Europa e Américas.
Descarte ou reciclagem após 2 a 5 anos — vida útil curta para um produto tão denso em materiais.
Os pesquisadores cunharam o termo "carbon tunnel vision" para descrever a obsessão por medir apenas emissões de CO₂. O treinamento do GPT-4, por exemplo, foi equivalente ao "orçamento ambiental" anual de 11.522 habitantes do planeta apenas para mudanças climáticas, mas seus impactos em toxicidade humana, eutrofização de água doce e depleção de minerais raros excedem qualquer orçamento individual em todas as 16 categorias avaliadas.
Cada modelo de linguagem deixa um rastro mensurável de carbono. A tabela abaixo, baseada no estudo LLMCarbon (Faiz et al., 2024), compara o impacto operacional de modelos reais durante seu treinamento.
| Modelo | Desenvolvedor | Parâmetros | GPUs/TPUs | Dias de treino | Emissão (tCO₂eq) |
|---|---|---|---|---|---|
| T5 | 11 B | 512 TPUv3 | 20 | 46,7 | |
| GPT-3 | OpenAI | 175 B | 10.000 V100 | 14,8 | 552,1 |
| GShard (MoE) | 619 B | 1.024 TPUv3 | 3,1 | 4,3 | |
| Switch (MoE) | 1.500 B | 1.024 TPUv3 | 27 | 59,1 | |
| XLM | Meta | 0,55 B | 512 V100 | 20,4 | 39,0 |
Para contexto: 552 tCO₂eq equivalem ao consumo elétrico anual de cerca de 120 lares brasileiros — gerados em apenas 14 dias de treinamento. E isso considera apenas a fase de treino, sem contar inferência, experimentação e armazenamento, que somados podem superar o treino.
O carbono operacional é o emitido durante o uso. O carbono embutido é o emitido na fabricação do hardware. Quando o data center usa energia majoritariamente fóssil, o operacional domina. Mas em data centers Meta, alimentados em 97% por fontes renováveis, o carbono embutido representa 92% a 95% do total — o que torna a vida útil prolongada do hardware tão importante quanto a fonte de energia.
Razão entre a energia total do data center e a energia usada apenas pela computação. Um PUE ideal seria 1,0; data centers de IA modernos operam com PUE entre 1,09 e 1,2.
Percentual da eletricidade vinda de fontes livres de carbono. O Google reporta data centers como europe-north1 em 91% CFE (127 gCO₂eq/kWh) versus us-central1 em 97% CFE mas ainda 394 gCO₂eq/kWh, devido a fatores de rede.
Migrar GPT-3 das antigas V100 para H100 reduz a pegada operacional em 71%. Trocar por TPUv4 reduz em 41%. Hardware mais eficiente é uma das alavancas mais imediatas.
Modelos Mixture of Experts ativam apenas parte de seus parâmetros por consulta. O GShard, com 619 bilhões de parâmetros, emitiu menos CO₂ no treinamento que o GPT-3, com 175 bilhões.
Apenas 3% da água da Terra é doce, e somente 0,5% é acessível e segura para consumo humano. Mesmo assim, data centers competem cada vez mais com comunidades por essas reservas.
Da mesma forma que o PUE mede eficiência energética, o Water Usage Effectiveness (WUE) mede litros de água por kWh consumido. A média entre data centers é 1,9 L/kWh; o ideal seria 0, atingível apenas em sistemas totalmente refrigerados a ar.
Uso intensivo de água. Comparável à irrigação por inundação na agricultura.
Reuso da mesma água várias vezes. Pode reduzir o uso de água doce em até 70%.
Líquido refrigerante entregue direto às GPUs e CPUs. Significativamente mais eficiente.
Servidores submersos em fluidos dielétricos sintéticos. Custo inicial alto, mas economia drástica de água e espaço.
O mundo já produzia 62 milhões de toneladas de lixo eletrônico em 2022 (ONU). A IA generativa está prestes a adicionar uma onda inédita: um estudo publicado por pesquisadores da Academia Chinesa de Ciências e da UC Santa Barbara projeta que servidores de LLMs gerarão até 16 milhões de toneladas cumulativas de e-waste entre 2020 e 2030 — taxa de crescimento anual composta de até 110%, contra apenas 2,8% do lixo eletrônico convencional.
Concentração extrema. A vantagem é que rastreabilidade é mais viável; o risco é que comunidades específicas absorvam impactos desproporcionais.
Exposição prolongada a esses metais pesados está associada a abortos espontâneos, malformações fetais, mutações genéticas, disfunção tireoidiana, redução da função pulmonar e distúrbios neurocomportamentais.
Os mesmos servidores descartados contêm cobre, alumínio, ferro, ouro, prata, platina e paládio que, se reciclados, valem aproximadamente US$ 70 bilhões. Minerar ouro de eletrônicos descartados emite 80% menos CO₂ que extraí-lo do minério bruto.
Estender a vida média dos servidores em apenas 1 ano (em uso secundário, "downcycling") pode reduzir o e-waste cumulativo em até 58% — estratégia mais eficaz medida.
Desmontagem e reaproveitamento de GPUs, CPUs e baterias em outros sistemas. Reduz o e-waste em ~21% (3,4 Mt).
GPUs antigas, mesmo obsoletas para LLMs de fronteira, ainda atendem tarefas como NLP de pequena escala, automação básica, projetos Linux e media centers escolares.
A Microsoft mantém Circular Centers na Europa e América do Norte que processam mais de 10 mil servidores por mês: 83% são repropostos e 22% dos materiais são reciclados.
O estudo da Universidade de Bonn destaca uma assimetria crítica: quem usufrui da IA não é, em geral, quem arca com seus custos ambientais.
"Populações nas economias ocidentais e tecnologicamente avançadas — principais beneficiárias dos serviços de IA — sofrem predominantemente impactos globais difusos como mudança climática. Já populações marginalizadas em regiões de extração, processamento, manufatura e descarte recebem benefícios mínimos enquanto absorvem degradação ambiental local concentrada (emissões tóxicas, depleção de recursos, danos a ecossistemas)." — Falk et al., 2025
Mineração de cobalto na República Democrática do Congo, lítio no triângulo andino, terras raras em Mianmar e China. Mineração intensiva, frequentemente em condições insalubres.
Fundições concentradas em Taiwan, Coreia do Sul, China e Japão — regiões enfrentando estresse hídrico recorrente. Em 2023, agricultores de Taiwan ficaram sem água para que fábricas de chips continuassem operando.
Data centers em Iowa (EUA) treinaram o GPT-4 em rede elétrica majoritariamente fóssil. Em Loudoun County (Virgínia), comunidades disputam recursos hídricos com gigantes da nuvem.
Boa parte do e-waste mundial termina em redes informais de reciclagem em Gana, Nigéria, Índia e Paquistão, onde trabalhadores queimam placas a céu aberto para recuperar metais.
O PNUMA, em nota publicada em 2024, propôs cinco eixos para reduzir o impacto ambiental da IA. Estudos científicos complementares apontam alavancas técnicas concretas.
Hoje há escassez de dados confiáveis. É preciso estabelecer procedimentos padronizados para medir e divulgar o impacto ambiental de cada modelo e serviço.
Exigir, por lei, que empresas divulguem as consequências ambientais diretas de seus produtos baseados em IA — algo análogo ao que existe para emissões automotivas.
Destilação de modelos, quantização, poda (pruning), arquiteturas MoE e técnicas de paralelismo otimizado podem reduzir o uso de energia em 16% a 39% em treinamentos típicos.
Energia renovável, refrigeração de circuito fechado, reuso de água e localização em climas frios. A meta de Microsoft, Google e AWS é "carbono negativo" ou "zero water" até 2030.
Inserir políticas de IA dentro de marcos ambientais existentes — não tratar como tema separado. UE e EUA já introduziram propostas legislativas, mas ainda são exceções.
O movimento Green AI (Schwartz et al., 2020) propõe que eficiência computacional seja reportada como métrica principal em pesquisas de ML — ao lado de acurácia, relevância e velocidade.