O lado invisível da Inteligência Artificial: o custo ambiental das IAs generativas

O lado invisível da Inteligência Artificial: o custo ambiental das IAs generativas

IA e meio ambiente

Você já parou para pensar no impacto ambiental do desenvolvimento de tecnologias como o ChatGPT?

Vivemos em um tempo em que a nuvem deixou de ser apenas um fenômeno meteorológico. Ela está, também, nas metáforas digitais. E como toda metáfora, esconde mais do que revela. A “nuvem” onde habita o ChatGPT — este oráculo moderno que responde às nossas perguntas em segundos — não paira leve sobre nossas cabeças. Ela pesa. Pesa no consumo de energia. Pesa em emissão de carbono. Pesa sobre os recursos naturais e, por consequência, sobre os corpos humanos que se veem à margem desse novo modelo de poder algorítmico e energético. Cada pergunta feita a uma IA generativa, cada poema, cada consulta sobre o tempo ou o amor, é alimentada por uma infraestrutura física imensa. Estamos acostumados a pensar na inteligência artificial como um fenômeno abstrato, etéreo, um brilho de silício em um cérebro inexistente. No entanto, como lembra Kate Crawford (2021), não há IA sem corpos, sem territórios, sem matéria.

Entre bits e átomos se estende uma ponte invisível que sustenta o nosso presente. Cada clique, cada comando de voz, cada texto gerado por inteligência artificial nasce do etéreo — do reino dos algoritmos — mas repousa, inevitavelmente, sobre o chão duro dos elementos. O que parece leve como um dado flutuando na nuvem, pulsa concreto em silício, cobre, lítio e suor. Os bits, embora incorpóreos, demandam corpos. Os átomos, embora sólidos, hoje trabalham para sustentar a abstração. No fim, o virtual não é menos físico do que o concreto; é apenas a nova forma pela qual o mundo material se disfarça. Não há dados sem minérios, nem inteligência artificial sem territórios. O que chamamos de digital é apenas o nome novo de uma velha matéria reorganizada — e cada vez mais concentrada nas mãos de poucos.

Existe virtual sem o concreto? Sem um lugar onde o mainframe habita? A ilusão de imaterialidade que envolve o digital é confortável, mas falsa. Todo ambiente virtual repousa sobre estruturas físicas que exigem espaço, energia e matéria. O código que se multiplica em nuvens precisa de chão, precisa de prédios, precisa de máquinas que precisam ser resfriadas, alimentadas, mantidas. A inteligência artificial, com toda sua aparência de ubiquidade, mora em endereços precisos, delimitados por coordenadas geográficas e orçamentos bilionários. Por trás da interface leve e do fluxo instantâneo de dados, há fios, concreto, servidores e um chão que treme sob o peso do que chamamos de futuro. A virtualidade não é fuga do mundo — é, antes, o mundo recodificado, disfarçado de névoa, mas tão denso quanto qualquer cidade.

As inteligências artificiais generativas não residem em um éter incorpóreo — elas ocupam território, consomem espaço, são vizinhas físicas de comunidades reais. O GPT-4, por exemplo, foi treinado em um supercomputador desenvolvido pela Microsoft exclusivamente para a OpenAI, equipado com mais de 30 mil GPUs Nvidia de alto desempenho. Esse maquinário colosso está distribuído em data centers da Azure, que ocupam áreas equivalentes a campos de futebol e requerem infraestrutura de energia comparável à de pequenas cidades industriais (Microsoft, 2023). O que chamamos de “mente artificial” precisa de paredes, concreto, cabos e refrigeração. Trata-se, na verdade, de uma arquitetura monumental do saber, onde o imaterial encontra sua morada física. Esses centros de dados são, cada vez mais, as novas catedrais do capitalismo informacional — templos onde os bits rezam suas preces às custas dos átomos.

É preciso ressaltar que o ChatGPT — e todos os modelos generativos de linguagem que hoje permeiam a educação, o trabalho e a arte — são materialmente intensivos. Seu treinamento exige supercomputadores que funcionam por semanas ou meses, consumindo eletricidade gerada, muitas vezes, por fontes fósseis. O modelo GPT-3, por exemplo, responsável por dar início à revolução dos LLMs (modelos de linguagem de larga escala), consumiu cerca de 1.287 MWh de energia apenas para ser treinado. Isso corresponde à energia elétrica anual de cerca de 120 casas nos Estados Unidos (Patterson et al., 2021). Já o GPT-4 — motor atual do ChatGPT —, ainda mais complexo, pode ter gerado entre 12.456 e 14.994 toneladas de CO₂ durante seu treinamento, dependendo da matriz energética utilizada (Medium, 2023). São números que extrapolam qualquer fantasia cibernética. Não há nada de leve ou limpo nessa inteligência.

Mais do que o treinamento, o maior custo ambiental da IA está no uso contínuo — na inferência. Em outras palavras: manter o ChatGPT funcionando 24 horas por dia para responder às nossas perguntas é uma operação energética constante. Estima-se que uma única consulta ao ChatGPT consuma até dez vezes mais energia do que uma busca no Google (Planet Detroit, 2024). Imagine um milhão de pessoas fazendo dez perguntas ao ChatGPT em um único dia. Essa atividade pode gerar um consumo diário de 50 MWh — o suficiente para abastecer uma pequena cidade. Agora pensemos em bilhões de interações, diariamente, em todo o mundo. Estamos criando uma nova camada de consumo invisível, disfarçada em interfaces minimalistas e respostas instantâneas. A energia não é o único recurso drenado. Para manter os servidores resfriados, a OpenAI — assim como outras big techs — utiliza milhões de litros de água diariamente. Um estudo publicado em 2023 aponta que o ChatGPT pode consumir cerca de 0,5 litro de água por cada 10 a 50 prompts gerados (Li et al., 2023). Água potável, retirada de regiões próximas aos data centers. Água que poderia abastecer comunidades inteiras em regiões em situação de escassez hídrica.

O mito da virtualidade esconde também o gigantismo físico dos data centers — as verdadeiras catedrais da IA. Estas construções, que operam em segredo, são espaços físicos com dimensões comparáveis a campos de futebol ou pequenas cidades. A OpenAI, em parceria com a Microsoft, utilizou um supercomputador com mais de 30 mil GPUs Nvidia para treinar o GPT-4. Esse equipamento está alocado em data centers da Azure, que ocupam milhares de metros quadrados e consomem quantidades de energia comparáveis a usinas industriais.

Estes espaços não apenas ocupam terras e consomem energia e água. Eles reproduzem desigualdades. São construídos em regiões com incentivos fiscais e infraestrutura estável, mas seus impactos — ruído, calor, poluição térmica, secas — são sentidos por populações locais invisibilizadas, muitas vezes comunidades negras, indígenas ou economicamente precarizadas. A pergunta não é mais se a IA funcionará — ela já funciona. A pergunta agora é: a que custo? E principalmente: quem paga esse custo? Há uma assimetria brutal entre os benefícios e os impactos. Para cada resposta polida do ChatGPT, há uma cadeia global de extração, emissão e descarte. Para cada avanço técnico, há uma regressão ambiental.

A OpenAI, ciente da demanda energética exponencial das futuras gerações de IAs, apresentou ao governo dos Estados Unidos o projeto Stargate: uma proposta para construir uma série de data centers com capacidade de até 5 gigawatts (GW) cada — o equivalente à energia de cinco usinas nucleares. O plano prevê uma expansão física e energética massiva, com investimentos estimados em 100 bilhões de dólares, destinados a erguer infraestruturas capazes de sustentar uma superinteligência artificial de escala global (Reuters, 2024). O que se pretende com tais instalações não é apenas armazenar dados, mas operar sistemas que imitam a linguagem humana em tempo real, o que exige recursos colossais. Ao pensar a inteligência artificial como algo “na nuvem”, esquecemos que há terra — e muita — sustentando essa abstração. E que a pergunta não é apenas onde está a IA, mas sobre quem divide fronteira com ela.

E é aqui que entra a ética, mas não aquela ética romântica e genérica, que adorna documentos corporativos com jargões. Falo de uma ética ecossocial, uma ética encarnada, que considera as externalidades, os efeitos colaterais, os danos ocultos. Uma ética que não dissocia o virtual do real, nem o código da terra. Como já refletimos em outras colunas, o fenômeno da IA é profundamente social, histórico e político. A singularidade tecnológica, tão alardeada por futurologistas e empreendedores, não é apenas uma questão de eficiência, mas de poder e privilégio.

Estamos diante de um novo extrativismo — não mais apenas mineral, mas extrativismo de dados e energia. O que antes era colônia de ouro e açúcar, agora é colônia digital: fornecedora de dados, território de servidores, consumidora de energia. E como sempre, os mais vulneráveis ficam com os resíduos. O chamado à reflexão, portanto, é claro. Não se trata de negar os avanços da IA, mas de perguntar: qual é o modelo de progresso que estamos aceitando sem debate? E mais: estamos dispostos a construir uma IA ecologicamente responsável ou vamos repetir, em versão 5.0, as mesmas lógicas de destruição?

Não estamos condenados à distopia. Há alternativas. É possível, por exemplo, exigir transparência energética das big techs: quantos watts, quantos litros, quantas toneladas de CO₂ por resposta? Criar marcos regulatórios ambientais para a IA, à semelhança dos mecanismos de compensação ambiental da indústria. Incentivar a pesquisa em IA verde, com foco em modelos menores, otimizados e energeticamente eficientes. Promover a educação digital crítica, que inclua desde cedo o debate sobre os custos invisíveis das tecnologias. Sobretudo, é preciso ampliar o letramento ecológico no debate sobre inovação. Porque sem justiça ambiental, não há justiça algorítmica. E sem justiça algorítmica, não há inteligência — apenas automatização do privilégio.

Talvez o que mais assuste na inteligência artificial não seja sua capacidade de prever palavras, mas nossa incapacidade de prever seus custos. Vivemos conectados, mas desconectados dos efeitos materiais dessa conexão. A inteligência artificial que nos seduz com respostas rápidas é a mesma que, silenciosamente, consome terras, rios e megawatts. Que futuro estamos alimentando quando pedimos que a máquina nos diga o que pensar? Convidamos, assim, à reflexão crítica: não é hora de reaprender a perguntar? Perguntar não apenas ao ChatGPT, mas ao mundo — e sobretudo a nós mesmos — sobre o que estamos dispostos a sacrificar em nome do progresso.

 

Referências

____________________

LI, P. et al. Making AI less thirsty: uncovering and addressing the secret water footprint of AI models. arXiv, 2023. Disponível em: https://arxiv.org/abs/2304.03271. Acesso em: 21 abr. 2025.

MEDIUM. The carbon footprint of GPT-4. Medium, 2023. Disponível em: https://medium.com/data-science/the-carbon-footprint-of-gpt-4-d6c676eb21ae. Acesso em: 21 abr. 2025.

MIT NEWS. Explained: generative AI’s environmental impact. MIT News, 17 jan. 2025. Disponível     em: https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117. Acesso em: 21 abr. 2025.

PLANET DETROIT. AI’s environmental footprint: how much energy does it take to run ChatGPT?             Planet            Detroit,           2024. Disponível     em: https://planetdetroit.org/2024/10/ai-energy-carbon-emissions/. Acesso em: 21 abr. 2025.

DATACENTERDYNAMICS. OpenAI pitched White House on multiple 5GW data centers. DataCenterDynamics, 2024. Disponível em:

https://www.datacenterdynamics.com/en/news/openai-pitched-white-house-on-multipl e-5gw-data-centers/. Acesso em: 21 abr. 2025.

MICROSOFT. Introducing GPT-4 in Azure OpenAI Service. Microsoft Azure Blog, 2023. Disponível     em: https://azure.microsoft.com/en-us/blog/introducing-gpt4-in-azure-openai-service/. Acesso em: 21 abr. 2025.

REUTERS. Microsoft, OpenAI plan $100 billion data-center project, media report says. Reuters, 29 mar. 2024. Disponível em:

https://www.reuters.com/technology/microsoft-openai-planning-100-billion-data-cente r-project-information-reports-2024-03-29/. Acesso em: 21 abr. 2025.

Compartilhe nas Redes Sociais
Anúncio