© Conteúdo protegido por direitos autorais

IA e clima

A IA tem muita sede: especialista explica o consumo e como calcular a ‘pegada hídrica’ ao usar chatbots

por Leo S. Lo | Reitor de biblioteconomia, conselheiro de educação em IA e professor, Universidade da Virgínia / EUA



Cada conversa curta com IA pode consumir até 500 ml de água, somando bilhões de litros por dia em todo o mundo. A pegada hídrica da IA varia conforme o modelo, a infraestrutura de energia e o clima local, exigindo mais transparência e escolhas sustentáveis.



Os sistemas de IA (inteligência artificial) têm muita sede, chegando a consumir até 500 mililitros de água –  o equivalente uma garrafinha individual – para cada conversa curta  de um usuário com a versão ChatGPT-3 da OpenAI.

Eles usam aproximadamente a mesma quantidade de água para redigir uma mensagem de e-mail de 100 palavras.

O cálculo inclui a água usada para resfriar os servidores do data center e a que é consumida nas usinas de energia que geram a eletricidade para que eles funcionem.

Mas o estudo que fez os cálculos também apontou que o uso de água dos sistemas de IA pode variar muito, dependendo de onde e quando o computador que responde à consulta está sendo utilizado.

A experiência em pesquisa na área de biblioteconomia e docência em educação ensinou que compreender a IA não se limita a saber escrever bons prompts. A compreensão da tecnologia também exige saber mais sobre sua infraestrutura, as compensações e as escolhas cidadãs em torno de seu uso.

Muitas pessoas acham que a IA é essencialmente prejudicial, especialmente devido a manchetes na imprensa apontando sua grande pegada ambiental decorrente do consumo de energia e água.

Esses efeitos são reais, mas representam apenas parte da história.

Quando as pessoas deixam de ver a IA como simplesmente um dreno de recursos e passam a tentar entender sua pegada individual real, de onde vêm os efeitos, como eles variam e o que pode ser feito pelo próprio usuário para reduzi-los, elas ficam mais capacitadas a fazer escolhas que equilibram a inovação com a sustentabilidade.

Como funciona o consumo de água da IA

Por trás de cada consulta feita por um usuário a um chatbot de IA generativa existem dois fluxos de uso de água.

O primeiro é o resfriamento no local de servidores, os computadores potentes que geram enormes quantidades de calor. Eles geralmente usam torres de resfriamento evaporativo – pulverizadores gigantes que lançam vapor de água sobre tubos quentes ou reservatórios abertos.

A evaporação leva embora o calor, mas a água utilizada para isso é proveniente da rede de abastecimento de água local, como um rio, um reservatório ou um aquífero. Outros sistemas de refrigeração podem usar menos água, mas mais eletricidade.

O segundo fluxo é usado pelas usinas que geram a eletricidade para alimentar o data center. Usinas de carvão, gás e nucleares demandam grandes volumes de água para ciclos de vapor e resfriamento.

A energia hidrelétrica também usa quantidades significativas de água, que evapora dos reservatórios. As usinas solares concentradas, que funcionam mais como usinas de energia a vapor tradicionais, podem exigir consumo intensivo de água se dependerem de resfriamento úmido.

Por outro lado, turbinas eólicas e painéis solares quase não usam água depois de construídos, além daquela empregada para a limpeza periódica.

Clima e tempo importam

O uso da água muda drasticamente com a localização. Um data center na Irlanda fria e úmida geralmente pode contar com ar externo ou resfriadores e funcionar por meses com o mínimo de uso de água.

Por outro lado, um data center no Arizona operando no mês de julho [verão no Hemisfério Norte] pode ter que depender muito do resfriamento evaporativo. O ar quente e seco torna esse método altamente eficaz, mas também consome grandes volumes de água, já que a evaporação é o mecanismo que remove o calor.

A hora do dia e a época também fazem diferença. Um estudo da Universidade de Massachusetts Amherst descobriu que um data center pode usar apenas metade da água no inverno do que no verão.

E ao meio-dia, durante uma onda de calor, os sistemas de refrigeração trabalham horas extras. À noite, a demanda é menor.

Experiências mais recentes oferecem alternativas promissoras. Por exemplo, o resfriamento por imersão submerge os servidores em fluidos que não conduzem eletricidade, como óleos sintéticos, reduzindo quase inteiramente a evaporação da água.

E um novo design da Microsoft afirma usar zero água para resfriamento, fazendo circular um líquido especial através de tubos selados diretamente entre chips de computador. O líquido absorve o calor e o libera através de um sistema de circuito fechado sem a necessidade de evaporação.

Os data centers ainda usariam um pouco de água potável para banheiros e outras instalações da equipe, mas o resfriamento em si não se basearia mais no abastecimento de água local.

No entanto, essas soluções ainda não são comuns, principalmente por causa do custo, da complexidade da manutenção e da dificuldade de converter data centers existentes em novos sistemas. A maioria dos operadores depende de sistemas evaporativos.

Uma habilidade simples que você pode usar

O tipo de modelo de IA que está sendo consultado também é importante, por causa dos diferentes níveis de complexidade e do hardware e da quantidade de energia do processador que eles exigem.

Alguns modelos podem usar muito mais recursos do que outros. Por exemplo, um estudo descobriu que certos modelos podem consumir mais de 70 vezes mais energia e água do que os ultraeficientes.

Qualquer pessoa pode estimar sua pegada hídrica da IA generativa em apenas três etapas, sem a necessidade de matemática avançada.

Passo 1 – Procure por pesquisas confiáveis ou divulgações oficiais. Análises independentes estimam que uma resposta GPT-5 de extensão média, que é de cerca de 150 a 200 palavras de saída, ou aproximadamente 200 a 300 tokens, usa cerca de 19,3 watts-hora. Uma resposta de extensão semelhante do GPT-4o usa cerca de 1,75 watts-hora.

Passo 2 – Use uma estimativa prática para a quantidade de água por unidade de eletricidade, combinando o uso para refrigeração e energia.

Pesquisas independentes e relatórios de empresas do setor  sugerem que uma faixa razoável hoje é de cerca de 1,3 a 2,0 mililitros por watt-hora. A extremidade inferior reflete instalações eficientes que usam resfriamento moderno e grades mais limpas. A extremidade superior representa locais mais típicos.

Passo 3 – Agora é hora de juntar as peças. Pegue o número de energia que você encontrou na Etapa 1 e multiplique-o pelo fator de água da Etapa 2. Isso resulta na pegada hídrica de uma única resposta a uma consulta ao chatbot de IA generativa.

Aqui está a fórmula de uma linha que você vai precisar:

Energia por prompt (watt-hora) × Fator de água (mililitros por watt-hora) = Água por prompt (em mililitros)

Para uma consulta de extensão média ao GPT-5, esse cálculo deve usar os valores de 19,3 watts-hora e 2 mililitros por watt-hora. 19,3 x 2 = 39 mililitros de água por resposta.

Para uma consulta de extensão média ao GPT-4o, o cálculo é de 1,75 watts-hora x 2 mililitros por watt-hora = 3,5 mililitros de água por resposta.

Considerando que os data centers são mais eficientes e usam 1,3 mililitros por watt-hora, os números caem: cerca de 25 mililitros para GPT-5 e 2,3 mililitros para GPT-4o.

Em um relatório técnico recente, o Google disse que um prompt de texto médio para seu sistema Gemini usa apenas 0,24 watts-hora de eletricidade e cerca de 0,26 mililitros de água – aproximadamente o volume de cinco gotas.

No entanto, o relatório não diz a extensão desse prompt. Assim, o dado não pode ser comparado diretamente com o uso de água do GPT.

Essas diferentes estimativas – variando de 0,26 mililitros a 39 mililitros – demonstram o quanto os efeitos da eficiência, do modelo de IA e da infraestrutura de geração de energia importam.

As comparações podem adicionar contexto

Para realmente entender quanta água essas consultas usam, pode ser útil compará-las com outros usos comuns da água.

Quando multiplicado por milhões, o uso de água das consultas de IA aumenta. A OpenAI relata cerca de 2,5 bilhões de prompts por dia.

Esse número inclui consultas para seus sistemas GPT-4o, GPT-4 Turbo, GPT-3.5 e GPT-5, sem um detalhamento público de quantas consultas são emitidas para cada modelo específico.

O uso de estimativas independentes e relatórios oficiais do Google dá uma ideia do alcance possível:

  • Todos os avisos medianos do Google Gemini: cerca de 650.000 litros por dia.
  • Todos os prompts médios do GPT 4: cerca de 8,8 milhões de litros por dia.
  • Todos os prompts médios do GPT 5: cerca de 97,5 milhões de litros por dia.

Para efeito de comparação, os americanos usam cerca de 34 bilhões de litros por dia regando gramados e jardins residenciais. Um litro equivale a cerca de um quarto de galão.

A IA generativa usa água, mas –, pelo menos por enquanto –, seus totais diários são pequenos em comparação com outros usos comuns, como gramados, chuveiros e lavanderia.

No entanto, sua demanda de água  não é fixa. A divulgação dos dados do Google mostra o que é possível quando os sistemas são otimizados, com chips especializados, resfriamento eficiente e gerenciamento inteligente de carga de trabalho.

Reciclagem de água e implantação de data centers em regiões mais frias e úmidas também pode ajudar.

A transparência é igualmente importante: quando as empresas divulgam os seus dados, o público, os políticos com poder de decisão e os pesquisadores podem ver o que é possível alcançar e comparar as empresas do setor de forma justa.


Este artigo foi publicado originalmente no portal acadêmico The Conversation e é republicado aqui sob licença Creative Commons.

error: O conteúdo é protegido.