Quando chiedi a LLM come ChatGPT di redigere un’e-mail o Gemini di riassumere un articolo, o DeepSeek di rivedere un documento, stai attingendo alla potenza dei grandi modelli linguistici (LLM). Gli LLM e i sistemi di intelligenza artificiale sono addestrati su enormi quantità di dati di testo per imitare il linguaggio umano. Questi modelli, come GPT-4 di OpenAI, Gemini di Google, DeepSeek-R1 e Llama 2 di Meta, stanno rivoluzionando le industrie, dall’assistenza sanitaria all’istruzione. Ma dietro le loro interfacce eleganti si trova un segreto per la loro insaziabile sete di acqua. Useresti ChatGPT, Gemini, Llama, DeepSeek e altri LLM se sapessi che ogni risposta costa un bicchiere d’acqua?

L’addestramento e il funzionamento degli LLM richiedono una massiccia potenza computazionale, che genera molto calore. Per prevenire questo surriscaldamento, i data center si affidano a sistemi di raffreddamento che consumano quantità d’acqua a cascata. Ad esempio, l’addestramento del GPT-3 di OpenAI ha richiesto circa 700.000 litri di acqua sufficienti per riempire la torre di raffreddamento di un reattore nucleare. I data center di Google, che alimentano modelli come Gemini, hanno consumato 5,6 miliardi di galloni d’acqua nel 2022, in gran parte per il raffreddamento. Ciò equivale al fabbisogno idrico giornaliero di 43.000 famiglie. Anche l’allenamento Llama 2 di Meta ha consumato 10,9 milioni di litri

Il problema non finisce con la formazione. Ogni volta che interagisci con un LLM, consuma acqua. Ad esempio, ogni 10-50 richieste a ChatGPT utilizzano circa 500 millilitri di acqua, a seconda del carico del server. Google Search, che elabora 8,5 miliardi di query al giorno, utilizza 10 volte più acqua se migliorata dall’IA. Anche la posizione gioca un ruolo fondamentale: i data center in regioni calde e secche come l’Arizona o il Cile utilizzano il 40% in più di acqua per il raffreddamento rispetto a quelli in climi più freddi. Il data center di Microsoft in Arizona, ad esempio, utilizza 56 milioni di litri di acqua all’anno abbastanza da sostenere 1.400 famiglie per un anno.

Le conseguenze ambientali e sociali di questo uso dell’acqua sono profonde. Nelle regioni soggette a siccità, i data center competono con l’agricoltura e l’acqua potabile per risorse limitate. In Cile, ad esempio, i data center sono stati accusati di esacerbare la carenza d’acqua per gli agricoltori locali. Nel frattempo, l’energia necessaria per alimentare questi sistemi spesso proviene da impianti di carbone o gas, che a loro volta consumano grandi quantità di acqua per il raffreddamento. Il consumo mensile di energia di ChatGPT consuma indirettamente milioni di litri di acqua attraverso la sola generazione di energia.

Le implicazioni della giustizia sociale sono altrettanto allarmanti. I data center sono spesso costruiti in aree a basso reddito o emarginate, creando “zone di sacrificio” in cui le comunità non hanno le risorse per protestare. Nel “Data Center Alley” dell’Oregon, i residenti hanno sollevato preoccupazioni sugli impatti ambientali e sulla salute delle strutture vicine. A livello globale, l’impronta idrica dell’IA aggrava la disuguaglianza, con regioni colpite dalla siccità nel Sud del mondo che ospitano server per le aziende tecnologiche occidentali. Il Kenya, ad esempio, sta affrontando gravi carenze idriche, ma le sue risorse vengono deviate verso macchine fredde che servono economie lontane.

Nonostante queste sfide, le aziende tecnologiche spesso pubblicizzano il loro impegno per la sostenibilità. Google, ad esempio, afferma che la sua IA è “carbon neutral”, ma dice poco sul suo utilizzo dell’acqua. Questa ipocrisia sottolinea la necessità di una maggiore responsabilità. La crisi idrica non sarà risolta dagli algoritmi, richiede un’azione umana. I giganti della tecnologia devono dare la priorità alle pratiche sostenibili, come il trasferimento dei data center in climi più freddi, gli investimenti in sistemi raffreddati ad aria e il riciclaggio delle acque reflue. I governi devono regolare l’impronta ambientale dell’IA con la tregola tregolare della sua etica. E come utenti, dobbiamo chiederci: abbiamo bisogno di un’altra poesia generata dall’IA se significa che un bambino ha sete?

 

 

Gli LLM stanno rimodellando il nostro mondo, ma i loro costi idrici nascosti minacciano di prosciugare il nostro futuro. Non possiamo lasciare che la corsa della Silicon Valley per un’IA più intelligente superi la capacità del nostro pianeta di sopravvivere. La crisi idrica è una crisi umana e richiede soluzioni umane. Mentre ci meravigliamo delle capacità dell’IA, non dimentichiamo il costo reale della sua intelligenza: l’acqua che beviamo, l’aria che respiriamo e il futuro che condividiamo.

Di Muhammad Sulaman

Muhammad Sulaman è un amministratore IT presso BTTN.