Partiamo da un numero che circola spesso e che è corretto: i data center statunitensi nel 2024 hanno consumato circa 200 terawattora di elettricità, una quantità paragonabile all'intero fabbisogno annuo dell'Italia. Di questi, i server dedicati specificamente all'AI hanno assorbito tra i 53 e i 76 TWh, sufficiente a far funzionare più di sette milioni di abitazioni americane per un anno. L'IEA prevede che entro il 2026 il consumo energetico globale legato all'AI potrebbe raggiungere i 134 TWh.

Questi numeri sono reali. Il problema è che vengono spesso presentati senza il contesto necessario per capire da dove vengono e soprattutto cosa li guida. Perché fare quel ragionamento — come ho spiegato in un'intervista per la serie "A Tu per Tu con l'Esperto di Diritto Informatico" — cambia radicalmente le conclusioni su cosa si può fare per limitare l'impatto.

La distinzione fondamentale: training vs inference

Ogni modello di AI attraversa due fasi con caratteristiche completamente diverse. La prima è il training: il processo di addestramento iniziale, durante il quale il modello viene esposto a enormi quantità di dati e i suoi parametri vengono aggiustati. È computazionalmente brutalissimo, dura settimane o mesi, e avviene una volta sola — o raramente. Il training di GPT-3 ha consumato circa 1.287 MWh di elettricità, generando circa 552 tonnellate di CO₂, secondo stime del MIT e di ricercatori di Google e UC Berkeley. GPT-4 si stima abbia consumato circa 50.000 MWh — cinquanta gigawattora, per avere un ordine di grandezza.

La seconda fase è l'inference: ogni volta che qualcuno usa ChatGPT, chiede una sintesi a Gemini o genera un'immagine, il modello già addestrato esegue un calcolo per produrre una risposta. Una singola query a ChatGPT consuma nell'ordine di 0,3 wattora — circa dieci volte più di una ricerca Google, ma in assoluto una quantità trascurabile. Il problema è che ChatGPT riceve decine di milioni di richieste al giorno, e quella quantità moltiplicata per miliardi di interazioni globali diventa enorme. Oggi l'inference rappresenta l'80-90% del consumo computazionale totale dell'AI.

Dati a confronto — consumo per singola operazione

Una query a ChatGPT: circa 0,3 Wh

Una ricerca Google: circa 0,03–0,04 Wh

Un'immagine generata (Stable Diffusion): circa 2.280 J (~0,63 Wh)

Un video AI da 5 secondi (alta qualità): circa 3.400.000 J (~944 Wh)

Training GPT-3 (totale): 1.287.000 Wh (1.287 MWh)

Questo cambia il quadro. Non è "l'AI" a consumare troppo: è la scala a cui opera e, in modo molto più acuto, il tipo di operazione. Generare un video di cinque secondi in alta qualità consuma migliaia di volte più di una risposta testuale. Addestrare un grande modello da zero costa quanto servire miliardi di query. Usare localmente un modello leggero come Llama 8B costa un centesimo di quello che costa la stessa operazione su GPT-4.

«Dire che l'AI inquina è come dire che "i veicoli inquinano". È vero. Ma la differenza tra una bici elettrica e un aereo cargo non è un dettaglio.»

Il problema non dichiarato: dove si trovano i data center

C'è una variabile che la maggior parte delle discussioni trascura: l'impatto ambientale di un data center dipende enormemente da dove si trova fisicamente e da quale mix energetico alimenta quella rete elettrica. Uno studio dell'Harvard T.H. Chan School of Public Health ha rilevato che l'intensità carbonica dell'elettricità usata dai data center è mediamente il 48% più alta rispetto alla media statunitense — perché i data center tendono a concentrarsi in stati con reti energetiche più inquinanti.

La stessa query inviata a ChatGPT da un server alimentato da energia solare produce emissioni radicalmente diverse rispetto alla stessa query servita da un data center alimentato principalmente da gas naturale o carbone. In Europa, la Germania ha il maggior numero di data center del continente ed è anche uno degli stati con la più alta intensità carbonica, con circa 334 grammi di CO₂ per kWh nel 2024. Queste non sono sfumature tecniche — determinano in modo diretto l'effettivo impatto climatico di ogni interazione.

Acqua, chip e i costi nascosti

Il consumo energetico non è l'unico problema. I data center utilizzano grandi quantità di acqua per il raffreddamento — e qui è importante distinguere le due fasi. Per il training, i volumi sono impressionanti ma concentrati nel tempo: uno studio dell'Università della California stima che l'addestramento di GPT-3 abbia richiesto circa 700.000 litri di acqua dolce, necessari a dissipare il calore generato dai server durante le settimane di calcolo. Una cifra enorme, ma circoscritta a quel singolo processo.

Diverso è il discorso per l'inference, cioè il funzionamento quotidiano dei modelli in produzione. Ogni kWh consumato dai server corrisponde mediamente a circa un litro di acqua evaporata per mantenere le temperature operative. Questo flusso non si esaurisce: finché il modello risponde a query, i sistemi di raffreddamento girano, e il consumo idrico è continuo. Su scala globale — con miliardi di richieste al giorno a ChatGPT, Gemini, Copilot e tutti gli altri — la somma è enorme e, a differenza del training, non si azzera mai. In aree già sotto stress idrico, come alcune regioni degli Stati Uniti dove si concentrano i grandi data center, questo rappresenta un impatto locale tutt'altro che trascurabile.

C'è poi la filiera hardware. Un report di Greenpeace East Asia ha calcolato che le emissioni legate alla produzione di semiconduttori per l'AI sono aumentate di oltre il 350% tra il 2023 e il 2024. Ogni GPU — e i nuovi data center ne ordinano a milioni — richiede processi produttivi altamente energetici e materiali rari. Questo costo non appare nelle statistiche sul consumo operativo, ma esiste ed è rilevante.

Cosa sta cambiando, concretamente

Sarebbe sbagliato concludere che non si sta facendo nulla. Google riporta che nel corso degli ultimi dodici mesi l'energia per prompt mediano è diminuita di 33 volte, e l'impronta carbonica totale di 44 volte — grazie a ottimizzazioni nei modelli e nei data center. Microsoft sta sperimentando data center a raffreddamento senza acqua. Alcune aziende posizionano server in prossimità di fonti di calore industriale per riutilizzarlo, o in paesi nordici dove il freddo riduce i costi di raffreddamento. I modelli "piccoli" — quelli che possono girare localmente sul proprio computer senza comunicare con il cloud — stanno diventando più capaci e accessibili.

Dal punto di vista normativo, e qui torna la mia prospettiva da ricercatore in diritto informatico, la Direttiva Europea sull'Efficienza Energetica del 2024 ha introdotto obblighi di trasparenza e rendicontazione energetica per i data center di grandi dimensioni. È un passo avanti, ma la vera lacuna rimane la mancanza di disclosure obbligatoria sul consumo per operazione da parte dei grandi modelli commerciali. OpenAI, Anthropic, Google: nessuno pubblica dati granulari su quanto costa in energia ogni categoria di query. Senza quei dati è impossibile per utenti, regolatori e mercati fare scelte informate.

Come usare l'AI in modo più consapevole

La questione non è se usare o non usare l'AI. È usarla con consapevolezza del costo. Alcune indicazioni pratiche: i modelli testuali consumano drasticamente meno dei modelli di generazione di immagini e video — se il compito lo permette, preferirli ha senso. I modelli più piccoli che girano localmente (come le versioni quantizzate di Llama) hanno un impatto ambientale molto inferiore ai grandi modelli cloud. Evitare prompt ridondanti o richieste multiple per lo stesso compito riduce il consumo aggregato. E scegliere fornitori che pubblicano dati sull'energia rinnovabile utilizzata è un modo per orientare il mercato.

Il punto finale, che mi sembra importante sottolineare, è che la sostenibilità dell'AI non è solo una questione tecnica o ambientale — è una questione di governance. Decidere dove costruire i data center, con quali fonti energetiche alimentarli, quali tipi di operazioni siano proporzionali al loro costo ambientale: queste sono scelte politiche. E come tutte le scelte politiche rilevanti, non possono essere lasciate esclusivamente alle aziende che ci guadagnano.