L’intelligenza artificiale non abita in una nuvola eterea, ma in edifici di cemento, acciaio e silicio che respirano elettricità. Ogni volta che chiediamo a un chatbot di riassumere un testo o a un generatore di immagini di creare un paesaggio, attiviamo una catena di server che consumano risorse reali in tempo reale. Se fino a pochi anni fa il dibattito sull’IA era confinato alle capacità logiche o ai rischi etici, oggi si è spostato prepotentemente sul piano della fisica: quanto può reggere il pianeta questa fame insaziabile di energia?

La scala del consumo: un “Paese digitale” che cresce
Siamo di fronte a un paradosso tecnologico. Mentre cerchiamo nell’IA soluzioni per ottimizzare le reti elettriche e combattere il cambiamento climatico, l’infrastruttura stessa che sostiene queste soluzioni sta diventando uno dei maggiori consumatori di energia al mondo. Esperti del settore, tra cui Sergei Rybakov, CEO della Nature and People Foundation, hanno lanciato un monito che non può più essere ignorato: entro il 2026, il consumo energetico dei data center dedicati all’IA potrebbe raggiungere i 1.050 terawattora (TWh).
Per visualizzare la magnitudo di questa cifra, occorre guardare alla mappa geografica dei consumi globali. Un consumo di oltre mille TWh posizionerebbe l’ecosistema dell’IA al pari di intere nazioni industrializzate come il Giappone o la Russia. Non stiamo più parlando di un settore industriale energivoro, ma di una nazione digitale invisibile la cui domanda elettrica è destinata a raddoppiare entro il 2028.
- AI: Perché il tuo titolo di studio non basta più
- Digitale: Stiamo assistendo alla fine della selezione naturale?
- L’IA ha appena trovato 303 nuovi segreti di Nazca
Perché l’IA “mangia” così tanto?
A differenza della ricerca tradizionale su Google, che richiede una frazione minima di energia, il processo di “inferenza” (la generazione di una risposta da parte dell’IA) è immensamente più costoso. Un modello linguistico di grandi dimensioni deve processare miliardi di parametri contemporaneamente. Ma il vero nodo energetico non è solo il calcolo: è il calore.
Le unità di elaborazione grafica (GPU) di ultima generazione, motori pulsanti dell’IA, operano a temperature elevatissime. Per evitare che i circuiti si fondano, i data center necessitano di sistemi di raffreddamento colossali che, spesso, consumano quasi quanta energia viene utilizzata per il calcolo stesso. È un ciclo di alimentazione e dissipazione che mette a dura prova le reti elettriche nazionali, nate per servire abitazioni e industrie tradizionali, non cluster di calcolo che operano al 100% della capacità 24 ore su 24.
L’impatto sulle infrastrutture locali
Il problema non è solo astratto o globale; ha ripercussioni concrete sulla stabilità energetica dei singoli Stati. Molte grandi aziende tecnologiche stanno cercando di accaparrarsi ogni megawatt disponibile, spesso entrando in competizione con la domanda civile. In alcune aree degli Stati Uniti e dell’Irlanda, la crescita dei data center ha già costretto le autorità a rivedere i piani di decarbonizzazione, portando in alcuni casi alla riapertura o al prolungamento della vita di centrali a carbone o a gas per coprire i picchi di domanda.
Si stima che entro il 2028 l’energia richiesta supererà i 326 TWh annui solo per le nuove installazioni, una quantità che basterebbe a illuminare e riscaldare un quarto di tutte le famiglie americane. Questo solleva una questione di equità sociale: a chi deve andare la priorità dell’energia prodotta? All’evoluzione tecnologica o al fabbisogno primario delle popolazioni?
La corsa alle soluzioni: dal nucleare alle energie verdi
Le Big Tech non sono rimaste a guardare, consapevoli che il collo di bottiglia energetico è il principale limite alla loro crescita. Stiamo assistendo a investimenti senza precedenti nel settore del nucleare di nuova generazione (SMR – Small Modular Reactors) e in accordi di acquisto di energia rinnovabile a lungo termine. Tuttavia, la velocità con cui l’IA si diffonde è superiore alla velocità con cui possiamo costruire nuove infrastrutture pulite.

Il rischio è che il “debito carbonico” contratto oggi per addestrare i modelli di domani diventi inestinguibile. La sfida non è solo produrre più energia, ma rendere l’algoritmo stesso meno “affamato”. L’efficienza del software dovrà diventare una priorità tanto quanto la potenza di calcolo.
Uno scenario di trasformazione forzata
Il futuro dell’intelligenza artificiale si gioca su un equilibrio sottilissimo tra innovazione e sostenibilità. Se non riusciremo a disaccoppiare la crescita delle capacità computazionali dal consumo lineare di risorse, potremmo trovarci di fronte a una frenata forzata dello sviluppo tecnologico. La transizione energetica e la rivoluzione digitale sono due binari che devono correre paralleli; se uno dei due devia, il sistema rischia il collasso.
Non è più sufficiente stupirsi delle capacità creative delle macchine. È giunto il momento di chiederci quale impronta lascino sulla terra ogni volta che rispondono a un nostro comando. La consapevolezza del consumatore digitale sarà il prossimo grande tema: saremo disposti ad accettare un’IA più lenta o meno onnipresente in cambio di un pianeta più respirabile? Le risposte che cerchiamo potrebbero non trovarsi in un prompt, ma nelle scelte infrastrutturali che i governi e le aziende prenderanno nei prossimi ventiquattro mesi.
Mentre i confini tra fisico e digitale si fanno sempre più labili, l’energia rimane il parametro di realtà più crudo. Resta da capire se l’intelligenza artificiale sarà la chiave per risolvere la crisi energetica o se ne diventerà il principale acceleratore.
Curiosa per natura e appassionata di tutto ciò che è nuovo, Angela Gemito naviga tra le ultime notizie, le tendenze tecnologiche e le curiosità più affascinanti per offrirtele su questo sito. Preparati a scoprire il mondo con occhi nuovi, un articolo alla volta!




