Perché l’infrastruttura energetica sta diventando il vero collo di bottiglia dell’AI
C’è una trasformazione silenziosa che sta accompagnando la crescita dell’intelligenza artificiale.
Per molto tempo l’attenzione si è concentrata sui modelli, sulla loro capacità di generare testo, immagini, codice, decisioni sempre più sofisticate. Il racconto ha seguito questa traiettoria, come se il punto centrale fosse rendere questi sistemi sempre più avanzati.
Intanto, sotto questa superficie, ha iniziato a emergere qualcosa di altrettanto importante.
Ogni risposta generata, ogni contenuto prodotto, ogni interazione che appare immediata e leggera si appoggia su una struttura estremamente concreta. Data center, chip, sistemi di raffreddamento, reti di distribuzione. E soprattutto energia.
Nel 2024 i data center hanno consumato circa 415 terawattora di elettricità a livello globale, una quantità che vale circa l’1,5% del consumo mondiale. Tradotto in modo più intuitivo, si tratta di più energia di quella utilizzata in un anno da un intero paese come l’Argentina. E il dato più interessante non è la dimensione, ma la velocità con cui cresce. Negli ultimi cinque anni il consumo è aumentato del 12% all’anno, a un ritmo molto più rapido rispetto al resto dell’economia.
Quando si entra nel dettaglio dell’AI generativa, il fenomeno diventa ancora più evidente. Una singola interazione con un modello linguistico richiede molta più energia rispetto a una ricerca tradizionale. Le stime variano, ma convergono su un ordine di grandezza chiaro: circa 2 wattora per una query su ChatGPT contro 0,3 wattora per una ricerca Google. La differenza sembra piccola finché non si moltiplica per miliardi di interazioni quotidiane. A quel punto diventa un fattore strutturale.
Le proiezioni seguono la stessa traiettoria. Entro il 2030 il consumo dei data center potrebbe avvicinarsi ai 945 terawattora. I sistemi dedicati all’AI rappresenteranno una parte crescente di questa domanda, con tassi di crescita che superano il 30% annuo. In alcuni paesi, come gli Stati Uniti, i data center sono destinati a diventare tra i principali consumatori di elettricità, superando interi settori industriali tradizionali.
In questo contesto sta prendendo forma un cambio di prospettiva.
Accanto ai modelli sempre più grandi, iniziano a trovare spazio modelli più piccoli, più specializzati, costruiti per rispondere a esigenze precise con un utilizzo più efficiente delle risorse. Non si tratta di una tendenza marginale. Modelli come Phi-4, Gemma 2 e Mistral 7B riescono a raggiungere tra l’80% e il 90% delle prestazioni di modelli molto più grandi su compiti specifici, con costi computazionali significativamente inferiori. Phi-4, con circa 14 miliardi di parametri, supera in alcuni casi modelli dieci volte più grandi nel ragionamento matematico. Architetture come la Mixture of Experts, adottate ad esempio in Llama 4 Scout, permettono di attivare solo una parte del modello per ogni richiesta, riducendo il consumo senza compromettere il risultato.
Anche sul fronte dell’efficienza operativa si osservano progressi importanti. Alcuni provider sono riusciti a ridurre drasticamente il consumo energetico per singola interazione grazie a ottimizzazioni di modello, algoritmi e hardware. Questo tipo di miglioramento, però, porta con sé una dinamica ben nota in economia: il paradosso di Jevons. Quando qualcosa diventa più efficiente e meno costoso, tende a essere utilizzato di più. E l’aumento dell’uso può compensare, o addirittura superare, il risparmio ottenuto.
Nel frattempo, i modelli open-weight stanno aprendo un’altra direzione. DeepSeek-V3, con oltre 600 miliardi di parametri, è stato addestrato con meno di 6 milioni di dollari, raggiungendo prestazioni comparabili a GPT-4 sui principali benchmark. La possibilità di eseguire modelli localmente, adattarli, distribuirli senza dipendere completamente da infrastrutture centralizzate introduce un nuovo livello di controllo. Non è solo una questione tecnica, ma anche economica e strategica. Significa poter gestire costi, dati e performance in modo più diretto.
Tutto questo racconta una fase diversa.
L’intelligenza artificiale entra sempre più in una logica industriale, dove le domande cambiano. Accanto alla curiosità su ciò che è possibile fare, cresce l’attenzione su quanto costa farlo e su quali infrastrutture sono necessarie per sostenerlo.
Le reti elettriche iniziano a riflettere questa pressione. In molte aree la capacità di connessione diventa un vincolo concreto. I tempi per costruire nuove infrastrutture energetiche sono lunghi, spesso di diversi anni. Anche componenti fondamentali come trasformatori e cavi richiedono tempi di approvvigionamento sempre più estesi. La crescita dell’AI si intreccia così con limiti materiali che non dipendono dal software.
Diventa centrale il modo in cui le organizzazioni progettano e utilizzano queste tecnologie. Non si tratta solo di scegliere il modello più capace, ma quello più adatto al contesto. Non solo scalare, ma farlo in modo coerente con l’infrastruttura disponibile.
In questo scenario, l’energia assume un ruolo sempre più visibile.
Non come sfondo, ma come parte integrante del funzionamento dell’intelligenza artificiale.
E mentre continuiamo a parlare di capacità e prestazioni, emerge con sempre maggiore chiarezza un altro livello di lettura.
L’intelligenza artificiale continua a evolvere.
La sua base materiale, invece, diventa sempre più evidente.
Ed è proprio in questa relazione tra capacità e infrastruttura che si definirà una parte significativa del suo futuro.
Fonti e note metodologiche
I dati su consumi, crescita e proiezioni dei data center sono basati principalmente sul report Energy and AI (2025) dell’International Energy Agency (IEA), che rappresenta oggi uno dei riferimenti più autorevoli sul tema.
Le stime relative al consumo energetico per singola interazione con modelli linguistici derivano da analisi di settore e studi accademici (tra cui de Vries, 2023), riprese e aggregate da fonti come Surfshark Research ed Epoch AI. È importante sottolineare che questi valori possono variare significativamente in funzione del modello utilizzato, della lunghezza della richiesta e dell’infrastruttura sottostante: i numeri riportati vanno quindi intesi come ordini di grandezza, non come misurazioni puntuali.
Le considerazioni sul paradosso di Jevons e sull’impatto sistemico dell’aumento di efficienza sono supportate da analisi del Brookings Institution (2026), che evidenziano come i miglioramenti di efficienza possano essere compensati da una crescita della domanda.
Il caso DeepSeek-V3 è tratto dal relativo technical report e da analisi successive: il costo inferiore a 6 milioni di dollari si riferisce al training run dichiarato e non al costo industriale complessivo (inclusi ricerca, sviluppo e infrastruttura).
Ulteriori dati di contesto sull’evoluzione dei consumi e sull’adozione dei data center provengono da elaborazioni del Pew Research Center (2025), che riprendono e integrano analisi IEA su scala nazionale.