MercatoNotizie

Consumi dell’AI: Microsoft e OpenAI alle prese con il dilemma energetico

La domanda che attraversa oggi l’intera industria tecnologica è semplice ma cruciale: quanta energia serve davvero per alimentare l’intelligenza artificiale? Secondo Sam Altman, CEO di OpenAI, e Satya Nadella, CEO di Microsoft, nessuno lo sa con certezza. E questo sta creando una crescente tensione tra le ambizioni del settore e la realtà delle infrastrutture energetiche disponibili.

Per anni, il dibattito sull’AI si è concentrato sul calcolo — sulla disponibilità di GPU e sulla capacità di elaborazione dei data center. Oggi, però, emerge un nuovo collo di bottiglia: l’energia. I due leader, intervistati nel podcast BG2, hanno ammesso che il principale vincolo alla crescita dell’AI non è più la potenza di calcolo, ma la disponibilità di elettricità.

“Il problema più grande che abbiamo ora non è un eccesso di GPU, ma di energia. E, in generale, la difficoltà di costruire data center abbastanza velocemente vicino a fonti di alimentazione”, ha dichiarato Nadella. “Se non riesci a farlo, rischi di avere un mucchio di chip in magazzino che non puoi nemmeno accendere”.

Consumi dell’AI: un problema che cresce più veloce dell’infrastruttura

Negli ultimi anni, la crescita dei consumi dell’AI ha superato le previsioni più ottimistiche. Per oltre un decennio, la domanda di elettricità negli Stati Uniti è rimasta stabile. Ma negli ultimi cinque anni, i data center hanno invertito la tendenza, spingendo la richiesta di energia ben oltre le capacità pianificate dalle utility.

La conseguenza è un’accelerazione senza precedenti nella costruzione di nuovi impianti energetici e di connessioni “behind the meter”, ossia impianti in cui l’elettricità viene fornita direttamente al data center, bypassando la rete elettrica nazionale. È un fenomeno che segna un cambio strutturale nel modo in cui le big tech si rapportano con il sistema energetico.

“Oggi il mio problema non è la fornitura di chip,” ha spiegato Nadella, “ma il fatto che non ho abbastanza infrastrutture pronte per utilizzarli.”

Microsoft, per esempio, avrebbe acquistato più GPU di quanta energia sia effettivamente disponibile per alimentarle. “Oggi il mio problema non è la fornitura di chip,” ha spiegato Nadella, “ma il fatto che non ho abbastanza infrastrutture pronte per utilizzarli.”

Dalla tecnologia al settore energetico: la curva di apprendimento delle big tech

Per aziende abituate a operare nel mondo del software e del silicio, la transizione verso il settore energetico rappresenta un terreno completamente nuovo. Costruire un data center può richiedere mesi, ma sviluppare una centrale elettrica richiede anni.

“I cicli di domanda e offerta in questo caso non sono prevedibili. Non possiamo scalare la produzione di energia alla stessa velocità con cui scalano i chip o il software.”

Il CEO di Microsoft ha sottolineato come la velocità del settore IT non sia compatibile con quella delle infrastrutture energetiche: “I cicli di domanda e offerta in questo caso non sono prevedibili. Non possiamo scalare la produzione di energia alla stessa velocità con cui scalano i chip o il software.”

Questa dissonanza sta spingendo aziende come Microsoft e OpenAI a esplorare nuove forme di approvvigionamento diretto, investendo in tecnologie energetiche alternative e, in alcuni casi, nella produzione autonoma di energia.

Altman: il rischio di un eccesso di energia “contrattualizzata”

Durante lo stesso podcast, Sam Altman ha espresso preoccupazione per l’instabilità del mercato energetico legata alla crescita dei consumi dell’AI. Secondo il fondatore di OpenAI, se nei prossimi anni dovesse emergere una fonte di energia estremamente economica e disponibile su larga scala, molti operatori potrebbero ritrovarsi penalizzati da contratti energetici troppo costosi e a lungo termine.

“Se un’energia a bassissimo costo diventa disponibile presto e su larga scala, molte aziende rimarranno intrappolate in contratti onerosi che non riflettono il nuovo scenario,” ha spiegato Altman.

Il CEO di OpenAI ha anche richiamato l’attenzione sul ritmo di crescita del costo per unità di intelligenza, sottolineando che la curva di efficienza dell’AI è così ripida da creare problemi infrastrutturali inediti. “Se la riduzione del costo per unità di intelligenza continua ai ritmi attuali — circa 40x all’anno — l’impatto sulle infrastrutture sarà enorme,” ha aggiunto.

Le scommesse di Altman: nucleare, fusione e solare

Non sorprende, quindi, che Sam Altman abbia deciso di investire direttamente nel futuro dell’energia. Le sue partecipazioni includono Oklo (energia nucleare a fissione), Helion (fusione nucleare) e Exowatt, una startup solare che concentra il calore solare per immagazzinarlo e utilizzarlo successivamente.

Tuttavia, nessuna di queste tecnologie è ancora pronta per un’implementazione su larga scala. Le soluzioni basate su combustibili fossili, come le centrali a gas naturale, richiedono anni per essere costruite, e gli ordini attuali per nuove turbine non saranno consegnati prima della fine del decennio.

Per questo motivo, molte aziende tecnologiche stanno accelerando sugli investimenti nel fotovoltaico, attratte dal basso costo, dalla rapidità di installazione e dalla natura zero emission della tecnologia.

Il parallelo tra chip e fotovoltaico: modularità e scalabilità

C’è anche un elemento culturale e tecnologico dietro questa corsa al solare. Le celle fotovoltaiche condividono con i semiconduttori molte caratteristiche: entrambe sono costruite su substrati di silicio, entrambe sono modulari e scalabili. Proprio come i chip, anche i pannelli solari possono essere combinati in grandi array per creare sistemi più potenti e flessibili.

Ci sono moltissime applicazioni che oggi non hanno senso economico, ma che diventerebbero immediatamente realizzabili con costi più bassi.

Questa modularità rende il solare una tecnologia affine al modello operativo delle aziende IT, che possono aggiungere capacità energetica in modo progressivo, seguendo la crescita della domanda. Tuttavia, anche il fotovoltaico ha limiti strutturali: i tempi di costruzione, seppur inferiori a quelli delle centrali tradizionali, non possono competere con la rapidità con cui cresce la domanda di potenza di calcolo legata all’AI.

Consumi dell’AI e paradosso di Jevons

Altman sembra aderire al cosiddetto paradosso di Jevons, secondo cui l’aumento dell’efficienza nell’uso di una risorsa non ne riduce il consumo totale, ma lo amplifica. Applicato ai consumi dell’AI, questo significa che anche se i sistemi diventeranno più efficienti, il loro uso crescerà in modo ancora più rapido.

“Se il prezzo del calcolo per unità di intelligenza si riducesse di cento volte domani,” ha detto Altman, “l’uso crescerebbe molto di più di cento volte. Ci sono moltissime applicazioni che oggi non hanno senso economico, ma che diventerebbero immediatamente realizzabili con costi più bassi.”

In altre parole, ogni miglioramento nell’efficienza computazionale non rallenta la domanda energetica dell’AI: la moltiplica.

Un futuro incerto tra chip, energia e domanda esponenziale

Il quadro che emerge è quello di un’industria che corre più veloce della propria infrastruttura. Le aziende leader del settore, da OpenAI a Microsoft, stanno cercando di anticipare il futuro energetico dell’intelligenza artificiale, ma senza una chiara visione di quanta energia sarà necessaria e da dove verrà prodotta.

Il rischio è duplice: da un lato, un eccesso di hardware inattivo per mancanza di elettricità disponibile; dall’altro, una sovracapacità energetica se la domanda dovesse rallentare. Entrambi gli scenari potrebbero avere impatti economici significativi, in particolare per le aziende che hanno investito miliardi in infrastrutture di calcolo e in contratti energetici a lungo termine.

In assenza di un equilibrio stabile, la questione dei consumi dell’AI rischia di diventare la nuova grande sfida strategica per il settore tecnologico globale. Come ha sintetizzato Nadella: “Non è più solo una questione di calcolo o di algoritmi. È una questione di energia.”

StartUP-NEWS.it è scritta, ideata e portata avanti da persone che sono prima di tutto startupper di se stesse, giornalisti e liberi professionisti che ogni giorno si scontrano e incontrano in prima persona con le problematiche e le realtà che decidiamo di raccontare.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.