Artificial IntelligenceMercatoNotizie

AI data center a rischio

L’intelligenza artificiale sta cambiando anche il mestiere degli assicuratori. Nel report Insuring AI: data centre value accumulation risks, Swiss Re Institute descrive AI data center sempre più grandi, costosi e difficili da coprire, perché concentrano in un solo sito valore immobiliare, impianti, hardware, continuità operativa e contratti di servizio. Il dato che inquadra la scala del fenomeno è questo: i cinque grandi operatori cloud dovrebbero superare nel 2026 i 600 miliardi di dollari di investimenti, con circa 450 miliardi legati direttamente all’infrastruttura fisica dell’AI, quindi server, GPU e impianti ospitati nei data center. Il settore, aggiunge Swiss Re, è atteso crescere del 14% annuo fino al 2030, con gli Stati Uniti in testa. Anche il mercato assicurativo segue la stessa traiettoria: i premi globali legati ai data center dovrebbero salire da 10,6 a 24,2 miliardi di dollari entro il 2030.

Swiss Re Institute descrive gli AI data center sempre più grandi, costosi e difficili da coprire

I campus AI cambiano la scala del problema

Il punto, però, non è soltanto la crescita. È la forma che sta prendendo questa crescita. I nuovi data center per carichi AI non sono più edifici relativamente standardizzati. Sono campus ad alta densità tecnica, con sistemi di raffreddamento avanzati, alimentazione ad alta tensione, ridondanze elettriche, sicurezza software e una lunga catena di subappaltatori specializzati. Swiss Re scrive che il costo di costruzione di una singola location può superare i 20 miliardi di dollari e raddoppiare una volta installata la tecnologia. A quel livello, la richiesta di copertura arriva dai finanziatori prima ancora che dagli operatori. Le banche vogliono limiti assicurativi coerenti con il valore complessivo del progetto, mentre il mercato re/assicurativo, secondo il report, riesce a sostenere solo una parte di quei massimali a condizioni competitive. È qui che tornano centrali strumenti come surety bond e subcontractor default insurance, perché un ritardo in cantiere o il default di un fornitore può spostare tempi e costi in modo pesante.

Grandine e tornado non sono più un rischio laterale

Una parte importante dell’analisi riguarda la geografia dei nuovi insediamenti. Negli Stati Uniti, la ricerca di grandi superfici e di accesso all’energia sta spingendo molti sviluppi in aree più esposte alle catastrofi naturali. Swiss Re ricorda che le perdite assicurate da eventi naturali crescono in media del 5-7% l’anno in termini reali sul lungo periodo. Su questa base, il report ha incrociato i dati sulla capacità dei data center con i modelli CatNet e ha stimato che oltre un quarto della capacità statunitense potrebbe trovarsi in zone con almeno tre giorni l’anno di grandine intensa.

Negli Stati Uniti, la ricerca di grandi superfici e di accesso all’energia sta spingendo molti sviluppi in aree più esposte alle catastrofi naturali

Per i tornado il quadro è altrettanto serio: circa il 40% della capacità sarebbe in aree con esposizione significativa o molto alta a eventi di intensità almeno EF1. Non è un dettaglio tecnico. Un tornado può attraversare più edifici dello stesso campus e colpire insieme strutture separate, impianti esterni e servizi condivisi. In Texas e Virginia, dove i campus tendono a concentrarsi nel raggio di poche decine di chilometri, il rischio di accumulo sale ancora.

Batterie e raffreddamento aprono un’altra partita

Il rapporto dedica molto spazio anche ai rischi interni, che stanno cambiando con la nuova architettura dei siti AI. Nello storico delle perdite analizzato da FM, il fuoco ha rappresentato il 10,9% degli eventi, ma il 42,3% dei costi complessivi. Nei data center di nuova generazione entra poi una variabile che prima non c’era in questa forma: le unità di backup al litio integrate nei rack server. Swiss Re osserva che queste batterie introducono una sorgente di ignizione dentro le sale dati e possono aumentare intensità e frequenza dei sinistri. Non a caso, la guidance FM del 2026 ha irrigidito diversi requisiti, compresa la resistenza al fuoco delle pareti e i parametri di sprinkler. Lo stesso vale per il liquid cooling. Le GPU ad alte prestazioni sviluppano molto più calore dei server tradizionali e spingono verso sistemi direct-to-chip. Questo migliora l’efficienza termica, ma allarga l’esposizione a perdite d’acqua e guasti della rete di raffreddamento. Nel report, i danni da liquidi valgono quasi un quarto dei loss cost: il 9,3% deriva da perdite collegate agli sprinkler e un ulteriore 10% dai nuovi sistemi di cooling.

Il vero nodo resta l’energia

Se si guarda alla business interruption, il tema dominante resta l’alimentazione elettrica. Swiss Re cita l’Uptime Institute: il 45% delle interruzioni nei data center dipende da problemi di power supply. Il salto di carico imposto dall’AI è netto. I server tradizionali richiedevano tra 5 e 15 kilowatt per rack; quelli progettati per l’AI possono superare i 100 kilowatt per rack. Questo spiega perché gli operatori stiano valutando soluzioni che fino a poco tempo fa sembravano marginali, compresa la generazione on-site.

Il 45% delle interruzioni nei data center dipende da problemi di power supply

Secondo il report, circa il 30% della capacità pianificata negli Stati Uniti potrebbe avere impianti di produzione elettrica in loco. A questi si aggiungono i sistemi di battery energy storage, che aiutano sulla continuità ma introducono altri rischi, fra incendio, esplosione e gas tossici. Il problema, in sostanza, è che molti sviluppatori stanno entrando di fatto anche nel business dell’energia senza avere sempre una lunga esperienza industriale in quel campo. Per un assicuratore cambia parecchio. Cambiano le competenze da mettere sul tavolo, i modelli di perdita e il modo in cui si misura l’esposizione aggregata.

Cosa cambia per startup e investitori

La parte finale del report è forse quella più utile anche fuori dal mercato assicurativo. Swiss Re sostiene che il data center stia smettendo di essere una semplice electronic equipment occupancy per diventare una facility ad alta densità energetica, con molti sistemi interdipendenti e poca esperienza storica sulle perdite dei modelli più recenti. Per startup, investitori e developer questo vuol dire una cosa semplice: l’insurability entra sempre prima nel ciclo del progetto. Conta quando si struttura il financing, conta quando si sceglie il sito, conta quando si decide il mix tra rete, backup, generazione locale e raffreddamento. Conta persino nella separazione delle linee di copertura, perché Swiss Re segnala che lo stesso campus può essere presentato a mercati diversi con programmi distinti per building, equipment o power plant, rendendo più difficile tracciare l’accumulo reale. In altre parole, la corsa all’AI sta producendo un nuovo tipo di infrastruttura critica. Molto redditizia, certo. Ma anche più fragile di quanto la narrativa sull’AI lasci spesso intendere.

StartUP-NEWS.it è scritta, ideata e portata avanti da persone che sono prima di tutto startupper di se stesse, giornalisti e liberi professionisti che ogni giorno si scontrano e incontrano in prima persona con le problematiche e le realtà che decidiamo di raccontare.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.