Multiverse Computing rivoluziona l’efficienza dell’AI e raccoglie 215 milioni di dollari

Multiverse Computing, una startup spagnola nata nel 2019 a San Sebastián, ha appena chiuso un round di finanziamento Serie B da 215 milioni di dollari. L’operazione, guidata da Bullhound Capital e supportata da nomi di rilievo come HP Tech Ventures, Toshiba e CDP Venture Capital, porta la valutazione dell’azienda a oltre 500 milioni, quintuplicando quella dell’ultimo round. Ma cosa rende così interessante questa realtà? La risposta sta in una tecnologia che promette di rivoluzionare il modo in cui i modelli di intelligenza artificiale vengono utilizzati: la compressione avanzata dei LLM (large-language models).
Oltre i limiti dei modelli tradizionali
L’adozione dei LLM ha subito una crescita esponenziale negli ultimi anni. Tuttavia, i costi di utilizzo – energetici ed economici – rappresentano ancora una barriera significativa. La maggior parte di questi modelli, come GPT o LLaMA, sono ingombranti, richiedono infrastrutture cloud altamente specializzate e spesso risultano poco sostenibili sul lungo periodo. Le tecniche tradizionali di compressione, come il pruning o la quantizzazione, riducono sì la dimensione del modello, ma sacrificano anche una parte significativa della qualità e accuratezza dell’output.
Multiverse Computing ha scelto una strada diversa. Il suo strumento CompactifAI si basa su reti tensoriali ispirate alla fisica quantistica, una metodologia che consente di comprimere i modelli fino all’80% senza comprometterne le prestazioni.
Come funziona CompactifAI
Il CEO e cofondatore Enrique Lizaso spiega che il processo parte da modelli open-source, come quelli di Meta (es. LLaMA) o Mistral. Vengono analizzati milioni di parametri, ovvero le connessioni tra neuroni artificiali, per identificarne quelli ridondanti. La riduzione drastica di questi parametri comporta una diminuzione del fabbisogno computazionale, e quindi del consumo energetico, con un taglio dei costi di inferenza tra il 50% e l’80%.
Il modello viene quindi riaddestrato, mantenendo la precisione e migliorando addirittura la velocità di esecuzione. Risultato? Un modello più leggero, più economico e più sostenibile, pronto per essere utilizzato in una vasta gamma di applicazioni.
Un business model orientato alla scalabilità
Invece di commercializzare direttamente lo strumento di compressione, Multiverse ha deciso di puntare su un’offerta più accessibile: modelli compressi pronti all’uso, disponibili in cloud tramite AWS e venduti in modalità pay-per-use. Al momento, l’azienda offre versioni compresse dei modelli Meta e Mistral e sta per lanciare un modello derivato da DeepSeek’s R1.
Il prossimo passo? Portare l’AI fuori dal cloud. Multiverse sta sviluppando una linea di “nanomodelli” capaci di girare direttamente su dispositivi edge: laptop, smartphone, droni, auto. Questa possibilità apre scenari inediti, soprattutto in ambiti in cui la latenza e la privacy sono critiche.
Un mercato trasversale: dai governi alla difesa
Il potenziale di questa tecnologia è immenso. Lizaso afferma che qualsiasi azienda che utilizzi LLM potrebbe essere un potenziale cliente. Attualmente Multiverse serve settori come sanità, finanza e pubblica amministrazione. In esplorazione ci sono anche applicazioni in ambito difensivo, dove l’efficienza e l’autonomia dei sistemi AI sono fondamentali.
Nel 2023 l’azienda ha generato 13 milioni di euro di fatturato e firmato contratti per 20 milioni. L’obiettivo per il 2024 è ambizioso: 30 milioni di ricavi e 40 milioni in nuovi accordi.
Un piano di crescita ben definito
La nuova iniezione di capitali servirà a rafforzare il team – si parla di oltre 100 nuove assunzioni – e ad acquisire risorse GPU, indispensabili per gestire nuovi processi di compressione. L’azienda monitora costantemente la classifica di Hugging Face per individuare i modelli open-source più promettenti e agire in tempi rapidi. Il motto, dice Lizaso, è “portare i modelli sul mercato il più velocemente possibile”.
Multiverse come simbolo della nuova AI
Il caso Multiverse Computing rappresenta bene la direzione che sta prendendo l’intelligenza artificiale: da una tecnologia potente ma costosa, a una soluzione flessibile, efficiente e democratica. In un contesto dove l’adozione dell’AI è sempre più cruciale – non solo per le big tech, ma anche per PMI, enti pubblici e startup – strumenti come CompactifAI possono fungere da volano per la diffusione capillare dell’AI, riducendo costi e barriere tecniche.
Non è un caso che una quota rilevante dei 215 milioni raccolti provenga da fondi come CDP Venture Capital o Toshiba, interessati non solo al ritorno economico, ma anche al potenziale di impatto sistemico di questa tecnologia.
Prospettive future
L’approccio di Multiverse si inserisce nel trend più ampio del “quantum-inspired computing”, un campo che unisce l’efficienza computazionale della meccanica quantistica con l’applicabilità dell’AI classica. Non si tratta solo di un upgrade tecnico, ma di un cambio di paradigma.
Con la compressione avanzata, l’AI può uscire dalle server farm e arrivare ovunque: nei dispositivi personali, nei veicoli, negli strumenti industriali. È un passaggio fondamentale per quella che molti definiscono già come la prossima ondata di trasformazione digitale.