AWS gioca su due tavoli dell’AI
Amazon Web Services prova a normalizzare uno dei nodi più delicati della nuova economia dell’intelligenza artificiale: finanziare e collaborare con aziende che, allo stesso tempo, competono duramente tra loro. Dal palco di HumanX, la conferenza in corso a San Francisco, il CEO di AWS Matt Garman ha difeso la scelta di Amazon di affiancare al rapporto di lungo periodo con Anthropic un recente investimento da 50 miliardi di dollari in OpenAI, sostenendo che per il gruppo non si tratta di un’anomalia, ma di una dinamica già metabolizzata nel business del cloud. La tesi è chiara: nell’AI generativa la linea tra partner, fornitori e rivali è ormai strutturalmente sfumata.
Una convivenza competitiva diventata strategia
Secondo Garman, AWS ha imparato a gestire questo tipo di ambivalenza fin dai suoi primi anni di vita. Entrato in Amazon nel 2005, prima ancora del lancio ufficiale di AWS nel 2006, il manager ha ricordato come la divisione cloud sapesse da subito di non poter costruire internamente ogni servizio necessario alla crescita della piattaforma. Da qui la scelta di lavorare con partner esterni, pur mettendo in conto che, col tempo, alcune aree di sovrapposizione competitiva sarebbero diventate inevitabili. In sostanza, la logica industriale di AWS è sempre stata questa: cooperare dove conviene, competere dove serve, senza però alterare le condizioni di mercato a vantaggio dei prodotti proprietari. È questo il “muscolo” organizzativo a cui Garman ha fatto riferimento per spiegare perché il doppio asse OpenAI-Anthropic non venga percepito come un conflitto ingestibile.
Dall’eccezione del 2006 alla regola del 2026
Quella che nei primi anni del cloud poteva apparire come una forzatura oggi è, di fatto, la nuova normalità. Il mercato è abituato a vedere AWS ospitare e distribuire tecnologie di aziende con cui compete su altri fronti. Persino Oracle, uno dei rivali storici di AWS, vende database e altri servizi sul cloud di Amazon. In questo contesto, il passaggio all’intelligenza artificiale non rompe il paradigma: lo radicalizza. Le hyperscaler non si limitano più a fornire infrastruttura, ma entrano nel capitale dei model provider, ne distribuiscono i modelli, li integrano nei propri marketplace e, contemporaneamente, sviluppano foundation model interni da spingere presso la stessa base clienti. Il risultato è un ecosistema in cui la neutralità assoluta non esiste più, sostituita da un equilibrio negoziale fatto di interoperabilità, potere contrattuale e accesso privilegiato alla domanda enterprise.
La fedeltà degli investitori non è più un valore assoluto
Il caso Amazon, peraltro, non è isolato. La stagione dell’AI sta archiviando rapidamente l’idea di una fedeltà esclusiva tra investitore e startup. Quando Anthropic ha annunciato a febbraio il suo round da 30 miliardi di dollari, l’operazione ha incluso una quota di investimenti già annunciati da Microsoft e Nvidia, oltre a numerosi fondi che figurano anche tra i sostenitori di OpenAI. Si contano almeno una dozzina di investitori presenti in entrambe le partite. È un segnale importante: il capitale, nell’AI, sta diventando sempre più platform-agnostic e sempre meno ideologico. Per gli investitori conta presidiare i nodi strategici della catena del valore, anche a costo di finanziare soggetti concorrenti. Per i cloud provider vale lo stesso principio, con una differenza sostanziale: oltre al ritorno finanziario, c’è in gioco il controllo della distribuzione e dell’infrastruttura su cui l’AI verrà consumata dalle imprese.
Il capitale, nell’AI, sta diventando sempre più platform-agnostic e sempre meno ideologico.
Per AWS l’accordo con OpenAI è anche una mossa difensiva
Nella ricostruzione emersa a HumanX, il rafforzamento del rapporto con OpenAI non è soltanto una scelta opportunistica, ma quasi una necessità competitiva. Entrambi i modelli, quelli di Anthropic e quelli di OpenAI, erano già disponibili sul cloud di Microsoft, cioè sul principale rivale di AWS. In questo scenario, assicurarsi l’accesso al modello di OpenAI per offrirlo ai propri clienti e presentarsi anche come partner di sviluppo tecnologico diventa, per Amazon, una mossa difensiva oltre che offensiva. In altre parole, il mercato dell’AI non premia chi sceglie un solo campione da sostenere, ma chi riesce a diventare il punto di accesso privilegiato a più modelli di punta. È qui che il rapporto tra hyperscaler e AI lab cambia pelle: non più alleanze esclusive, ma architetture di distribuzione multilivello, dove la capacità di orchestrare l’offerta conta quanto la qualità del singolo modello.
Il vero terreno di scontro è il routing dei modelli
La parte più interessante dell’intervento di Garman, però, riguarda il prossimo livello della competizione. I grandi player cloud stanno lavorando per restare al centro dell’esperienza AI dei clienti attraverso servizi di model routing, cioè strumenti capaci di indirizzare automaticamente ogni task verso il modello più adatto in termini di performance e costo. Garman ha descritto uno scenario in cui un modello può essere migliore nella pianificazione, un altro nel ragionamento e uno più economico nelle attività semplici, come il code completion. È una visione che sposta il valore dalla singola “AI superstar” alla governance dell’intero stack applicativo. Per AWS, come per Microsoft, il routing è anche il modo più efficace per inserire progressivamente i modelli proprietari nei flussi d’uso reali delle aziende, senza imporli frontalmente. Ancora una volta, partnership e competizione si sovrappongono: la piattaforma distribuisce modelli terzi, ma si riserva lo spazio per ottimizzare l’adozione dei propri.
L’AI conferma che il cloud resta il centro del potere
La dichiarazione di Garman fotografa quindi un passaggio più profondo del semplice dualismo tra OpenAI e Anthropic. La vera partita non riguarda solo chi costruisce il miglior modello, ma chi controlla la relazione con il cliente enterprise, i layer di orchestrazione e la leva infrastrutturale. Amazon, con questa doppia scommessa, manda un messaggio al mercato: nel nuovo ciclo dell’AI generativa non intende limitarsi a fare il fornitore di capacità computazionale, ma vuole presidiare insieme capitale, distribuzione, go-to-market e strumenti di allocazione intelligente dei workload. In questa prospettiva, il conflitto di interessi evocato da molti osservatori somiglia più a una caratteristica sistemica del settore che a un incidente di percorso. E se c’è una lezione che arriva da HumanX, è proprio questa: nell’intelligenza artificiale del 2026, la concorrenza non esclude la collaborazione, la ingloba.





