
L’intelligenza artificiale sta evolvendo più rapidamente del linguaggio che utilizziamo per descriverla. Abbiamo termini consolidati come “cognizione” per spiegare il funzionamento della mente umana individuale, ma manca una parola capace di rappresentare ciò che accade quando intelligenza umana e intelligenza artificiale collaborano in modo continuo per percepire, decidere, creare e agire. Una possibile definizione è “intelition”: non una feature, ma il principio organizzativo della prossima generazione di software.
L’intelition descrive un cambio strutturale. Oggi i modelli di AI vengono “invocati” dall’esterno tramite prompt, API o workflow agentici con human-in-the-loop. Il paradigma emergente, invece, è quello della co-produzione continua, in cui persone e agenti condividono lo stesso modello operativo dell’organizzazione e contribuiscono in tempo reale a decisioni, logiche e azioni.
Ontologie unificate: la base del nuovo software enterprise
In una recente lettera agli azionisti, Alex Karp, CEO di Palantir, ha scritto che “tutto il valore del mercato andrà verso i chip e ciò che chiamiamo ontologia”, definendo questa transizione solo l’inizio di qualcosa di molto più grande. Per ontologia si intende un modello condiviso di oggetti aziendali – clienti, asset, policy, eventi – e delle relazioni che li legano, incluse le azioni e i permessi di sicurezza che Palantir definisce come “kinetic layer”.
Tutto il valore del mercato andrà verso i chip e ciò che chiamiamo ontologia.
Alex Karp, CEO di Palantir
L’era SaaS ha frammentato questo patrimonio informativo. Ogni applicazione ha creato i propri modelli di dati e processi, spesso sovrapposti e incoerenti, aggravati da legacy system e data silos. Nonostante investimenti massicci in data lake e data warehouse, pochissime aziende riescono a costruire una vera ontologia enterprise unificata.
Questa base è però indispensabile per l’AI agentica. Quando le ontologie vengono federate, gli agenti possono ragionare e agire trasversalmente su fornitori, regolatori, clienti e operations, superando i confini delle singole applicazioni. Come sottolinea Karp, l’obiettivo è “ancorare la potenza dell’intelligenza artificiale a oggetti e relazioni del mondo reale”.
World model e apprendimento continuo
Un secondo pilastro dell’intelition è rappresentato dai world model e dalla capacità di apprendimento continuo. I modelli attuali possono gestire enormi finestre di contesto, ma “ricordare” non equivale a imparare. L’apprendimento continuo richiede memoria persistente e accumulo di comprensione, non reset periodici attraverso retraining.
In questa direzione si muove Google, che ha recentemente presentato il concetto di Nested Learning, integrato direttamente nelle architetture LLM esistenti. L’obiettivo è fornire memoria durevole e apprendimento incrementale, arrivando potenzialmente a rendere obsoleto il retraining tradizionale.
Gli LLM sono bravi a manipolare il linguaggio, ma non a pensare.
Yann LeCun, chief AI scientist di Meta
Già nel 2022, Yann LeCun, chief AI scientist di Meta, aveva delineato una roadmap per l’“autonomous machine intelligence” basata su world model gerarchici e joint embeddings, nota come H-JEPA. La sua posizione è rimasta netta: “Gli LLM sono bravi a manipolare il linguaggio, ma non a pensare”. Negli ultimi anni, Meta ha tradotto questa teoria in pratica con i modelli open source V-JEPA e I-JEPA, focalizzati sulla comprensione di immagini e video come rappresentazioni del mondo fisico.
L’interfaccia personale come punto di controllo
Il terzo fattore chiave è l’interfaccia personale di intelition. Non si tratta di una nuova app, ma del principale punto di accesso attraverso cui una persona partecipa al lavoro e alla vita digitale. In questo modello, l’individuo non è più un “utente” periferico, ma il centro del sistema. L’AI non è qualcosa che si visita tramite una chat o una chiamata API: è always-on, consapevole del contesto, delle preferenze e degli obiettivi, capace di agire per conto della persona lungo l’intera economia federata.
Un segnale concreto arriva dall’acquisizione della startup io da parte di OpenAI, fondata da Jony Ive, con l’obiettivo di accelerare una nuova categoria di dispositivi AI. Ive ha sottolineato come l’innovazione comporti conseguenze inattese, positive e negative, ribadendo una responsabilità diretta nel “provare a essere utili”.
Anche Apple sta esplorando alternative agli LLM centralizzati, puntando su soluzioni on-device a bassa latenza per comprendere l’“user intent”. Il framework UI-JEPA va esattamente in questa direzione e mette in discussione il modello economico dominante, basato sulla profilazione centralizzata degli utenti.
Dal controllo dei dati a un nuovo patto digitale
Il tema del controllo personale è centrale. Tim Berners-Lee ha recentemente osservato che “l’utente è stato ridotto a un prodotto consumabile per l’inserzionista”, aggiungendo che c’è ancora tempo per costruire macchine che lavorino per gli esseri umani e non il contrario. Da questa visione nasce Solid, uno standard per la gestione sicura dei dati personali sviluppato dal 2022.
L’utente è stato ridotto a un prodotto consumabile per l’inserzionista.
Tim Berners-Lee
La società Inrupt, fondata da Berners-Lee, ha recentemente combinato Solid con lo standard MCP di Anthropic per gli Agentic Wallets, creando un’infrastruttura in cui il controllo dell’individuo diventa una salvaguardia architetturale, non una semplice funzionalità.
Un paradigma già in atto
Ontologie enterprise che forniscono nomi e azioni, world model che garantiscono memoria e apprendimento continuo, interfacce personali che fungono da punto di controllo permissioned. Queste tre forze stanno convergendo più rapidamente di quanto il mercato percepisca. L’era dell’intelition non è una previsione futuristica: è un cambiamento strutturale già in corso, destinato a ridefinire software, lavoro e relazione tra esseri umani e intelligenze artificiali.





