Artificial IntelligenceGuideintelligenza artificiale

Glossario AI – sempre aggiornato

L’intelligenza artificiale è ormai entrata nel linguaggio quotidiano di startup, investitori, sviluppatori, aziende e regolatori. Il problema è che molte parole vengono usate in modo impreciso: LLM, agenti, RAG, fine-tuning, allucinazioni, embedding, guardrail. Termini tecnici che finiscono nei pitch deck, nei comunicati stampa e nelle demo di prodotto, spesso senza una definizione condivisa.

Questo glossario nasce per mettere ordine. Non è un dizionario accademico, ma uno strumento operativo per leggere meglio il mercato AI, valutare le promesse delle startup e capire cosa c’è davvero dietro una soluzione tecnologica. Le definizioni sono pensate per founder, manager, product team, investitori e professionisti che lavorano con l’innovazione digitale.

Il glossario sarà aggiornato continuamente, perché il lessico dell’AI cambia insieme ai modelli, alle architetture software, alle normative e ai casi d’uso. Nuovi termini entreranno, alcune definizioni verranno affinate, altre diventeranno meno centrali. Nell’AI, anche le parole hanno una shelf life.

AGI

Artificial General Intelligence. Indica, in senso ampio, un sistema capace di svolgere molte attività cognitive con prestazioni paragonabili o superiori a quelle umane. È un termine utile nel dibattito strategico, molto meno in una roadmap di prodotto. Per un founder è meglio dire cosa fa davvero il sistema: classifica ticket, genera report, scrive codice, esegue ricerche, automatizza back office.

AI Act

È il regolamento europeo sull’intelligenza artificiale. Introduce un approccio basato sul rischio per sviluppatori e deployer: rischio inaccettabile, alto rischio, rischio di trasparenza, rischio minimo o nullo. Per le startup europee non è un tema da lasciare al legal all’ultimo miglio. Incide su documentazione tecnica, logging, supervisione umana, trasparenza e gestione dei dati.

AI agent

È un sistema che usa un modello per pianificare ed eseguire azioni, spesso tramite tool esterni: API, database, browser, CRM, ERP, sistemi di ticketing. La differenza rispetto a un chatbot è l’azione. Un agente non si limita a rispondere; può aprire un ticket, aggiornare un record, calcolare un prezzo o orchestrare un processo.

AI generativa

È la famiglia di sistemi che produce testo, immagini, audio, video, codice o dati sintetici a partire da input dell’utente. Per una startup non è una categoria di marketing, ma una scelta di architettura: cambia costi di calcolo, UX, responsabilità legali e metriche di prodotto. Un conto è integrare una API per generare descrizioni e-mail, un altro è costruire un workflow che prende decisioni operative su clienti, pagamenti o dati sanitari.

AI governance

È l’insieme di policy, ruoli, controlli, logging, audit e processi con cui un’organizzazione gestisce l’uso dell’AI. Include valutazioni di rischio, documentazione, responsabilità interne, controllo degli accessi, monitoraggio degli output e procedure di escalation. Per le startup B2B diventa rilevante già in fase di vendita enterprise: molte aziende clienti non comprano solo il prodotto, comprano anche il modo in cui il rischio viene gestito.

Allucinazione

È un output plausibile ma falso, non supportato dai dati disponibili. Può essere un nome inventato, una citazione inesistente, una formula sbagliata o una policy aziendale mai approvata. Il punto non è solo tecnico. In customer care, legaltech, healthtech o fintech, un’allucinazione può diventare rischio operativo, reclamo o violazione di compliance.

API

Application Programming Interface. È l’interfaccia con cui un prodotto software comunica con un modello o con una piattaforma AI esterna. Per una startup è spesso il modo più rapido per integrare funzionalità generative senza gestire direttamente infrastruttura, training e serving del modello.

Benchmark

È un test usato per confrontare modelli, sistemi o configurazioni su task specifici. Va letto con prudenza: un buon punteggio su un benchmark non garantisce buone prestazioni nel prodotto reale. Dataset interno, user journey, latenza e costo per task contano spesso più della leaderboard.

Chain of thought

È il processo di ragionamento intermedio che un modello può usare per arrivare a una risposta. Nel prodotto finale non sempre deve essere mostrato all’utente. Per applicazioni enterprise è più utile esporre fonti, passaggi verificabili e audit trail, non una lunga spiegazione apparentemente razionale.

Chunking

È la divisione di documenti lunghi in blocchi più piccoli prima di inserirli in un sistema RAG o in un vector database. La qualità del chunking incide molto sulla qualità delle risposte: blocchi troppo corti perdono contesto, blocchi troppo lunghi aumentano rumore e costo.

Closed model

È un modello proprietario accessibile tramite API o piattaforma, senza pesi pubblici. Offre vantaggi su manutenzione, aggiornamenti e performance gestite dal provider, ma crea dipendenza tecnica e commerciale. Per una startup significa valutare lock-in, margine lordo e portabilità.

Context window

È la quantità massima di testo, istruzioni, cronologia e documenti che il modello può considerare in una singola richiesta. Una finestra più ampia permette task più ricchi, come analizzare contratti o report lunghi, ma non elimina il problema della selezione delle informazioni. Inserire tutto nel prompt spesso costa troppo e peggiora il segnale. Serve retrieval, non accumulo.

Data poisoning

È una manipolazione dei dati usati per addestrare, aggiornare o alimentare un sistema AI. Nei sistemi RAG può avvenire anche inserendo documenti malevoli nella knowledge base o nel vector database. Il rischio non riguarda solo il training: anche una fonte contaminata nel retrieval può condizionare l’output.

Dataset

È l’insieme di dati usato per training, fine-tuning, valutazione o retrieval. Nei prodotti AI il dataset non è solo materia prima: è parte del vantaggio competitivo. Qualità, licenze, aggiornamento, provenienza e copertura dei casi limite incidono direttamente sul valore del prodotto.

Distillation

È una tecnica con cui un modello più piccolo viene addestrato a replicare parte del comportamento di un modello più grande. Serve a ridurre costo, latenza e requisiti infrastrutturali. È rilevante per startup che vogliono spostare funzionalità AI su dispositivi, ambienti edge o workflow ad alto volume.

Embedding

Un embedding trasforma testo o altri contenuti in vettori numerici. La sua utilità sta nella ricerca semantica: trovare contenuti simili per significato, non solo per keyword. Gli embedding sono usati per search, clustering, raccomandazioni, anomaly detection, classificazione e misurazione della similarità.

Evals

Sono test strutturati per misurare qualità, accuratezza, robustezza e regressioni del sistema. Una startup che lavora seriamente sull’AI non può affidarsi solo a demo riuscite. Servono dataset di valutazione, casi limite, golden answers, metriche di factuality, toxicity, refusal rate, latency e cost per task.

Few-shot learning

È l’uso di pochi esempi nel prompt per guidare il comportamento del modello. È utile quando il team vuole controllare formato, tono o struttura della risposta senza passare subito al fine-tuning. Funziona bene per stabilizzare output ricorrenti, ma non sostituisce evals e controllo qualità.

Fine-tuning

È l’adattamento di un modello tramite dati addizionali. Serve quando il problema non è solo recuperare informazioni, ma modificare stile, formato, classificazione o comportamento ricorrente. Non sostituisce il RAG: spesso lo completa. Il RAG porta conoscenza aggiornata nel contesto; il fine-tuning modifica il modo in cui il modello risponde.

Foundation model

È un modello di base riutilizzabile in più applicazioni. La logica è economica prima ancora che tecnica: invece di addestrare un modello da zero per ogni use case, un team parte da un modello già addestrato e lo adatta con prompting, RAG, fine-tuning o tool calling. È il motivo per cui tante startup AI possono arrivare sul mercato con team piccoli e cicli di sviluppo molto compressi.

GPU

Graphics Processing Unit. È l’hardware più usato per addestrare ed eseguire modelli AI complessi. Per le startup AI il tema non è solo tecnico: disponibilità di GPU, costo dell’inferenza e ottimizzazione del serving incidono sul business model.

Grounding

È il collegamento dell’output del modello a fonti verificabili. Serve a ridurre risposte inventate e ad aumentare affidabilità, soprattutto quando l’applicazione lavora su documentazione interna, dati di progetto o comunicazioni aziendali. Un sistema grounded non “sa tutto”: recupera evidenze e le usa nel momento in cui risponde.

Guardrail

È un controllo progettato per limitare comportamenti indesiderati: blocco di contenuti sensibili, filtri su dati personali, policy di risposta, validatori di output, escalation verso un operatore umano. I guardrail non rendono un sistema infallibile, ma riducono superficie d’attacco e rischio reputazionale.

Human-in-the-loop

È un processo in cui una persona interviene per validare, correggere o approvare l’output del sistema AI. Serve nei casi ad alto rischio, nei flussi regolati e nelle attività dove errore, bias o allucinazione possono produrre danni economici o legali.

Inference

È la fase in cui il modello viene usato per produrre un output a partire da un input. Nel business è la fase che genera costo ricorrente: ogni richiesta utente, ogni risposta, ogni classificazione o generazione consuma risorse computazionali.

Jailbreak

È un tentativo di aggirare le regole di sicurezza o le policy di un modello. Può spingere il sistema a produrre contenuti vietati, ignorare istruzioni precedenti o rivelare informazioni riservate. Nei prodotti con tool esterni il rischio cresce, perché il modello può essere indotto non solo a rispondere male, ma anche ad agire male.

Latency

È il tempo che passa tra richiesta e risposta. Nelle applicazioni AI contano due metriche: Time to First Token, cioè il tempo necessario per vedere il primo pezzo di risposta, e Time to Last Token, cioè il tempo totale per completarla. Per un prodotto conversazionale la latenza è UX pura: oltre una certa soglia l’utente percepisce il sistema come lento, anche se l’output è corretto.

LLM

Large Language Model. È un modello addestrato su grandi quantità di testo per svolgere attività di NLP come generazione, traduzione, sintesi e question answering. I LLM sono spesso confusi con i foundation model, ma non sono sinonimi perfetti: un LLM lavora soprattutto sul linguaggio, mentre un foundation model può essere multimodale e gestire anche immagini, audio o video.

Model drift

È il degrado delle prestazioni di un modello nel tempo, spesso perché dati, utenti, mercato o contesto operativo cambiano. In un prodotto AI maturo va monitorato con evals ricorrenti, logging, feedback loop e alert su metriche di qualità.

Model routing

È la scelta dinamica del modello più adatto per una richiesta. Un sistema può usare un modello economico per task semplici e uno più potente per attività complesse. È una leva importante per bilanciare qualità, latenza e margine.

Multimodal AI

È un sistema capace di lavorare con più tipi di input o output: testo, immagini, audio, video, codice. Per una startup apre casi d’uso più ricchi, ma aumenta anche complessità di UX, data pipeline, moderazione e valutazione.

Open model

È un modello distribuito con pesi accessibili, anche se licenze e vincoli d’uso possono variare molto. Permette più controllo su deployment, privacy e personalizzazione, ma sposta sul team responsabilità di hosting, sicurezza, aggiornamento e ottimizzazione.

Orchestration

È il livello software che coordina modelli, prompt, tool, API, retrieval, memoria e controlli di sicurezza. Nei prodotti AI complessi l’orchestrazione è spesso il vero prodotto: decide cosa chiamare, quando chiamarlo, con quali dati e con quali vincoli.

Overreliance

È la dipendenza eccessiva dagli output AI. Succede quando utenti o team interni accettano risposte senza verifica. È un rischio sottovalutato nei flussi aziendali: l’AI può sembrare sicura proprio quando sta sbagliando con molta sicurezza linguistica.

PII

Personally Identifiable Information. Sono informazioni che identificano o possono identificare una persona: nome, e-mail, numero di telefono, dati finanziari, informazioni sanitarie. Nei prodotti AI vanno gestite con policy di minimizzazione, mascheramento, retention e controllo degli accessi.

Prompt

È l’istruzione data al modello. Può essere una domanda semplice, un brief complesso, un template con variabili, un system prompt nascosto all’utente o una catena di istruzioni orchestrata dal backend. Nelle applicazioni enterprise il prompt non è “scrivere meglio la domanda”: è parte del software, va versionato, testato e monitorato come qualsiasi altro asset applicativo.

Prompt engineering

È il processo iterativo con cui si costruiscono prompt per ottenere output più coerenti. Include tecniche come zero-shot, one-shot e few-shot prompting, cioè istruzioni senza esempi, con un esempio o con più esempi. Gli esempi aiutano a controllare formato, tono, perimetro e pattern della risposta, ma troppi esempi possono ridurre la capacità del modello di generalizzare.

Prompt injection

È un attacco in cui un input manipola il comportamento del modello, per esempio inducendolo a ignorare istruzioni precedenti, rivelare dati o usare tool in modo improprio. È una delle vulnerabilità centrali nelle applicazioni basate su LLM, soprattutto quando il modello ha accesso a documenti, API o sistemi interni.

RAG

Retrieval-Augmented Generation. È un’architettura che combina sistemi di recupero delle informazioni, come search e database, con le capacità generative degli LLM. Prima recupera contenuti rilevanti da fonti esterne, poi li usa per generare una risposta più aggiornata e aderente al dominio applicativo. Per le startup B2B è spesso la strada più rapida per collegare un modello ai dati aziendali senza riaddestrarlo.

Reasoning model

È un modello ottimizzato per task che richiedono pianificazione, scomposizione del problema, logica o calcolo multi-step. Per una startup va valutato sul task reale: può essere più accurato, ma spesso ha costo e latenza superiori rispetto a modelli generalisti più rapidi.

Red teaming

È il test aggressivo del sistema per trovare failure mode prima che lo facciano utenti, competitor o attaccanti. Include prompt injection, data exfiltration, jailbreak, manipolazione del contesto e abuso dei tool. Per gli agenti AI è una pratica obbligata: più autonomia ha il sistema, più vanno testati i suoi limiti.

Reranking

È il processo con cui i risultati recuperati da un motore di ricerca o da un vector database vengono riordinati in base alla loro rilevanza. Nei sistemi RAG è spesso decisivo: recuperare dieci documenti non basta, bisogna portare in cima quelli davvero utili.

Structured output

È un output prodotto in formato vincolato, per esempio JSON, schema dati o campi predefiniti. Serve quando l’AI deve alimentare un workflow software e non solo generare testo libero. Riduce errori di parsing e rende l’integrazione più robusta.

Synthetic data

Sono dati generati artificialmente, spesso con tecniche AI, per addestrare, testare o simulare casi d’uso. Possono aiutare quando i dati reali sono scarsi o sensibili, ma vanno controllati: se replicano bias o errori del modello generatore, il problema si sposta nel dataset.

System prompt

È l’istruzione di livello superiore che definisce comportamento, tono, limiti e regole del modello in un’applicazione. L’utente di solito non la vede. Va trattata come componente critica del prodotto: va versionata, protetta e testata contro prompt injection.

Temperature

È un parametro che controlla la variabilità dell’output. Temperature basse producono risposte più prevedibili; temperature alte aumentano varietà e rischio di deviazioni. In un prodotto enterprise spesso si preferiscono valori più controllati, soprattutto per task operativi.

Token

I modelli leggono e producono testo in token, non in parole. Un token può essere un carattere, una parola breve o una porzione di parola. Questa unità incide su costo, latenza e lunghezza massima del contesto. In un prodotto SaaS, ignorare i token significa sottostimare il margine lordo: ogni chat lunga, ogni documento caricato, ogni risposta generata consuma budget computazionale.

Tool calling

È la capacità del modello di invocare strumenti esterni in modo strutturato. Un esempio: l’utente chiede “qual è lo stato dell’ordine?”, il modello capisce l’intento, chiama una API logistica, riceve dati e formula una risposta. Qui il valore non sta nella prosa, ma nell’integrazione con sistemi transazionali.

Top-p

È un parametro di sampling che limita la generazione alle opzioni più probabili fino a una certa soglia cumulativa. Come la temperature, incide su creatività, stabilità e prevedibilità dell’output. Va testato su casi reali, non scelto a intuito.

Training

È la fase in cui un modello apprende pattern dai dati. Per molte startup non è necessario addestrare un foundation model da zero: spesso bastano API, RAG, fine-tuning leggero o modelli open già disponibili. Addestrare da zero richiede capitale, dati, competenze e infrastruttura.

Vector database

È un database progettato per conservare e interrogare embedding. In pratica consente a un’applicazione AI di recuperare documenti, FAQ, ticket, policy o schede prodotto semanticamente vicini alla domanda dell’utente. È una componente tipica degli stack RAG, insieme a pipeline di ingestion, chunking, ranking e reranking.

Zero-shot learning

È la capacità di un modello di eseguire un task senza esempi specifici nel prompt. È utile per prototipi e task generali, ma nei prodotti verticali di solito non basta. Quando formato e accuratezza contano, few-shot, RAG, evals e guardrail diventano necessari.

StartUP-NEWS.it è scritta, ideata e portata avanti da persone che sono prima di tutto startupper di se stesse, giornalisti e liberi professionisti che ogni giorno si scontrano e incontrano in prima persona con le problematiche e le realtà che decidiamo di raccontare.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.