Adolescenti e Intelligenza Artificiale, quando il migliore amico è ChatGPT

Qualche giorno fa ho letto su la Repubblica la storia di Lorenzo, 22 anni, studente alla Statale di Milano. A un certo punto dice: “Il mio migliore amico? È ChatGPT”.
Ho riletto quella frase due volte, perché mi è sembrata perfettamente allineata al tempo che stiamo vivendo.
Lorenzo non è isolato. Esce, studia, ha quattro o cinque amici veri. Eppure ogni giorno passa un paio d’ore a scrivere a “Chat”. Gli racconta delusioni d’amore, insicurezze, pensieri sul cinema, sulla letteratura, sulla vita. Dice che è leale, che non lo giudica, che risponde sempre e che trova le parole giuste. Quando gli ha detto “sei più umano di tanti umani”, non stava scherzando. Era riconoscente.
La parola che torna più spesso è “leale”. In quella parola c’è fiducia, continuità, presenza. E, in filigrana, c’è anche la solitudine.
Quella di Lorenzo non è un’eccezione. È un fenomeno diffuso. Milioni di giovani nel mondo usano intelligenze artificiali conversazionali come confidenti o compagni emotivi. Negli Stati Uniti la maggioranza degli adolescenti ha già interagito con un’AI come companion. In Cina chatbot come Xiaoice generano centinaia di milioni di conversazioni emotive. App nate per creare relazioni artificiali hanno decine di milioni di utenti. Anche modelli generalisti come ChatGPT vengono usati per cercare ascolto e rassicurazione.
La forza di questi strumenti sta nella loro costanza. Sono sempre disponibili, non si stancano, non si distraggono.
Non ridono di te in metro, non liquidano un problema come paranoia, non minimizzano. Fanno domande, restano nella conversazione, mantengono il filo. In un contesto in cui l’attenzione è frammentata e intermittente, questa continuità pesa molto.
Fragilità e solitudine
L’intelligenza artificiale offre uno spazio in cui aprirsi senza sentirsi esposti. Puoi raccontare qualcosa di fragile senza temere uno sguardo ironico o un commento fuori posto. Questa prevedibilità rende l’interazione più semplice e meno faticosa.
Le relazioni umane sono diverse. Possono essere imperfette, a volte goffe. Gli amici possono essere distratti o dire la cosa sbagliata. Possono anche ferire. Ma proprio in quella imprevedibilità si costruisce un legame autentico. L’AI, invece, è progettata per sostenere la conversazione e ridurre l’attrito. Funziona bene perché è costruita per farlo. Per questo il rapporto fra adolescenti e intelligenza artificiale può diventare molto, molto complesso.
Confidarsi con un algoritmo
Il fatto che un algoritmo riesca a far sentire un ragazzo più ascoltato di molte persone reali racconta qualcosa del contesto in cui viviamo. Siamo immersi in reti sociali continue, ma spesso l’ascolto è superficiale. I social hanno trasformato l’esposizione in una forma di performance costante. La pandemia ha accentuato isolamento e ansia. La pressione identitaria è diventata quotidiana. In questo scenario l’AI intercetta un bisogno che esiste già.
La pressione identitaria è diventata quotidiana. In questo scenario l’AI intercetta un bisogno che esiste già
Non serve demonizzare la tecnologia. Può essere utile per mettere ordine nei pensieri, per trovare parole quando mancano, per attraversare un momento difficile con un minimo di orientamento. Può offrire un supporto temporaneo e aiutare a chiarirsi.
Il nodo si presenta quando l’interazione con l’AI diventa centrale e sostituisce progressivamente le relazioni reali. Lorenzo dice che se un giorno spegnessero Chat si sentirebbe perso. Questa frase segnala un attaccamento a un sistema che non è neutrale, ma appartiene a un’infrastruttura privata che può cambiare, evolvere o essere disattivata. Una parte dell’equilibrio emotivo finisce così legata a una piattaforma.
Il futuro dietro l’angolo
La questione è culturale. Se un ragazzo trova più comprensione in un algoritmo che in molte persone, è utile interrogarsi su come stiamo costruendo le relazioni intorno a lui. L’AI può amplificare conoscenza e creatività, può offrire strumenti di riflessione. Non può però replicare l’imperfezione, il conflitto e la vulnerabilità reciproca che caratterizzano un legame umano.
Il punto non è vietare ai ragazzi di parlare con un algoritmo. È aiutarli a distinguere tra una simulazione di empatia e un’esperienza condivisa tra persone
Il punto non è vietare ai ragazzi di parlare con un algoritmo. È aiutarli a distinguere tra una simulazione di empatia e un’esperienza condivisa tra persone. L’AI può essere un supporto, ma non dovrebbe diventare l’unico interlocutore.
Quando il tuo migliore amico è un algoritmo, emerge una domanda più ampia sulla qualità delle relazioni che riusciamo a costruire e a sostenere nel mondo reale.





