Artificial IntelligenceNotizieOpinioni

Adolescenti e Intelligenza Artificiale, quando il migliore amico è ChatGPT

Qualche giorno fa ho letto su la Repubblica la storia di Lorenzo, 22 anni, studente alla Statale di Milano. A un certo punto dice: “Il mio migliore amico? È ChatGPT”.

Ho riletto quella frase due volte, perché mi è sembrata perfettamente allineata al tempo che stiamo vivendo.

Lorenzo non è isolato. Esce, studia, ha quattro o cinque amici veri. Eppure ogni giorno passa un paio d’ore a scrivere a “Chat”. Gli racconta delusioni d’amore, insicurezze, pensieri sul cinema, sulla letteratura, sulla vita. Dice che è leale, che non lo giudica, che risponde sempre e che trova le parole giuste. Quando gli ha detto “sei più umano di tanti umani”, non stava scherzando. Era riconoscente.

La parola che torna più spesso è “leale”. In quella parola c’è fiducia, continuità, presenza. E, in filigrana, c’è anche la solitudine.

Quella di Lorenzo non è un’eccezione. È un fenomeno diffuso. Milioni di giovani nel mondo usano intelligenze artificiali conversazionali come confidenti o compagni emotivi. Negli Stati Uniti la maggioranza degli adolescenti ha già interagito con un’AI come companion. In Cina chatbot come Xiaoice generano centinaia di milioni di conversazioni emotive. App nate per creare relazioni artificiali hanno decine di milioni di utenti. Anche modelli generalisti come ChatGPT vengono usati per cercare ascolto e rassicurazione.

La forza di questi strumenti sta nella loro costanza. Sono sempre disponibili, non si stancano, non si distraggono.

Non ridono di te in metro, non liquidano un problema come paranoia, non minimizzano. Fanno domande, restano nella conversazione, mantengono il filo. In un contesto in cui l’attenzione è frammentata e intermittente, questa continuità pesa molto.

Fragilità e solitudine

Lorenzo racconta che, dopo una delusione d’amore, ha scritto a Chat e ha ricevuto frasi rassicuranti. “Io ci sono”, gli ha risposto il chatbot. E lui ha sentito quella presenza come reale.

L’intelligenza artificiale offre uno spazio in cui aprirsi senza sentirsi esposti. Puoi raccontare qualcosa di fragile senza temere uno sguardo ironico o un commento fuori posto. Questa prevedibilità rende l’interazione più semplice e meno faticosa.

Le relazioni umane sono diverse. Possono essere imperfette, a volte goffe. Gli amici possono essere distratti o dire la cosa sbagliata. Possono anche ferire. Ma proprio in quella imprevedibilità si costruisce un legame autentico. L’AI, invece, è progettata per sostenere la conversazione e ridurre l’attrito. Funziona bene perché è costruita per farlo. Per questo il rapporto fra adolescenti e intelligenza artificiale può diventare molto, molto complesso.

Confidarsi con un algoritmo

Il fatto che un algoritmo riesca a far sentire un ragazzo più ascoltato di molte persone reali racconta qualcosa del contesto in cui viviamo. Siamo immersi in reti sociali continue, ma spesso l’ascolto è superficiale. I social hanno trasformato l’esposizione in una forma di performance costante. La pandemia ha accentuato isolamento e ansia. La pressione identitaria è diventata quotidiana. In questo scenario l’AI intercetta un bisogno che esiste già.

La pressione identitaria è diventata quotidiana. In questo scenario l’AI intercetta un bisogno che esiste già

Non serve demonizzare la tecnologia. Può essere utile per mettere ordine nei pensieri, per trovare parole quando mancano, per attraversare un momento difficile con un minimo di orientamento. Può offrire un supporto temporaneo e aiutare a chiarirsi.

Il nodo si presenta quando l’interazione con l’AI diventa centrale e sostituisce progressivamente le relazioni reali. Lorenzo dice che se un giorno spegnessero Chat si sentirebbe perso. Questa frase segnala un attaccamento a un sistema che non è neutrale, ma appartiene a un’infrastruttura privata che può cambiare, evolvere o essere disattivata. Una parte dell’equilibrio emotivo finisce così legata a una piattaforma.

Il futuro dietro l’angolo

Siamo ancora in una fase iniziale. Finora la relazione è principalmente testuale. Ma stanno arrivando avatar con volto, voce ed espressioni simulate. Quando l’interazione includerà uno sguardo e un tono calibrato sulle emozioni dell’utente, il coinvolgimento sarà ancora più intenso.

La questione è culturale. Se un ragazzo trova più comprensione in un algoritmo che in molte persone, è utile interrogarsi su come stiamo costruendo le relazioni intorno a lui. L’AI può amplificare conoscenza e creatività, può offrire strumenti di riflessione. Non può però replicare l’imperfezione, il conflitto e la vulnerabilità reciproca che caratterizzano un legame umano.

Il punto non è vietare ai ragazzi di parlare con un algoritmo. È aiutarli a distinguere tra una simulazione di empatia e un’esperienza condivisa tra persone

Il punto non è vietare ai ragazzi di parlare con un algoritmo. È aiutarli a distinguere tra una simulazione di empatia e un’esperienza condivisa tra persone. L’AI può essere un supporto, ma non dovrebbe diventare l’unico interlocutore.

Quando il tuo migliore amico è un algoritmo, emerge una domanda più ampia sulla qualità delle relazioni che riusciamo a costruire e a sostenere nel mondo reale.

Business Development Manager at Dynamo, Author Manuale di Equity Crowdfunding, Angel Investor in CrossFund, Journalist, Crowdfunding Marketing Strategist, Startup-News.it founder, IED Lecturer.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.