
Nel pieno del processo che vede alcune delle principali piattaforme digitali accusate di aver progettato prodotti “addictive by design”, emerge un elemento destinato a incidere in modo significativo sul dibattito pubblico e regolatorio: lo studio interno di Meta denominato Project MYST, realizzato in collaborazione con la University of Chicago. Il documento, citato durante il procedimento avviato presso la Los Angeles County Superior Court, sostiene che la supervisione parentale e gli strumenti di parental control avrebbero un impatto limitato sull’uso compulsivo dei social media da parte degli adolescenti.
Il caso, promosso da una giovane identificata con le iniziali “KGM” o con il nome “Kaley”, rappresenta uno dei procedimenti più rilevanti tra quelli avviati quest’anno contro le piattaforme digitali per presunti danni psicologici ai minori. La causa coinvolge Meta, YouTube, ByteDance (proprietaria di TikTok) e Snap, anche se le ultime due avrebbero già raggiunto un accordo prima dell’inizio del dibattimento. Al centro delle accuse vi è la presunta progettazione di sistemi algoritmici in grado di sfruttare vulnerabilità cognitive e neurobiologiche dei giovani utenti, generando dipendenza, ansia, depressione, disturbi alimentari, dismorfia corporea, autolesionismo e ideazione suicidaria.
Project MYST: supervisione parentale inefficace contro l’overuse
Project MYST, acronimo di “Meta and Youth Social Emotional Trends survey”, si basa su un campione di 1.000 adolescenti e dei rispettivi genitori, intervistati in merito alle modalità di utilizzo dei social media. Secondo quanto emerso in aula, la ricerca avrebbe concluso che “parental and household factors have little association with teens’ reported levels of attentiveness to their social media use”. In termini operativi, ciò significa che l’adozione di time limits, regole domestiche o strumenti di parental control integrati nelle app — come quelli disponibili su Instagram o nei sistemi operativi mobile — non risulterebbe significativamente correlata alla capacità dei ragazzi di autoregolare il proprio comportamento digitale.
Al centro delle accuse vi è la presunta progettazione di sistemi algoritmici in grado di sfruttare vulnerabilità cognitive e neurobiologiche dei giovani utenti, generando dipendenza, ansia, depressione, disturbi alimentari, dismorfia corporea, autolesionismo e ideazione suicidaria.
Un dato particolarmente rilevante, dal punto di vista metodologico, è che l’assenza di correlazione sarebbe stata confermata sia dalle dichiarazioni dei genitori sia da quelle degli adolescenti. Lo studio Project MYST avrebbe infatti evidenziato “no association between either parental reports or teen reports of parental supervision, and teens’ survey measures of attentiveness or capability”. Se validati, questi risultati metterebbero in discussione l’efficacia degli attuali modelli di responsabilizzazione familiare promossi dalle stesse piattaforme come soluzione primaria al problema dell’overuse.
Algoritmi, dopamina e design persuasivo
La strategia legale della parte attrice si fonda su un presupposto chiave: l’addiction non sarebbe il risultato di un deficit educativo o di contesto familiare, bensì l’esito di precise scelte di product design. Nel ricorso si fa riferimento a feed algoritmici progettati per massimizzare il tempo di permanenza (time spent), sistemi di intermittent variable rewards capaci di stimolare il rilascio di dopamina secondo meccanismi analoghi al gambling, notifiche push persistenti e strumenti di parental control ritenuti insufficienti o strutturalmente inefficaci.
L’adozione di time limits, regole domestiche o strumenti di parental control integrati nelle app non risulterebbe significativamente correlata alla capacità dei ragazzi di autoregolare il proprio comportamento digitale.
Questi elementi rientrano in quella che nel settore viene definita “engagement optimization architecture”, ovvero un’architettura orientata a KPI quali retention rate, DAU/MAU ratio e session frequency. In tale contesto, il caso Project MYST si inserisce in una discussione più ampia di product liability e duty of care, con potenziali ripercussioni regolatorie sia a livello statale sia federale.
Le testimonianze e il ruolo di Instagram
Durante il dibattimento, l’head di Instagram, Adam Mosseri, ha dichiarato di non avere familiarità con i dettagli di Project MYST, pur a fronte di documentazione che sembrerebbe indicare un suo via libera allo sviluppo della ricerca. “We do a lot of research projects”, ha affermato, sostenendo di non ricordare elementi specifici oltre al nome dello studio.
L’addiction non sarebbe il risultato di un deficit educativo o di contesto familiare, bensì l’esito di precise scelte di product design
Mosseri ha inoltre precisato che Meta evita di utilizzare il termine “addiction”, preferendo l’espressione “problematic use” per indicare situazioni in cui un utente trascorre più tempo sulla piattaforma di quanto ritenga desiderabile. Una distinzione semantica non irrilevante, che riflette una strategia di risk management comunicativo volta a limitare l’esposizione legale e reputazionale.
Gli avvocati della difesa hanno sostenuto che Project MYST fosse focalizzato esclusivamente sulla percezione soggettiva dell’uso eccessivo, non sull’esistenza di una dipendenza clinicamente diagnosticabile. Inoltre, hanno tentato di ricondurre le condizioni psicologiche della giovane attrice a fattori esogeni, come il divorzio dei genitori, la presenza di un padre abusivo e episodi di bullismo scolastico.
Trauma e vulnerabilità: il nodo degli eventi avversi
Uno degli aspetti più delicati emersi dallo studio Project MYST riguarda la correlazione tra eventi di vita avversi e minore capacità di moderare l’uso dei social media. Gli adolescenti che avevano sperimentato situazioni traumatiche — genitori con dipendenze, molestie, contesti familiari instabili — avrebbero mostrato livelli inferiori di “attentiveness” rispetto alla propria attività online.
In aula, Mosseri ha riconosciuto che per alcuni utenti Instagram può rappresentare una forma di escape da realtà difficili. Questa ammissione, seppur parziale, introduce un tema centrale per il futuro del settore: la responsabilità delle piattaforme nel proteggere soggetti vulnerabili attraverso sistemi di early detection, safety by design e algorithmic auditing.
Dal punto di vista regolatorio, la mancata pubblicazione dei risultati di Project MYST e l’assenza di warning specifici per genitori e adolescenti potrebbero diventare elementi determinanti nella valutazione della condotta aziendale.
Dal punto di vista regolatorio, la mancata pubblicazione dei risultati di Project MYST e l’assenza di warning specifici per genitori e adolescenti potrebbero diventare elementi determinanti nella valutazione della condotta aziendale. La trasparenza degli studi interni e la disclosure dei rischi associati all’utilizzo delle piattaforme sono infatti aspetti sempre più centrali nel dibattito su compliance, accountability e governance dei sistemi digitali.
Impatti sistemici e scenari futuri
L’esito del processo avrà implicazioni che vanno oltre il singolo caso. Se la giuria dovesse ritenere che le piattaforme abbiano consapevolmente minimizzato o non comunicato evidenze interne come quelle di Project MYST sui rischi per i minori, potrebbero aprirsi scenari di class action, nuove normative e un rafforzamento delle misure di child protection nel design dei prodotti.
Per l’ecosistema tech, il tema non è più soltanto reputazionale ma strutturale: si tratta di ridefinire il bilanciamento tra growth hacking e responsabilità sociale, tra metriche di engagement e benessere psicologico degli utenti. Project MYST, nato come survey interna, rischia ora di trasformarsi in un case study emblematico sul rapporto tra innovazione digitale e tutela dei minori.
In un contesto in cui le Big Tech sono già sottoposte a scrutiny crescente su privacy, concorrenza e moderazione dei contenuti, il filone dell’addiction minorile potrebbe rappresentare il prossimo terreno di intervento normativo. La decisione della giuria di Los Angeles sarà osservata con attenzione non solo dalle aziende coinvolte, ma da tutto il settore tecnologico globale.
Fonte: TechCrunch





