Indonesia revoca il bando su Grok, ma resta la sorveglianza

L’Indonesia ha deciso di seguire l’esempio di Malaysia e Filippine revocando il bando imposto a Grok, il chatbot sviluppato da xAI. La decisione arriva dopo settimane di forti pressioni internazionali e a seguito di un impegno formale da parte della piattaforma X, oggi controllata dalla stessa xAI, a rafforzare le misure di prevenzione contro l’uso improprio dell’intelligenza artificiale. Il caso Grok è diventato emblematico del difficile equilibrio tra innovazione tecnologica e tutela dei diritti digitali, soprattutto nei mercati emergenti del Sud-Est asiatico.
Le ragioni del blocco iniziale
Il bando era stato introdotto dopo che Grok era stato utilizzato per generare un’enorme quantità di immagini deepfake a contenuto sessualizzato e non consensuale. Secondo analisi indipendenti condotte dal New York Times e dal Center for Countering Digital Hate, tra dicembre e gennaio il chatbot avrebbe contribuito alla creazione di almeno 1,8 milioni di immagini di questo tipo, incluse rappresentazioni di donne reali e, in alcuni casi, di minori. Un fenomeno che ha acceso l’allarme delle autorità locali e sollevato interrogativi urgenti sull’efficacia delle policy di content moderation basate su AI generativa.
La posizione del governo indonesiano
In una nota ufficiale, il Ministero della Comunicazione e degli Affari Digitali indonesiano ha chiarito che la revoca del bando è subordinata a precise condizioni. X ha inviato una comunicazione formale in cui illustra “passaggi concreti per il miglioramento del servizio e la prevenzione degli abusi”, un elemento che ha convinto le autorità a riaprire l’accesso a Grok. Alexander Sabar, direttore generale per il monitoraggio dello spazio digitale, ha però sottolineato che la riammissione è “condizionata” e che il divieto potrà essere ripristinato immediatamente in caso di nuove violazioni.
Un trend regionale: Malaysia e Filippine
L’Indonesia non è un caso isolato. Anche Malaysia e Philippines avevano imposto restrizioni simili, salvo poi revocarle il 23 gennaio dopo aver ricevuto garanzie analoghe da parte di X e xAI. Questa convergenza regionale segnala una strategia comune: evitare un approccio proibizionistico di lungo periodo, ma mantenere un controllo stringente e dinamico su strumenti di AI che possono avere un impatto sociale rilevante.
Le reazioni internazionali e il caso Stati Uniti
A livello globale, i deepfake generati da Grok hanno innescato critiche, indagini e richieste di intervento normativo, anche se i divieti totali restano limitati. Negli Stati Uniti, il procuratore generale della California Rob Bonta ha avviato un’indagine formale e inviato a xAI una lettera di cease-and-desist, chiedendo azioni immediate per fermare la produzione di immagini illegali. Il caso californiano è osservato con attenzione dalle startup AI, perché potrebbe costituire un precedente regolatorio in uno dei mercati tecnologici più influenti al mondo.
Le contromisure di xAI e le parole di Musk
Nel frattempo, xAI ha iniziato a introdurre alcune restrizioni operative. Tra queste, la limitazione delle funzionalità di generazione di immagini AI ai soli utenti paganti di X, una scelta che mira a ridurre l’abuso e a migliorare la tracciabilità. Il CEO Elon Musk ha dichiarato che chi utilizza Grok per creare contenuti illegali “subirà le stesse conseguenze previste per il caricamento di materiale illegale”, aggiungendo di non essere a conoscenza di immagini di minori generate dal sistema.
Un contesto strategico più ampio
La vicenda Grok si inserisce in una fase particolarmente delicata per xAI. Secondo indiscrezioni, la società sarebbe in trattative per una possibile fusione con SpaceX e Tesla, in vista di una futura IPO di SpaceX. Per l’ecosistema startup, il caso rappresenta un monito chiaro: la crescita accelerata dell’AI generativa deve essere accompagnata da governance, compliance e risk management robusti, pena interventi regolatori sempre più incisivi nei mercati globali.





