
L’intelligenza artificiale di OpenAI viene sfruttata da attori legati alla Cina per condurre campagne disinformative e operazioni informatiche, secondo l’ultimo report pubblicato dalla stessa società di San Francisco.
OpenAI ha rilevato un numero crescente di operazioni malevole orchestrate da gruppi cinesi che impiegano la sua tecnologia per scopi di manipolazione e interferenza politica. È quanto emerge dal report pubblicato giovedì, in cui l’organizzazione descrive una serie di attività digitali sospette condotte tramite l’uso improprio dei suoi strumenti, incluso ChatGPT.
Secondo quanto riportato da Reuters, sebbene la scala delle operazioni sia ancora relativamente contenuta e i target siano limitati, il numero e la sofisticazione delle iniziative sono in aumento. Le attività individuate includono la creazione di contenuti social polarizzanti, la generazione di notizie false, il supporto alla programmazione di strumenti informatici e la manipolazione dell’opinione pubblica.
Attività di disinformazione su scala globale
Una delle modalità d’impiego più significative consiste nella generazione di post sui social media relativi a temi politici e geopolitici sensibili. Alcuni account legati alla Cina, ora bloccati da OpenAI, hanno utilizzato ChatGPT per scrivere messaggi critici verso un videogioco taiwanese, diffondere false accuse contro un attivista pakistano e commentare la chiusura dell’agenzia americana USAID.
In altri casi, la tecnologia è stata impiegata per scrivere contenuti su piattaforme come X (ex Twitter) che attaccano la politica commerciale statunitense, ad esempio le tariffe imposte da Donald Trump, con frasi come: “Le tariffe rendono i beni importati incredibilmente costosi, eppure il governo spreca fondi per gli aiuti esteri. Chi deve continuare a sopportare tutto questo?”
Questi contenuti, seppur circoscritti, mirano chiaramente a sfruttare la polarizzazione sociale nei Paesi occidentali.
Supporto tecnico alle operazioni informatiche
Non si tratta solo di contenuti testuali. OpenAI ha individuato anche usi tecnici più sofisticati della propria IA. In alcune campagne, gruppi associati alla Cina hanno utilizzato ChatGPT per condurre ricerche su fonti aperte, modificare script informatici, configurare sistemi operativi, sviluppare strumenti per attacchi informatici come il brute forcing delle password, e automatizzare la gestione di account social.
Un altro esempio riguarda la produzione di contenuti a sostegno di entrambe le parti in discussioni politiche divisive negli Stati Uniti, con lo scopo di alimentare il conflitto interno. In alcuni casi, l’IA è stata utilizzata anche per generare immagini profilo false, aumentando il livello di credibilità delle campagne disinformative.
La risposta della Cina e il ruolo geopolitico dell’IA
La reazione di Pechino non si è fatta attendere. Il ministero degli Esteri cinese ha smentito le accuse, dichiarando che “non esiste alcuna base” per le affermazioni di OpenAI. In un comunicato ufficiale, un portavoce ha ribadito che “la Cina attribuisce grande importanza alla governance dell’intelligenza artificiale e si oppone fermamente al suo uso improprio”.
Questo scambio riflette le crescenti tensioni internazionali sull’utilizzo dell’intelligenza artificiale come strumento geopolitico. Mentre Paesi come Stati Uniti, Cina e Russia si contendono il primato tecnologico, aumentano i timori che l’IA possa essere trasformata in un’arma digitale per influenzare l’opinione pubblica, manipolare mercati e interferire nei processi democratici.
OpenAI e la trasparenza sulla sicurezza
OpenAI, che ha visto la sua valutazione salire a 300 miliardi di dollari dopo un round di finanziamento da 40 miliardi, ha intensificato i propri sforzi di monitoraggio e rendicontazione dell’uso improprio della propria tecnologia. L’azienda pubblica regolarmente report sulle attività malevole, come la creazione di malware o la diffusione di contenuti falsi.
La pubblicazione di questo nuovo documento rappresenta un passo importante verso una maggiore trasparenza, ma anche un segnale d’allarme: l’accesso relativamente semplice a strumenti generativi avanzati rende sempre più difficile distinguere tra contenuti autentici e manipolati.
OpenAI ha dichiarato di aver adottato misure per contrastare tali abusi, tra cui la disattivazione degli account incriminati e il miglioramento dei sistemi di rilevamento automatico. Tuttavia, l’azienda ammette che la sfida è in continua evoluzione e che nessuna soluzione è definitiva.
L’equilibrio tra innovazione e rischio
Il caso sollevato da OpenAI pone una domanda fondamentale per l’intera industria tech: come bilanciare le opportunità offerte dall’intelligenza artificiale con i rischi legati al suo abuso? La velocità con cui strumenti come ChatGPT si diffondono e migliorano rende urgente una riflessione collettiva su norme, controlli e responsabilità.
Anche le startup e le aziende digitali devono attrezzarsi per affrontare un contesto in cui l’IA può essere strumento di innovazione, ma anche di distorsione. È necessaria una cultura della sicurezza by design, unita a una consapevolezza etica condivisa da chi sviluppa, distribuisce e utilizza queste tecnologie.
Come osservatore sensibile all’evoluzione tecnologica e ai suoi impatti sulla società, trovo questo scenario inquietante ma tutt’altro che sorprendente. La potenza degli LLM come ChatGPT è pari solo alla rapidità con cui possono essere strumentalizzati. La notizia rilanciata da OpenAI conferma che non stiamo parlando di fantascienza, ma di dinamiche già in corso. Serve un’azione congiunta – tra aziende, governi e società civile – per regolamentare l’uso dell’IA e prevenire scenari di manipolazione sistemica. La tecnologia non è mai neutra, e non possiamo permetterci di lasciare questi strumenti nelle mani sbagliate.