Artificial IntelligenceMercatoNotizie

Anthropic, stop al bando

Un giudice federale della Northern District of California ha concesso ad Anthropic una preliminary injunction che blocca, almeno per ora, il tentativo dell’amministrazione Trump di marchiare la società come “supply chain risk” e di estendere il divieto di utilizzo dei suoi sistemi alle agenzie federali. La giudice Rita F. Lin ha ritenuto che le misure adottate contro l’azienda presentino un profilo verosimilmente ritorsivo e incompatibile con le tutele del First Amendment, congelando così uno dei casi più delicati nel rapporto fra governo statunitense, procurement pubblico e governance dell’AI generativa.

Come nasce lo scontro con il Pentagono

Alla base del contenzioso c’è il rifiuto di Anthropic di accettare un principio di “any lawful use” richiesto dal Dipartimento della Difesa per i propri modelli. L’azienda, attraverso dichiarazioni pubbliche del CEO Dario Amodei e documenti ufficiali, ha sostenuto di essere disponibile a collaborare con il governo Usa e con la comunità di difesa, ma di non voler consentire l’impiego di Claude in due aree considerate ad alto rischio: sistemi d’arma completamente autonomi e sorveglianza domestica di massa. Secondo Anthropic, si tratta di eccezioni limitate, motivate sia da ragioni etiche sia da limiti tecnici di affidabilità dei modelli frontier.

Dario Amodei, Ceo di Anthropic.
Dario Amodei, Ceo di Anthropic.

Dal dissenso pubblico al rischio blacklist

Il punto di rottura non è stato soltanto contrattuale, ma anche politico e reputazionale. Dopo che Anthropic ha reso pubbliche le proprie obiezioni, la Casa Bianca e il vertice del Pentagono hanno alzato il livello dello scontro, arrivando a descrivere l’azienda come un soggetto ostile agli interessi di sicurezza nazionale. Nel frattempo, la società è stata formalmente designata come supply chain risk, una formula normalmente associata a minacce esterne o ad attori ostili, non a una software company americana impegnata in dispute sui limiti d’uso della propria tecnologia. In parallelo, è arrivato anche l’ordine di recidere i rapporti con la società in ambito federale e, secondo il quadro ricostruito in tribunale, di scoraggiare persino i contractor privati dal mantenere relazioni commerciali con Anthropic.

Le motivazioni della giudice Lin

L’ordinanza di Lin è rilevante soprattutto per il suo impianto giuridico. Il tribunale non entra nel merito della scelta politica su come l’AI debba essere usata in guerra, ma osserva che il governo avrebbe potuto semplicemente smettere di acquistare o utilizzare Claude, senza trasformare il dissenso di Anthropic in una misura punitiva a largo spettro. Nelle prime pagine dell’ordine, la giudice scrive che nulla nella normativa invocata dal governo supporta la “Orwellian notion” secondo cui una società americana possa essere bollata come potenziale sabotatore soltanto per aver espresso disaccordo con l’esecutivo. Più avanti, Lin sostiene che il record processuale fa emergere un’apparente volontà di “make an example” di Anthropic, cioè di usarla come monito pubblico.

Un precedente pesante per l’ecosistema AI

La portata della vicenda supera il caso Anthropic. Il tribunale segnala infatti che misure di questo tipo possono produrre un chilling effect sul dibattito pubblico intorno all’AI safety, scoraggiando aziende, ricercatori e investitori dal contestare pubblicamente richieste governative percepite come eccessive. In altre parole, il nodo non riguarda soltanto un vendor e un contratto, ma il perimetro entro cui una frontier AI company può negoziare usage policies senza rischiare una quasi-blacklist federale. Per il settore si tratta di un passaggio strategico: il rapporto tra public sector go-to-market, clausole di impiego e responsabilità dei model provider entra ora in una fase molto più conflittuale e giuridicamente esposta.

Il danno reputazionale e il tema industriale

Anthropic ha sostenuto in giudizio che la designazione rischiava di causare danni immediati e strutturali, dai contratti federali alle partnership indirette con operatori che lavorano con il governo. La giudice ha ritenuto credibile questa linea, osservando che le misure contestate potevano compromettere in profondità la capacità della società di operare nel proprio mercato. Non a caso, nei documenti ufficiali la stessa Anthropic ha ribadito di aver già lavorato estesamente con il settore difesa, anche in applicazioni mission-critical come intelligence analysis, modeling and simulation, cyber operations e operational planning. È questo il paradosso industriale al centro del caso: una società già integrata in use case sensibili è stata trattata, di colpo, come un rischio sistemico.

Cosa succede adesso

La vittoria di Anthropic non chiude il caso, ma le consegna un primo round di enorme peso. L’ingiunzione è stata concessa e l’ordine è stato sospeso per sette giorni, lasciando spazio a un possibile appello del governo; secondo il Wall Street Journal, l’amministrazione dovrà anche riferire al tribunale sulle misure di compliance. Intanto l’azienda ha accolto favorevolmente la decisione, dichiarando di voler continuare a lavorare in modo produttivo con il governo per assicurare che gli americani possano beneficiare di un’AI sicura e affidabile. Sul piano politico, però, la frattura resta aperta: il caso Anthropic dimostra che il confronto sulla military AI non si giocherà solo nei laboratori o nei procurement office, ma sempre più nelle aule di tribunale.

Business Development Manager at Dynamo, Author Manuale di Equity Crowdfunding, Angel Investor in CrossFund, Journalist, Crowdfunding Marketing Strategist, Startup-News.it founder, IED Lecturer.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.