Ufficiale, Anthropic fa causa a Trump dopo essere stata designata “un rischio per la supply chain”

Tempo di lettura: 5 minuti

Anthropic ha depositato due cause federali contro il Pentagono e l'amministrazione Trump dopo essere stata designata "supply chain risk" per aver rifiutato di rimuovere i limiti all'uso militare del suo modello Claude. La designazione, storicamente riservata ad aziende legate ad avversari stranieri, blocca vendor e contractor della difesa dall'utilizzare i prodotti dell'azienda e mette a rischio centinaia di milioni di dollari in contratti pubblici e privati.

Anthropic ha depositato due cause federali contro il Dipartimento della Difesa e altre agenzie dell’amministrazione Trump, chiedendo ai giudici di annullare una designazione amministrativa che la equipara, nei fatti, a un’azienda collegata a potenze straniere ostili agli Stati Uniti. La prima causa è stata presentata presso il Tribunale federale distrettuale per il Distretto Nord della California; la seconda, più breve nel merito ma necessaria per ragioni procedurali, è stata depositata presso la Corte d’Appello del Circuito del Distretto di Columbia, l’unica sede competente per contestare uno degli statuti invocati dal governo. Secondo Anthropic, le azioni dell’amministrazione sono “senza precedenti e illegali” e minacciano di causare danni irreparabili all’azienda.

La trattativa, il mancato accordo e la blacklist

La radice del conflitto affonda in una rinegoziazione contrattuale avviata mesi prima che la vicenda diventasse pubblica. Nel luglio 2024 Anthropic aveva firmato con il Pentagono un accordo del valore di 200 milioni di dollari, diventando il primo laboratorio di intelligenza artificiale a dispiegare la propria tecnologia nelle reti classificate del Dipartimento della Difesa. Al momento del rinnovo, le trattative si sono arenate su due punti che Anthropic ha definito invalicabili: il divieto di utilizzo del modello Claude per sistemi d’arma completamente autonomi e il divieto di impiego per la sorveglianza di massa dei cittadini americani. Il Pentagono voleva accesso illimitato per qualsiasi scopo lecito, senza restrizioni imposte da un fornitore privato. L’incontro del 24 febbraio 2026 tra il CEO Dario Amodei e il Segretario alla Difesa Pete Hegseth si è concluso senza intesa. Tre giorni dopo, il 27 febbraio, Trump ha pubblicato su Truth Social un post che ordinava alle agenzie federali di cessare immediatamente ogni utilizzo dei prodotti Anthropic, definendo la società “un’azienda radicale di sinistra fuori controllo”. Hegseth ha quindi formalizzato la designazione come “supply chain risk”, misura storicamente riservata ad aziende legate ad avversari come Russia e Cina, mai applicata prima a una società americana.

La designazione ha effetti operativi diretti: vendor e contractor del Pentagono sono tenuti a certificare di non usare i modelli Anthropic nei loro lavori con la difesa. Diversi contratti con agenzie federali sono stati già cancellati e, secondo la denuncia, le perdite economiche a breve termine rischiano di superare diverse centinaia di milioni di dollari.

Le argomentazioni legali e i dubbi degli esperti

Nelle due cause Anthropic sostiene che il governo abbia violato il primo emendamento della Costituzione, punendo l’azienda per aver espresso posizioni pubbliche sulla sicurezza dell’intelligenza artificiale, e che siano stati ignorati i requisiti del giusto processo. La società chiede ai tribunali di annullare la designazione e di ordinare alle agenzie federali di ritirare le direttive che impongono l’interruzione dei rapporti commerciali. Un portavoce ha precisato che le cause non mirano a costringere il governo a lavorare con Anthropic, ma a impedire che l’esecutivo possa usare strumenti amministrativi per penalizzare aziende private in ragione delle loro posizioni su questioni di policy.

Sul piano tecnico-giuridico, gli esperti hanno già sollevato riserve significative sulla solidità della designazione. In un articolo pubblicato su Lawfare, gli avvocati Michael Endrias e Alan Z. Rozenshtein hanno argomentato che la misura “eccede quanto lo statuto autorizza”, che “i presupposti richiesti dalla norma non reggono” e che le stesse dichiarazioni pubbliche di Hegseth “potrebbero aver compromesso la posizione governativa in giudizio ancor prima che il processo abbia inizio”. Il Pentagono ha risposto che la disputa riguarda il controllo operativo delle forze armate, non la libertà di parola, e che nessuna azienda privata può inserirsi nella catena di comando militare mettendo a rischio le vite dei soldati. Amodei, da parte sua, ha sostenuto che i modelli di IA attuali non sono abbastanza affidabili per essere impiegati in sistemi d’arma autonomi e che la sorveglianza di massa dei cittadini americani costituisce una violazione di diritti fondamentali. In un memo interno riportato dal sito The Information, il CEO ha anche scritto che i funzionari del Pentagono non gradivano Anthropic in parte perché “non abbiamo dato lodi in stile dittatoriale a Trump”, aggiungendo poi delle scuse per il tono del messaggio, scritto nelle ore immediatamente successive al fallimento delle trattative.

Alphabet e Amazon, tra i principali investitori di Anthropic, si sono trovati a gestire un’esposizione reputazionale e finanziaria di peso considerevole. Microsoft e Google hanno comunque dichiarato che potranno continuare a collaborare con Anthropic su progetti non legati alla difesa.

OpenAI e il cambio di scenario competitivo

A poche ore dall’annuncio della blacklist, OpenAI ha siglato un accordo con il Dipartimento della Difesa per l’utilizzo della propria tecnologia nelle reti del Pentagono. Il CEO Sam Altman ha dichiarato che il Pentagono condivide i principi di OpenAI sulla supervisione umana dei sistemi d’arma e sull’opposizione alla sorveglianza di massa. L’annuncio ha ricevuto critiche immediate da più parti, con molti osservatori che hanno rilevato come le clausole del contratto di OpenAI non offrissero garanzie sostanzialmente diverse da quelle che Anthropic aveva proposto. OpenAI ha successivamente ammesso che la comunicazione era apparsa “sciatta e opportunistica” e ha annunciato la revisione di alcune condizioni contrattuali. I rapporti tra le due società si sono nel frattempo deteriorati: Amodei ha definito i dipendenti di OpenAI “ingenui” in un messaggio interno, salvo poi scusarsi.

Sul mercato consumer, la blacklist ha prodotto un effetto opposto a quello forse atteso. L’app Claude ha superato ChatGPT nella classifica dell’App Store di Apple il giorno successivo all’annuncio della misura governativa, e Anthropic ha comunicato che oltre un milione di nuove persone si iscrivono al servizio ogni giorno. La questione che i due procedimenti giudiziari pongono va comunque oltre i numeri di mercato: se un’azienda tecnologica può essere classificata alla stregua di un soggetto legato a potenze ostili per aver rifiutato di rimuovere vincoli etici dal proprio contratto militare, le implicazioni si estendono a qualsiasi impresa che sviluppi o integri intelligenza artificiale in contesti governativi, in America come altrove.