Anthropic ha deciso di portare lo scontro con il Dipartimento della Difesa degli Stati Uniti davanti ai giudici. L’azienda guidata da Dario Amodei contesterà la decisione con cui il Pentagono ha classificato la società come rischio per la filiera tecnologica, una designazione che di solito riguarda imprese straniere considerate sensibili dal punto di vista della sicurezza nazionale.
La vicenda è emersa pubblicamente dopo un’intervista concessa da Amodei all’Economist. Il fondatore di Anthropic ha parlato apertamente della crisi con il governo statunitense, definendola una delle fasi più disorientanti nella storia dell’azienda. Durante il colloquio ha confermato l’intenzione di contestare la decisione del Pentagono in tribunale, spiegando che la misura rischia di produrre un effetto di raffreddamento sui partner commerciali e sugli investitori.
Secondo la ricostruzione fornita dal CEO, la designazione avrà effetti diretti limitati sui ricavi dell’azienda. I clienti continueranno a utilizzare i modelli di Anthropic nella maggior parte delle attività, con restrizioni legate soprattutto ai progetti direttamente collegati al Dipartimento della Difesa. La questione più delicata riguarda l’impatto reputazionale perchè quando un’azienda viene classificata come rischio nella supply chain tecnologica, il mercato tende a reagire con maggiore cautela.
Il memo interno che ha fatto esplodere la crisi
Il confronto con il governo si è intensificato dopo la diffusione di un documento interno scritto da Amodei e indirizzato ai dipendenti dell’azienda. Il testo, lungo circa 1.600 parole, pubblicato in prima battuta da The Information, è stato redatto intorno al 28 febbraio (giorno in cui il CEO di OpenAI, Sam Altman, annuncia l’accordo con il Pentagono in sostituzione proprio di Anthropic) e trapelato alla stampa il 4 marzo.
La stessa Anthropic ha confermato l’esistenza del messaggio interno e il CEO si è poi scusato pubblicamente per il tono utilizzato.
Nel documento Amodei descrive le tensioni tra l’azienda, il Pentagono e alcuni concorrenti del settore. Il memo critica in modo esplicito la strategia adottata da Sam Altman nei rapporti con il governo americano e mette in discussione l’efficacia di alcune misure di sicurezza previste nei contratti per l’utilizzo dei modelli di intelligenza artificiale in ambito militare.
In particolare Amodei prende di mira in modo diretto l’approccio adottato da OpenAI nei rapporti con il Pentagono. Il CEO di Anthropic sostiene che l’accordo accettato dal concorrente si baserebbe su un modello di sicurezza che affida gran parte delle garanzie a filtri tecnici e sistemi automatici di controllo dei modelli. Nel documento questi strumenti vengono liquidati con un’espressione molto dura: “safety theater”. Secondo Amodei, in contesti militari complessi i meccanismi di sicurezza applicati ai modelli possono essere aggirati con relativa facilità o risultare incapaci di comprendere il contesto reale delle operazioni. In altre parole, secondo Amodei non è sufficiente affidare la sicurezza dell’intelligenza artificiale a filtri o sistemi automatici che bloccano alcune richieste. Se l’uso dei modelli viene autorizzato in modo molto ampio e i limiti sono lasciati solo a questi meccanismi tecnici, esiste il rischio che tali controllisiano inutili.
Il documento contiene anche un passaggio politico che ha contribuito ad amplificare la polemica. Nel memo Amodei suggerisce che una parte delle tensioni con l’amministrazione americana non dipenderebbe soltanto dalla disputa tecnica sull’uso dei modelli di intelligenza artificiale, ma anche da dinamiche politiche e relazionali più ampie. Secondo il CEO, Anthropic non avrebbe coltivato un rapporto particolarmente favorevole con il presidente Donald Trump, né avrebbe adottato i toni pubblici di sostegno che altre aziende tecnologiche avrebbero scelto di utilizzare. In uno dei passaggi più citati del documento, Amodei afferma che alcune imprese del settore avrebbero mostrato nei confronti del presidente un livello di elogio che definisce “dictator-style praise” (in stile dittatoriale). Dopo la diffusione del testo, il fondatore di Anthropic ha chiarito che il memo era stato scritto come comunicazione interna ai dipendenti durante una fase di forte pressione legata alle trattative con il Pentagono e ha espresso rammarico per il tono utilizzato, riconoscendo che il messaggio non rappresentava una versione ponderata delle sue riflessioni.
Il nodo dell’uso militare dell’intelligenza artificiale
Alla base dello scontro c’è un punto molto concreto. Durante le trattative con il Dipartimento della Difesa, il governo statunitense avrebbe chiesto la possibilità di utilizzare i modelli di Anthropic per qualsiasi attività consentita dalla legge. L’azienda ha cercato di mantenere alcune limitazioni esplicite sull’impiego della tecnologia.
Le linee guida indicate da Anthropic riguardavano soprattutto due scenari: la sorveglianza su larga scala dei cittadini americani e l’uso dell’intelligenza artificiale in sistemi d’arma completamente autonomi. Secondo l’azienda, questi ambiti richiedevano limiti chiari e verificabili, anche quando le attività risultano formalmente compatibili con la normativa vigente. Il Pentagono non ha accettato l’imposizione di questi limiti e, da qui è nata una frattura che in pochi giorni si è trasformata in un caso politico e industriale e ha portato Trump alla decisione di classificare Anthropic come rischio per la filiera tecnologica e a sostituirlo con OpenAI che, secondo idiscrezioni starebbe sfruttando la nuova posizione per proporsi come partner tecnologico dell’intera NATO.
