Anthropic non vuole cedere sui limiti per l’uso militare dell’AI che Trump vuole eliminare

Tempo di lettura: 3 minuti

Il Dipartimento della Difesa degli Stati Uniti valuta misure contro Anthropic dopo il rifiuto dell’azienda di rimuovere restrizioni sull’uso militare del modello Claude.

Anthropic non ci sta e resiste su alcuni utilizzi particolari di intelligenza artificiale richiesti dal governo Trump a scopo militare.

Secondo quanto riportato da Axios, nota testata giornalistica digitale statunitense, il Dipartimento della Difesa degli Stati Uniti ha avviato una revisione del rapporto con Anthropic, la società che sviluppa il modello di intelligenza artificiale Claude, dopo un confronto acceso sulle condizioni di utilizzo della tecnologia in ambito militare. Al centro della frizione ci sono le clausole contrattuali con cui l’azienda limita alcune applicazioni considerate ad alto rischio, tra cui l’impiego in sistemi d’arma autonomi e in attività di sorveglianza su larga scala prive di controllo umano diretto.

Il Pentagono, però, avrebbe chiesto maggiore libertà operativa, rivendicando la possibilità di utilizzare strumenti avanzati per tutte le finalità ritenute lecite nel quadro della difesa nazionale. Anthropic ha mantenuto la propria posizione, coerente con la linea pubblica adottata fin dalla nascita dell’azienda: sviluppare modelli potenti, ma con vincoli chiari sull’uso. Il confronto si è irrigidito al punto che l’amministrazione starebbe valutando misure drastiche, tra cui la possibile qualificazione della società come rischio per la catena di fornitura.

Pentagono e Anthropic cosa significa rischio per la catena di fornitura

La designazione come rischio per la catena di fornitura avrebbe conseguenze concrete. I contractor che lavorano con il Dipartimento della Difesa potrebbero trovarsi costretti a interrompere l’utilizzo di Claude per non compromettere i propri contratti pubblici. Si tratta di un’ipotesi che inciderebbe sull’intero ecosistema industriale collegato alla difesa, con effetti che andrebbero oltre il singolo rapporto bilaterale. Il tema, quindi, non riguarda soltanto un conflitto tra un ministero e un fornitore tecnologico, ma tocca la struttura stessa dei rapporti tra Stato e imprese innovative.

Uso militare dell’intelligenza artificiale e responsabilità di Anthropic

Di tutta questa vicenda resta un dato politico e industriale che pesa più del singolo rapporto e del singolo contrstto tra l’azienda di Claude e la Difesa statunitense. Anthropic, pur consapevole del rischio concreto di perdere contratti rilevanti e di essere esclusa da una parte del mercato pubblico americano, continua a difendere i limiti che ha scelto di inserire nei propri accordi. Si tratta di vincoli circoscritti, mirati soprattutto a impedire l’uso del modello in sistemi d’arma pienamente autonomi o in forme pervasive di sorveglianza senza controllo umano, ma sufficienti a segnare una linea importante. E in un contesto storico in cui l’amministrazione Trump ha mostrato un approccio assertivo verso le imprese tecnologiche e una forte spinta a massimizzare l’autonomia operativa della difesa, mantenere questa posizione significa accettare uno scontro asimmetrico. La scelta di Anthropic suggerisce che, almeno in questa fase, l’azienda ritiene sostenibile integrare alcune cautele etiche nella propria strategia industriale, anche quando ciò comporta tensioni con il principale cliente pubblico del Paese. Se riuscirà a restare in piedi dipenderà dall’equilibrio tra credibilità tecnologica, solidità finanziaria e capacità di dimostrare che regole chiare sull’uso dell’intelligenza artificiale possono convivere con le esigenze di sicurezza nazionale.