OpenAI ha annunciato ufficialmente il proprio accordo con il Dipartimento della Guerra degli Stati Uniti, nuova denominazione del Dipartimento della Difesa introdotta dall’amministrazione Trump nel 2025. L’intesa prevede l’impiego dei modelli dell’azienda all’interno di reti classificate e in contesti operativi legati alla sicurezza nazionale.
Nel comunicato pubblicato sul sito istituzionale, la società chiarisce che l’accordo contiene limitazioni esplicite. Viene escluso l’utilizzo per sistemi d’arma completamente autonomi, per attività di sorveglianza di massa interna e per decisioni automatizzate ad alto impatto senza controllo umano diretto. OpenAI sostiene di mantenere attivo il proprio sistema di sicurezza e di conservare un presidio tecnico sui modelli distribuiti in ambito governativo.
La novità non riguarda soltanto il contenuto delle clausole. Conta anche il passaggio simbolico. OpenAI nasce nel 2015 come organizzazione non profit con l’obiettivo dichiarato di sviluppare intelligenza artificiale generale a beneficio dell’umanità, con particolare attenzione ai rischi sistemici. Negli anni la struttura è cambiata, l’ingresso di capitali privati ha trasformato l’assetto societario e la dimensione geopolitica della tecnologia ha ridefinito le priorità operative.
L’accordo con il Dipartimento della Guerra formalizza un rapporto che di fatto era già in corso nel settore. Le applicazioni dichiarate riguardano analisi di intelligence, simulazioni, supporto decisionale. Si tratta di ambiti nei quali l’intelligenza artificiale viene impiegata come strumento di elaborazione e previsione, con un essere umano chiamato a validare gli esiti. OpenAI insiste su questo punto, specificando che non fornirà modelli destinati a sistemi connessi direttamente ad armamenti autonomi.
Il quadro, però, si complica se si guarda alle settimane precedenti.
La sostituzione di Anthropic e l’uso operativo di Claude
Prima di OpenAI, il Dipartimento della Guerra aveva un contratto con Anthropic per l’impiego del modello Claude in contesti classificati. L’azienda aveva inserito limiti stringenti sull’utilizzo militare, rifiutando di rimuovere vincoli relativi ad armi autonome e sorveglianza interna. La rottura con l’amministrazione Trump era stata netta, con l’annuncio di un’interruzione della collaborazione.
Secondo quanto riportato dal Wall Street Journal e da altre fonti internazionali, Claude sarebbe stato comunque utilizzato nei raid in Iran per attività di analisi e simulazione, nonostante il decreto che disponeva la cessazione dei rapporti. L’episodio suggerisce che l’intelligenza artificiale privata sia ormai integrata nei processi decisionali militari in modo tale da rendere complessa una disattivazione immediata.
L’ingresso formale di OpenAI negli accordi con il Dipartimento della Guerra avviene quindi in un contesto già segnato da tensioni tra limiti etici dichiarati e impiego operativo effettivo. La questione va oltre le clausole contrattuali e investe la trasformazione strutturale del rapporto tra industria tecnologica e apparato statale nel settore della difesa.
