L’AI sta entrando sempre più direttamente nelle strategie militari e nelle architetture della sicurezza internazionale. Lo hanno dimostrato i recenti e frequenti conflitti e, soprattutto, le operazioni avvenute in Venezuela e Iran. Non solo. Negli ultimi mesi il rapporto tra aziende tecnologiche e apparati militari è diventato molto più esplicito. Negli Stati Uniti sono stati avviati accordi con società specializzate in sistemi di intelligenza artificiale per sviluppare strumenti avanzati di analisi dei dati destinati alla difesa. Con le annesse polemiche, di cui abbiamo raccontato su Byte.Legali, che hanno visto in rapida successione sfumare gli accordi tra il Dipartimento della Difesa e Anthropic di Dario Amodei e la successione di Sam Altman e di AI. Una successione poi rallentata da una protesta social, ma che avrà sicuri strascichi in tribunale. Parallelamente si discute della possibile integrazione di tecnologie sviluppate sempre da OpenAI nelle infrastrutture informatiche dell’Alleanza Atlantica.
Si tratta di un passaggio significativo. Le imprese nate nel mondo dell’innovazione civile diventano interlocutori diretti delle politiche di sicurezza. E si capisce come si stia valicando rapidamente il confine tracciato dalla mera fornitura software o infrastrutture digitali, per arrivare a un contributo diretto allo sviluppo di strumenti che possono influenzare direttamente, o addirittura assumere, le decisioni operative in ambito militare.
L’intelligenza artificiale nella catena decisionale militare
Sarebbe riduttivo fermare l’analisi alle armi autonome. Il cambiamento più profondo è legato alla gestione delle informazioni. I conflitti contemporanei sono sempre più dipendenti dalla capacità di analizzare enormi quantità di dati come immagini satellitari, comunicazioni intercettate, dati geospaziali, informazioni provenienti da sensori e piattaforme digitali. In questo contesto l’intelligenza artificiale diventa uno strumento essenziale per individuare schemi, correlazioni e segnali che sfuggirebbero all’analisi umana. Gli algoritmi permettono di classificare rapidamente le informazioni e di suggerire possibili scenari operativi.
Il risultato è una progressiva trasformazione della cosiddetta “kill chain”, la sequenza che conduce dall’individuazione di un obiettivo alla decisione di colpirlo. L’analisi algoritmica dei dati riduce drasticamente i tempi necessari per identificare possibili bersagli e valutare scenari operativi. In un contesto militare la velocità diventa un fattore strategico e i blitz compiuti per la cattura di Maduro in Venezuela e l’uccisione di Ali Khamenei in Iran. Anche nel senso di avere fatto venir meno ogni ruolo della concertazione preventiva fra nazioni e bypassato completamente l’Onu.
La guerra dei dati e i nuovi equilibri geopolitici
Questa trasformazione tecnologica si inserisce in un contesto geopolitico sempre più instabile. I conflitti contemporanei sono caratterizzati da una crescente competizione tecnologica tra Stati e blocchi geopolitici. La capacità di raccogliere, elaborare e interpretare informazioni diventa una risorsa strategica paragonabile al controllo delle infrastrutture energetiche o delle rotte commerciali. Le potenze che dispongono delle tecnologie più avanzate di analisi dei dati possono ottenere un vantaggio operativo significativo. In questo scenario il ruolo delle aziende tecnologiche assume una dimensione completamente nuova. Le imprese che sviluppano modelli avanzati di intelligenza artificiale diventano partner strategici nella competizione globale per la sicurezza.
E qualora residuasse ancora qualche dubbio sulla centralità delle nuove tecnologie basta fare riferimento alla notizia di qualche giorno fa, confermata da Amazon. Alcuni droni hanno danneggiato data center di Amazon Web Services negli Emirati Arabi Uniti e in Bahrain, provocando incendi e interruzioni nelle availability zone della regione Middle East Central. L’episodio si inserisce nel quadro delle tensioni in Medio Oriente e ha generato instabilità su servizi cloud utilizzati da imprese e organizzazioni in più Paesi.
Il diritto internazionale umanitario davanti alla sfida degli algoritmi
La crescente integrazione dell’intelligenza artificiale nei sistemi di difesa solleva interrogativi giuridici profondi. Il diritto internazionale umanitario è stato costruito in un contesto storico in cui le decisioni militari erano prese da esseri umani. L’introduzione di sistemi algoritmici nella catena decisionale modifica profondamente questo equilibrio.
Una delle questioni centrali, naturalmente, riguarda la responsabilità. Se un sistema di analisi basato su intelligenza artificiale suggerisce un obiettivo militare che si rivela errato, chi risponde delle conseguenze? Il comandante che prende la decisione finale, lo Stato che utilizza il sistema o l’azienda che ha sviluppato l’algoritmo?
Un altro problema riguarda il principio di proporzionalità, uno dei pilastri del diritto internazionale umanitario. Le operazioni militari devono sempre valutare l’impatto sugli obiettivi civili e i possibili danni collaterali. Quando l’analisi dei dati è affidata a sistemi algoritmici complessi, diventa più difficile comprendere il processo che ha portato alla selezione di un obiettivo. A questo si aggiunge il tema della trasparenza. Molti sistemi di intelligenza artificiale utilizzati in ambito militare sono sviluppati da aziende private e basati su modelli difficilmente interpretabili. Ciò rende complesso verificare se il funzionamento degli algoritmi sia compatibile con i principi del diritto internazionale.
La nuova dimensione della sicurezza digitale
La militarizzazione dell’intelligenza artificiale mostra come le tecnologie digitali stiano diventando una componente centrale della sicurezza internazionale. L’intelligenza artificiale incide direttamente sulle modalità con cui vengono prese decisioni strategiche e militari. In alcuni casi accelera l’analisi delle informazioni, in altri rafforza apparati di sorveglianza interna. In entrambi i casi la tecnologia modifica il rapporto tra potere politico, sicurezza e diritti fondamentali. Per questo la riflessione giuridica sull’intelligenza artificiale deve confrontarsi anche con la dimensione geopolitica e militare delle tecnologie digitali. La guerra degli algoritmi è una trasformazione già in atto.
Come spesso accade nelle grandi rivoluzioni tecnologiche, il diritto internazionale si trova ancora una volta a inseguire un cambiamento che corre più velocemente delle regole. E serve una risposta diversa e più rapida. Ma ancora più urgente è l’Onu, o quel che ne resta, o comunque tutti gli Stati che hanno a cuore la sopravvivenza stessa del diritto internazionale chiedano e ottengano trasparenza totale negli accordi che vengono stretti con le Big Tech che gestiscono l’Ai quando quest’ultime andranno a gestire la filiera della difesa e dell’azione militare.
