A Nuova Delhi si è chiuso un ciclo. Quattro summit in tre anni – Bletchley Park, Seoul, Parigi, poi l’India – e il risultato è una dichiarazione di sette principi, chiamati “chakras” come a voler dare respiro cosmico a quello che resta, nella sostanza, un documento volontario senza denti. La “New Delhi Declaration on AI Impact” esiste. Impegna tutti ma non obbliga nessuno.
Questo sarebbe già sufficiente per parlare di occasione mancata. Ma il summit indiano ha prodotto qualcosa di più interessante di un’ennesima dichiarazione, e cioè ha portato allo scoperto una frattura che si stava formando da mesi, tra chi costruisce l’intelligenza artificiale più potente del mondo e chi, in quel paese, dovrebbe regolarla. Con un paradosso che vale la pena sottolineare: per l’ennesima volta, sono stati i costruttori di questi sistemi a chiedere regole e contenimento, non i governi. Il cliché della tech che fugge da ogni vincolo si è infranto ancora una volta sul palco di Nuova Delhi, dove i CEO dei laboratori più avanzati del mondo hanno (ancora una volta) chiesto regole con un’urgenza che molti esecutivi non hanno mostrato.
Altman e il modello nucleare
Sam Altman, CEO di OpenAI, ha usato il palco di Nuova Delhi per dire che servono regole, subito, possibilmente uguali per tutto il mondo con un organismo internazionale modellato sull’Agenzia Internazionale per l’Energia Atomica.
L’analogia con il nucleare non è nuova – OpenAI la aveva già messa nero su bianco in un documento del 2023 sulla governance della superintelligenza – ma a Nuova Delhi è tornata con più urgenza. L’idea è mutuare tre ingredienti specifici dall’esperienza atomica: una soglia oltre la quale scattano obblighi speciali di audit e supervisione, meccanismi di ispezione (nel caso dell’IA, tracciabilità di compute ed energia, sicurezza dei pesi dei modelli) e un sistema di risposta rapida agli incidenti transfrontalieri.
Sulla stessa linea si è mosso Demis Hassabis di Google DeepMind, che ha indicato due rischi distinti – gli abusi da parte di attori malevoli e i rischi tecnici legati all’autonomia crescente dei sistemi – chiedendo standard minimi condivisi prima che la velocità del cambiamento travolga istituzioni impreparate.
La convergenza tra i vertici delle aziende più avanzate del settore su questo punto non è banale. Il cliché vuole che la tech detesti la regolazione. La realtà è più complicata: chi gestisce modelli ai limiti delle capacità attuali ha ragioni concrete per volere regole, dalla gestione del rischio all’interesse a evitare una frammentazione normativa che moltiplicherebbe i costi di compliance senza risolvere nulla. Che poi quelle stesse regole, se disegnate male, possano diventare barriere all’entrata che proteggono chi è già grande questo è il rischio che si chiama regulatory capture, e che aleggiava anche nei corridoi di Nuova Delhi.
La Casa Bianca dice no, e lo dice chiaramente
Mentre i CEO chiedevano un arbitro internazionale, la delegazione americana portava un messaggio quasi opposto. Michael Kratsios, a capo dell’Office of Science and Technology Policy della Casa Bianca, ha detto senza perifrasi: “We totally reject global governance of AI”. La governance dell’IA, nella visione dell’esecutivo americano, deve restare locale.
La posizione non è improvvisata. A Parigi, l’amministrazione americana aveva già marcato le distanze da dichiarazioni multilaterali su un’IA “inclusiva e sostenibile”. Gli Stati Uniti si sono opposti anche all’idea che la governance dell’IA passi dall’ONU, contestando un panel scientifico globale proposto dal Segretario Generale. A Nuova Delhi hanno rilanciato un programma di export dell’IA americana, l'”American AI Exports Program”.
La strategia leggibile è quella di non ritirarsi dall’IA globale, ma costruire una leadership unilaterale che non passa da organismi sovranazionali. Sovranità nazionale e non governance condivisa.
Quello che resta dopo Nuova Delhi
La frattura emersa a Nuova Delhi non è una divergenza tra America ed Europa sul ritmo della regolazione. È qualcosa di più nuovo: una dissonanza tra la Silicon Valley, che chiede coordinamento internazionale sui rischi dei sistemi più avanzati, e l’esecutivo americano, che quel coordinamento lo rifiuta in nome della sovranità e della competizione.
In mezzo c’è una dichiarazione da sette principi che Amnesty International ha già definito un fallimento, accusando i summit di produrre strumenti “morbidi” mentre le protezioni vincolanti restano lettera morta.
L’analogia nucleare di Altman regge su alcuni punti e scricchiola su altri. Il nucleare ha pochi impianti e pochi attori. L’IA ha una diffusione digitale, filiere di sviluppo frammentate e una componente open source che per definizione decentralizza capacità e rischi. Un’AIEA dell’intelligenza artificiale, se mai nascesse, avrebbe davanti problemi di verifica che l’agenzia di Vienna non ha mai dovuto affrontare.
