Il governatore della California, Gavin Newsom, ha firmato la legge SB 53, il primo provvedimento statunitense dedicato alla sicurezza dell’intelligenza artificiale. La norma introduce obblighi di trasparenza per i laboratori che sviluppano modelli di grandi dimensioni, tra cui OpenAI, Anthropic, Meta e Google DeepMind. L’obiettivo dichiarato è duplice: consolidare la fiducia del pubblico e ridurre i rischi derivanti da sistemi sempre più potenti.
Nuovi obblighi di trasparenza e sicurezza
Le aziende dovranno notificare all’Ufficio per i Servizi di Emergenza della California eventuali incidenti critici, come comportamenti ingannevoli dei modelli o attacchi informatici condotti senza controllo umano. Il provvedimento prevede inoltre tutele specifiche per i dipendenti che segnalano violazioni interne, creando un quadro di protezione per i cosiddetti whistleblower. Si tratta di misure che vanno oltre quanto stabilito dall’AI Act europeo, ponendo la California in posizione pionieristica nel contesto internazionale.
La legge è il frutto di una strategia politica calibrata. Solo un anno fa, Newsom aveva posto il veto a un testo più ambizioso, il disegno di legge SB 1047, giudicato eccessivo e contestato dalle imprese tecnologiche. Questa volta, il senatore Scott Wiener ha puntato su un approccio più mirato, costruendo un dialogo diretto con i giganti dell’AI. Nonostante ciò, Meta e OpenAI hanno continuato a esprimere forti resistenze, mentre Anthropic ha sostenuto l’iniziativa.
Un precedente che può influenzare altri stati
Il dibattito ha messo in evidenza la preoccupazione per una frammentazione normativa all’interno degli Stati Uniti. Tuttavia, la mossa della California potrebbe creare un effetto traino: a New York, per esempio, è già depositata una proposta di legge con principi simili, in attesa della decisione della governatrice Kathy Hochul. Il rischio per le imprese è trovarsi a gestire regole differenti a seconda della giurisdizione, con impatti diretti su costi e strategie di compliance.
Newsom ha definito la SB 53 un compromesso che coniuga crescita economica e protezione dei cittadini. Secondo il governatore, la California deve rimanere la capitale dell’innovazione tecnologica, ma senza trascurare la costruzione di fiducia pubblica. Resta però l’impressione che i legislatori americani rincorrano un settore che corre più veloce di loro: la tecnologia impone scelte rapide, ma la politica tende a muoversi con il passo lento delle mediazioni.
Le imprese europee, e italiane in particolare, si trovano ora davanti a un doppio scenario: da un lato l’AI Act, dall’altro un modello statunitense in via di definizione. Questa pluralità di regole potrebbe generare complessità, ma anche aprire spazi di confronto tra due approcci diversi. Se l’Europa insiste sulla classificazione dei rischi e sugli standard di conformità, la California punta a responsabilizzare direttamente i laboratori e i loro dirigenti. Due percorsi paralleli che, nel tempo, potrebbero convergere verso uno standard globale.
