L’adozione dello standard europeo EN 304 223 da parte di ETSI, l’Istituto europeo per le norme di telecomunicazioni, segna un passaggio concreto nella regolazione dell’intelligenza artificiale in Europa. L’Istituto definisce per la prima volta un insieme strutturato di requisiti di cybersecurity pensati specificamente per i sistemi di IA. È un cambio di piano. Dalla dimensione dei principi a quella dei processi, dalle enunciazioni generali alle pratiche verificabili.
Nel diritto europeo gli standard tecnici svolgono da tempo una funzione che va oltre la tecnica. Diventano il riferimento operativo per valutare la conformità, la diligenza del fornitore e, in caso di incidente, la qualità delle misure adottate. EN 304 223 si inserisce in questa tradizione, ma lo fa su un terreno nuovo, perché la sicurezza dell’IA non coincide con la sicurezza informatica classica.
Cybersecurity dell’intelligenza artificiale oltre l’infrastruttura
Per anni la cybersecurity è stata affrontata come un problema legato a reti, sistemi e accessi. I sistemi di intelligenza artificiale spostano il baricentro del rischio. Un modello può essere protetto dal punto di vista IT e produrre comunque risultati alterati, distorti o manipolati. I dati di addestramento, gli input forniti dagli utenti, i meccanismi di aggiornamento continuo e le interazioni con altri sistemi diventano parte integrante della superficie di attacco.
Lo standard EN 304 223 riconosce esplicitamente questa trasformazione. Fenomeni come l’avvelenamento dei dataset, la manipolazione degli input, le tecniche di prompt injection o i rischi legati al riuso dei modelli vengono ricondotti a un quadro unitario di gestione del rischio. La vulnerabilità non riguarda più soltanto il funzionamento tecnico, ma il comportamento stesso del sistema e le sue conseguenze operative.
La sicurezza come obbligo lungo il ciclo di vita dell’IA
Uno degli elementi più rilevanti dello standard è l’approccio basato sull’intero ciclo di vita del sistema di intelligenza artificiale. La sicurezza non si esaurisce nella fase di progettazione o di messa sul mercato. Accompagna il sistema nel tempo, tenendo conto del riaddestramento dei modelli, degli aggiornamenti, dell’evoluzione delle minacce e persino della fase di dismissione.
Dal punto di vista giuridico questo approccio sposta l’asse della responsabilità. Il fornitore è chiamato a dimostrare una gestione continuativa del rischio, non un adempimento iniziale. La sicurezza dell’IA assume così una natura dinamica, coerente con sistemi che apprendono, si modificano e vengono riutilizzati in contesti diversi rispetto a quelli originari.
Uno standard rilevante anche per l’IA generativa
EN 304 223 adotta un’impostazione tecnologicamente neutrale e si applica anche ai sistemi di intelligenza artificiale generativa. Non distingue tra modelli tradizionali e modelli basati su reti neurali profonde. Conta il modo in cui il sistema gestisce dati e input e l’impatto che produce nel tempo.
Questa scelta rende lo standard particolarmente attuale nel dibattito su contenuti sintetici, deepfake, riuso dei modelli e tutela della proprietà intellettuale. ETSI ha già indicato che il lavoro proseguirà con linee guida dedicate a questi profili, ma EN 304 223 costituisce la base comune su cui tali sviluppi potranno innestarsi.
Il rapporto con l’AI Act e la responsabilità giuridica
Pur non avendo natura vincolante, lo standard è destinato a intrecciarsi in modo diretto con l’applicazione dell’AI Act. Gli standard tecnici europei rappresentano il principale strumento per tradurre obblighi giuridici generali in misure operative concrete. In un eventuale contenzioso, il rispetto o l’inosservanza di EN 304 223 potrà incidere in modo significativo nella valutazione della diligenza del fornitore.
È in questo spazio che lo standard tecnico assume una funzione giuridica indiretta. Non crea obblighi autonomi, ma contribuisce a definire lo stato dell’arte della sicurezza dell’intelligenza artificiale. Ignorarlo rende più complesso dimostrare di aver adottato misure adeguate in relazione ai rischi noti.
Con EN 304 223 l’Europa compie un passo ulteriore verso una regolazione dell’intelligenza artificiale fondata su criteri verificabili. La cybersecurity dell’IA entra così nel diritto europeo applicato, come elemento misurabile, documentabile e contestabile. Per imprese, amministrazioni e professionisti, questo passaggio segna l’ingresso in una fase regolatoria più matura, in cui tecnologia e responsabilità giuridica iniziano a parlarsi con un linguaggio comune.
