Il rinvio dell’AI Act per i sistemi ad alto rischio offre una scappatoia temporale alle imprese per aggirare le norme

Tempo di lettura: 4 minuti

Il Parlamento europeo ha approvato il 26 marzo 2026 lo slittamento delle norme AI Act sui sistemi ad alto rischio al 2027 e al 2028, nell'ambito del pacchetto Digital Omnibus. I sistemi immessi sul mercato prima delle nuove scadenze potranno restare fuori dagli obblighi di conformità per effetto della non retroattività, con impatti diretti su settori come la selezione del personale, il credito e le infrastrutture critiche. Ma adeguarsi per le impese potrebbe comunque essere un vantaggio per il futuro

Il rinvio dell’applicazione delle norme europee sui sistemi di intelligenza artificiale ad alto rischio modifica in modo concreto il perimetro operativo delle imprese che sviluppano o utilizzano queste tecnologie. La decisione, approvata con ampia maggioranza dal Parlamento europeo, inserisce lo slittamento nel pacchetto Digital Omnibus e sposta in avanti le scadenze previste originariamente per il 2026, ridefinendo il calendario regolatorio per diversi settori strategici. Le nuove date fissano al dicembre 2027 l’entrata in vigore degli obblighi per una serie di ambiti sensibili, mentre per i sistemi già regolati da normative settoriali europee il termine viene ulteriormente esteso all’agosto 2028.

Il cambiamento si inserisce in un contesto normativo ancora in evoluzione, in cui le istituzioni europee cercano di costruire un equilibrio tra sviluppo tecnologico e chiarezza delle regole applicabili.

Rinvio delle norme e impatto operativo per le imprese

Il meccanismo utilizzato per giustificare lo slittamento, definito stop-the-clock, sospende il decorso dei termini fino alla definizione degli standard tecnici e delle linee guida necessarie per rendere applicabili gli obblighi previsti. In assenza di questi riferimenti, le aziende si sarebbero trovate a operare con regole formalmente vigenti ma prive di criteri chiari per la verifica della conformità, con conseguenze operative rilevanti lungo tutta la filiera dello sviluppo e della distribuzione.

Accanto al rinvio, il pacchetto introduce misure di semplificazione per le piccole e medie imprese e prevede deroghe per prodotti già disciplinati da altre normative europee. Le stime indicano un impatto economico significativo in termini di riduzione dei costi amministrativi per il sistema produttivo. Rimane invece confermato l’obbligo di identificazione dei contenuti generati tramite strumenti di intelligenza artificiale, l’obbligo di filigrana digitale o watermarking per i contenuti generati dall’intelligenza artificiale, con scadenza fissata al novembre 2026.

Non retroattività e nuove dinamiche di mercato

Uno degli effetti più rilevanti del rinvio riguarda il principio di non retroattività previsto dall’AI Act. I sistemi immessi sul mercato prima delle nuove scadenze, in assenza di modifiche sostanziali, restano esclusi dagli obblighi previsti per le applicazioni ad alto rischio. Questa impostazione introduce una variabile temporale che incide direttamente sulle strategie industriali e sulle scelte di investimento.

In questo scenario, diverse analisi hanno evidenziato come gli operatori possano accelerare lo sviluppo e la distribuzione dei propri sistemi per collocarli prima dell’entrata in vigore delle regole più stringenti. Bram Vranken del Corporate Europe Observatory ha descritto questo meccanismo come una “scappatoia”, sottolineando come il tempo possa diventare uno strumento strategico nelle dinamiche di mercato. Un esempio concreto riguarda i software utilizzati nella selezione del personale, che rientrano tra le categorie ad alto rischio. S e immessi sul mercato entro la nuova finestra temporale, possono restare fuori dal perimetro normativo. Questo effetto genera una differenziazione tra soluzioni sviluppate in momenti diversi, con implicazioni dirette sulla concorrenza e sulla distribuzione dei vantaggi competitivi.

In realtà adeguarsi fin da subito potrebbe essere un vantaggio

Tuttavia, una lettura unicamente critica rischierebbe di essere altrettanto parziale. Nel medio e lungo periodo, sviluppare sistemi conformi agli standard europei non è soltanto un obbligo: è un posizionamento competitivo. I settori regolati, la pubblica amministrazione e le organizzazioni più strutturate tenderanno a selezionare soluzioni già allineate ai requisiti dell’AI Act, indipendentemente dalla data formale di entrata in vigore degli obblighi. Un sistema costruito per aggirare la compliance rischia di richiedere interventi correttivi successivi molto più gravosi di un adeguamento strutturato fin dalla fase di progettazione. Il paradosso è reale. Nel breve periodo, la finestra del rinvio premia chi accelera senza vincoli; nel lungo periodo, rafforza chi ha già integrato le regole nel proprio modello di sviluppo.

Il percorso legislativo non è ancora concluso. La posizione approvata dal Parlamento deve essere coordinata con il Consiglio dell’Unione europea prima di diventare testo definitivo, e ulteriori modifiche rimangono possibili. Nel frattempo, le norme già operative, quelle sui sistemi vietati e quelle sull’alfabetizzazione AI per il personale, restano pienamente in vigore e non sono toccate dal rinvio.

Il quadro normativo sull’AI esiste, è articolato e per molti aspetti ancora pionieristico a livello globale. La questione di fondo, però, è se quelle regole riusciranno ad applicarsi ai sistemi che contano davvero, o se arriveranno quando i più rischiosi saranno già radicati nel mercato, difficilmente riconducibili a obblighi che non erano chiamati a rispettare nel momento in cui sono stati costruiti e distribuiti.