AI Act, nuovo rinvio sulle linee guida per l’alto rischio. Cresce l’incertezza per le imprese

Tempo di lettura: 3 minuti

La Commissione europea rinvia le linee guida sui sistemi di intelligenza artificiale ad alto rischio previste dall’AI Act. Slittano sia la scadenza formale sia quella informale indicata come recupero. Imprese e PMI digitali attendono chiarimenti per pianificare compliance e investimenti

La Commissione europea si avvia a mancare anche la seconda delle due scadenze previste per la pubblicazione delle linee guida sui sistemi di intelligenza artificiale classificati come ad alto rischio previste dall’AI Act. Il termine del 2 febbraio 2026, indicato per fornire chiarimenti interpretativi su una delle categorie centrali del regolamento, è trascorso senza la diffusione del documento. Secondo Euroactive e quanto trapelato fonti interne all’organismo anche la successiva finestra di fine mese che era stata prospettata come data di recupero è stata superata, senza una nuova data ufficiale.

Il doppio rinvio comincia a diventare preoccupante soprattutto per il clima di incertezza in cui rischia di far muovere gli operatori del digitale. La qualificazione di un sistema come “alto rischio” attiva obblighi stringenti su gestione del rischio, qualità e governance dei dati, documentazione tecnica, tracciabilità, trasparenza e supervisione umana. Senza linee guida dettagliate, la traduzione concreta di questi obblighi resta affidata a valutazioni autonome di imprese, consulenti e organismi di controllo, con margini interpretativi ampi.

Sistemi ad alto rischio e obblighi di compliance

La questione principale riguarda la definizione operativa dell’alto rischio. L’AI Act individua categorie e ambiti applicativi, ma lascia spazi interpretativi rilevanti quando l’intelligenza artificiale è integrata in prodotti complessi, servizi digitali multilivello o catene di fornitura articolate. Un software incorporato in un macchinario industriale, un sistema di scoring in ambito finanziario o una piattaforma che integra moduli sviluppati da terzi possono rientrare nella categoria a seconda delle caratteristiche funzionali e del contesto di utilizzo. Le linee guida dovrebbero servire a ridurre proprio questa zona grigia e a fornire criteri uniformi per imprese, autorità nazionali e organismi notificati.

Per le imprese europee attive nel digitale la questione è operativa. Anticipare investimenti in compliance significa organizzare audit interni, aggiornare procedure di gestione del rischio, rivedere contratti di fornitura e predisporre documentazione tecnica adeguata. Attendere chiarimenti ufficiali comporta il rischio di concentrare gli adeguamenti in un arco temporale ristretto, con impatto su budget, pianificazione e roadmap di prodotto.

Governance europea e certezza del diritto

Il ritardo si inserisce in un quadro più ampio di revisione delle tempistiche applicative, collegato al pacchetto di semplificazione digitale spesso indicato come Omnibus, che prevede un possibile ripensamento di alcune scadenze dell’AI Act, inclusi gli obblighi per i sistemi ad alto rischio. Se l’entrata in vigore effettiva di alcune disposizioni dovesse essere posticipata, la pressione immediata sulla pubblicazione delle linee guida si ridurrebbe. Resta però una tensione evidente tra l’ambizione di definire uno standard globale per la regolazione dell’intelligenza artificiale e la capacità amministrativa di accompagnare il regolamento con strumenti interpretativi tempestivi.

Le linee guida, pur prive di valore vincolante in senso stretto, svolgono nel diritto dell’Unione una funzione di orientamento e armonizzazione. In un settore ad alta complessità tecnica come quello dell’intelligenza artificiale, la soft law contribuisce in modo determinante alla certezza del diritto e alla prevedibilità delle decisioni. Il doppio slittamento non produce effetti sanzionatori immediati, ma prolunga l’incertezza applicativa e rende più complessa la pianificazione strategica delle imprese.

Per chi investe in soluzioni basate su intelligenza artificiale, l’AI Act resta un quadro normativo già definito nei principi ma ancora in evoluzione nei dettagli operativi. Finché mancheranno criteri interpretativi condivisi sulla nozione di alto rischio, la fase attuativa continuerà a muoversi in uno spazio intermedio tra norma approvata e applicazione concreta.