Alla scadenza fissata dall’AI Act, la Commissione europea non ha pubblicato le linee guida attese sulla classificazione dei sistemi di intelligenza artificiale ad alto rischio. Si tratta della prima vera scadenza operativa mancata dal nuovo regolamento europeo, e il ritardo riguarda uno snodo centrale della disciplina come la definizione pratica di quali sistemi rientrino nell’alto rischio e quali obblighi ne derivino.
Il regolamento prevedeva che, entro il termine stabilito per i primi di febbraio, fossero messi a disposizione degli operatori criteri interpretativi chiari e un insieme di esempi concreti. L’obiettivo era fornire una base comune per distinguere i sistemi soggetti agli obblighi più onerosi da quelli esclusi da questo perimetro. Alla scadenza, però, le linee guida non sono arrivate e non è stato indicato un nuovo termine formale.
Da ambienti vicini alla Commissione è trapelato che le linee guida saranno rese disponibili nel corso di febbraio, ma soltanto in forma di bozza, per consentire ulteriori osservazioni da parte delle parti interessate. Il rinvio viene ricondotto alla necessità di integrare il feedback ricevuto nelle ultime settimane. Nel frattempo, però, viene meno proprio lo strumento che avrebbe dovuto offrire a imprese e amministrazioni una bussola operativa nella fase iniziale di applicazione dell’AI Act.
Le reazioni del Parlamento e il tema della credibilità
Il ritardo non è passato inosservato al Parlamento europeo. Michael McNamara, eurodeputato coinvolto nei lavori sull’intelligenza artificiale, ha definito il rinvio totalmente inaccettabile, avvertendo che l’AI Office rischia di compromettere la propria credibilità proprio nella fase in cui il regolamento inizia a produrre effetti concreti.
La critica non si concentra solo sul mancato rispetto di una scadenza formale. L’assenza di linee guida condivise viene letta come un elemento che indebolisce l’intero impianto di governance dell’intelligenza artificiale, lasciando operatori economici e autorità nazionali senza un riferimento comune. In questo quadro, il ritardo assume anche un valore politico e istituzionale, perché si inserisce in una fase di tensione crescente sulla gestione della fase attuativa dell’AI Act.
Perché la classificazione dell’alto rischio conta davvero
I sistemi di intelligenza artificiale ad alto rischio rappresentano il nucleo più sensibile dell’AI Act. È su questi che si concentrano gli obblighi più stringenti in materia di gestione del rischio, qualità dei dati, trasparenza, supervisione umana e documentazione tecnica. Senza indicazioni operative condivise, questi obblighi restano in larga parte astratti.
Per le imprese, l’assenza di esempi pratici rende difficile stabilire se un sistema rientri o meno nella categoria ad alto rischio e, di conseguenza, quali adempimenti siano necessari. Per le autorità di vigilanza, la mancanza di un quadro interpretativo comune apre la strada a letture divergenti tra Stati membri, con il rischio di una frammentazione applicativa che il regolamento europeo puntava a evitare.
Secondo quanto emerge da Bruxelles, dietro la motivazione ufficiale legata al feedback degli stakeholder si celano difficoltà più profonde. Uno dei nodi riguarda il grado di dettaglio delle linee guida. Alcune bozze preliminari avrebbero sollevato perplessità perché considerate troppo prescrittive, con il rischio di trasformare uno strumento di soft law in un riferimento di fatto vincolante.
Un altro punto di attrito riguarda il perimetro stesso dell’alto rischio, soprattutto nei casi di confine. Sistemi di supporto decisionale, applicazioni basate su modelli general purpose adattati a contesti sensibili e strumenti di valutazione automatizzata che incidono sui processi decisionali senza assumere decisioni finali restano aree in cui le posizioni all’interno della Commissione non risultano pienamente allineate.
Il ritardo delle linee guida si inserisce, inoltre, in un contesto politico più ampio, segnato dal dibattito sul cosiddetto Digital Omnibus e sull’ipotesi di rinviare l’applicazione delle disposizioni più onerose dell’AI Act. In assenza di istruzioni operative definitive, l’incertezza viene utilizzata come argomento per giustificare ulteriori slittamenti.
La questione delle linee guida sull’intelligenza artificiale ad alto rischio supera quindi il tema del calendario. In gioco c’è la certezza del diritto. Un regolamento direttamente applicabile, privo di strumenti interpretativi adeguati, rischia di produrre incertezza invece di armonizzazione.
Per le imprese europee e per le amministrazioni pubbliche che progettano o adottano sistemi di intelligenza artificiale in settori sensibili come sanità, lavoro, credito e servizi pubblici, lo slittamento significa continuare a pianificare investimenti e strategie di compliance senza un quadro interpretativo definitivo. Va considerato, infine, che mentre l’Europa continua ad arrovellarsi e ingarbugliarsi sul piano normativo, gli altri colossi mondiali spingono a tavoletta l’acceleratore dell’innovazione e metteranno sempre più pressione su Bruxelles.
