Il secondo testo di compromesso del Consiglio dell’Unione europea sul pacchetto di semplificazione dell’AI Act segna un passaggio destinato a incidere sull’assetto di vigilanza europeo. Al centro della revisione c’è il rafforzamento dell’Ufficio per l’intelligenza artificiale, che da struttura di coordinamento assume un ruolo più diretto nella supervisione del mercato.
Il cambiamento riguarda l’architettura stessa dell’enforcement. Le nuove disposizioni delineano un’autorità con poteri ispettivi penetranti, capacità sanzionatorie rilevanti e una competenza che può estendersi ai gruppi societari complessi. Il tono rispetto all’impostazione iniziale appare più incisivo e orientato al controllo effettivo.
Poteri ispettivi e accesso ai dati economici
Secondo la bozza, l’Ufficio potrà ispezionare i libri contabili delle imprese, accedere a dati rilevanti, acquisirne copia e chiedere al personale chiarimenti sui documenti esaminati. L’impostazione richiama i poteri tipici delle autorità antitrust e di regolazione finanziaria.
L’elemento che emerge con maggiore evidenza è l’ampiezza del perimetro: non soltanto documentazione tecnica sul funzionamento dei sistemi, ma anche informazioni economiche e organizzative utili a verificare la conformità sostanziale. La compliance in materia di intelligenza artificiale entra così in una logica di audit strutturato, con controlli che superano la mera autodichiarazione.
Resta un limite esplicito. L’Ufficio non potrà accedere a informazioni coperte da specifici privilegi, come le fonti giornalistiche. Il riferimento indica la volontà di mantenere un equilibrio tra vigilanza e tutela dei diritti fondamentali.
Sanzioni fino al 5% del fatturato mondiale
Il compromesso introduce un tetto massimo alle sanzioni che l’Ufficio potrà infliggere nel nuovo ruolo di vigilanza: fino al 5% del fatturato annuo mondiale dell’impresa coinvolta.
In termini comparativi si tratta di una soglia significativa. Pur restando sotto alcune percentuali previste nel diritto della concorrenza, la misura colloca l’AI Act in un’area di forte deterrenza. Per i grandi operatori tecnologici, un’esposizione di questo tipo incide su bilanci, relazioni con gli investitori e reputazione. La governance dell’intelligenza artificiale diventa parte integrante della gestione del rischio d’impresa.
La nozione di impresa e l’effetto gruppo
Uno dei passaggi più delicati riguarda il perimetro soggettivo della supervisione. Per rientrare nel controllo dell’Ufficio sarebbe sufficiente che il costruttore del sistema e il modello sottostante appartengano alla stessa impresa.
Nel diritto europeo, la nozione di impresa è sostanziale e include entità giuridicamente distinte che operano come un’unica unità economica. Di conseguenza, strutture societarie articolate, controllate e società del medesimo gruppo possono essere considerate un unico centro di responsabilità.
La conseguenza pratica è chiara e voluta. La frammentazione delle attività tra società diverse non riduce automaticamente l’esposizione regolatoria. Se le entità fanno capo alla stessa realtà economica, la supervisione può estendersi all’intero gruppo.
Centralizzazione e coordinamento europeo
La riforma si inserisce nel dibattito sull’equilibrio tra livello europeo e autorità nazionali nell’attuazione dell’AI Act. Il rafforzamento dell’Ufficio segnala una tendenza verso una maggiore centralizzazione, almeno per i modelli e i sistemi di maggiore impatto.
L’obiettivo politico appare orientato a ridurre disomogeneità applicative e frammentazioni nell’enforcement. Questo comporta un riequilibrio nei rapporti istituzionali, con un centro europeo più incisivo nel controllo dei grandi operatori.
Implicazioni per le imprese tecnologiche
Per le aziende che sviluppano o integrano modelli avanzati di intelligenza artificiale, il quadro che si delinea richiede una governance interna tracciabile, documentazione coerente e processi verificabili. Le scelte tecniche devono essere allineate al quadro regolatorio europeo, così come le strutture organizzative.
La compliance sull’intelligenza artificiale si avvicina a un sistema di vigilanza strutturato, simile a quello bancario o antitrust. Il tema coinvolge il consiglio di amministrazione e le funzioni di controllo interno, con impatti diretti sulle strategie di sviluppo e sugli assetti societari.
Se il compromesso dovesse trovare conferma nel testo definitivo, l’Unione europea andrebbe a consoliderebbe un modello di regolazione fondato su principi sostanziali e su un’autorità dotata di strumenti concreti di controllo e sanzione. Il mercato dell’intelligenza artificiale in Europa avrebbe così la possibilità di entrare in una fase di supervisione più matura e strutturata. Sempre che poi l’Autorità sia davvero in grado di far rispettare le norme.
