Il Parlamento europeo interviene sull’AI Act con una revisione che sembra cercare un difficile equilibrio tra protezione dei diritti e sviluppo tecnologico. Le commissioni competenti hanno approvato una serie di modifiche che introducono un divieto esplicito per alcune applicazioni di intelligenza artificiale, mentre rinviano l’entrata in vigore delle norme più complesse. L’intervento si colloca in una fase in cui la regolazione europea cerca di adattarsi a un contesto tecnologico in rapida evoluzione, segnato da casi concreti che hanno evidenziato limiti e rischi operativi.
Divieto delle applicazioni che generano contenuti intimi senza consenso
Le modifiche approvate introducono il divieto per le cosiddette nudifier app, strumenti capaci di produrre immagini nude o contenuti sessualmente espliciti partendo da fotografie reali senza autorizzazione. Questa scelta porta il legislatore europeo a qualificare tali applicazioni come incompatibili con il quadro dei diritti fondamentali, con la conseguenza che la loro presenza sul mercato viene esclusa in modo diretto. Il passaggio segna un cambio di approccio, perché sposta il focus dalla regolazione dell’uso alla rimozione preventiva di determinate tecnologie, considerate pericolose per la dignità delle persone e per la sicurezza degli utenti.
Il dibattito si è rafforzato dopo episodi recenti che hanno mostrato la rapidità con cui questi strumenti possono essere utilizzati su larga scala. La produzione massiva di contenuti non consensuali, inclusi casi riconducibili alla rappresentazione di minori, ha evidenziato una dimensione che va oltre l’uso improprio individuale e assume tratti sistemici. In questo contesto, il Parlamento ha ricondotto il fenomeno a una questione di ordine pubblico digitale, con effetti immediati sul perimetro delle tecnologie ammesse nel mercato europeo. Ne abbiamo parlato diffusamente su Byte.Legali proprio negli scorsi giorni con un nuovo caso legato a Grok esploso negli Usa dove si sta avviando una class action dopo l’ennesimo coinvolgimento di minori.
Rinvio delle regole sui sistemi di intelligenza artificiale ad alto rischio
Accanto al divieto, le modifiche prevedono un nuovo slittamento nell’applicazione delle norme relative ai sistemi classificati come ad alto rischio. L’attuale normativa prevede che le aziende debbano adeguarsi alle nuove regole entro il 2 agosto 2026, ma secondo i legislatori la definizione degli standard chiave rischierebbe di non essere pronta. Per questi motivi, sono state proposte due nuove scadenze fissate per il 2 dicembre 2027 per quel che attiene i sistemi IA ad alto rischio elencati direttamente nella legge, mentre viene fissata al 2 agosto 2028 la scadenza per i sistemi già soggetti ad altre normative UE sulla sicurezza e la sorveglianza di mercato.
Questa scelta riflette una valutazione sulla maturità degli strumenti tecnici necessari per rendere operative le disposizioni previste dall’AI Act. L’introduzione immediata di obblighi complessi avrebbe potuto generare difficoltà sia per le imprese sia per le autorità chiamate a vigilare. Il rinvio consente di sviluppare standard condivisi, procedure di verifica e sistemi di controllo più solidi, riducendo il rischio di una normativa formalmente rigorosa ma difficile da applicare nella pratica quotidiana.
Il mantenimento dell’impianto regolatorio, accompagnato da una tempistica più ampia, indica una linea che mira a preservare l’obiettivo complessivo senza compromettere la sostenibilità operativa. In questo modo, il legislatore introduce una progressione temporale che tiene conto delle esigenze del mercato e della complessità tecnica delle soluzioni coinvolte. Naturalmente c’è da considerare che nel frattempo l’evoluzione tecnologica galoppa e non è detto che questo continuo rinviare produca gli effetti sperati in quella che sembra un’impari lotta contro il tempo.
Gli eurodeputati delle commissioni pertinenti si sono poi detti favorevoli a consentire ai fornitori di servizi di trattare dati personali per individuare e correggere distorsioni nei sistemi di AI, “ma hanno introdotto salvaguardie per garantire che ciò avvenga solo quando strettamente necessario”, si legge nel comunicato dell’Eurocamera. Vorrebbero anche che si estendessero le misure di sostegno previste per le piccole e medie imprese anche alle aziende Ia che superano tale status.
Infine, “per evitare la sovrapposizione delle norme europee settoriali sulla sicurezza dei prodotti con l’AI Act”, gli eurodeputati sostengono che gli obblighi previsti da tale legge “possano essere meno stringenti per i prodotti già disciplinati da normative settoriali, come i dispositivi medici, apparecchiature radio, sicurezza dei giocattoli e altri, invitando la Commissione a “colmare eventuali lacune aggiornando tali normative di conseguenza”.
Questa posizione, una volta approvata dal Parlamento riunito in plenaria, fornirà la base per i negoziati con il Consiglio europeo. La votazione è prevista per il prossimo 26 marzo.
