UE valuta divieto esplicito per IA che generano deepfake sessuali dopo il caso Grok

Tempo di lettura: 3 minuti

Il Parlamento europeo considera di inserire nel pacchetto AI Omnibus un divieto specifico per sistemi IA capaci di generare o manipolare contenuti sessualizzati non consensuali, segnando una possibile svolta normativa nel quadro dell’AI Act

L’Unione europea sta valutando un intervento mirato sull’AI Act per affrontare in modo diretto la diffusione di applicazioni di intelligenza artificiale capaci di generare deepfake sessuali e contenuti di “nudificazione” non consensuale. Il confronto politico si è acceso dopo il caso Grok, che ha portato all’attenzione pubblica l’uso sistemico di strumenti generativi per produrre immagini sessualizzate riferibili a persone reali. La proposta in discussione emergerebbe attraverso il pacchetto di semplificazione noto come AI Omnibus, nato per rendere più applicabili le norme europee già approvate.

Divieti espliciti e zone grigie dell’AI Act

Il punto centrale del dibattito riguarda una persistente incertezza giuridica. L’AI Act vieta alcune categorie di sistemi considerati incompatibili con i diritti fondamentali, ma lascia aperta la questione delle applicazioni che, pur essendo lecite in astratto, facilitano la produzione seriale di contenuti sessualizzati non consensuali. La bozza di parere in discussione al Parlamento europeo segnala proprio questa zona grigia, spostando l’attenzione dalla singola condotta dell’utente alla progettazione del sistema tecnologico.

La discussione non verte sulla mancanza di strumenti repressivi. La produzione e diffusione di deepfake sessuali viola già norme penali e civili in molti Stati membri, oltre a principi consolidati del diritto dell’Unione. Il nodo è stabilire se alcune architetture tecnologiche, per come sono concepite e distribuite, risultino incompatibili con il quadro regolatorio europeo sull’intelligenza artificiale, indipendentemente dall’uso dichiarato.

Dal rischio all’architettura dei sistemi

L’AI Act è stato costruito su un approccio basato sul rischio e sull’uso concreto dei sistemi. L’ipotesi di introdurre un divieto esplicito per le applicazioni “pornificanti” segnala una possibile torsione di questo impianto. La proposta avrebbe una formulazione ampia, tale da includere sistemi in grado di generare o manipolare immagini, audio e video sessualizzati riferibili a individui, con interrogativi immediati sulla compatibilità con il principio di neutralità tecnologica.

Restano aperte anche le questioni di responsabilità lungo la filiera. Un eventuale divieto dovrebbe chiarire se l’obbligo ricade sul fornitore del modello, su chi integra il modello in un servizio digitale o sull’intera catena di distribuzione. Per le imprese che operano nel digitale europeo, questo passaggio incide direttamente su scelte di sviluppo, integrazione e compliance.

Il Parlamento europeo appare consapevole della delicatezza del passaggio. Alcuni relatori sull’AI Omnibus hanno già segnalato la volontà di valutare l’introduzione del divieto, utilizzando uno strumento normativo pensato in origine per semplificare l’applicazione delle regole esistenti. La prima bozza di relazione chiarirà se esiste una maggioranza politica pronta ad ampliare l’elenco dei sistemi vietati in questa fase applicativa del regolamento.

Se la proposta dovesse avanzare, il caso delle IA che generano deepfake sessuali diventerebbe un precedente rilevante. Più che per il contenuto del divieto, per il metodo scelto per intervenire su un regolamento già in vigore, sotto la pressione di fenomeni tecnologici che evolvono più rapidamente dei tempi legislativi.