Con l’approvazione del disegno di legge sull’intelligenza artificiale arrivato alla terza lettura in Senato, il legislatore ha introdotto per la prima volta, nel panorama nazionale, una fattispecie penale specifica volta a colpire l’uso illecito dei deepfake.
L’obiettivo è chiaro: affrontare il rischio di manipolazione digitale che le norme tradizionali rischiano di non coprire pienamente.
La norma punisce la realizzazione o diffusione di contenuti multimediali generati o alterati dall’IA, idonei a ledere l’onore, la reputazione o a trarre in inganno il pubblico. La pena prevista è la reclusione da uno a cinque anni, con aggravanti nei casi in cui la condotta sia finalizzata a condizionare consultazioni elettorali, influenzare mercati finanziari, arrecare danno a istituzioni o riguardi categorie vulnerabili quali i minori.
Il legislatore ha quindi scelto di tipizzare un reato innovativo, non lasciando la materia alla mera reinterpretazione delle fattispecie esistenti, ma configurando una responsabilità autonoma e una sanzione dedicata.
Continuità o frattura con il passato?
La domanda che sorge spontanea è se fosse davvero necessario introdurre un nuovo reato. Già oggi l’ordinamento dispone di strumenti capaci di reprimere condotte affini: la diffamazione (art. 595 c.p.) per i contenuti lesivi della reputazione, la sostituzione di persona (art. 494 c.p.) per chi attribuisce a sé un’identità altrui, la truffa e la frode informatica (artt. 640 e 640-ter c.p.) per i casi di inganno con profitto, il trattamento illecito di dati personali (art. 167 Codice privacy) quando si usano immagini e dati senza consenso.
Il rischio è che la nuova norma crei sovrapposizioni e concorrenza normativa. Quando una condotta sarà punita come diffamazione e quando come “reato di deepfake”? In quali casi prevarrà la norma generale e in quali quella speciale? La risposta non è affatto scontata, e sarà la giurisprudenza a dover costruire una cornice interpretativa chiara.
Criticità applicative e problemi tecnici
L’applicazione concreta della norma solleva numerosi dubbi. In primo luogo, la prova della paternità: attribuire con certezza la creazione di un deepfake è estremamente difficile, soprattutto in un contesto tecnologico globale, con strumenti open source e server collocati in giurisdizioni estere.
In secondo luogo, il confine con attività legittime: la satira politica, l’arte digitale e la parodia utilizzano tecniche simili e il rischio è quello di comprimere la libertà di espressione. Vi è poi il tema della proporzionalità: l’inasprimento sanzionatorio dovrà essere commisurato all’effettivo danno provocato, evitando di colpire in maniera sproporzionata condotte marginali o non realmente pericolose.
Infine, resta la questione della funzione preventiva: il diritto penale agisce ex post, mentre il fenomeno richiede anche strumenti ex ante come watermarking, tracciabilità e responsabilità per gli intermediari digitali.
Integrazione europea: il contesto del Regolamento AI
Il Regolamento (UE) 2024/1689, l’AI Act, non introduce reati penali, ma obblighi di trasparenza, etichettatura dei contenuti generati o manipolati da IA e tracciabilità degli output. L’articolo 50 prevede che i provider e i deployer garantiscano che l’origine artificiale dei contenuti sia sempre riconoscibile, anche in formato machine-readable.
Questo evidenzia il contrasto tra approcci: da un lato l’Italia, che risponde con il diritto penale; dall’altro l’Europa, che privilegia strumenti regolatori e amministrativi. La convivenza tra questi modelli potrebbe generare disallineamenti interpretativi e conflitti di competenza, soprattutto considerando che la definizione di “deepfake” nell’AI Act resta piuttosto vaga.
Valutazioni critiche e prospettive
Il legislatore italiano ha scelto la via della repressione penale, ma senza un corredo di strumenti preventivi, tecnologici e culturali. La norma rischia così di avere un valore soprattutto simbolico. L’effettiva efficacia dipenderà dalla capacità di acquisire prove solide, dalla cooperazione internazionale e da un orientamento giurisprudenziale in grado di bilanciare libertà di espressione e tutela dei diritti.
La sfida, in definitiva, sarà armonizzare il nuovo reato con l’impianto europeo, creando un ecosistema in cui il diritto penale non resti isolato, ma si integri con obblighi amministrativi, standard tecnici e una più ampia alfabetizzazione digitale. Solo così il contrasto ai deepfake potrà trasformarsi da dichiarazione d’intenti a reale protezione giuridica.
