Il tema dei deepfake entra ufficialmente nell’arena politica italiana, segnando un nuovo capitolo nel rapporto tra diritto e intelligenza artificiale. L’interrogazione parlamentare presentata dall’Alleanza Verdi e Sinistra, a firma di Elisabetta Piccolotti, ha posto al ministro dell’Interno una domanda cruciale: come fermare la diffusione di contenuti manipolati e garantire strumenti tecnologici capaci di identificare chi li crea e li diffonde?
L’Italia tra leggi severe e strumenti ancora deboli
Negli ultimi mesi, numerosi casi hanno mostrato quanto il Paese sia vulnerabile alla manipolazione digitale. Dai video falsi che coinvolgono politici e giornalisti, alle truffe online costruite con volti di leader nazionali, il confine tra reale e artificiale si fa sempre più labile. L’interrogazione cita episodi come quello che vede Giovanni Donzelli (FdI) attribuire a Sigfrido Ranucci la responsabilità dell’attentato subito; il caso dei diciassette siti oscurati dalla Consob che utilizzavano deepfake di Giorgia Meloni, Matteo Salvini, Elly Schlein e Carlo Calenda per promuovere truffe e investimenti inesistenti; e ancora, il filmato manipolato che coinvolge l’eurodeputata Ilaria Salis, nel quale veniva messa in scena una dichiarazione mai rilasciata sulla strage dei Carabinieri di Castel d’Azzano. Tutti esempi di come i deepfake stiano diventando uno strumento di disinformazione sistematica, capace di orientare l’opinione pubblica e di indebolire la fiducia collettiva.
Il Parlamento riconosce la necessità di agire con rapidità. Tra le proposte emergono filigrane digitali obbligatorie e marcatori di autenticità, misure già discusse a livello europeo per tracciare i contenuti generati dall’intelligenza artificiale. Una soluzione che punta a rendere identificabili i materiali sintetici, limitando l’uso distorto della tecnologia.
Un quadro normativo avanzato ma difficile da applicare
Sul piano legislativo, l’Italia ha recepito il Regolamento europeo 2024/1689, l’AI Act, e approvato la Legge 132/2025, che stabilisce principi di trasparenza e correttezza nell’uso dell’intelligenza artificiale. La norma introduce anche una specifica fattispecie penale che punisce chi diffonde immagini, video o registrazioni vocali alterate e ingannevoli rischia da uno a cinque anni di reclusione. È un passo importante per la tutela della reputazione personale e della sicurezza informativa del Paese.
Ma la teoria non basta. Giuristi e analisti avvertono che, senza strumenti tecnici adeguati, le nuove disposizioni rischiano di restare sulla carta. Le forze dell’ordine non dispongono ancora di software o protocolli in grado di verificare con tempestività l’autenticità di un contenuto digitale. La mancanza di risorse e competenze rende difficile tradurre la legge in azione concreta.
La sfida operativa è quella di costruire una rete di verità digitale
Il nodo principale non è più la definizione del reato, ma la capacità di accertarlo. Servirebbe una rete nazionale di competenze, capace di connettere autorità giudiziaria, Garante Privacy, Polizia postale e provider. Un’infrastruttura di tracciabilità dei contenuti, interoperabile con gli standard europei previsti dall’AI Act, potrebbe rappresentare la base per un sistema di verifica realmente efficace.
L’interrogazione dell’Avs riporta il tema nel cuore del dibattito politico, evidenziando la distanza tra il piano normativo e quello operativo. In un’epoca in cui la velocità dell’intelligenza artificiale supera la capacità di controllo umano, la vera sfida non è solo punire chi manipola, ma costruire un’infrastruttura di verità. Un equilibrio tra diritto, tecnologia e cultura digitale che permetta di riconoscere l’autenticità delle informazioni prima che l’inganno diventi la norma.
