Le immagini deepfake che ritrarrebbero Francesca Barra in pose intime, diffuse online senza consenso, hanno riportato al centro il tema della violenza digitale e del confine tra libertà tecnologica e tutela della persona. La giornalista ha denunciato pubblicamente la vicenda, spiegando come la manipolazione di un volto attraverso l’intelligenza artificiale possa diventare uno strumento di abuso capace di minare reputazione e dignità.
Il caso e il vuoto normativo
Dopo la segnalazione di Barra, la Polizia Postale ha avviato indagini per individuare la provenienza del materiale, ospitato su un sito per adulti con server esteri. Non è un episodio isolato: il fenomeno dei deepfake pornografici cresce rapidamente e coinvolge sempre più persone, dalle figure pubbliche alle utenti comuni. L’attuale articolo 612-ter del Codice penale punisce la diffusione di immagini reali senza consenso, ma non contempla i contenuti interamente sintetici. Questo vuoto giuridico crea una zona grigia in cui le vittime faticano a ottenere tutela.
Proprio per colmare questa lacuna, il nuovo disegno di legge sull’intelligenza artificiale – già approvato in Senato e in attesa di esame alla Camera – introduce un reato specifico per i deepfake diffusi con intento offensivo o umiliante. Una norma che riconosce la gravità di una violenza non fisica ma psicologica, amplificata dalla rete e dall’anonimato digitale.
Una violenza invisibile ma reale
“È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto Barra. Parole che descrivono una ferita collettiva, non solo personale. I deepfake pornografici rappresentano una forma di violenza di genere tecnologica, dove la macchina diventa complice dell’umiliazione. La vittima non perde soltanto il controllo della propria immagine, ma perde anche la fiducia nel modo in cui la società la guarda. In questa prospettiva, l’abuso digitale assume un peso culturale che va oltre il diritto penale.
Il fenomeno solleva interrogativi profondi sul ruolo dei creatori di contenuti generativi, delle piattaforme che li ospitano e degli utenti che li diffondono. Se l’intelligenza artificiale è capace di produrre realtà false ma credibili, diventa indispensabile una responsabilità condivisa lungo tutta la catena di produzione e diffusione.
Un’urgenza etica e culturale
Il caso Barra mostra che il contrasto ai deepfake non può limitarsi alla sfera repressiva. Serve una cultura del consenso digitale, capace di riconoscere che la libertà online finisce dove inizia la dignità altrui. Le piattaforme devono dotarsi di sistemi di rilevazione e rimozione rapida dei contenuti sintetici non consensuali, mentre la formazione digitale deve diventare parte integrante della tutela preventiva.
Il Parlamento italiano si muove nella direzione giusta, ma il tempo gioca contro. Ogni giorno in più senza regole significa nuove vittime e nuovi abusi.
