Se tutto può essere falso. Le risposte incomplete della politica alla sfida dei deepfake

Riccardo Tripepi

Riccardo Tripepi

Giornalista e avvocato, mi occupo di diritto, comunicazione e tecnologie digitali. Scrivo per “Il Dubbio” e altre testate nazionali e regionali, affrontando i temi che intrecciano giustizia, politica e innovazione. Con il progetto “Generazione Ai”, promuovo l’utilizzo etico e responsabile dell’intelligenza artificiale nelle scuole. Credo nella scrittura come strumento di libertà e nel diritto come bussola per orientarsi nel futuro digitale.

Negli ultimi giorni il tema dei deepfake è tornato al centro del dibattito pubblico attraverso due notizie solo in apparenza distanti. Da un lato, il Regno Unito ha annunciato un lavoro con Microsoft, Università ed esperti per costruire standard condivisi di rilevazione dei contenuti manipolati, con l’obiettivo di capire quando le tecnologie di detection funzionano, quando falliscono e quali margini di errore siano oggi accettabili. Dall’altro, Spagna e Grecia hanno rilanciato il confronto sui limiti di età per l’accesso ai social network, un dibattito che non nasce oggi e che tutto il mondo sta valutando da tempo, segno di una preoccupazione ormai strutturale.

Letti insieme, questi sviluppi costituiscono una prova di risposta al crollo della fiducia nei contenuti digitali. Le categorie di vero e falso sembrano far parte di un lontano passato e i sistemi attuali non sembrano più in grado di distinguere con certezza ciò che è autentico da ciò che non lo è.

Il deepfake non come eccezione, ma come metodo

I deepfake sono diventati inarrestabili. Né le risposte normative sembrano in grado di contrastarlo in maniera adeguata intervenendo quasi sempre a danno prodotto. Il risultato è un ambiente informativo in cui immagini, video e audio non funzionano più come evidenze spontanee, ma come elementi che richiedono verifica. Questo produce disinformazione, insicurezza giuridica e mette in crisi il rapporto tra contenuto, prova e responsabilità. Quando tutto può essere simulato in modo plausibile, anche ciò che è autentico perde forza, non perché sia falso, ma perché non è più immediatamente riconoscibile come tale.

La pista britannica. Spostare la fiducia dalla percezione al processo

La strada imboccata dal Regno Unito va letta in questo contesto. Lavorare a standard comuni per la rilevazione dei deepfake non significa promettere una soluzione definitiva, né affidarsi ingenuamente alla tecnologia. Significa tentare di ricostruire una catena di affidabilità, spostando la fiducia dalla percezione individuale a processi verificabili.

Definire criteri condivisi, aspettative di funzionamento dei sistemi di detection, margini di errore accettabili e procedure di intervento significa rendere l’autenticità un risultato controllabile, discutibile, contestabile. Ancora meglio se in collaborazione con un colosso come Microsoft.

Limiti di età e risposte difensive

Parallelamente, il dibattito sui limiti di accesso ai social segue una logica diversa. Ridurre l’esposizione al rischio, soprattutto per i più giovani, appare una risposta immediata a un ambiente digitale percepito come opaco e potenzialmente ostile. È una reazione comprensibile, che intercetta un sentimento diffuso di allarme. Ma questa linea rivela anche un limite più profondo. Quando non riusciamo a garantire l’autenticità dei contenuti, tendiamo a intervenire sugli utenti, non sulle cause dell’incertezza. I limiti anagrafici possono contenere alcuni effetti, ma di certo non affrontano il nodo centrale posto dai deepfake, limitandosi ad aggirarlo. In questo quadro rientra il dibattito, che si trascina da mesi, sul chat control che ha avuto gli ultimi rilanci da Spagna e Grecia che ripropongono il tema del divieto per gli under sedici di utilizzare i social.

Risposte alternative o strumenti complementari

Il rischio del dibattito attuale è trattare queste risposte come alternative secche. Da un lato la verifica tecnica, dall’altro i divieti. In realtà, il diffondersi dei deepfake dimostra che nessuna di queste leve è sufficiente da sola. La detection senza criteri chiari di responsabilità resta fragile. Le restrizioni senza una fiducia strutturale rischiano di diventare scorciatoie permanenti. La regolazione, senza strumenti condivisi di verifica, continua a inseguire l’innovazione invece di governarla. Il risultato è un sistema che reagisce, ma non anticipa e non previene.

La formazione

C’è però un elemento che completa entrambe le strade e che nel dibattito resta spesso sullo sfondo, la formazione. Se la crisi della fiducia digitale è strutturale, non può essere affrontata solo con soluzioni tecniche o misure restrittive. Per i minori, questo significa investire nella scuola con percorsi che spieghino come immagini, video e audio possano essere manipolati, perché l’evidenza visiva non è più una garanzia e quali strumenti esistono per orientarsi. Non come educazione generica all’uso consapevole, ma come alfabetizzazione critica al funzionamento dei contenuti digitali. Per tutti gli altri, significa costruire competenze diffuse di verifica e lettura critica dell’informazione. In un ecosistema opaco, sapersi orientare diventa una competenza civile, non un optional.

Solo tenendo insieme questi tre livelli si può provare a governare la crisi aperta dai deepfake. Altrimenti continueremo a oscillare tra allarme e restrizione, rincorrendo soluzioni parziali e temporanee non in grado di dare risposte concrete alla crescente domanda di fiducia digitale.