Il video che ha annunciato un falso colpo di Stato in Francia ha mostrato, più di ogni altro episodio recente, quanto sia fragile il confine tra libertà di informazione e manipolazione artificiale. Realizzato con strumenti di intelligenza artificiale e diffuso sui social, il filmato ha simulato un servizio giornalistico in tutto e per tutto verosimile. In poche ore ha raggiunto milioni di visualizzazioni, è stato rilanciato da canali internazionali e ha provocato reazioni istituzionali prima di essere smentito. L’autore, un adolescente del Burkina Faso, ha ammesso di aver cercato solo visibilità, ma il suo gesto ha messo in crisi l’intero sistema europeo di governance digitale.
Disinformazione e limiti del Digital Services Act
Il caso francese ha mostrato come la disinformazione generata da algoritmi si muova oggi in una zona grigia che le regole esistenti faticano a controllare. Nonostante le segnalazioni e l’intervento diretto di Emmanuel Macron, il video è rimasto online su Facebook per diversi giorni. Meta ha dichiarato che il contenuto non violava le proprie policy in quanto non conteneva incitamento all’odio, non minacciava la sicurezza e non violava diritti d’autore. Era falso, ma tecnicamente “lecito”. Il Digital Services Act, pensato per garantire trasparenza e mitigare i rischi sistemici legati ai contenuti online, non prevede un obbligo generale di rimozione dei materiali fuorvianti. Quando una disinformazione non rientra in categorie giuridiche tipizzate, l’intervento resta affidato all’autoregolazione delle piattaforme. Questo meccanismo produce risposte lente e incerte, lasciando un vuoto tra la pericolosità sostanziale di un contenuto e la sua liceità formale.
Il potere privato nello spazio pubblico digitale
La vicenda ha riportato l’attenzione sul ruolo delle grandi piattaforme nel controllo dell’informazione. Decidere cosa resta visibile nello spazio pubblico digitale significa esercitare un potere che, di fatto, è diventato politico. Nemmeno la richiesta di un capo di Stato è riuscita a ottenere una rimozione immediata. Il principio di neutralità delle piattaforme, nato per difendere la libertà d’espressione, si trasforma in una responsabilità enorme quando i contenuti artificiali interferiscono con la fiducia democratica. Il tema non riguarda solo la Francia. Ogni paese europeo dipende dalle scelte di pochi operatori privati che applicano regole interne spesso opache. Il Digital Services Act impone più trasparenza e cooperazione, ma la distanza tra la teoria normativa e la pratica digitale resta ampia.
Giurisdizioni e confini che non esistono più
Il profilo dell’autore del deepfake, un minorenne residente fuori dall’Unione europea, ha reso evidente un altro limite strutturale. Le norme europee si applicano alle piattaforme che operano nel mercato interno, ma non possono incidere sulle dinamiche di produzione dei contenuti quando queste avvengono in contesti extraterritoriali. La rete non conosce confini, mentre il diritto continua a muoversi per ordinamenti. In questo scarto si annida la vulnerabilità del sistema: l’informazione artificiale è globale, le regole restano locali. Il problema è quindi tanto giuridico quanto geopolitico. Ogni episodio di disinformazione che nasce fuori dall’Europa diventa un test di tenuta per le sue istituzioni, chiamate a difendere un ordine informativo che non controllano più completamente.
Verso una nuova responsabilità dell’informazione artificiale
L’episodio francese anticipa uno scenario che presto sarà comune. Con la diffusione di strumenti di generazione video e audio sempre più accessibili, i contenuti sintetici diventeranno più convincenti e più difficili da identificare. L’Europa dovrà decidere se affrontare il fenomeno solo con la logica della rimozione o se costruire un modello di responsabilità sistemica fondato su trasparenza, cooperazione e verifica pubblica. La sfida non è reprimere ogni falsità, ma preservare la credibilità dell’informazione digitale come infrastruttura democratica. La regolazione del futuro dovrà garantire che la libertà di espressione non diventi lo scudo della manipolazione. Il caso del falso colpo di Stato non è una curiosità tecnologica, ma un avvertimento: la tenuta delle democrazie digitali dipenderà dalla capacità di coniugare innovazione e regole, libertà e responsabilità.
