Un video mostra soldati ungheresi partire per l’Ucraina e tornare a casa in bare. È una sequenza interamente generata dall’intelligenza artificiale, ma diffusa dagli account social vicini al premier Viktor Orbán come se fosse reale. Non è un episodio isolato. La rete ungherese è ormai piena di contenuti sintetici che rafforzano la narrazione governativa o screditano l’opposizione. Il Paese, dove si voterà nel 2026, è diventato un laboratorio europeo della propaganda algoritmica e rivela in anticipo le fragilità del sistema democratico nell’era dell’IA.
In ogni caso un dato è certo, e lo abbiamo visto anche in occasione delle ultime elezioni americane, l’intelligenza artificiale sta cambiando la comunicazione politica: non più messaggi costruiti da spin doctor, ma immagini, video e voci generate da modelli capaci di suscitare emozione, empatia, paura. È un salto qualitativo che mette in crisi il controllo tradizionale del messaggio politico e la stessa percezione del reale da parte degli elettori.
Tra AI Act e DSA: un vuoto che pesa
L’Unione Europea ha costruito le due architetture normative più avanzate al mondo: il Digital Services Act e l’AI Act. Nessuna delle due, però, affronta davvero l’uso politico dei contenuti sintetici. Il DSA si concentra su trasparenza e moderazione delle piattaforme, ma non disciplina la propaganda automatizzata; l’AI Act introduce obblighi di etichettatura, senza chiarire chi debba verificarli e come.
Ne risulta una zona grigia dove partiti, movimenti e governi possono usare l’intelligenza artificiale per veicolare narrazioni polarizzanti restando formalmente nella legalità. È una nuova forma di disinformazione “legittima”. Non si mente apertamente, ma si manipola attraverso l’estetica del vero, rendendolo verosimile e comunque assai difficilmente distinguibile dal falso.
La trasparenza come garanzia democratica
A Bruxelles si discute di un Codice europeo di integrità elettorale digitale, che preveda watermark visibili, registri pubblici dei contenuti politici generati da IA e responsabilità diretta dei partiti. L’obiettivo è impedire che le piattaforme diventino megafoni di campagne opache e rendere tracciabile l’origine di ogni messaggio politico sintetico. Ma ogni proposta incontra resistenze. Le big tech temono di dover filtrare la propaganda, mentre i partiti politici difendono il vantaggio competitivo del micro-targeting. Nel frattempo, le campagne digitali si moltiplicano e l’idea di una comunicazione politica “verificabile” si allontana sempre di più, alimentando pericolosamente il vento dell’astensionismo.
Deepfake, reato e prevenzione: perché la legge non basta
L’Italia ha introdotto nel 2025 un reato specifico di deepfake, con pene fino a tre anni di reclusione per chi diffonde contenuti sintetici idonei a ledere l’onore o l’identità altrui, aggravate se utilizzati per manipolare l’opinione pubblica. È una scelta che ha valore simbolico, ma anche limiti evidenti. Molte condotte erano già punibili in precedenza con fattispecie di reato già previste come diffamazione, sostituzione di persona, trattamento illecito di dati e la nuova norma rischia di creare sovrapposizioni e incertezze applicative, specie nei casi di satira o comunicazione politica aggressiva. Il diritto penale, inoltre, interviene a valle del danno e cioè quando la clip manipolata ha già condizionato l’opinione pubblica.
Nel frattempo, la tecnologia è andata oltre. Sora 2, la nuova versione del modello video di OpenAI, introduce la funzione Cameo: permette di inserire il volto e la voce di una persona reale in un video generato dall’IA, con un livello di fotorealismo che rende indistinguibile il falso. È un progresso straordinario per il cinema e la pubblicità, ma una minaccia diretta per l’identità personale e politica se utilizzato senza consenso. Al momento Cameo non è disponibile in Europa, dove le regole su immagine e dati sono più restrittive, ma può essere usato tramite VPN. Di fronte a queste evoluzioni, si capisce come la sola sanzione penale dimostri la sua insufficienza.
Occorrono strumenti preventivi di natura tecnologica come watermark obbligatori, tracciabilità certificata dei contenuti, cooperazione tra piattaforme, garanti e autorità giudiziarie. Punire chi manipola non basta più. Occorre lavorare per impedire che la falsificazione diventi virale e riduca il cittadino, elettore e utente a non essere in grado di distinguere il falso dal vero.
Verso un diritto elettorale dell’intelligenza artificiale
Il problema potrebbe apparire in prima battuta soltanto tecnico, ma si rivela un pericolo per il processo democratico. Se ogni elettore riceve un messaggio costruito da un algoritmo su misura dei propri dati e delle proprie paure, la base cognitiva del voto si frantuma. Occorre un nuovo diritto elettorale digitale, capace di tutelare non solo la libertà di espressione ma anche un diritto alla verità informativa, condizione minima per l’esercizio consapevole della sovranità popolare. Regolare la propaganda algoritmica non significa censurare: significa restituire visibilità a un mondo comunicativo dove la realtà è solo una delle opzioni narrative.
Il caso ungherese è un campanello d’allarme, non un’anomalia. Senza regole specifiche sull’uso elettorale dell’IA e dei contenuti sintetici, la prossima crisi non sarà di privacy, ma di verità democratica.
Serve un quadro unitario che integri AI Act, DSA e diritto elettorale, per garantire trasparenza, tracciabilità e responsabilità delle piattaforme e dei soggetti politici.
Perché la libertà del voto, così come la libertà dell’informazione, non può sopravvivere in un ambiente dove la realtà è diventata un formato editabile.
