Fake news generate con AI, Bruxelles punta su tecnologie avanzate per intercettarle prima che diventino virali

Tempo di lettura: 3 minuti

L’Unione Europea sta finanziando progetti come AI4TRUST per usare l’intelligenza artificiale nella rilevazione di deepfake e fake news online. I fact-checker umani non riescono più a gestire il volume dei contenuti generati automaticamente. Ecco cosa prevede il piano europeo contro la disinformazione e quali effetti può avere su piattaforme, imprese digitali e libertà di espressione.

L’Unione Europea ha deciso di rafforzare il contrasto alla disinformazione online con un approccio più tecnologico. Il motivo è evidente a chiunque lavori nel settore: la quantità di contenuti generati con sistemi di intelligenza artificiale cresce a una velocità che le strutture tradizionali di fact-checking non riescono più a gestire. Video manipolati, audio sintetici, immagini realistiche e testi prodotti in automatico circolano sulle piattaforme con tempi di diffusione sempre più brevi, spesso prima che qualcuno possa verificarli.

Cosa sta facendo l’Unione Europea contro deepfake e disinformazione

Per rispondere a questo scenario, Bruxelles ha finanziato progetti come AI4TRUST, sostenuto nell’ambito di Horizon Europe. L’obiettivo è sviluppare sistemi capaci di analizzare grandi volumi di dati – testi, immagini, video e tracce audio – per individuare segnali di manipolazione e contenuti sospetti. Il funzionamento è pensato come supporto al lavoro umano: l’algoritmo segnala, l’operatore valuta. Questo passaggio è centrale, perché la decisione finale resta in capo a persone fisiche, con tutte le responsabilità che ne derivano.

Il progetto si inserisce in una strategia più ampia che punta a rafforzare la resilienza informativa del continente. L’Europa sta cercando di integrare strumenti di analisi automatica nei processi di controllo dei contenuti, mantenendo un equilibrio con la libertà di espressione e con il pluralismo dei media. In gioco non c’è soltanto la rimozione di singoli post, ma la capacità di prevenire campagne coordinate che sfruttano media sintetici per influenzare opinioni pubbliche e dinamiche politiche.

Quali effetti per piattaforme digitali e imprese che usano intelligenza artificiale

L’introduzione di sistemi di rilevazione automatica implica nuove aspettative su trasparenza dei modelli, documentazione delle scelte algoritmiche e gestione degli errori. Un contenuto segnalato in modo errato può avere conseguenze reputazionali e legali, soprattutto in un contesto in cui la normativa europea chiede di dimostrare processi di mitigazione del rischio.

Si apre inoltre una questione che riguarda la filiera creativa. Un contenuto generato con intelligenza artificiale nasce dall’interazione tra dataset, sviluppatori, piattaforme e contributi umani. Il modello tradizionale del diritto d’autore, costruito su un’autorialità lineare, fatica a descrivere questa realtà. La discussione sul contrasto alla disinformazione si intreccia quindi con quella sulla responsabilità lungo la catena di produzione del contenuto e sulla necessità di regole più chiare per attribuire diritti e obblighi.

La direzione europea indica una tendenza precisa: l’intelligenza artificiale entra in modo strutturato nei meccanismi di controllo dello spazio informativo. Nei prossimi mesi sarà rilevante osservare come questi strumenti verranno applicati concretamente e quali standard operativi diventeranno prassi per chi opera nel digitale.