Quando l’AI riscrive le notizie. Il rischio invisibile per la libertà d’informazione

Tempo di lettura: 4 minuti

Un’indagine condotta da BBC ed EBU su 22 emittenti pubbliche europee rivela che gli assistenti basati su intelligenza artificiale generano errori sistemici nelle risposte. Dati alterati, citazioni inventate e sintesi errate minacciano la credibilità dei media e la qualità dell’informazione. Serve trasparenza, controllo editoriale e alfabetizzazione digitale per difendere il diritto alla verifica

L’intelligenza artificiale sta riscrivendo il modo in cui accediamo alle notizie, ma il prezzo di questa trasformazione è sempre più evidente. Un ampio studio promosso da BBC ed European Broadcasting Union ha analizzato 22 emittenti pubbliche di 18 Paesi e 14 lingue, arrivando a una conclusione chiara in ordine all’efficacia degli assistenti generativi. Non sono in grado di garantire ancora l’accuratezza, la neutralità e la trasparenza richieste al giornalismo.

Quasi la metà delle risposte fornite da sistemi come ChatGPT, Copilot, Gemini e Perplexity contiene errori rilevanti, e se si considerano anche le imprecisioni minori la percentuale supera l’80%. Si tratta di un problema strutturale, non di incidenti isolati. Gli studiosi parlano di una distorsione sistemica che attraversa modelli, lingue e mercati, sollevando interrogativi profondi sulla qualità dell’informazione automatizzata.

Fiducia digitale e illusione di competenza

Molti utenti, in particolare i più giovani, considerano affidabili le risposte fornite dai chatbot. In Gran Bretagna, quasi la metà degli under 35 dichiara di fidarsi delle sintesi generate dall’intelligenza artificiale. Questo atteggiamento produce un paradosso: più cresce la fiducia nella tecnologia, maggiore diventa il rischio che un errore venga percepito come verità. La disinformazione, in questa forma, non nasce da una manipolazione intenzionale ma da un eccesso di fiducia.

Uno dei nodi più delicati riguarda la gestione delle fonti. Secondo i dati, il 31% delle risposte analizzate presenta citazioni errate o link non verificabili. Gemini è il caso più estremo: nel 72% dei casi ha attribuito frasi o notizie inesistenti, spesso citando contenuti satirici come se fossero reali. Anche ChatGPT e Copilot mostrano fragilità, riportando talvolta articoli mai pubblicati o materiali fuori contesto. Il risultato è una catena di errori che, a forza di ripetersi, finisce per contaminare l’intero sistema informativo.

Quando l’errore diventa credibile

Ogni volta che un assistente cita una testata giornalistica, la reputazione di quest’ultima entra in gioco. Gli utenti tendono a fidarsi delle risposte perché vi riconoscono un marchio noto, anche quando l’informazione è sbagliata. Secondo il report, il 42% delle persone perde fiducia nel mezzo citato, pur sapendo che l’errore è dell’AI. È una forma di disinformazione indiretta che non colpisce solo i contenuti, ma la credibilità di chi li produce.

Un’altra criticità è la cosiddetta “overconfidence”. Gli algoritmi, in buona sostanza, tendono a rispondere con tono sicuro anche in assenza di dati certi. Solo lo 0,5% delle domande è stato rifiutato, contro il 3% dell’anno precedente. Il linguaggio resta fluido e convincente, ma la sostanza spesso manca di fondamento. È la conseguenza di un addestramento che premia la produzione di risposte, non la prudenza.

L’effetto economico e la perdita di pluralità

L’impatto dell’automazione si estende anche al mercato dei media. I servizi “answer-first” come Google AI Overviews intercettano sempre più traffico, riducendo le visite ai siti di notizie. Il Financial Times ha registrato un calo tra il 25% e il 30% del pubblico proveniente dai motori di ricerca. Quando la risposta è già visibile nel chatbot o nel motore di ricerca, il lettore non sente più la necessità di consultare la fonte originale. Il risultato è una progressiva erosione della pluralità informativa.

BBC ed EBU propongono tre linee d’azione. In primo luogo una maggiore trasparenza sui tassi d’errore, poi un severo controllo editoriale sull’utilizzo dei contenuti giornalistici da parte dei modelli di intelligenza artificiale e, infine, programmi di alfabetizzazione digitale per insegnare a riconoscere la differenza tra notizia e sintesi generata. Jean Philip De Tender, vicedirettore generale della EBU, lo ha sintetizzato così: “se l’intelligenza artificiale diventa la porta d’accesso all’informazione, deve rispettare gli stessi standard di accuratezza e responsabilità del giornalismo professionale”.

Difendere la libertà d’informazione oggi significa difendere il diritto alla verifica. Sapere chi scrive, come e con quali fonti è la nuova frontiera della trasparenza digitale. Solo così sarà possibile mantenere viva la fiducia nel giornalismo come presidio umano di verità, in un’epoca in cui anche l’errore può sembrare perfettamente scritto e in grado di far scambiare il falso per il vero alla gran parte degli utenti.