Rapporto ENISA sulla sicurezza presenta errori dovuti all’uso dell’AI che ne compromettono l’affidabilità

Tempo di lettura: 3 minuti

Un quotidiano austriaco ha segnalato la presenza di numerosi errori nel testo, collegandoli all’utilizzo di intelligenza artificiale durante la fase di redazione. ENISA ha confermato che il rapporto contiene alcune imprecisioni effettivamente riconducibili all’uso dell’IA.

Dopo il noto caso australiano che ha coinvolto Deloitte, è il turno di un’istituzione europea. L’uso dell’intelligenza artificiale nei processi redazionali dei documenti è nuovamente entrato nel dibattito pubblico dopo l’episodio che ha coinvolto ENISA, l’agenzia dell’Unione Europea per la sicurezza informatica. Il rapporto annuale “Cyber Threat Landscape”, pubblicato a ottobre e dedicato all’analisi delle principali minacce digitali, è finito in questi giorni sotto osservazione a seguito delle segnalazioni di errori presenti nel testo, in particolare nei riferimenti e nei collegamenti ipertestuali.

Le criticità sono state individuate inizialmente dal quotidiano austriaco Der Standard, che ha rilevato numerose imprecisioni riconducibili all’uso di strumenti di intelligenza artificiale generativa. La questione ha assunto rilievo istituzionale quando ENISA ha confermato che una parte degli errori emersi è effettivamente legata all’impiego dell’IA durante alcune fasi di revisione editoriale.

Secondo quanto dichiarato dall’agenzia, l’intelligenza artificiale è stata utilizzata per interventi limitati di editing, definiti come “piccole revisioni editoriali”. Queste operazioni avrebbero inciso in modo involontario su diversi link presenti nelle note a piè di pagina, alterandone la correttezza. ENISA ha spiegato che altri errori sono attribuibili a semplici refusi, senza collegamenti diretti ai sistemi automatizzati.

L’agenzia ha però voluto chiarire un punto centrale: le imprecisioni riscontrate non riguardano il contenuto sostanziale del rapporto. I dati sugli incidenti informatici, sulle vulnerabilità analizzate e sulle tendenze del panorama delle minacce restano, secondo ENISA, accurati e verificati. In questo senso, l’uso dell’IA non avrebbe prodotto confabulazioni o informazioni inesistenti sugli eventi di sicurezza descritti.

Affidabilità dei report e responsabilità nell’adozione dell’IA

Il caso evidenzia una tensione crescente tra efficienza operativa e controllo qualitativo nei documenti ufficiali. Il “Cyber Threat Landscape” è uno strumento utilizzato da decisori pubblici, operatori del settore e professionisti della sicurezza per orientare strategie e politiche di prevenzione. Anche errori circoscritti, come link errati o riferimenti imprecisi, incidono sulla percezione di affidabilità di un documento che ambisce a essere un punto di riferimento.

La posizione di ENISA, che ribadisce la validità complessiva delle proprie analisi, mostra come l’adozione dell’intelligenza artificiale nelle istituzioni sia una questione organizzativa e procedurale (come del resto previsto anche dall’AI Act). L’episodio suggerisce la necessità di rafforzare i processi di verifica umana, soprattutto quando strumenti automatici intervengono su testi destinati a circolare in ambiti sensibili come la sicurezza informatica e la regolazione digitale. Inoltre, la trasparenza su come questi strumenti vengano impiegati deve diventare parte integrante delle procedure di redazione. Ammettendolo, probabilmente, ne gioverebbe anche la percezione di credibilità dei report, soprattutto in un contesto in cui la stessa intelligenza artificiale è oggetto di valutazione critica all’interno delle politiche europee.