Il Digital Services Act entra nella sua fase più concreta attraverso la pubblicazione dei primi report sulla disinformazione da parte delle principali piattaforme digitali. Meta, Google e TikTok espongono per la prima volta in modo strutturato le misure adottate per affrontare i rischi legati ai contenuti ingannevoli, all’interno di un quadro normativo che richiede verifiche puntuali e responsabilità documentate.
Il passaggio dalla volontarietà alla responsabilità verificabile
Il cambiamento riguarda la natura stessa degli impegni assunti dalle piattaforme, che passano da dichiarazioni volontarie a obblighi giuridici inseriti in un sistema europeo di controllo. I report diventano strumenti attraverso cui le autorità possono osservare nel dettaglio le strategie adottate e valutarne l’efficacia.
Questa evoluzione modifica anche il ruolo delle piattaforme nel sistema informativo digitale, perché introduce un livello di accountability che prima restava confinato a iniziative autonome. Le informazioni fornite entrano ora in un circuito istituzionale, dove Commissione europea e coordinatori nazionali possono analizzare dati, individuare criticità e, se necessario, avviare interventi correttivi. Il meccanismo trasforma la rendicontazione in una leva regolatoria concreta, destinata a incidere sulle scelte operative delle aziende tecnologiche.
La crescita della disinformazione generata dall’intelligenza artificiale
Nei report emerge con chiarezza una trasformazione del fenomeno della disinformazione, che si lega sempre più alla produzione automatizzata di contenuti.
I materiali sintetici, che includono immagini costruite artificialmente, video manipolati e testi generati da modelli linguistici, circolano con una rapidità crescente e riescono a imitare con precisione contenuti autentici. Questa evoluzione modifica le dinamiche della diffusione delle informazioni, perché rende più complesso distinguere tra contenuto reale e contenuto artificiale, soprattutto in contesti ad alta esposizione mediatica come le campagne elettorali. Le piattaforme riconoscono che l’impatto di questi contenuti può incidere direttamente sulla percezione pubblica e sulle scelte degli utenti.
Le soluzioni indicate si concentrano soprattutto sulla trasparenza, con l’introduzione di etichette per identificare i contenuti generati da sistemi automatizzati e con l’uso di strumenti tecnologici in grado di rilevare anomalie o manipolazioni. L’intelligenza artificiale viene impiegata anche per monitorare e classificare i contenuti, creando un sistema in cui la stessa tecnologia opera su entrambi i fronti del problema.
Il ruolo delle elezioni e i limiti delle misure attuali
Il riferimento ai processi elettorali attraversa in modo costante i report pubblicati, a conferma della sensibilità di questo ambito rispetto alla diffusione di contenuti manipolati. La combinazione tra generazione automatica e distribuzione mirata consente di costruire messaggi credibili e adattati a gruppi specifici di utenti, con effetti difficili da intercettare attraverso strumenti tradizionali di controllo.
In questo contesto, le misure adottate dalle piattaforme risultano ancora in fase di consolidamento e mostrano margini di miglioramento. L’etichettatura dei contenuti rappresenta uno dei principali strumenti utilizzati, ma la sua efficacia dipende dalla capacità degli utenti di riconoscerne il significato e di modificarne il comportamento. La questione si sposta quindi sul piano dei meccanismi di distribuzione, dove potrebbe emergere l’esigenza di interventi più incisivi da parte del legislatore europeo, con regole che incidano sulla visibilità e sulla circolazione dei contenuti all’interno delle piattaforme digitali.
