Tra i principali social media attivi in Europa, TikTok registra la quota più alta di contenuti fuorvianti: uno studio indipendente condotto da Science Feedback su sei piattaforme in quattro paesi dell’Unione Europea ha rilevato che un post su quattro del campione analizzato veicola informazioni scorrette, una percentuale superiore a quella di tutti gli altri operatori inclusi nella ricerca. Il rapporto, condiviso in anteprima con Euractiv, è stato prodotto in collaborazione con le organizzazioni di fact-checking Newtral, Demagog SK, Pravda e Check First, tutte firmatarie del Codice di condotta UE sulla disinformazione.
Cosa ha misurato lo studio e cosa hanno trovato i ricercatori
La ricerca ha analizzato Facebook, Instagram, LinkedIn, TikTok, X e YouTube in Francia, Polonia, Slovacchia e Spagna, monitorando cinque aree tematiche: il conflitto in Ucraina, la salute, i cambiamenti climatici, i flussi migratori e la politica nazionale. I contenuti legati alla salute si sono confermati come la categoria con il volume più alto di informazioni scorrette, mentre Facebook, YouTube e X mostrano livelli di disinformazione più elevati rispetto alle rilevazioni precedenti. Il rapporto descrive il fenomeno come una caratteristica strutturale e persistente del modo in cui queste piattaforme sono progettate e gestite, escludendo esplicitamente che si tratti di qualcosa di incidentale o residuale. Emmanuel Vincent, ricercatore principale e fondatore di Science Feedback, ha criticato le piattaforme per il fatto di monetizzare account che producono e diffondono contenuti falsi, sottolineando come questa dinamica economica incentivi la circolazione di disinformazione piuttosto che contrastarla.
Sul fronte dei contenuti sintetici, i video prodotti con strumenti di intelligenza artificiale rappresentano circa il 24% della disinformazione identificata su TikTok e il 19% su YouTube.
La maggior parte di questi video non riportava alcuna etichetta identificativa, nonostante diverse piattaforme dispongano già di policy interne per la segnalazione del materiale artificiale. Una contraddizione che Vincent ha evidenziato con forza, segnalando come operatori che dichiarano di avere regole sul labelling dei contenuti sintetici le applichino in modo ampiamente insufficiente rispetto ai volumi reali in circolazione.
Il Codice europeo, il DSA e i limiti dell’autoregolamentazione
Il Codice di condotta UE sulla disinformazione è stato integrato nel Digital Services Act a febbraio 2025, ma gli impegni delle piattaforme restano su base volontaria.
X si è ritirata dal Codice nel 2023 per decisione di Elon Musk, e il DSA non prevede al momento obblighi specifici di etichettatura per i contenuti generati dall’intelligenza artificiale, una lacuna che diversi osservatori considerano rilevante proprio mentre la produzione di materiale sintetico accelera e il suo costo di produzione continua a scendere. Vincent ha segnalato che numerose aziende tecnologiche statunitensi hanno ridotto i programmi di fact-checking, interrotto collaborazioni con istituti di ricerca indipendenti e diminuito la trasparenza sui propri meccanismi di moderazione, mentre il fenomeno della disinformazione online ha continuato a peggiorare. TikTok, interpellata da Euractiv, ha dichiarato di rimuovere i contenuti dannosi che violano le sue linee guida della community, precisando che oltre il 98% di questi post viene eliminato prima ancora di essere segnalato dagli utenti. Una percentuale che le organizzazioni di ricerca indipendenti faticano a verificare in assenza di accesso diretto ai dati interni delle piattaforme, alimentando il dibattito sull’efficacia reale dei sistemi di autoregolamentazione nel contenere un fenomeno che, secondo questo studio, ha ormai assunto proporzioni strutturali su scala europea.
