Le piattaforme di social media sono diventate il principale canale attraverso cui i giovani europei accedono all’informazione politica. Uno studio pubblicato a marzo 2026 dal Finnish Innovation Fund Sitra mette in luce come gli algoritmi di raccomandazione di Instagram, TikTok e X non si limitino a rispecchiare le preferenze degli utenti, ma le orientino attivamente, con effetti misurabili sull’equilibrio del dibattito democratico.
Come è stata condotta la ricerca su algoritmi e contenuti politici
Lo studio è stato realizzato da The Behavioural Insights Team in collaborazione con l’istituto di ricerca finlandese Bondata. Il metodo scelto è quello dell’audit di piattaforma: 24 profili simulati, chiamati avatar, di età compresa tra i 18 e i 24 anni, hanno navigato su Instagram, TikTok e X in Finlandia, Francia e Romania, ciascuno attraverso sette sessioni strutturate. Le sessioni erano organizzate in tre fasi progressive: una prima fase di basso coinvolgimento politico, una seconda di alto coinvolgimento con seguito di partiti trasversali allo spettro politico, e una terza cosiddetta “Tilted Trajectory”, in cui gli avatar segnalavano interesse esclusivo verso contenuti di orientamento progressista o conservatore. In parallelo, Bondata ha condotto un sondaggio online su 3.063 giovani adulti tra i 18 e i 29 anni nelle stesse nazioni, raccogliendo percezioni soggettive sull’esposizione a contenuti problematici e sull’impatto emotivo della navigazione politica sui social.
Il 58% dei contenuti politici era di destra, anche quando gli utenti cercavano altro
Su 1.719 post politici analizzati manualmente, il 58% risultava di orientamento di destra, contro il 26% di sinistra e il 16% centrista. Questa proporzione si manteneva anche nelle sessioni in cui gli avatar avevano segnalato esplicitamente interesse per contenuti progressisti: in quei casi, i feed continuavano a proporre in media più post di destra che di sinistra, con sette sub-percorsi su dodici ancora dominati da contenuti conservatori. Il sondaggio Bondata ha confermato questa asimmetria dal punto di vista degli utenti reali: in Finlandia, il 44% di chi si dichiara fortemente di sinistra percepiva i propri feed come molto distanti dalle proprie posizioni, contro appena il 5% di chi si dichiara fortemente di destra. Risultati simili sono emersi in Francia e Romania.
Gli algoritmi si sono rivelati anche profondamente imprevedibili. I segnali di engagement inviati dagli avatar, come seguire o smettere di seguire partiti, prolungare la visione di determinati post o mettere like, non hanno prodotto effetti coerenti sui contenuti ricevuti. In più occasioni i feed sono cambiati in modo radicale senza alcun elemento scatenante riconoscibile: un avatar finlandese su Instagram non aveva ricevuto contenuti politici nelle prime sei sessioni, per poi trovarsi nell’ultima sommerso da meme di estrema destra con riferimenti impliciti a ideologie naziste, senza che nulla nel suo comportamento pregresso lo lasciasse prevedere.
Il 5% dei post politici osservati era chiaramente generato dall’intelligenza artificiale, con un ulteriore 2% di casi sospetti. Tra questi figuravano deepfake di politici, video satirici con personaggi sintetici e avatar animali usati per diffondere opinioni ostili o commenti offensivi verso minoranze. Oltre il 60% di questi contenuti generati artificialmente era di orientamento di destra e molti includevano linguaggio ostile o forme di scherno nei confronti di gruppi etnici o di genere.
Contenuti che non violano le regole ma erodono il dibattito pubblico
Solo il 3% dei post analizzati rientrava nella categoria della disinformazione vera e propria. Il dato apparentemente rassicurante nasconde però un problema strutturale: il 67% dei contenuti politici era composto da opinioni non verificabili, spesso con toni estremisti, che per loro natura sfuggono ai sistemi di fact-checking. Meme, ironia e parodia si sono rivelati i formati più usati per veicolare messaggi ideologici aggirandando i sistemi di moderazione automatica. Il sondaggio Bondata ha misurato anche l’impatto emotivo di questa esposizione: circa la metà dei giovani intervistati riferisce di provare delusione, rabbia, paura o tristezza quando naviga tra discussioni politiche sui social. Le donne risultano più esposte a queste reazioni negative, con un divario particolarmente marcato in Finlandia, dove il 58% delle intervistate riportava emozioni negative contro il 37% degli uomini.
Il rapporto si chiude con sette raccomandazioni rivolte all’Unione Europea. La prima riguarda l’applicazione rigorosa del Digital Services Act in materia di trasparenza degli algoritmi: le piattaforme dovrebbero rendere comprensibili in linguaggio semplice i parametri principali di ranking, offrire impostazioni regolabili e garantire un’opzione di feed non profilato. La seconda raccomandazione chiede un sistema di audit indipendente e continuativo sui rischi sistemici, con accesso garantito ai ricercatori ai sensi dell’articolo 40 del DSA. Le altre indicazioni riguardano la riforma dell’architettura delle scelte online per ridurre i meccanismi che sfruttano bias cognitivi, l’integrazione di competenze di alfabetizzazione digitale critica nei sistemi educativi, il coordinamento tra DSA e AI Act per affrontare i contenuti generati dall’intelligenza artificiale, la riduzione della dipendenza strutturale dalle grandi piattaforme attraverso la portabilità dei dati e, infine, l’introduzione di sistemi di verifica dell’età per proteggere i minori dall’esposizione a design considerati manipolativi. La Commissione europea ha già avviato a febbraio 2026 un procedimento preliminare contro TikTok per caratteristiche ritenute “addictive by design”, segnalando che il controllo democratico sulle scelte progettuali delle piattaforme ha smesso di essere un’ipotesi di lavoro per diventare un cantiere aperto.
