Il nuovo studio diffuso da People vs Big Tech riporta al centro una questione che in Europa comincia ad alimentare il dibattito politico e che attiene al modo in cui i social distribuiscono la visibilità politica. L’indagine sostiene che, durante la campagna per le elezioni municipali francesi, i sistemi di raccomandazione di X e TikTok abbiano favorito contenuti provenienti da forze radicali, con una presenza marcata dell’estrema destra nei feed mostrati agli utenti appena arrivati sulle piattaforme. Si tratta di un nuovo segnale di allarme dopo quello lanciato dallo studio Sitra di cui avevamo già dato notizia.
Per capire che cosa accadeva nei suggerimenti automatici, i ricercatori hanno creato nuovi account e li hanno fatti interagire con contenuti e figure politiche di aree diverse. Da lì hanno osservato quali post comparivano nei feed. Il dato più discusso riguarda X di Elon Musk. Agli account orientati verso destra sarebbero stati mostrati in larga misura contenuti politici ufficiali riconducibili all’estrema destra. In alcuni giorni, sempre secondo lo studio, quella quota sarebbe salita ancora. Anche gli account interessati alla sinistra avrebbero ricevuto una parte rilevante di contenuti radicali, mentre i profili moderati sarebbero rimasti molto più in ombra.
Come funzionano i feed politici su X e TikTok
Il dato interessante riguarda la modalità con cui i contenuti politici circolano e quali vengano spinti di più. Su TikTok il volume complessivo dei post politici ufficiali osservati sarebbe stato più basso, però la logica descritta dai ricercatori assomiglia a quella vista su X. I contenuti più esposti agli utenti si concentrerebbero spesso su posizioni forti, divisive, capaci di attirare reazioni rapide. Per chi usa questi servizi ogni giorno il meccanismo può sembrare invisibile. In realtà agisce a monte, quando la piattaforma decide che cosa far vedere prima, più spesso e a più persone.
Lo studio insiste anche su un altro aspetto, meno evidente ma decisivo. La spinta non arriverebbe soltanto dagli account ufficiali di partiti e candidati. Una parte della circolazione più intensa nascerebbe da profili non ufficiali, pagine militanti, commentatori e creatori di contenuti che rilanciano messaggi politici in modo continuo. È lì che l’effetto di amplificazione diventa più difficile da leggere e, di conseguenza, più difficile da controllare.
Uno degli esempi citati riguarda Emmanuel Macron. Pur restando il politico francese con il seguito più ampio, nei contenuti suggeriti non avrebbe una visibilità proporzionata alla sua dimensione pubblica. Questo passaggio conta perché mostra un punto semplice: la popolarità di un account e la sua presenza nei feed non coincidono affatto. A decidere non è solo chi ha più follower. Conta molto di più il modo in cui il sistema valuta l’engagement, la reazione immediata, il potenziale di diffusione.
Perché il Digital Services Act torna al centro del dibattito
Qui entra in gioco il diritto europeo. Il Digital Services Act chiede alle grandi piattaforme di valutare e ridurre i rischi che i loro servizi possono creare per il dibattito pubblico, le elezioni e la circolazione delle informazioni. In parole semplici, Bruxelles non guarda più solo ai contenuti illegali da rimuovere. Guarda anche alla struttura dei servizi, al design dei feed, ai criteri con cui un algoritmo decide che cosa diventa più visibile. È un cambio di prospettiva molto concreto, perché sposta la discussione dalla singola violazione al funzionamento ordinario della piattaforma.
People vs Big Tech chiede per questo verifiche formali da parte della Commissione europea e delle autorità francesi. TikTok ha contestato parte delle conclusioni e ha detto che l’analisi si basa su un numero limitato di account, quindi non rappresenterebbe il comportamento reale degli utenti abituali. X, secondo quanto riferito dai ricercatori, non avrebbe fornito una risposta. Il contrasto tra studio indipendente e replica delle piattaforme era prevedibile. In ogni caso va precisato che, senza accesso ai dati interni, chi controlla davvero il funzionamento dei sistemi di raccomandazione è costretto a lavorare per indizi.
Nel frattempo si aggiunge un elemento che complica ancora di più il quadro, cioè la presenza di contenuti generati con intelligenza artificiale nei flussi politici. Su TikTok, sempre secondo l’indagine, sarebbero comparsi anche video sintetici usati per colpire figure pubbliche francesi. Questo dettaglio cambia il peso della vicenda. Il problema non riguarda soltanto la quantità dei messaggi estremi, ma anche la qualità dei contenuti che entrano nella catena della distribuzione algoritmica e la velocità con cui possono essere replicati, adattati e rilanciati.
In buona sostanza quando apriamo un social, non vediamo semplicemente quello che è stato pubblicato. Vediamo una selezione. Quella selezione è fatta da regole automatiche che influenzano l’attenzione collettiva. Nelle campagne elettorali questo passaggio pesa ancora di più, perché tocca il pluralismo delle informazioni, la parità di esposizione e la capacità degli utenti di orientarsi in un ambiente che premia spesso il contenuto più acceso, non quello più utile. Un’ulteriore modo per manipolare il consenso attraverso la tecnologia che rischia di condizionare i prossimi appuntamenti elettorali e che dovrà essere tenuto sotto stretta osservazione.
