Sul palco del Forward.Talks, Elvis Tusha ha aperto il suo intervento con un sorriso e una domanda: «Vi siete mai chiesti perché oggi parliamo tanto di fake news solo da quando esiste l’intelligenza artificiale?». È bastato questo per catturare l’attenzione del pubblico. Nel giro di pochi minuti, la sala era immersa in un racconto che mescolava storia, tecnologia e comunicazione, costruendo un filo logico tra il passato della manipolazione e il presente digitale.
Dal primo documento falso ai deepfake contemporanei
Tusha, consulente e divulgatore nel campo dell’intelligenza artificiale, ha iniziato il suo intervento mostrando una delle prime slide: un documento del 315 d.C. «È la Donazione di Costantino – ha spiegato – un testo falso creato per legittimare il potere temporale dei papi. Ecco, la prima fake news della storia». Da quel punto in avanti il discorso si è allargato, fino a toccare l’attualità. «Attribuire le fake news all’AI è sbagliato. Le falsificazioni esistono da sempre. L’unica differenza è che oggi viaggiano più veloci».
Per Tusha, la novità non è tanto la falsità, ma la velocità e la pervasività dei canali che oggi amplificano la disinformazione. «Siamo passati da un’informazione attiva, in cui andavamo a cercare le notizie, a una passiva, in cui le notizie trovano noi». Ha mostrato i dati di Agicom 2023: la maggior parte dei giovani italiani si informa sui social, non più su giornali o telegiornali. «E quando è l’algoritmo a scegliere per te, la verità diventa una questione di distribuzione, non di contenuto».
“La viralità pesa più della verità”
In un’altra slide campeggiava una formula diventata il cuore del suo discorso: Viralità > Veridicità. Tusha ha spiegato come la logica dei social abbia sostituito quella dell’informazione. «La legge della viralità vince su quella della verità – ha detto – perché le piattaforme non premiano ciò che è corretto, ma ciò che genera emozione». E ha precisato: «Non è l’intelligenza artificiale a creare il problema, ma il modo in cui amplifica un sistema che già vive di attenzione e reazioni».
Ha ricordato anche un dato emblematico: secondo Microsoft, la nostra soglia di attenzione media è di otto secondi, “meno di un pesciolino rosso”. «E in otto secondi non si verifica una notizia, si reagisce», ha sottolineato. «L’intelligenza artificiale in tutto questo è solo il propulsore: scalda la pozione, ma la formula l’abbiamo inventata noi».
Dai test personali alla ricerca universitaria
Nel suo intervento, Tusha ha raccontato di aver testato per primo in Italia la forza di queste dinamiche. «Nel 2023 ho pubblicato il mio primo deepfake dichiarato, con il mio volto. Lo scopo non era ingannare, ma misurare il livello di percezione». Il risultato lo ha sorpreso: molti utenti, nonostante l’avviso iniziale, non si sono accorti che si trattava di un contenuto sintetico. «Da lì è nato il progetto di ricerca con l’Università di Bergamo. Abbiamo pubblicato 361 video deepfake con Striscia la Notizia e li abbiamo analizzati: 25 milioni di visualizzazioni, 32 mila commenti. Solo il 41% era utilizzabile ai fini dell’indagine, ma dentro quel campione il 36% non aveva capito che il video fosse falso. In sintesi: un utente su sette crede al deepfake che vede».
Quel 14% di persone – ha spiegato – rappresenta la soglia minima in grado di spostare opinioni, sentimenti o consenso politico. «Non serve spaventarsi, ma capirlo. Bastano pochi punti percentuali per cambiare il tono di una conversazione o l’esito di un’elezione».
Dalla Romania all’Europa: quando i fake diventano consenso
Nel passaggio più politico del suo intervento, Tusha ha citato un caso recente: «In Romania, un candidato con il 3% dei voti ha creato 66.000 profili falsi su TikTok. In poche settimane è salito al 23%. Le elezioni sono state annullate dalla Corte Costituzionale Europea. È la prima volta che accade». Un episodio che per Tusha spiega bene la forza della viralità applicata alla politica digitale. «Non serve un hacker per cambiare la realtà, basta saper emozionare al momento giusto».
Quando Antonino Polimeni, moderatore del panel, gli ha chiesto se un simile scenario potesse verificarsi anche in Europa occidentale, Tusha ha risposto con cautela: «Da noi è più difficile, ma non impossibile. C’è un eccessivo timore che l’AI influenzi il voto, ma i fatti non lo giustificano del tutto. Ciò che dobbiamo temere non è la macchina, ma la nostra distrazione».
Watermark e fiducia: il dibattito sul controllo
Polimeni ha poi incalzato: «Da tecnico, cosa chiederesti a un legislatore su questi temi?». Tusha ha risposto senza esitazione: «Il watermark invisibile. Un bollino digitale come quello di TikTok, che permette di riconoscere i video autentici». La sua proposta è chiara: certificare la verità anziché inseguire la menzogna. «Non possiamo identificare tutti i video falsi – ha detto – ma possiamo garantire l’origine di quelli veri. Microsoft Italia lo ha già suggerito: serve un’etichetta universale che dica questo video è reale».
Alla domanda sul nuovo sistema di fact-checking di Meta, basato sui voti della community, Tusha ha sorriso: «È una mossa politica, non tecnica. Dopo Trump, molte piattaforme hanno scelto di delegare la verifica agli utenti. Ma così si perde autorevolezza: la verità non può diventare un referendum».
Infodemia, emozioni e la nuova alfabetizzazione digitale
Nella parte conclusiva, Tusha ha sintetizzato in quattro punti – ripresi anche nelle sue slide finali – le criticità del presente: infodemia, combinazione AI–fake news–social, evoluzione dei deepfake ed emozioni al potere. «Viviamo un sovraccarico informativo continuo – ha spiegato – e questo riduce la nostra capacità di attenzione e di giudizio. La disinformazione oggi è una combinazione perfetta: AI, fake news e social media. I deepfake migliorano di giorno in giorno, e la nostra percezione non riesce più a stare al passo. Infine, c’è il fattore emotivo: il contagio emotivo batte la verifica dei fatti».
Le sue parole finali hanno lasciato la sala in un silenzio riflessivo: «Chi governerà le emozioni digitali governerà la rete. Non dobbiamo temere l’intelligenza artificiale, ma capire quanto siamo disposti a credere a ciò che vediamo». Poi un sorriso: «E ricordiamoci che la verità non è più nei fatti, ma in ciò che diventa virale».
Nel mondo dell’intelligenza artificiale, la sfida non è distinguere il vero dal falso, ma imparare a riconoscere la manipolazione dietro ciò che ci emoziona. Con il suo intervento a Milano, Elvis Tusha ha ricordato che la fiducia resta un atto umano, anche nell’era delle macchine che sanno imitare la realtà.
