Flora: Non ti stanno vendendo un software, ti stanno affittando la cognizione

Tempo di lettura: 16 minuti

Secondo Matteo Flora, esperto di reputazione digitale e governance delle narrative, i modelli generativi stanno cambiando il modo in cui si costruisce il consenso e si manipola l’informazione online, trasformando la reputazione in una questione strategica per imprese e istituzioni. Mentre la tecnologia sta trasformando il pensiero in risorsa noleggiabile

Matteo Flora è tra le figure più riconoscibili in Italia nel campo della reputazione digitale, della sicurezza delle tecnologie e della governance delle narrative online. Imprenditore, divulgatore e docente universitario, da oltre vent’anni lavora sul rapporto tra tecnologia, informazione e costruzione del consenso nello spazio digitale.

Con le sue attività accademiche, imprenditoriali e mediatiche si muove in un territorio che unisce cybersecurity, scienze cognitive, comunicazione strategica e intelligenza artificiale. Professore in Fondamenti di Sicurezza delle AI e delle SuperIntelligenze alla European School of Economics, docente a contratto in Corporate Reputation e Crisis Management all’Università di Pavia e responsabile del corso Generative AI for Marketing all’Università di Milano-Bicocca, Flora si occupa di governo delle narrative e di architetture cognitive della comunicazione.

Come imprenditore ha fondato e guidato diverse realtà nel campo della reputazione e dell’innovazione digitale, tra cui The Fool, società italiana specializzata in Narrative Governance, e ha contribuito alla nascita di progetti legati alla legal tech e alla gestione delle crisi reputazionali. È inoltre presidente dell’associazione Permesso Negato, impegnata nel supporto alle vittime di pornografia non consensuale, e cofondatore del Centro Hermes per i Diritti Umani Digitali.

Parallelamente all’attività accademica e imprenditoriale, Flora è anche un divulgatore molto seguito. Conduce il programma televisivo “Intelligenze Artificiali” su Mediaset/TgCom, è stato curatore della pagina dedicata all’intelligenza artificiale su Il Riformista e gestisce il canale YouTube di tech policy “Ciao Internet!”, tra i più seguiti in Italia sul rapporto tra tecnologia, potere e società.

In questa intervista affronta uno dei temi centrali del suo lavoro spiegando come come l’intelligenza artificiale generativa stia cambiando radicalmente il modo in cui si costruisce la reputazione, si manipola l’informazione e si governa il consenso nelle società digitali.

Il tuo percorso professionale ha avuto come tappa significativa l’impegno sulla tutela della reputazione digitale quando ancora il tema era marginale. Oggi, con l’AI cosa cambia per imprese e professionisti?

Quando ho iniziato a lavorare sulla reputazione digitale, quindici o sedici anni fa, il problema era di una semplicità quasi commovente: avevi fatto incazzare un blogger, il suo post ti usciva in prima pagina su Google, e quello diventava il tuo biglietto da visita per chiunque ti cercasse. Oppure un cliente insoddisfatto ti aveva lasciato una recensione feroce su un sito che nessuno moderava, e tu passavi le giornate a cercare di far salire qualcos’altro nei risultati. Era artigianato della reputazione: un contenuto, un autore con un nome e un cognome, un contesto tracciabile. Potevi chiamare il blogger, potevi rispondere alla recensione, potevi lavorare sui contenuti per spostare il posizionamento. Era complesso, certo, ma era un gioco a scacchi con pezzi visibili sulla scacchiera.

Con i modelli generativi il problema cambia di natura, non di scala, e per capire perché bisogna fare un passaggio teorico che vale la pena di fare. Goffman ci ha insegnato che non percepiamo mai la realtà direttamente: la percepiamo attraverso quelli che lui chiamava frame, schemi interpretativi che ci dicono cosa è rilevante e cosa possiamo ignorare. Quando qualcuno cercava il tuo nome su Google e trovava quel post del blogger arrabbiato, quel post diventava il frame attraverso cui venivi percepito: ma era un frame singolo, contestabile, sostituibile con del lavoro. Oggi un LLM non produce un contenuto: produce un frame sintetico coerente, completo, auto-consistente, e lo fa con una fluenza cognitiva perfetta, senza errori, senza esitazioni, senza nessuno dei segnali che il nostro cervello usa per capire che qualcosa non è affidabile. Kahneman ci ha spiegato che il Sistema 1, quello veloce e automatico, interpreta la fluenza come un segnale di verità: se scorre bene, è vero. E i modelli generativi scorrono benissimo.

Berger e Luckmann hanno passato una vita a spiegarci che la realtà sociale non si scopre, si costruisce attraverso il linguaggio. Per quarant’anni è stata una tesi sociologica affascinante da discutere nei seminari universitari. Con l’AI generativa è diventata un problema operativo urgente: la tua reputazione non è più solo quello che la gente dice di te, è anche quello che un modello decide che sei. E quel modello non puoi chiamarlo al telefono per discuterne.

Da anni analizzi i meccanismi di manipolazione online. Con i modelli generativi capaci di produrre contenuti credibili su larga scala, stiamo entrando in una fase di disinformazione industrializzata?

Ci siamo già dentro, ma la lettura che ne fa la maggior parte delle persone è sbagliata, e vale la pena di capire perché. La gente pensa alla disinformazione come a un problema di contenuto: fake news, bufale, notizie false da smascherare. Non è un problema di contenuto. È un problema di frame, e la differenza è enorme.

Lakoff lo ha detto trent’anni fa con una semplicità disarmante: “Don’t think of an elephant.” Se io produco diecimila contenuti che discutono se un politico sia corrotto, anche contenuti che dicono che non lo è, ho attivato il frame CORRUZIONE. Il frame è attivo, il danno è fatto. Non serve mentire: basta porre la domanda nel modo giusto.

Ma c’è un livello in più che Lakoff non poteva prevedere. McLuhan diceva che il medium è il messaggio, che la forma della comunicazione conta più del contenuto che veicola. Ecco, il medium dei modelli generativi ha una caratteristica senza precedenti nella storia della comunicazione: produce testo che sembra autorevole per default. Non c’è l’errore grammaticale del troll russo, non c’è il layout improbabile del sito complottista, non c’è nessuno dei segnali che il nostro cervello ha imparato a usare come campanelli d’allarme. Il contenuto sintetico è nativamente fluente, e siccome Kahneman ci ha spiegato che la fluenza cognitiva funziona come segnale di verità per il Sistema 1, ci troviamo di fronte a un medium che rende credibile qualunque messaggio per il solo fatto di produrlo bene.

Debord nel ’67 parlava della società dello spettacolo, un mondo dove la rappresentazione sostituisce l’esperienza diretta. Sessant’anni dopo siamo un passo oltre: non è più la rappresentazione che sostituisce il reale, è la generazione automatica che lo rende superfluo.

La prima risposta deve essere normativa o di formazione?

Formazione, senza il minimo dubbio. E lo dico con una precisazione che mi sta molto a cuore, perché so che la risposta sembra ovvia e invece non lo è per niente.

Thaler e Sunstein parlano di architettura delle scelte: il modo in cui presenti le opzioni determina quale opzione viene scelta. Una norma è esattamente un’architettura delle scelte. Ma se le persone che ci devono operare dentro non capiscono cosa stanno scegliendo, l’architettura è inutile. È come mettere i cartelli stradali in cinese sull’autostrada del Sole: tecnicamente perfetti, praticamente invisibili.

Quello che serve non è alfabetizzazione tecnica, non devi sapere cos’è un transformer o come funziona l’attenzione nei modelli neurali. Serve alfabetizzazione critica, e la differenza è sostanziale. Bruner distingueva due modi di pensiero: quello paradigmatico-logico e quello narrativo. La formazione che facciamo di solito è paradigmatica: l’AI funziona così, i dati vengono processati cosà, il modello produce quest’altro. Quella che serve è narrativa: questa è la storia di come un modello ha deciso chi sei, e tu non lo sapevi. Il giorno che un dirigente d’azienda capisce quella storia, la norma inizia ad avere senso. Neil Postman in Technopoly avvertiva che ogni tecnologia porta con sé un’ideologia implicita, un insieme di assunzioni su come funziona il mondo che vengono assorbite senza essere discusse. Con l’AI generativa quell’ideologia è nei dati di addestramento, nei pesi del modello, nelle scelte di design, e il problema è che è completamente invisibile a chi non sa dove guardare. Formare le persone significa renderla visibile.

La norma poi deve arrivare, ci mancherebbe. Ma una norma calata su un tessuto che non la capisce produce solo compliance formale e zero protezione reale. Il GDPR ne è la dimostrazione empirica più dolorosa: un framework eccellente, il miglior pezzo di legislazione sulla privacy mai scritto, e un livello di comprensione nelle PMI italiane che rasenta lo zero. La maggior parte delle aziende pensa ancora che sia una norma sulla burocrazia dei cookie, non una norma sul potere, su chi controlla i dati e quindi controlla la narrazione.

Spesso sostieni che il problema non sia la tecnologia in sé ma il modello economico che la sostiene. Nel caso dell’AI generativa, dove individui oggi il vero squilibrio: nei dati, nell’infrastruttura o nel potere contrattuale delle piattaforme?

Tutti e tre, ma sono annidati come matrioske, e la più esterna, quella che contiene tutte le altre, è il potere contrattuale.

Partiamo dai dati. I foundation model sono stati addestrati su quello che Bourdieu chiamerebbe il capitale culturale incorporato dell’intera umanità digitale: testi, immagini, codice, conversazioni, tutto quello che abbiamo messo online in vent’anni, estratto senza che nessuno ci chiedesse nulla e trasformato in un prodotto che ci viene rivenduto. Walter Benjamin parlava dell’opera d’arte nell’epoca della sua riproducibilità tecnica: noi siamo entrati nell’epoca della riproducibilità cognitiva, dove il pensiero umano collettivo è stato riprodotto, impacchettato e messo in vendita con un abbonamento mensile.

L’infrastruttura è un oligopolio di fatto: addestrare un modello frontier costa miliardi, il che significa che i frame attraverso cui l’AI legge il mondo, i bias, le priorità, le omissioni, sono decisi da quattro o cinque organizzazioni, quasi tutte nella Bay Area. Gramsci lo chiamerebbe egemonia culturale, con la differenza non trascurabile che Gramsci almeno poteva identificare la classe dirigente. Qui la classe dirigente è un comitato di alignment di cui non conosci nemmeno i nomi.

Ma il nodo vero è contrattuale. Quando un’azienda integra un LLM nei propri processi, sta facendo una cosa che sembra tecnica ma è profondamente narrativa: sta esternalizzando il proprio sistema di senso. Sta delegando a un fornitore esterno il modo in cui interpreta i dati, risponde ai clienti, prende decisioni. E quel fornitore può cambiare i termini di servizio unilateralmente, da un giorno all’altro. Heidegger parlava del Gestell, la tecnologia come sistema di ordinamento che trasforma tutto in risorsa disponibile. L’AI-as-a-service è il Gestell definitivo: trasforma il pensiero stesso in risorsa noleggiabile. Non ti stanno vendendo un software, ti stanno affittando la cognizione.

Nelle controversie legate a contenuti diffamatori o manipolati, o di revenge porn visto che è presidente dell’Associazione Permesso Negata, il tempo è un fattore decisivo. Le procedure attuali di rimozione e tutela sono ancora adeguate in un contesto in cui un contenuto generato può diventare virale in pochi minuti?

Con Permesso Negato lo vediamo ogni singolo giorno, e la verità brutale è che il tempo è l’unica variabile che conta, e il sistema è progettato per ignorarla.

Il framework di notice-and-takedown è figlio di un’epoca in cui un contenuto veniva caricato una volta, su una piattaforma, da un account identificabile. Era un modello lineare: contenuto, segnalazione, rimozione, problema risolto. Judith Butler ha scritto pagine decisive sulla vulnerabilità performativa, sul fatto che certi atti di linguaggio non descrivono un danno ma lo producono. Un contenuto intimo non consensuale è esattamente questo: un atto performativo che costituisce il danno nel momento stesso in cui viene pubblicato. E quel danno è istantaneo, irreversibile, distribuito su decine di piattaforme simultaneamente, mentre la tutela è lenta, sequenziale, ancorata a procedure pensate per un mondo che non esiste più.

Con i contenuti sintetici il quadro si rompe completamente. Puoi generare varianti infinite dello stesso contenuto: volto sovrapposto, contesto cambiato, metadati puliti. Ogni variante è tecnicamente un nuovo contenuto, il che significa che il takedown puntuale è una partita persa in partenza. È come svuotare il mare con un cucchiaio.

Serve un cambio di paradigma radicale: responsabilità delle piattaforme sul re-upload e non solo sull’upload, obbligo di risposta in ore e non in settimane, sistemi proattivi di detection che lavorino sul pattern e non sul singolo file. Perché il problema non è più rimuovere un contenuto: è interrompere una narrazione che si autoreplica.

L’Europa ha scelto una via regolatoria ambiziosa. Le nuove regole sul digitale e sull’intelligenza artificiale però stentano a decollare e ad avere un reale enforcement   e già si parla di semplificazione. Come si affrontano le sfide globali senza rinunciare ai diritti fondamentali?

L’Europa ha costruito un posizionamento narrativo straordinario: siamo quelli dei diritti, della privacy, della regolazione etica. Nella mia terminologia è un frame potente, un pezzo di identità collettiva che funziona. Il problema è che un frame senza enforcement è quello che chiamo un blank signifier non riempito: il contenitore c’è, è bello, è ben fatto, ma dentro non c’è niente.

Habermas ha passato una vita a teorizzare la sfera pubblica come spazio di deliberazione razionale. L’ambizione europea è esattamente habermasiana: creare le condizioni normative perché il dibattito su tecnologia e diritti sia informato, razionale, democratico. Ma Habermas stesso ha riconosciuto che la sfera pubblica funziona solo se le istituzioni hanno la forza di far rispettare le regole del gioco. Senza quella forza è un seminario accademico, non un sistema di governance.

Chi propone di “semplificare” sta proponendo un’operazione che vale la pena di chiamare con il suo nome: un frame shift, il passaggio da “i diritti fondamentali sono l’infrastruttura” a “i diritti fondamentali sono un costo.” Se accetti il secondo frame la conclusione logica è tagliare. Se mantieni il primo la conclusione è investire. Tutta la battaglia politica è lì, non nei dettagli tecnici degli articoli.

La vera semplificazione non è togliere regole, è renderle applicabili: più risorse alle authority, sandbox regolatori che funzionino davvero, cooperazione transfrontaliera reale. E Floridi ha ragione quando parla di governance onlife: il digitale non è più un settore separato da regolare, è l’ambiente in cui viviamo. Finché lo trattiamo come un’appendice della realtà, le norme arriveranno sempre in ritardo.

Dal punto di vista della sicurezza, quali sono gli scenari più concreti che ti preoccupano nei prossimi tre anni: frodi automatizzate, violazione della privacy, manipolazione politica, attacchi reputazionali mirati?

Gli scenari tattici li conosciamo: frodi automatizzate, voice-cloning, phishing personalizzato che ha letto il tuo LinkedIn prima di chiamarti. Problemi crescenti, ma gestibili con formazione e protocolli. Roba da Sistema 2: lo vedi, lo riconosci, ti difendi.

Lo scenario strategico è un altro, ed è quello che mi preoccupa davvero. Walter Quattrociocchi lo studia da anni e lo chiama crisi dell’epistemia: il collasso del sistema condiviso attraverso cui una società decide cosa è vero e cosa no.

Facciamo un passo indietro, perché vale la pena di capire cosa sta succedendo davvero. Goffman ci ha insegnato che percepiamo la realtà attraverso frame interpretativi, e fin qui siamo d’accordo. Ma perché i frame funzionino serve un presupposto che diamo per scontato e che non è per niente scontato: un terreno epistemico comune. Possiamo litigare su cosa fare, ma concordiamo su cosa è vero. I dati dicono questo, poi discutiamo l’interpretazione. Ecco, quell’infrastruttura, quella cosa che sembra banale e invece è il fondamento di qualunque convivenza democratica, si sta disintegrando.

Quattrociocchi lo ha dimostrato empiricamente con anni di ricerca sulla polarizzazione algoritmica: le persone non si radicalizzano perché qualcuno le convince con argomenti migliori. Si chiudono in ecosistemi informativi dove i frame di riferimento diventano incommensurabili con quelli del gruppo accanto. Non è che un gruppo ha ragione e l’altro ha torto: stanno letteralmente parlando di realtà diverse. La stessa parola, “libertà” o “sicurezza” o “progresso”, attiva frame incompatibili. Per dirla con Lakoff: non pensano a elefanti diversi, vivono in zoo diversi.

I modelli generativi accelerano questo processo con tre meccanismi che, presi singolarmente sono preoccupanti, combinati sono devastanti. Il primo è il consenso sintetico: puoi generare migliaia di profili coerenti, con biografie credibili e opinioni che evolvono nel tempo in modo naturale. Bruner ci ha insegnato che siamo animali narrativi, che il cervello è cablato per il pensiero narrativo: se la storia è coerente il Sistema 1 la accetta, punto. Il secondo è la propaganda algoritmica a costo zero: chiunque abbia un prompt e un budget minimo può costruire non un contenuto, un ecosistema narrativo completo, un mondo intero fatto di personaggi, relazioni, conversazioni, consenso apparente. Il terzo, e il più devastante, è il liar’s dividend sistemico: quando tutto potrebbe essere sintetico, anche il vero diventa contestabile. Non devi nemmeno produrre il falso, basta che il falso sia possibile perché il vero perda autorità.

Hannah Arendt lo aveva intuito con una lucidità che fa impressione riletta oggi. Scriveva che il suddito ideale del regime totalitario non è il nazista convinto, è la persona per cui la distinzione tra fatto e finzione non esiste più. I modelli generativi non creano regimi totalitari, ma producono esattamente quella condizione cognitiva, dal basso, senza bisogno di nessun regime e senza nessun piano coordinato. È il totalitarismo epistemico distribuito, e la domanda vera non è come ci difendiamo dalle fake news. La domanda è: come ricostruiamo un’epistemia condivisa in un mondo dove la fabbricazione del consenso è diventata un commodity? E su quella domanda, onestamente, non ho ancora una risposta che mi soddisfi.

Se dovessi indicare un errore strategico che aziende e istituzioni italiane stanno facendo oggi rispetto all’intelligenza artificiale, quale sarebbe?

Confondere l’adozione con la comprensione. È un errore di frame, prima ancora che di strategia, e vale la pena di scomporlo.

Vedo aziende che comprano licenze di tool AI come compravano i siti web nel 2000: dobbiamo averlo perché ce l’hanno tutti. Il frame implicito è tecnologia come prodotto, la compri, la installi, funziona. Ma l’AI non è un prodotto, è un sistema di senso. Quando integri un LLM nei tuoi processi non stai comprando un software: stai adottando un modo di interpretare il mondo, con i suoi bias, le sue omissioni, i frame incorporati nell’addestramento. Wittgenstein diceva che i limiti del mio linguaggio sono i limiti del mio mondo: ecco, i limiti del tuo modello diventano i limiti del tuo pensiero, e se non sai dove sono quei limiti non li governi, li subisci.

L’errore istituzionale è se possibile ancora peggiore: commissioni, tavoli, gruppi di lavoro sull’AI senza una sola persona al tavolo che abbia mai visto un modello da dentro. Bourdieu è impietoso su questo punto: il capitale culturale necessario per governare questa transizione non si acquisisce per nomina ministeriale. E Postman aggiungeva che ogni nuova tecnologia è un patto faustiano, ti dà qualcosa e ti toglie qualcosa, e chi non capisce cosa gli viene tolto ha già perso la negoziazione prima di sedersi al tavolo.

La sintesi è una frase a cui torno sempre, e se c’è una cosa che ho imparato in vent’anni di lavoro sulla reputazione e sulla narrazione è questa: chi non governa la propria narrazione, la subisce. Vale per le persone, vale per le aziende, vale per i Paesi. L’AI generativa è il più potente strumento di costruzione narrativa mai creato dall’uomo. Chi lo capisce e impara a governarlo avrà un vantaggio enorme. Chi lo tratta come un gadget da comprare starà già perdendo, semplicemente non lo sa ancora.