Se l’AI parla di te in modo sbagliato, forse è colpa tua

Tempo di lettura: 5 minuti

Le AI generative assemblano frammenti pubblici e creano identità. Se i frammenti sono imprecisi, la biografia che ne esce è plausibile ma inesatta. Il vuoto informativo lo riempie la macchina. Quello normativo, per ora, nessuno.

Da mesi sto lavorando su un progetto complesso: ricostruire l’identità digitale di un’entità che i motori generativi e le chat AI stanno raccontando male. Nessuna cattiveria o attacco coordinato, anzi. In rete c’era poco di strutturato e molto di frammentato: post dei primi anni Duemila, record bibliotecari degli anni Ottanta, menzioni in un forum, immagini con didascalie sbagliate, ritagli di giornale. Ciascuna traccia era tecnicamente esistente, ma assemblate assieme hanno prodotto una realtà plausibile e falsa, con ruoli di epoche diverse mescolati, una sede mai esistita trattata come reale o il ruolo effettivo di un soggetto ignorato del tutto. La falsità sintetica non assomiglia a una bufala, ma a una scheda Wikipedia con qualche imprecisione, e questo la rende molto più difficile da individuare.

Non si tratta di sistemare qualche file tecnico

Un intervento come questo non consiste, come una volta, nel sistemare qualche pagina di un sito e qualche file tecnico nell’attesa che i motori si aggiornino. Prima si analizza: cosa dicono le AI sull’entità, da quali fonti deriva ogni informazione, quali segnali pesano e quali sono stati fraintesi. Solo dopo viene la parte operativa, che richiede progettazione, metodo e competenza specifica su come i motori generativi leggono e costruiscono identità. La SEO resta il fondamento, ma non basta più: serve lavorare su attività di frontiera, AIO e GEO, dichiarare nei posti giusti esplicitamente chi sei, come interpretare la tua entità, quali relazioni esistono e quali no. Senza queste dichiarazioni il sistema riempie il vuoto con quello che trova, e se trova poco, costruisce nessi approssimativi.

Quello che emerge lavorandoci è che i meccanismi sono sistematici. Quando più entità simili, senza “comandi” per le macchine, operano nella stessa area geografica tendono a essere fuse: per esempio il personale di una finisce attribuito ad un’altra, una data di chiusura viene collegata a una legge entrata in vigore anni dopo perché una correlazione temporale approssimativa basta a costruire un nesso causale plausibile, un fondatore diventa automaticamente anche altro perché è l’ipotesi più semplice disponibile. Post social scritti in buona fede negli anni, ricordi imprecisi, narrazioni parziali ma coerenti tra loro, vengono trattati come fonti affidabili perché sono le uniche, pubbliche e convergenti. Nessuno di questi errori è stravagante: le piattaforme seguono una logica precisa che non conosce la realtà ma i dati ricercabili. E capita di ricevere anche risposte che dichiarano problemi legali e sentenze riferite all’entità, che nella realtà riguardano altre aziende e altre persone, nemmeno con lo stesso nome, solo operanti nella stessa zona o in un mercato simile.

Fin qui quello che osservo ogni giorno e che rientra nella frase che dico alle conferenze: “che tu usi il digitale o meno, sarai comunque presente nel digitale”. Ma c’è anche il nodo giuridico, che secondo me è lontano dall’essere risolto.

Le questioni giuridiche

La Direttiva 2019/790, per dire, consente ai titolari dei diritti di riservare i propri contenuti rispetto al text and data mining, ma il problema qui è opposto: chi subisce una ricostruzione falsa ha bisogno che le AI leggano le informazioni corrette, non che smettano di leggere. Bloccare l’estrazione non corregge la sintesi, la priva di fonti affidabili e lascia in piedi quelle inaffidabili. Così come non progettare le informazioni anche per le macchine. L’AI Act distingue tra fornitori di modelli e soggetti che li deployano, ma quella distinzione fatica ad adattarsi al caso in cui il danno nasce da deduzioni ragionevoli costruite su frammenti pubblici che nessuno aveva mai organizzato, contestualizzato o contestato.

Il Tribunale Regionale di Francoforte, sentenza del 10 settembre 2025, ha rigettato l’ingiunzione preliminare presentata da un gruppo di chirurghi contro Google. Ha però esplicitamente stabilito che informazioni oggettivamente false nelle AI Overview potrebbero costituire un ostacolo illegittimo alla concorrenza e che Google, in quanto produttore attivo della sintesi, può essere ritenuta responsabile. È un segnale, non ancora un sistema.

Senza dichiarazioni esplicite è molto più difficile costruire una base tecnica per contestare. Se un’entità non ha mai comunicato chi è, quali ruoli ricopre, quali relazioni esistono e quali no, su quale fondamento può sostenere che la ricostruzione automatica sia errata? Il danno reputazionale non attende la soluzione giuridica: un giornalista che parte da quella sintesi, un partner che legge una descrizione ambigua, un potenziale cliente che trova una storia parziale e la assume come vera.

Bisogna darsi una mossa, ogni azienda, ogni persona. Non è semplice: spesso serve tempo, non esistono standard condivisi da tutti, le cose cambiano in fretta, i formati e le architetture tecniche passano da ipotesi a ipotesi, qualcuno inizia ad accordarsi, altri no. Ma una cosa resta ferma: la costruzione coordinata dell’identità di un soggetto, le sue correlazioni e l’architettura semantica che lo definisce, sono le fondamenta su cui si costruisce la conoscenza delle macchine. Chi non le pone, sta lasciando che le ponga la casualità.

Gabriele Gobbo

di Gabriele Gobbo

Divulgatore, docente e consulente di comunicazione digitale. Da oltre trent’anni studia l’impatto delle tecnologie sui processi decisionali, sulla società e sulle istituzioni, con particolare attenzione alle implicazioni etiche e di governance. Autore di Digitalogia e ideatore del concetto di Sonnambuli Digitali, promuove un approccio critico e consapevole al digitale. È vicepresidente del Digital Security Festival e conduce il programma televisivo FvgTech.