In un precedente articolo su Byte Legali il problema che illustravo era concreto: l’AI ti racconta male, il danno arriva, qualcuno deve rispondere, ma chi? Quel ragionamento reggeva, ma lasciava aperta la domanda che ha fatto nascere questo approfondimento: esiste davvero una versione giusta contro cui misurare quella sbagliata? Nei motori generativi la versione giusta non è un documento, non è una fonte primaria, non è un atto notarile. È una sintesi costruita al momento, con quello che il sistema trova disponibile, e “disponibile” significa qualsiasi cosa sia stata pubblicata da chiunque, in qualsiasi epoca, per qualsiasi motivo, e poi digerita dall’AI.
Fino a pochi anni fa l’identità digitale era quello che decidevamo di pubblicare: il nostro sito, i nostri profili, i nostri contenuti. Se qualcuno cercava il nostro nome trovava quello che avevamo scelto di mettere in rete, e la narrazione restava sostanzialmente sotto il nostro controllo. Con i motori generativi quel controllo si è dissolto, perché l’identità diventa una sintesi costruita dal sistema a partire da tutto ciò che viene intercettato in rete su di noi, comprese cose che hanno scritto altri, cose vecchie, cose imprecise, cose associate per prossimità tematica o geografica che con noi non hanno nulla a che fare. La narrazione viene assemblata, non controllata. Ed è questa, forse, la forma più silenziosa di diventare Sonnambuli Digitali: non accorgersi che qualcun altro sta raccontando chi siamo.
Il meccanismo della convergenza
Il meccanismo che rende tutto più insidioso è la convergenza. I sistemi AI pesano la coerenza tra fonti: se tre fonti dicono la stessa cosa, quella cosa diventa operativamente affidabile, anche se le tre fonti hanno attinto alla stessa sorgente sbagliata. Un errore che si propaga diventa una verità consolidata, e un post del 2011 impreciso, se è l’unico seme disponibile su un argomento, vale quanto un documento ufficiale perché non c’è nient’altro a contraddirlo. La convergenza non è verità: è la forma che la verità assume quando nessuno la smentisce. Ecco perché il falso generativo non assomiglia a una bufala ma a un comunicato stampa con qualche dato sbagliato, ed è per questo molto più difficile da individuare e da contestare.
Eppure chi opera nella tutela dell’identità professionale o della reputazione aziendale si trova in una zona che il diritto non ha ancora cartografato, perché le categorie giuridiche esistenti faticano ad adattarsi a questo tipo di danno. Come si contesta una rappresentazione sbagliata prodotta da un sistema AI quando quella rappresentazione è una sintesi di fonti pubbliche? La diffamazione, almeno nel senso classico, richiede intenzione, e qui nessuno ha scritto il falso deliberatamente. La violazione di copyright richiede copia, ma qui il testo è stato rielaborato. La responsabilità richiede un soggetto identificabile, e qui c’è un processo automatizzato che ha assemblato frammenti senza che nessun essere umano abbia deciso cosa scrivere. Il danno esiste, ma le categorie per inquadrarlo sembrano mancare.
Il confine tra vero e falso
La sentenza del Tribunale di Francoforte del settembre 2025, di cui ho già scritto su queste pagine, ha aperto una porta sulla responsabilità di chi produce la sintesi. Ma una porta aperta non è un sistema, e il vuoto normativo resta.
Se il sistema costruisce la nostra identità con quello che trova, l’unico modo è fornirgli materiale strutturato e dichiarato. Chi lavora su AIO e GEO, come faccio io, costruisce esattamente questo: informazioni prioritarie che il modello possa usare come riferimento. Lo faccio anche con il Metaprompting Strategico, prima cercando di capire e poi di orientare il “come” i modelli leggono e ricostruiscono l’identità di un soggetto. Non è una garanzia, perché i sistemi possono attingere ad altre fonti, ignorare i segnali dichiarati, produrre sintesi diverse da quelle che vorremmo. Ma è forse l’unica base su cui impostare anche una contestazione: “ho dichiarato chi sono, il sistema ha prodotto una versione diversa.” Senza quella dichiarazione, non c’è nemmeno un punto di partenza.
Il confine tra vero e falso si è spostato. Il vero non è più solo quello che è documentabile, ma anche quello che è dichiarabile in un formato che i sistemi riconoscono, e chi non dichiara lascia che la plausibilità prenda il posto della realtà. La plausibilità, per chi deve prendere decisioni basate su informazioni, è indistinguibile dalla verità finché qualcuno non la contesta. Nella maggior parte dei casi, purtroppo, pochi lo fanno.
