Non con la mia faccia. L’etica del falso e la complicità dell’algoritmo

Riccardo Tripepi

Riccardo Tripepi

Giornalista e avvocato, mi occupo di diritto, comunicazione e tecnologie digitali. Scrivo per “Il Dubbio” e altre testate nazionali e regionali, affrontando i temi che intrecciano giustizia, politica e innovazione. Con il progetto “Generazione Ai”, promuovo l’utilizzo etico e responsabile dell’intelligenza artificiale nelle scuole. Credo nella scrittura come strumento di libertà e nel diritto come bussola per orientarsi nel futuro digitale.

C’è un filo rosso che unisce le notizie di questi giorni, e che Byte.Legali ha provato a seguire e raccontare. Parte dalle immagini generate con l’intelligenza artificiale, che hanno trasformato giornaliste e attrici in corpi nudi mai esistiti, diffusi online come merce di consumo. Da quella ferita è nata una risposta collettiva: la manifestazione a Roma, dove centinaia di donne hanno sfilato dietro un cartello con un messaggio semplice e potentissimo: “Non con la mia faccia.”

Un grido di dignità che racconta un tempo in cui il falso non è più deviazione, ma è diventato sistema. E quel filo arriva fino ai colossi della rete, per i quali la menzogna sembra diventare un modello economico da difendere. L’inchiesta su Meta, pubblicata da Reuters, racconta un dato impressionante. Fino a 15 miliardi di annunci sospetti al giorno, per un profitto stimato di 16 miliardi di dollari nel solo 2024, provenienti da pubblicità fraudolente, prodotti illegali, schemi di investimento fasulli. Un flusso di denaro costruito sull’ambiguità. Gli inserzionisti vengono penalizzati solo se la certezza della frode supera il 95%, sotto quella soglia, gli annunci restano online e Meta incassa di più. Un sistema che trasforma il rischio in margine di guadagno. In buona sostanza: più sei vicino al falso, più rendi.

In fondo, non è molto diverso da ciò che accade nel fast fashion globale. Shein, oggi al centro di indagini e proteste. Una vicenda che rappresenta un’altra forma di distorsione. La recente scoperta della vendita di bambole sessuali dai tratti infantili è il punto estremo di una cultura che ha smarrito la misura morale dell’immagine e del corpo, sostituendola con la logica del mercato e della viralità. Dai volti rubati alle vetrine digitali dei colossi dell’e-commerce, la catena del falso è ormai un sistema produttivo alimentato dalla nostra distrazione e dalla nostra dipendenza.

La menzogna come infrastruttura

Viviamo in un’epoca in cui la menzogna sta diventando collante e infrastruttura. Gli algoritmi che regolano la nostra informazione, i nostri acquisti, perfino le nostre relazioni si disinteressano del confine tra verità e menzogna, hanno come obiettivo l’engagement e combattono l’indifferenza. Non si chiedono se qualcosa sia giusto, si chiedono se generi traffico, tempo di permanenza, conversione economica. È così che la tecnologia ha reso scalabile il falso.

Il deepfake è solo l’esempio più visibile di un processo più profondo. Ogni foto manipolata, ogni voce sintetizzata, ogni recensione inventata contribuisce a costruire un ambiente in cui l’autenticità non è più necessaria, perché l’effetto basta. Ma dietro l’effetto c’è un problema più radicale che rischia di portare a una totale deresponsabilizzazione. Se tutto è generato, chi ne risponde? Se un’immagine è creata da un algoritmo, di chi è la colpa quando quella stessa immagine distrugge una reputazione o alimenta un reato? La legge si sta adattando, in Italia, con la nuova fattispecie dell’articolo 612-quater del codice penale, ma il diritto arriva sempre dopo il danno. E sempre più in ritardo.

Dalla norma alla coscienza

La sfida normativa è enorme. Il Digital Services Act, l’AI Act, i codici di condotta europei sull’etichettatura dei contenuti generati da IA sono tutti tentativi, legittimi e necessari, di riportare trasparenza in un ecosistema che si regge sull’opacità. Eppure, si capisce chiaramente, anche solo osservando quanto avvenuto durante le ultime settimane, la risposta non potrà essere solo giuridica, perché la radice del problema è culturale. Serve una nuova competenza sociale del digitale, che, per quota parte, devono acquisire i tecnici, programmatori, i giuristi, ma anche ogni cittadino. Capire come funzionano gli algoritmi, riconoscere i segni del falso, chiedere responsabilità a chi disegna le piattaforme vanno considerati strumenti di cittadinanza. E su questo terreno, quello dell’educazione, della consapevolezza, dell’etica condivisa, si gioca la partita più difficile, ma anche la più decisiva per il nostro futuro.

La verità come bene pubblico

Il mondo che ci aspetta, come avviene dopo ogni rivoluzione tecnica o industriale, sarà definito dalla solidità dei valori che saremo in grado di saper difendere. La verità, in questa nuova economia digitale, va considerato un bene pubblico da custodire. E come ogni bene comune, richiede manutenzione, impegno, responsabilità. Quel cartello, “Non col mio viso”, è il grido di chi rivendica il diritto alla propria immagine e alla propria dignità e un monito che vale per chi governa le piattaforme, ma anche per ciascuno di noi. Ogni volta che accettiamo il falso come inevitabile lo rendiamo più vero. E mentre saremo chiamati a una quotidiana prova per riuscire a distinguere il vero dal falso che dovremo affrontare con i migliori strumenti educativi, culturali e normativi, dovremmo anche scegliere da che parte stare. Se dalla parte della convenienza o da quella della verità.