Chi usa Facebook oggi con un minimo di attenzione ha la sensazione di attraversare un edificio imponente, costruito con ambizione, abitato per anni da comunità reali e poi lasciato con le luci accese e le porte spalancate. La struttura è ancora lì: pagine, gruppi, testi lunghi, discussioni, video, foto, persone. Ma il primo grande e glorioso social network della storia oggi scivola verso una condizione sempre più sgradevole: un superficie digitale affollata dove la qualità dei contenuti e la sicurezza degli utenti contano quanto basta a non far crollare il palazzo.
Un esperimento semplice, quasi banale, racconta più di molte analisi: digitate “film” nella barra di ricerca di Facebook, dall’app, da mobile. Cosa appare? Un elenco di contenuti erotici, spesso pornografici. Non serve più essere esperti, non serve più inseguire link oscuri. Il percorso è facile, a prova di… bambino. E il fatto che passi da una funzione primaria, la ricerca, quella che dovrebbe orientare la navigazione, fa anche perdere consistenza all’idea di “incidente”.
Ma non finisce qui e il livello del degrado si innalza, passando da semplice incuria ad interesse economico, quando per esempio durante la navigazione iniziano a comparire, nel feed, contenuti sponsorizzati legati ad applicazioni di nudificazione artificiale. Qui entra in gioco il denaro, con la sua grammatica.
Le inserzioni pagate sono una corsia preferenziale, passano da sistemi di revisione, hanno un committente, hanno un obiettivo. Se una pubblicità su Facebook promette di trasformare una fotografia in pornografia, il problema inizia a riguardare il modo in cui la piattaforma sorveglia se stessa e decide che cosa può circolare se produce ricavi. In quel punto, esattamente in quel preciso punto, il confine tra moderazione e sfruttamento economico diventa sfocato e possiamo sostenere, con buona dose di certezza, che anche i contenuti “problematici” diventano un segmento di mercato, qualcosa di redditizio. Così come le adv di truffe, sempre più presenti e persistenti, e sempre più performanti.
E non bastano le segnalazioni dei singoli utenti, che diventano manodopera gratuita dentro un sistema industriale che dovrebbe – per legge – essere potente, efficiente, prestante e, soprattutto autonomo nel rilevare questi contenuti.
È che non conviene. Non conviene più essere sicuri dal momento in cui la sicurezza, in un’azienda che vive di pubblicità, entra in competizione con il fatturato.
Vogliamo rendere tutto questo misurabile? Un’inchiesta internazionale Reuters ha recentemente rilevato che, solo nel 2024 Meta avrebbe guadagnato 16 miliardi di dollari da pubblicità riconducibili a truffe, annunci ingannevoli e prodotti vietati.
Basti guardare ai soli prodotti per bambini (ricordiamo che Facebook è vietato ai più piccoli), visto che un altro recente studio ha quantificato, solo per la Danimarca, circa 437 milioni di euro di guadagno nel 2024, legati alla pubblicità generata dall’attività online di bambini su varie piattaforme, incluse quelle di Meta. Il dato non è una suggestione morale signori, è un numero: da protezione a monetizzazione, il passo è breve.
Da qui nasce una contraddizione pratica che vedo quotidianamente sulle nostre scrivanie. E cioè che da un lato circolano contenuti borderline e pubblicità tossiche con una tolleranza che diventa abitudine. Dall’altro lato, invece, account di persone e imprese vengono chiusi con automatismi sbrigativi, spesso senza spiegazioni convincenti, con percorsi di riattivazione opachi. In pratica la severità, evidentemente, cade dove la piattaforma riduce il rischio reputazionale con un gesto rapido mentre la permissività resta dove scorre il denaro o dove il costo di un controllo serio risulta più alto del danno atteso.
In questo quadro entra anche l’intelligenza artificiale. Come tecnologia? No. Come acceleratore del disordine.
Prendiamo l’ultima, per esempio. Immagino abbiate letto del caso del falso colpo di Stato in Francia, costruito con un deepfake e diffuso sui social. E avrete letto anche delle richieste di Macron di rimuoverlo da Facebook. Aspettate aspettate, vi faccio l’analisi logica della vicenda: il capo di stato di una delle prime dieci potenze al mondo ha chiesto ufficialmente, pubblicamente e anche formalmente tramite i canali preposti, la rimozione da Facebook di un video fake di una giornalista che racconta di un golpe contro lo stesso capo di stato.
Risposta di Facebook: “non viola le nostre policy”.
Del resto va ricordato ciò che Meta ha deciso di fare a gennaio scorso, quando ha riscritto in profondità i propri termini e le proprie policy in nome di un free speech elevato a principio salvifico. In quella revisione sono state allentate le regole che limitavano linguaggi degradanti e manipolazioni evidenti, ridefinendo come “discorso politico” o “espressione lecita” affermazioni che fino a poco prima attivavano rimozioni automatiche. Tra le novità più “sorprendenti” ricordo l’eliminazione dei divieti su contenuti che apostrofavano le donne come oggetti, i neri come schiavi, le persone come feci, batteri, malattie o sporcizia. Furono poi eliminati dall’elenco dei contenuti vietati quelli che raccontavano l’inferiorità di persone in relazione al loro aspetto fisico, mentre furono mentenuti i divieti per le espressioni che raccontavano l’inferiorità di persone a causa di caratteristiche mentali, a meno che, però, questa inferiorità non fosse giustificata da questioni di genere o dall’orientamento sessuale. In questi casi, allora i contenuti sarebbero ammessi, così come quelli relativi a omofobia e razzismo.
Sono solo esempi per mostrarvi la direzione e darvi un senso a tutto questo.
In questo contesto, la risposta a Macron “non viola le nostre policy” relativa a un video fake su un colpo di stato non è certo una svista né una prudenza eccessiva. È l’esito coerente della scelta di lasciare circolare tutto ciò che non supera una soglia minima di illegalità, anche quando è costruito per ingannare e produce effetti tossici su larga scala.
Cioè detto in soldoni: per Facebook un contenuto oggi può essere falsissimo e al tempo stesso “lecito” secondo le regole interne della piattaforma. E’ il free speech.
L’effetto complessivo di tutto ciò assomiglia a una vecchia capitale imperiale trasformata in mercato permanente. L’architettura resta grandiosa, i flussi restano enormi, la vita sociale esiste ancora in alcuni quartieri, soprattutto nei gruppi e nelle pagine che resistono. Intorno, cresce una periferia fatta di contenuti copiati, film caricati integralmente, pornografia che riaffiora con facilità, pubblicità truffaldine, annunci che sfruttano la sessualizzazione. In mezzo, un algoritmo che non “sceglie” ma calcola. Calcola tempo di permanenza, probabilità di clic, ritorno pubblicitario, soldi.
Chi ha memoria della prima stagione di Facebook ricorda una piattaforma che permetteva di leggere, discutere, costruire comunità, seguire pagine tematiche e informarsi (tra l’altro senza dover subire la tirannia dell’ipnotico video breve). Quel progetto non è svanito per consunzione naturale. È stato soppiantato da un’altra logica, più semplice e più redditizia: massimizzare la circolazione di ciò che trattiene lo sguardo e di ciò che fa guadagnare di più.
Il prezzo è tangibile. Si vede nella qualità informativa, si vede nella protezione dei minori, si vede nella facilità con cui una truffa può comprarsi visibilità.
Facebook continua a presentarsi come piazza, come infrastruttura di relazione, ma nei fatti assomiglia sempre più a un grande impianto pubblicitario che conserva, quasi per inerzia, pezzi del vecchio social network.
E allora la tentazione di voltarsi dall’altra parte è reale. Abbandonare Facebook, trattarlo come un luogo perso e lasciarlo a chi lo usa come discarica di contenuti sarebbe anche una scelta comprensibile, quasi istintiva.
Eppure le normative europee esistono, sono ambiziose e scritte con un livello di dettaglio che pochi altri ordinamenti possono permettersi. Il Digital Services Act, il Digital Markets Act, l’impianto complessivo della regolazione digitale europea disegnano responsabilità e doveri di prevenzione. Sulla carta.
Nella pratica, invece, queste norme si muovono con una lentezza strutturale che le piattaforme hanno imparato a conoscere e a sfruttare. L’intervento arriva tardi, quando il danno è già distribuito, quando il contenuto ha circolato e l’attenzione è stata monetizzata.
Chiudiamo questo triste – perchè tale è – contributo proprio con questo paradosso evidente. L’Europa produce regole sofisticate che sono necessariamente lente, mentre le piattaforme continuano a governare il presente con scelte economiche immediate. Qui, esattamente qui, in questo scarto temporale si annida l’impotenza della regolazione, che non nasce da mancanza di principi (anzi!) ma dall’incapacità di incidere nella pratica, nella realtà, sul funzionamento quotidiano di chi, nel frattempo, ha già incassato.
E non possiamo farne una colpa all’Europa. Le regole vanno ragionate, pesate e la democrazia ha giustamente suoi tempi. Forse, però, è arrivato il momento di un cambio di paradigma. Forse non basta più rincorrere i danni con norme postume. Serve una capacità nuova di intervenire prima, di immaginare il digitale non solo come spazio esistente da regolare, ma come ambiente da progettare by design con responsabilità.
