Dentro il sistema degli annunci truffa di Meta. Ecco come funzionano.

Tempo di lettura: 6 minuti

Ecco i dati dell’inchiesta Reuters, integrati con l’analisi tecnica di Francesco Agostinis sui modelli di distribuzione pubblicitaria che mostra come i segnali esterni e interni delle piattaforme alimentino la visibilità delle truffe.

All’inizio di novembre 2025 Reuters ha pubblicato un’inchiesta basata su documenti interni di Meta Platforms. Dalle carte emerge uno scenario secondo cui nel 2024 circa il dieci per cento dei ricavi pubblicitari dell’azienda, pari a oltre sedici miliardi di dollari, sarebbe collegato a inserzioni truffaldine o illegali. Si tratta di annunci che promettono sconti irrealistici, prodotti inesistenti o investimenti fasulli, spesso veicolati con identità e siti falsi.

La portata del fenomeno è enorme. I file interni analizzati da Reuters mostrano che, nel dicembre 2024, le piattaforme di Meta hanno diffuso ogni giorno fino a quindici miliardi di inserzioni considerate “ad alto rischio”.

In realtà l’azienda disporrebbe di sistemi automatici di controllo, ma secondo i documenti interviene solo quando la probabilità di frode supera il 95 per cento. Se la soglia è inferiore, l’inserzionista non viene escluso, ma viene considerato borderline con la conseguenza che paga di più per pubblicare. Cioè: riconosco che c’è qualcosa che non va, non ti blocco, ma se vuoi restare devi pagare di più.

Sostanzialmente, questo meccanismo definito internamente “penalty bids”, trasforma l’incertezza sull’affidabilità di un annuncio in un’occasione di guadagno.

Anzi, nel primo semestre 2025, ai team che gestiscono la sicurezza pubblicitaria è stato inoltre imposto di evitare interventi che potessero ridurre i ricavi globali di più dello 0,15 per cento. In pratica, l’eliminazione delle campagne sospette era subordinata al rischio economico per la società. I piani interni prevedono di ridurre la quota di ricavi da pubblicità fraudolente al 7,3 per cento nel 2025 e al 6 per cento nel 2026, ma l’impatto economico resta rilevante. Alcune singole reti di annunci avrebbero generato, secondo l’inchiesta, fino a sessantasette milioni di dollari al mese.

Meta ha respinto le accuse parlando di stime “approssimative”, ma i numeri delineano un sistema che monetizza, almeno in parte, anche ciò che dovrebbe escludere. Per i marchi che investono nelle piattaforme, e per gli utenti che vi navigano, il dato descrive un modello di distribuzione pubblicitaria che tende a premiare ciò che performa, anche quando il contenuto si rivela ingannevole.

Dentro la macchina: ecco come gli algoritmi alimentano la visibilità delle truffe

Come sappiamo, ogni post, annuncio o video che compare nel feed è il risultato di un processo di analisi e predizione che combina miliardi di segnali raccolti dentro e fuori dalla piattaforma.

Secondo quanto riportato da Reuters, Meta sfrutterebbe il meccanismo del suo algoritmo anche sugli annunci ad alto rischio. Annunci truffa che alimentano altri annunci truffa, in un circolo vizioso fatto di tracciamenti e profilazioni.

Come spiega Francesco Agostinis, uno dei principali esperti italiani di marketing digitale, la distribuzione dei contenuti nasce da un equilibrio tra due flussi di dati: ciò che accade nel sito esterno visitato dall’utente e ciò che accade dentro la piattaforma stessa.

Il primo livello riguarda i segnali esterni. Ogni volta che una persona visita un sito collegato a Facebook o Instagram, strumenti come il Meta Pixel o il Conversions API tracciano azioni come il tempo trascorso sulla pagina, l’aggiunta al carrello o l’acquisto. Questi dati non servono solo a misurare le conversioni, ma a costruire una mappa delle intenzioni. La piattaforma apprende quali utenti sono interessati a determinati prodotti e quali comportamenti portano più spesso a un acquisto. È un ponte costante tra la navigazione sul web e ciò che vediamo scorrendo nel feed.

Il secondo livello riguarda i segnali interni, cioè tutto ciò che avviene mentre usiamo la piattaforma. Il sistema registra quanto tempo restiamo su un post, se lo guardiamo fino alla fine, se mettiamo un “mi piace”, commentiamo o torniamo a vederlo dopo aver scrollato. Ogni gesto contribuisce a definire un profilo probabilistico che non descrive chi siamo, ma a quale gruppo di utenti somigliamo per interessi e abitudini.

Quando un certo tipo di contenuto ottiene buoni risultati su queste metriche (per esempio un tempo di visualizzazione alto o molti clic) gli algoritmi lo interpretano come rilevante e cercano altre persone che mostrano comportamenti simili. È qui che entrano in gioco i modelli predittivi come Lattice o Andromeda, reti neurali progettate per stimare la probabilità che un contenuto generi interazione, clic o tempo di permanenza. Se le prime reazioni sono positive, la piattaforma amplia la distribuzione; se i segnali si indeboliscono, la visibilità cala. Tutto accade in pochi secondi, in una catena di test continui che coinvolge milioni di microgruppi di utenti.

Nel contesto delle truffe, questo meccanismo produce un effetto perverso. Basta che un piccolo gruppo di persone clicchi su un annuncio ingannevole perché l’algoritmo lo consideri interessante e inizi a mostrarlo a un pubblico più ampio. Chi interagisce per curiosità o per errore alimenta involontariamente la reputazione positiva del contenuto, che continua a circolare. Agostinis riassume il punto con una frase che vale più di molte analisi: “Gli algoritmi funzionano per somiglianza. Se clicchi su una truffa, te ne mostreranno altre cento.”

Il risultato è un circolo vizioso perfettamente coerente con la logica del sistema. L’algoritmo non distingue tra qualità e inganno, ma solo tra ciò che genera attenzione e ciò che la perde. E quando l’attenzione diventa la metrica centrale, l’efficacia di una truffa si misura nella stessa scala del successo di una buona campagna.

Responsabilità e impatto: utenti, piattaforme, normative

La fotografia che emerge impone una domanda operativa: quali doveri hanno le piattaforme quando un flusso rilevante di ricavi nasce da inserzioni a rischio. Il Digital Services Act richiede valutazioni periodiche dei rischi sistemici, misure di mitigazione proporzionate, maggiore trasparenza sui sistemi di raccomandazione e un archivio pubblico degli annunci. Le sanzioni possono arrivare fino al 6% del fatturato globale. In questo quadro, soglie interne molto alte per il blocco e strumenti di monetizzazione degli inserzionisti sospetti entrano nel perimetro di ciò che le autorità possono verificare. Conta la prova documentale e quindi procedure, metriche di qualità, tempi di rimozione, reportistica verso i segnalatori attendibili.

Sul fronte della protezione dei consumatori, le pratiche commerciali scorrette e la pubblicità ingannevole restano il riferimento. L’onere non ricade solo su chi truffa. La piattaforma che conosce pattern ripetitivi, li misura con precisione e continua a distribuirli senza una mitigazione adeguata può essere chiamata a rispondere per carenze di diligenza. In Italia entrano in gioco antitrust e autorità di comunicazioni per profili diversi, oltre ai nuclei specializzati della Guardia di Finanza. Le azioni collettive di risarcimento diventano più probabili quando i danni seguono uno schema riproducibile nel tempo.

Per gli utenti la leva è culturale e pratica. Verificare l’URL prima del clic, riconoscere gli indizi grafici di un sito falso, leggere l’informativa sul trattamento dei dati, segnalare gli annunci sospetti direttamente dall’interfaccia. Ogni interazione invia un segnale e quei segnali determinano cosa vedremo domani. Ridurre i clic impulsivi su contenuti che promettono sconti irrealistici diminuisce la probabilità che il sistema li consideri rilevanti. Serve educazione alla rete. Torniamo sempre lì.