Dati sensibili raccolti e rivenduti: scoppia il caso Whitebridge AI

Tempo di lettura: 3 minuti

Un’inchiesta di noyb accende i riflettori su Whitebridge AI, azienda che vende profili digitali completi e spesso imprecisi. I report includono informazioni sensibili, foto, tratti caratteriali e presunti contenuti “pericolosi”. L’associazione per i diritti digitali ha presentato un reclamo alle autorità lituane a tutela della privacy dei soggetti interessati

Whitebridge AI, startup lituana, è finita al centro di un’inchiesta che mette in discussione i limiti dell’uso dell’intelligenza artificiale nella gestione dei dati personali. L’azienda ha costruito un mercato di “reputation reports”, documenti venduti online che raccolgono informazioni su individui comuni e personaggi pubblici, spesso senza alcuna base attendibile. Nei report compaiono fotografie, dati estratti dai social, articoli di giornale e valutazioni su temi delicati come politica, religione e vita sessuale. La conseguenza è un prodotto che non solo può contenere errori gravi, ma che espone le persone a rischi reputazionali difficili da controllare, ponenendo nuovamente il tema della tutela della privacy.

Il reclamo di noyb e le possibili violazioni del GDPR

Secondo noyb, l’associazione europea per i diritti digitali, il modello di Whitebridge viola più articoli del GDPR. I cittadini hanno diritto a conoscere gratuitamente i dati raccolti su di loro e a correggere eventuali errori, ma l’azienda pretende il pagamento per accedere alle informazioni e persino la presentazione di una firma elettronica qualificata, una barriera che non ha alcun fondamento giuridico. L’organizzazione ha presentato un reclamo all’autorità per la protezione dei dati in Lituania, chiedendo di bloccare l’attività e imporre una sanzione.

I report non risparmiano nessuno: oltre a raccogliere contenuti pubblici e privati, attribuiscono etichette arbitrarie come “nudità sessuale” o “contenuti politici pericolosi”, generando sospetti e diffidenza senza prove reali. È l’esempio di come un uso opaco dell’intelligenza artificiale possa trasformare la promessa di efficienza in un meccanismo di sorveglianza commerciale. Il confine tra informazione e manipolazione, in fondo, è spesso sottile: dipende dalla serietà di chi gestisce i dati e dalla forza delle regole che li proteggono che devono essere in grado di fornire tutele immediate e efficaci.

Dati personali come merce e il nodo della fiducia digitale

La pratica di vendere report agli stessi soggetti coinvolti rende il caso ancora più controverso. Chi si trova citato con informazioni false o parziali, spaventato dalle conseguenze, può essere spinto a pagare per accedere o correggere i dati, trasformando un diritto in una sorta di riscatto digitale. È un modello che non solo contrasta con la normativa europea, ma mina la fiducia nel sistema nel suo complesso. Per noyb, l’intervento delle autorità è indispensabile per fermare l’abuso e ristabilire un principio chiaro: i dati non possono essere trattati come una proprietà altrui da monetizzare.

La vicenda Whitebridge mostra come l’assenza di controlli adeguati permetta a nuove realtà tecnologiche di operare ai margini della legalità, sfruttando zone grigie normative. Per il mondo digitale italiano, il messaggio è evidente: innovare richiede trasparenza e rispetto delle regole. Senza questi elementi, l’intelligenza artificiale rischia di diventare uno strumento che divide invece di generare valore mettendo fortemente a rischio il diritto alla privacy.