Multa da 14,5 milioni di sterline a Reddit per i dati dei minori e controlli sull’età insufficienti

Tempo di lettura: 3 minuti

Il Regno Unito infligge a Reddit una sanzione da 14,47 milioni di sterline per trattamento illecito dei dati dei minori e assenza di adeguati sistemi di verifica dell’età. La decisione dell’Information Commissioner’s Office riaccende il dibattito su privacy, responsabilità delle piattaforme e protezione dei giovani utenti nel contesto delle regole europee e britanniche

La sanzione da 14,47 milioni di sterline inflitta a Reddit dall’autorità britannica per la protezione dei dati riporta al centro una questione che molte piattaforme digitali conoscono bene e cioè la gestione dei dati dei minori non può essere affidata a dichiarazioni formali nei termini di servizio, ma richiede scelte tecniche coerenti, documentate e verificabili.

L’Information Commissioner’s Office ha contestato alla società l’assenza di controlli efficaci sull’età degli utenti e la conseguente possibilità che ragazzi sotto i 13 anni abbiano utilizzato la piattaforma, con raccolta e utilizzo di dati personali senza una base giuridica adeguata. A questo si aggiunge un altro profilo rilevante: fino a gennaio 2025 non sarebbe stata effettuata una valutazione d’impatto sul trattamento dei dati dei minori tra 13 e 18 anni, passaggio richiesto quando il rischio per i diritti e le libertà degli interessati è elevato.

Perché la verifica dell’età diventa un tema strutturale per le piattaforme

Il punto sollevato dall’autorità britannica è lineare: se una piattaforma stabilisce un limite di età, deve predisporre strumenti idonei a farlo rispettare. In caso contrario, il trattamento dei dati dei minori rischia di avvenire senza presupposti validi. Questo orientamento si inserisce in una tendenza regolatoria più ampia che coinvolge anche l’Unione europea, dove il GDPR impone il principio di responsabilizzazione e richiede di dimostrare in modo concreto l’adeguatezza delle misure adottate.

Reddit ha annunciato ricorso e sostiene che un rafforzamento dei sistemi di verifica potrebbe comportare la raccolta di ulteriori informazioni identificative, ampliando il perimetro dei dati trattati. Il confronto si concentra quindi su un equilibrio delicato tra minimizzazione dei dati e tutela effettiva dei minori. Per le autorità, la protezione dei ragazzi online richiede meccanismi tecnici proporzionati e analisi preventive dei rischi; per le piattaforme, ogni intervento sulla verifica dell’età incide direttamente sull’esperienza utente e sull’assetto dei flussi informativi.

Quali effetti per chi opera nel digitale in Europa

Il caso si inserisce in un contesto politico britannico orientato verso restrizioni più incisive sull’accesso dei minori ai social media e su alcune funzionalità ritenute in grado di incentivare un utilizzo compulsivo. Il messaggio al mercato è chiaro: le autorità sono pronte a intervenire quando rilevano scostamenti tra regole dichiarate e funzionamento effettivo del servizio.

Per startup, scaleup, marketplace e piattaforme attive in Italia e nell’Unione europea, la questione riguarda la progettazione dell’intero ecosistema digitale. Registrazione degli utenti, sistemi di raccomandazione, profilazione pubblicitaria e gestione dei dati devono essere valutati anche alla luce dell’eventuale presenza di minori. La valutazione d’impatto non è un adempimento formale, ma uno strumento per individuare criticità prima che diventino violazioni.

La vicenda britannica mostra come la tutela dei minori online stia diventando un banco di prova per la maturità regolatoria delle piattaforme. La differenza si gioca sulla capacità di integrare le regole nella struttura tecnica del servizio, con procedure tracciabili e decisioni motivate. È su questo terreno che si misura oggi la solidità di un progetto digitale.