Social vietati agli under 16, in Australia Meta cancella mezzo milione di account

Tempo di lettura: 4 minuti

a nuova normativa australiana che limita l’accesso ai social network ai minori di 16 anni è già operativa e costringe le piattaforme a verificare l’età degli utenti. Il caso Meta mostra come l’enforcement incida su dati personali, responsabilità e modelli di verifica dell’età online. Un precedente che alimenta il dibattito globale su tutela dei minori, privacy e regolazione dei servizi digitali

Il divieto imposto dall’Australia all’accesso ai social network per i minori di 16 anni ha smesso rapidamente di essere un principio astratto. A poche settimane dall’entrata in vigore della legge, Meta ha avviato una rimozione su larga scala degli account ritenuti riconducibili a utenti sotto la soglia anagrafica prevista, disattivandone oltre 544mila tra Instagram, Facebook e Threads. L’operazione, concentrata in pochi giorni, ha mostrato come una norma nazionale possa produrre effetti immediati sull’ecosistema globale delle piattaforme digitali.

Divieto under 16 e applicazione concreta delle piattaforme

La portata dell’intervento non risiede soltanto nei numeri comunicati dall’azienda, ma nella modalità con cui è stato eseguito. Non si è trattato di un percorso graduale o sperimentale, bensì di un’azione estesa che ha trasformato l’Australia nel primo grande laboratorio occidentale di un modello fondato sull’esclusione per età. Per la prima volta una piattaforma globale applica in modo sistematico un obbligo legale che vieta l’accesso a un’intera fascia di utenti, assumendosi la responsabilità di individuarli e rimuoverli.

Questo passaggio segna una discontinuità rispetto alle logiche di autoregolazione che hanno caratterizzato finora la governance dei social network. Non è più solo una questione di progettazione sicura o di mitigazione dei rischi, ma di risultati verificabili richiesti dal legislatore. La differenza è sostanziale: il rispetto della norma non si misura sulle politiche dichiarate, ma sugli account effettivamente eliminati.

Verifica dell’età, dati personali e responsabilità giuridica

Nel commentare l’attuazione della legge, Meta ha ammesso che il rispetto del divieto passa attraverso un processo articolato e privo di standard condivisi sulla determinazione dell’età online. Il nodo emerge con chiarezza sul piano giuridico e tecnico. Accertare l’età di un utente implica raccogliere o inferire dati personali aggiuntivi, spesso in tensione con il principio di minimizzazione che informa le moderne normative sulla protezione dei dati.

Il rischio non è solo teorico. Sistemi di verifica dell’età troppo invasivi possono ampliare la superficie di raccolta dei dati, introducendo nuove vulnerabilità e responsabilità, soprattutto quando i soggetti coinvolti sono minori. La protezione da contenuti e dinamiche nocive rischia così di intrecciarsi con pratiche di controllo dell’identità digitale che sollevano interrogativi sulla proporzionalità degli strumenti adottati.

In questo contesto si colloca la proposta avanzata dalla stessa Meta di spostare la verifica dell’età a monte, affidandola agli app store e subordinando il download delle applicazioni al consenso dei genitori. Una simile soluzione ridisegnerebbe l’architettura della responsabilità nel mercato digitale, coinvolgendo in modo diretto gli intermediari che controllano l’accesso ai servizi. Non è solo una questione tecnica, ma un possibile cambio di equilibrio tra piattaforme, distributori e autorità pubbliche.

Il precedente australiano e le ricadute sul dibattito europeo

Pur difendendo l’impianto della legge, il governo australiano ha invitato le piattaforme a collaborare per individuare soluzioni capaci di garantire sicurezza online senza sacrificare la tutela della privacy. Questa posizione segnala i limiti di un approccio esclusivamente proibizionistico e apre alla possibilità di correttivi. Nel frattempo, l’esperimento australiano assume un valore che va oltre i confini nazionali.

Per l’Unione europea il caso rappresenta un riferimento concreto in un dibattito già aperto sulla regolazione dei servizi digitali. Il modello europeo, fondato sulla valutazione del rischio e sulla responsabilizzazione graduata delle piattaforme, ha finora evitato divieti assoluti legati all’età. La rimozione di centinaia di migliaia di account in Australia dimostra che l’enforcement è tecnicamente praticabile, ma rende visibili anche i costi sistemici che possono derivarne in termini di diritti, dati e governance.

La cancellazione di mezzo milione di profili non è soltanto un dato statistico. È l’indicatore di una fase nuova della regolazione dei social network, in cui le scelte dei singoli Stati producono effetti globali e costringono piattaforme e legislatori a confrontarsi con le conseguenze concrete delle proprie decisioni. L’Australia ha aperto un precedente operativo. Le altre giurisdizioni sono ora chiamate a misurarsi con lo stesso equilibrio tra tutela dei minori, sostenibilità tecnica e salvaguardia dei diritti digitali.