Il lato oscuro dei social. L’UE chiede risposte alle Big Tech per tutelare i minori

Tempo di lettura: 3 minuti

La Commissione Europea ha chiesto a Snap, YouTube, Apple e Google di spiegare in che modo proteggono i minori sui loro servizi. Le richieste rientrano nel quadro del Digital Services Act e anticipano una nuova stagione di controlli sulle piattaforme, con l’obiettivo di garantire sicurezza e trasparenza nell’ecosistema digitale europeo

La Commissione Europea ha compiuto un nuovo passo nel controllo delle grandi piattaforme digitali, chiedendo a Snap, YouTube, Apple e Google di chiarire come proteggono i minori che utilizzano i loro servizi. Le richieste, inviate nell’ambito del Digital Services Act, rappresentano un segnale preciso: Bruxelles vuole verificare se le misure dichiarate dalle big tech siano davvero efficaci nella pratica.

La sicurezza dei minori come priorità europea

Durante un incontro in Danimarca con i ministri europei del digitale, la Commissaria Henna Virkkunen ha ribadito che i minori devono poter contare su un ambiente online sicuro. Ha ricordato che il Digital Services Act nasce proprio per garantire trasparenza e responsabilità alle piattaforme che operano nel mercato europeo. In questa occasione, i rappresentanti degli Stati membri hanno discusso la cosiddetta Dichiarazione di Jutland, un documento che punta a rafforzare la cooperazione tra Paesi per la protezione dei più giovani in rete.

Le quattro richieste formali di informazioni riguardano aspetti differenti, ma tutte ruotano attorno allo stesso obiettivo: ridurre i rischi legati all’uso dei servizi digitali da parte dei minori. Snapchat dovrà chiarire come impedisce l’accesso agli under 13 e quali strumenti adotta per evitare la vendita di prodotti illegali ai più giovani, come sigarette elettroniche o sostanze vietate. Una misura che mira non solo alla sicurezza digitale, ma anche a quella fisica.

App store e algoritmi sotto osservazione

Apple e Google dovranno spiegare come i loro marketplace gestiscono la classificazione per età e quali sistemi di mitigazione dei rischi adottano per limitare l’accesso a contenuti o applicazioni potenzialmente dannosi. Le autorità europee vogliono verificare che i filtri e le politiche di sicurezza non siano meri strumenti di facciata, ma strumenti realmente operativi.

Particolare attenzione è rivolta anche a YouTube. La piattaforma, di proprietà di Google, dovrà fornire dettagli sui sistemi di verifica dell’età e sul funzionamento degli algoritmi di raccomandazione, spesso accusati di esporre gli utenti più giovani a contenuti inappropriati o potenzialmente pericolosi. La Commissione intende accertare se le tecnologie di “age assurance” e i meccanismi di personalizzazione siano effettivamente in linea con le norme europee.

Parallelamente, Bruxelles coordinerà con le autorità nazionali una verifica estesa su piattaforme di dimensioni minori, per assicurarsi che l’applicazione del Digital Services Act sia uniforme in tutta l’Unione. È un segnale chiaro: non solo le grandi aziende, ma anche i player minori devono dimostrare di adottare standard elevati di sicurezza e trasparenza.

Verso una responsabilità condivisa nel digitale

Le richieste della Commissione arrivano in un momento in cui il dibattito sulla tutela dei minori online si fa sempre più urgente. La presidente Ursula von der Leyen ha annunciato l’avvio di un tavolo di confronto europeo dedicato al tema, con l’obiettivo di definire nuove linee guida comuni. Le indagini su Snap, YouTube, Apple e Google rappresentano dunque un test per il DSA, ma anche un banco di prova per il futuro dell’ecosistema digitale europeo.

In prospettiva, il lavoro della Commissione potrebbe portare a nuove linee di condotta vincolanti o a sanzioni, se emergessero violazioni del DSA. Per chi opera nel settore digitale, è un richiamo alla responsabilità e all’adeguamento continuo, non solo per evitare sanzioni, ma per costruire un ambiente online più affidabile e sostenibile.