Il governo britannico accelera sulla regolazione dell’accesso dei minori alle piattaforme digitali e valuta un divieto dei social media per chi ha meno di 16 anni, insieme a un’estensione delle regole di sicurezza anche ad alcune conversazioni uno a uno con sistemi di intelligenza artificiale finora rimaste ai margini della normativa. L’intervento si inserisce nel percorso di aggiornamento della legge sulla sicurezza online entrata in vigore nel 2023 e punta a rendere più rapida la possibilità di modificare il perimetro delle responsabilità quando emergono nuovi rischi.
La proposta nasce da una consultazione pubblica avviata dall’esecutivo guidato da Keir Starmer, con l’obiettivo di introdurre eventuali modifiche entro pochi mesi dalla sua conclusione. Il modello di riferimento è quello australiano, che ha già bloccato l’accesso ai social per gli under 16. Londra intende intervenire tramite emendamenti collegati alla legislazione su criminalità e tutela dei minori attualmente all’esame del Parlamento, così da evitare un nuovo iter lungo e complesso.
Divieto social under 16 e verifica dell’età nel Regno Unito
Il possibile divieto comporta un rafforzamento dei meccanismi di verifica dell’età e un chiarimento giuridico su cosa rientri nella definizione di social media. Senza una delimitazione precisa, l’applicazione della norma rischia di generare incertezze operative per piattaforme e fornitori di servizi digitali. Il governo valuta anche restrizioni sull’uso delle reti private virtuali da parte dei minori, perché spesso consentono di aggirare i blocchi territoriali e i controlli anagrafici.
Accanto al bando dei social, la consultazione include poteri per limitare il cosiddetto stranger pairing nelle console di gioco e in alcune esperienze di gaming online, oltre a misure per bloccare l’invio e la ricezione di immagini di nudo tra minori. Un ulteriore capitolo riguarda l’introduzione di ordini automatici di conservazione dei dati digitali in caso di morte di un bambino, così da permettere agli investigatori di acquisire prove prima che vengano cancellate secondo le policy delle piattaforme.
Chatbot e responsabilità delle piattaforme nella legge sulla sicurezza online
Uno degli aspetti più rilevanti riguarda i chatbot basati su intelligenza artificiale. L’attuale impianto normativo copre in modo più diretto i contenuti condivisi tra utenti, mentre alcune interazioni private con sistemi conversazionali restano fuori dagli obblighi più stringenti. Il governo intende chiudere questa lacuna, soprattutto alla luce dei casi recenti in cui strumenti generativi hanno prodotto immagini sessualizzate senza consenso, sollevando dubbi sulla capacità delle piattaforme di prevenire abusi prima che si verifichino.
Per le imprese digitali il segnale è chiaro: la responsabilità si sposta sempre più verso la progettazione dei servizi, la valutazione preventiva dei rischi e l’adozione di misure tecniche idonee a tutelare i minori. La verifica dell’età, la configurazione delle impostazioni predefinite e la gestione delle interazioni automatizzate diventano elementi centrali del modello di business, con effetti diretti su costi, processi interni e strategie di mercato.
La discussione britannica si inserisce in un contesto internazionale in cui diversi governi stanno rivedendo il rapporto tra libertà di accesso ai servizi digitali e protezione dei soggetti più vulnerabili. Le scelte di Londra avranno un impatto che supera i confini nazionali, perché molte piattaforme operano su scala globale e difficilmente potranno adottare soluzioni tecniche radicalmente diverse per ciascun ordinamento. Nei prossimi mesi il confronto parlamentare chiarirà tempi e contenuti delle modifiche, mentre le aziende iniziano a misurare le conseguenze operative di una regolazione più incisiva.
