Social vietati agli under 15: l’Italia apre il dibattito e guarda all’Europa

Tempo di lettura: 4 minuti

Una proposta di legge italiana punta a vietare l’accesso ai social agli under 15 entro il 2026, tra obblighi di age verification, sanzioni severe e un contesto europeo in rapida evoluzione

La proposta di legge depositata alla Camera nei primi mesi del 2026 introduce un tema che da tempo attraversa il dibattito europeo e cioè quello legato al rapporto tra minori e piattaforme digitali. Il testo, a prima firma di Giorgia Latini, punta a vietare l’accesso ai social media ai ragazzi sotto i 15 anni e ad affiancare il divieto con obblighi stringenti per i fornitori dei servizi, dalla verifica dell’età fino alla riduzione dei rischi legati all’uso dei sistemi digitali.

Il calendario indicato dal legislatore guarda alla fine del 2026 come orizzonte per l’approvazione. Una tempistica che coincide con la piena entrata a regime delle grandi normative europee sul digitale. La proposta si colloca quindi dentro una fase di transizione, in cui gli Stati membri cercano di interpretare e, in alcuni casi, anticipare l’impianto regolatorio dell’Unione.

Il rapporto con il quadro europeo

Il riferimento implicito è il Digital Services Act, che già impone alle piattaforme online obblighi di valutazione e mitigazione dei rischi sistemici, con particolare attenzione ai minori. La proposta italiana riprende questa impostazione, ma introduce una scelta più netta e, quindi, una soglia anagrafica rigida per l’accesso ai social media, affidando alle piattaforme l’onere di farla rispettare.

Questa impostazione apre un tema di coordinamento tra diritto nazionale e diritto dell’Unione. Il DSA costruisce un sistema di responsabilità graduata legata ai rischi dei servizi. La scelta italiana potrebbe rafforzare la tutela dei minori, ma rischia anche di creare disallineamenti se altri Paesi adotteranno soluzioni differenti o se l’Unione sceglierà una strada più uniforme.

La verifica dell’età e il ruolo dell’Agcom

Uno dei passaggi più delicati riguarda la verifica dell’età. Il testo richiama il principio di neutralità tecnologica e rinvia all’Agcom la definizione delle modalità operative entro sessanta giorni dall’entrata in vigore della legge. Nessuna tecnologia viene indicata in modo esplicito, lasciando spazio a soluzioni diverse.

Questa scelta evita di bloccare l’innovazione su strumenti destinati a evolvere rapidamente, ma concentra sull’autorità amministrativa un compito complesso. L’equilibrio da trovare riguarda accuratezza dei controlli, tutela dei dati personali e sostenibilità tecnica per operatori molto diversi per dimensioni e modelli di business. La questione dell’age verification resta infatti una delle più controverse a livello europeo, proprio perché ogni soluzione comporta costi e rischi specifici.

Sanzioni e poteri di intervento

Il regime sanzionatorio previsto richiama da vicino quello delle normative europee più recenti. In caso di violazioni, le sanzioni possono arrivare fino al 6 per cento del fatturato annuo globale della piattaforma. Accanto alle multe, il testo attribuisce all’Agcom il potere di ordinare l’oscuramento del servizio in caso di inadempienze reiterate.

Si tratta di strumenti pensati per garantire effettività alle regole, ma che sollevano interrogativi sul piano della proporzionalità e dell’impatto sistemico. L’oscuramento di una piattaforma comporta effetti che vanno oltre il singolo operatore e incidono sull’accesso ai servizi digitali da parte di un’intera platea di utenti.

Dalla soglia anagrafica alla struttura dei servizi

La proposta non si ferma al tema dell’accesso. Ai fornitori di social media viene richiesto di intervenire anche sul funzionamento dei servizi, con misure orientate a ridurre l’esposizione dei minori a contenuti e dinamiche considerate dannose per lo sviluppo fisico e psicologico. L’attenzione si concentra su pratiche di design e sistemi di raccomandazione capaci di favorire comportamenti compulsivi.

Questo passaggio sposta il focus dal singolo contenuto illecito all’architettura complessiva delle piattaforme, avvicinando l’impostazione nazionale a quella europea sui rischi sistemici. La responsabilità non riguarda solo ciò che viene pubblicato, ma anche il modo in cui i servizi sono progettati e distribuiti.

Genitori, consenso e responsabilità

Per i minori tra i 15 e i 18 anni, il testo prevede un accesso subordinato al consenso dei genitori, espresso attraverso procedure tecniche integrate nelle piattaforme. Anche in questo caso, la disciplina concreta viene rimessa all’Agcom.

La previsione rafforza formalmente il ruolo della famiglia nella vita digitale dei ragazzi, ma la sua efficacia dipenderà molto dalla semplicità degli strumenti messi a disposizione. Senza meccanismi chiari e comprensibili, il rischio è che la responsabilizzazione resti più teorica che reale.

Nel complesso, la proposta appare come una norma di transizione. Da un lato cerca di rafforzare la tutela dei minori, dall’altro posiziona l’Italia dentro un dibattito europeo ancora in movimento. Il 2026 rappresenta quindi un punto di verifica, per capire se questo approccio avrà contribuito a una maggiore protezione o se avrà accentuato la frammentazione regolatoria nello spazio digitale europeo.