Spagna e Grecia hanno deciso di intervenire in modo diretto sull’uso dei social media da parte dei minori, segnando un passaggio che va oltre il dibattito ciclico su educazione digitale e responsabilità individuale. Madrid ha annunciato l’intenzione di vietare l’accesso alle piattaforme social ai ragazzi sotto i 16 anni, mentre Atene si prepara a presentare una proposta analoga con una soglia fissata a 15. La scelta arriva in un contesto europeo sempre più orientato a trattare i social come ambienti che richiedono regole strutturali, soprattutto quando coinvolgono adolescenti.
La posizione spagnola introduce un elemento ulteriore che sposta il baricentro del confronto. Il governo guidato da Pedro Sánchez ha dichiarato di voler lavorare a una norma che renda i dirigenti delle piattaforme direttamente responsabili per la diffusione di contenuti di odio. L’idea è quella di superare un modello in cui le sanzioni colpiscono solo l’azienda come soggetto astratto, portando invece la responsabilità dentro le scelte di governance, moderazione e progettazione dei servizi.
Divieti ai minori e ruolo delle piattaforme
La proposta sui limiti di età viene presentata come uno strumento di tutela, anche sociale. Secondo l’esecutivo spagnolo, una soglia legale chiara rafforzerebbe il ruolo dei genitori e ridurrebbe la pressione che molti ragazzi avvertono nel dover essere sempre presenti sulle piattaforme. In Grecia, la linea seguita appare simile e si inserisce in un clima politico europeo che guarda con maggiore attenzione all’impatto dei social sullo sviluppo e sul benessere dei più giovani.
Il tema non è isolato. Francia e Regno Unito stanno valutando misure comparabili, mentre l’Australia ha già introdotto un divieto generalizzato per gli under 16. Esperienze che mostrano come l’applicazione pratica di questi limiti apra questioni complesse, dalla verifica dell’età all’uso di servizi alternativi meno regolati, ma che segnalano una volontà politica sempre più esplicita di intervenire.
Responsabilità personali e contenuti generati dall’intelligenza artificiale
Il rafforzamento delle responsabilità individuali dei dirigenti si intreccia con un altro elemento centrale del dibattito: l’esplosione dei contenuti generati dall’intelligenza artificiale. Negli ultimi mesi, casi legati alla produzione e diffusione di immagini non consensuali, incluse quelle che coinvolgono minori, hanno evidenziato i limiti dei sistemi di controllo automatico e delle politiche di moderazione basate sulla rimozione a posteriori.
Per le autorità spagnole, questi episodi mostrano come il problema non possa essere ridotto a singoli abusi o a comportamenti devianti degli utenti. Al centro finiscono i modelli di progettazione delle piattaforme, la velocità di diffusione dei contenuti e l’integrazione di strumenti di intelligenza artificiale senza barriere sufficienti a prevenire usi illeciti.
Coordinamento europeo e applicazione delle regole
Proprio per questo, la Spagna ha annunciato l’adesione a una “Coalizione dei Volenterosi Digitali”, un gruppo di Paesi europei che punta a coordinare l’applicazione delle norme oltre i confini nazionali. L’obiettivo dichiarato è evitare che le piattaforme sfruttino differenze regolatorie tra Stati e rafforzare l’efficacia dell’enforcement in un mercato digitale che opera per definizione su scala transnazionale.
Il messaggio che emerge è destinato a incidere anche su imprese e professionisti del settore tecnologico. La regolazione dei social media in Europa si muove verso una fase in cui limiti di età, responsabilità personali e prevenzione del rischio diventano parte integrante del modello di business e della governance.
