Social più sicuri: il nuovo sistema PG-13 di Instagram cambia le regole per i teen

Tempo di lettura: 3 minuti

Meta lancia un sistema di protezione ispirato alle classificazioni dei film, applicato ai profili under 18. I nuovi filtri limiteranno linguaggio esplicito, riferimenti a droghe e temi maturi. L’obiettivo è ricostruire la fiducia di genitori e utenti dopo le polemiche sulla sicurezza dei social

Meta ha deciso di rafforzare la protezione degli adolescenti su Instagram con un sistema di filtri ispirato alla classificazione cinematografica PG-13. La piattaforma limiterà automaticamente la visibilità dei contenuti per gli utenti sotto i 18 anni, intervenendo su linguaggio, riferimenti a droghe, comportamenti rischiosi e altri temi considerati non adatti. La mossa rappresenta un passo importante nel percorso di responsabilità digitale delle grandi piattaforme, spesso accusate di non tutelare a sufficienza i minori.

Instagram introduce filtri PG-13 per i minori

Il nuovo sistema di sicurezza si ispira alle valutazioni della Motion Picture Association e impone un controllo più rigido sui post e sulle interazioni. Tutti gli account di adolescenti verranno automaticamente inseriti in un profilo con restrizioni PG-13, che i genitori potranno rendere ancora più severe tramite l’opzione “contenuti limitati”. Meta ha inoltre annunciato che i profili dei minori non potranno comunicare con account che condividono materiale inappropriato. Queste regole si estendono anche agli strumenti di intelligenza artificiale dell’azienda, dopo le critiche ricevute per chatbot che avevano simulato conversazioni “romantiche” o sensibili.

Una risposta alle accuse e alle pressioni legali

Negli ultimi mesi Meta ha affrontato numerose cause legali promosse da genitori e distretti scolastici, che accusano la società di alimentare comportamenti compulsivi e danni psicologici tra i giovani. I nuovi filtri arrivano quindi in un momento di forte pressione reputazionale, ma anche di confronto con le autorità statunitensi ed europee sui temi di sicurezza online e responsabilità delle piattaforme. Le modifiche verranno introdotte gradualmente in Stati Uniti, Regno Unito, Australia e Canada, con l’obiettivo di completare il rollout entro la fine dell’anno.

Meta ha spiegato che, per evitare tentativi di aggirare i limiti, utilizzerà sistemi di riconoscimento dell’età basati su intelligenza artificiale. Questa scelta, se da un lato migliora la protezione, dall’altro apre un nuovo fronte di dibattito sulla raccolta dei dati biometrici e sulla trasparenza degli algoritmi. È il segno di come la sicurezza digitale si muova su un terreno fragile, dove ogni soluzione tecnica genera nuove domande etiche e giuridiche.

Verso una nuova cultura della responsabilità digitale

Le misure di Instagram fanno parte di un piano più ampio che coinvolge anche Facebook e altri prodotti del gruppo. Meta sta tentando di dimostrare di poter gestire in autonomia la sicurezza dei minori, forse nel tentativo di anticipare regolamentazioni più stringenti da parte dei governi. Per chi lavora nel settore digitale, questa evoluzione rappresenta un caso di studio significativo.

Nel contesto globale, la decisione di Meta potrebbe influenzare anche le future politiche europee sul controllo dei contenuti. La crescente attenzione delle istituzioni verso la protezione dei minori online indica che la responsabilità non può più essere delegata esclusivamente alle famiglie o agli utenti. La rete, per continuare a essere uno spazio di libertà, ha bisogno di regole condivise e trasparenti.

Il rilascio dei nuovi filtri segna quindi un passaggio chiave: non solo un intervento tecnico, ma un atto simbolico che ridefinisce il ruolo delle piattaforme nella società digitale.