Questo contributo non nasce con l’obiettivo di fornire una risposta definitiva, né di assumere una posizione radicale a favore o contro le nuove misure introdotte da Instagram. Al contrario, nasce come uno spunto di riflessione e di dibattito.
Quando la tecnologia entra in una dimensione delicata come la salute mentale degli adolescenti, le domande da porsi si spostano sul metodo. Come avviene l’intervento? Quali garanzie lo accompagnano? Quali conseguenze produce nel lungo periodo? Il punto, quindi, non è stabilire se una piattaforma stia facendo abbastanza, troppo o troppo poco, bensì capire quale modello di protezione stiamo costruendo e quale ruolo stiamo progressivamente attribuendo alle infrastrutture digitali nella gestione della vulnerabilità.
Non scrivo da genitore e forse proprio per questo mi è possibile soffermarmi su un aspetto meno emotivo e più strutturale della questione. Stiamo vedendo nascere nuove funzionalità e stiamo assistendo a un passaggio di ruolo, da piattaforme che ospitano semplicemente l’experience degli adolescenti, a piattaforme che iniziano a interpretarle, misurarle e, in alcuni casi, intervenire.
Il divieto dei social ai minori, una tendenza legislativa in espansione
Negli ultimi mesi, la discussione sull’accesso dei minori ai social media ha superato il piano teorico per tradursi in iniziative legislative in diverse parti del mondo. A dicembre 2025, l’Australia è diventata il primo Paese al mondo a vietare ai minori di 16 anni di detenere un account sui principali social network, con obblighi di verifica dell’età e sanzioni per le piattaforme che non adeguano i loro sistemi. In Europa, varie giurisdizioni stanno attuando o avanzando proposte similari: Spagna e Francia hanno annunciato misure per vietare l’accesso autonomo dei ragazzi sotto i 16 o 15 anni, mentre Italia, Grecia, Germania, Regno Unito, Danimarca, Portogallo e altri Stati stanno discutendo normative che fissano limiti di età o requisiti di consenso più rigorosi per l’utilizzo dei social media da parte dei minorenni. Queste iniziative emergono in parallelo agli orientamenti opposti delle istituzioni europee, come il Consiglio d’Europa, che ha recentemente richiamato la necessità di controlli e sanzioni efficaci per le piattaforme nell’utilizzo delle stessa da parte di minori online, sottolineando che oltre a verificare l’età degli utenti, servono regole chiare, strumenti di verifica e responsabilità giuridiche per chi non adotta misure di protezione adeguate.
Come funzionano gli alert di Instagram per gli adolescenti
Instagram introdurrà un sistema di avvisi rivolto ai genitori quando un adolescente, in un arco di tempo ristretto, effettui ricerche ripetute su termini legati a suicidio o autolesionismo. Gli alert verranno inviati tramite email, SMS, WhatsApp o notifica in-app e si attiveranno solo se la supervisione parentale è stata precedentemente abilitata.
Meta ha dichiarato di aver previsto una soglia minima di ricerche per evitare segnalazioni eccessive, adottando un criterio prudenziale. Gli avvisi saranno accompagnati da indicazioni e risorse di supporto per facilitare il dialogo in famiglia. La prima fase di implementazione riguarda Stati Uniti, Regno Unito, Australia e Canada, con estensione ad altre aree nel corso del 2026.
Tra auto-tutela e nuove finalità nel trattamento dei dati
Domandarsi se questo aggiornamento sia un tentativo di auto-tutela è legittimo, perché l’annuncio arriva in un contesto in cui le piattaforme sono sottoposte a pressioni convergenti: regolatorie, politiche e giudiziarie. Negli Stati Uniti, il tema della tutela dei minori è al centro di contenziosi, audizioni parlamentari e indagini sull’impatto dei social sulla salute mentale. In Europa, il quadro normativo (dal Digital Services Act alle prese di posizione del Consiglio d’Europa) insiste sulla responsabilità delle piattaforme nella prevenzione dei rischi sistemici e nella protezione dei minori online. In questo scenario, è ragionevole chiedersi se misure come quella annunciata da Instagram rispondano anche a un’esigenza di auto-tutela giuridica e reputazionale.
Detto in parole povere, sì, c’è anche un interesse di auto-tutela (legale, regolatoria e reputazionale). Ma questo non esclude che la misura possa essere utile. Le due cose possono coesistere: un intervento può essere, insieme, una mitigazione di rischio per l’azienda e uno strumento di tutela per gli utenti più giovani.
Sul piano dei dati, un aspetto va chiarito. La funzione di avviso non introduce una nuova categoria di informazioni raccolte. Meta raccoglie già da anni, per tutti gli account, dati relativi all’utilizzo del servizio: ricerche, contenuti visualizzati, interazioni, tempi di permanenza, dati tecnici di sessione e segnali comportamentali derivati dall’attività dell’utente. Questi elementi alimentano sistemi di personalizzazione, ranking e sicurezza.
La novità riguarda l’interpretazione. Ricerche ripetute su determinati termini, in un arco temporale definito, vengono considerate un segnale sufficiente per attivare una comunicazione verso un adulto. Il passaggio dall’analisi del comportamento alla decisione di intervento rappresenta il punto più sensibile della questione.
I nodi etici
Il punto più delicato si colloca proprio qui.
Per intercettare segnali di vulnerabilità, come abbiamo detto, la piattaforma deve analizzare comportamenti. Qui avviene un passaggio significativo: una sequenza di ricerche diventa un possibile “segnale di bisogno”. Ed è proprio questo salto, dal comportamento dell’utente all’inferenza della piattaforma, a sollevare il primo nodo etico: chi decide quando un’azione digitale smette di essere curiosità o esplorazione e diventa indicatore di fragilità?
La protezione, in questo modello, passa attraverso l’osservazione. E questo apre un secondo interrogativo: fino a che punto la tutela giustifica un intervento che incide sull’autonomia e sulla sfera relazionale dell’adolescente? La linea che separa prevenzione e paternalismo digitale non è sempre netta. In nome della sicurezza, si rischia di comprimere spazi di esplorazione che fanno parte del percorso di crescita.
C’è poi un terzo livello, più strutturale. Se accettiamo che le piattaforme possano leggere e classificare tracce di vulnerabilità emotiva per attivare meccanismi di intervento, stiamo normalizzando una forma di sorveglianza comportamentale sempre più profonda? Non è una novità nella raccolta dei dati, ma è una novità nel significato che attribuiamo a quei dati. E il significato, nel tempo, costruisce modelli culturali.
Infine, esiste un rischio pragmatico: l’effetto boomerang. La percezione di uno spazio osservato può modificare i comportamenti. Se un adolescente sa che determinate ricerche attiveranno un alert verso un adulto, continuerà a cercare informazioni in quello spazio? O si sposterà verso ambienti meno regolati, meno controllati, forse meno sicuri? Una misura pensata per proteggere può, in alcuni casi, produrre adattamenti imprevedibili.
E la domanda, allora, diventa anche personale prima che giuridica: se fossi genitore, sarei disposto a spingermi a tanto pur di proteggere mio figlio o mia figlia? La risposta istintiva sembra semplice. Ma proprio perché è semplice, merita di essere interrogata. Ogni scelta, anche quella animata dalle migliori intenzioni, genera effetti secondari che non possiamo ignorare.
Aprire questo dibattito non significa sminuire lo scopo delle misure di tutela. Significa prenderle sul serio. Perché solo interrogandoci sui limiti, sulle conseguenze e sugli equilibri tra sicurezza, autonomia e fiducia possiamo rafforzare davvero gli strumenti di protezione per i nostri figli, fratelli, amici che rientrano in quella fascia di età.
Discuterne ora è forse il modo migliore per evitare che siano solo la tecnologia o le dinamiche di mercato a definire il perimetro della soluzione. E, prima ancora, serve a non rischiare di scoprire troppo tardi che, nel tentativo di “proteggere”, abbiamo insegnato a nascondere.
Una riflessione aperta
In un “nuovo” spazio digitale che è in via di definizione, secondo me la domanda da porsi non è se desideriamo proteggere gli adolescenti, perchè su questo difficilmente potremmo non essere d’accordo, ma quale modello di protezione vogliamo legittimare e con quali garanzie. Chi decide le soglie, come si misurano gli effetti, quanto spazio resta all’autonomia e alla fiducia, come evitare che la prevenzione spinga verso il silenzio o verso luoghi più opachi.
Se questo contributo riuscirà ad aprire un confronto, anche con visioni diverse, allora potrà essere utile, perché la tutela dei minori online non può diventare un riflesso automatico né una delega integrale alla tecnologia. È un tema che chiede responsabilità, trasparenza.
Quindi, che cosa siamo disposti a cambiare, come società, pur di proteggere? E che cosa non vogliamo perdere mentre lo facciamo?
