Instagram avviserà i genitori sulle ricerche su suicidio e autolesionismo degli adolescenti

Tempo di lettura: 3 minuti

Instagram introdurrà notifiche automatiche ai genitori quando un adolescente effettua ricerche ripetute su suicidio o autolesionismo. La misura solleva questioni su privacy, profilazione algoritmica e responsabilità delle piattaforme nella tutela dei minori online

Instagram introdurrà un sistema di notifiche rivolto ai genitori quando un adolescente effettuerà ricerche ripetute su suicidio o autolesionismo in un intervallo di tempo ristretto. Gli avvisi verranno inviati tramite email, SMS, WhatsApp e attraverso l’app, a condizione che sia attiva la supervisione parentale. La misura segna un passaggio rilevante nel modo in cui le piattaforme social affrontano la tutela dei minori, spostando l’attenzione dal contenuto pubblicato al comportamento di ricerca.

Come funziona il nuovo sistema di notifiche su Instagram

Instagram già limita la visibilità dei contenuti esplicitamente collegati al suicidio o all’autolesionismo. La novità riguarda l’analisi della reiterazione delle query: il sistema rileva più ricerche sensibili in un arco temporale ristretto e attiva un alert verso il genitore collegato all’account del minore. L’algoritmo valuta termini, frequenza e contesto linguistico per individuare possibili segnali di fragilità emotiva. Meta ha chiarito di aver impostato una soglia prudenziale, accettando il rischio di alcune segnalazioni improprie pur di intercettare situazioni potenzialmente gravi.

L’annuncio arriva in un momento di forte pressione legale negli Stati Uniti, dove diverse azioni giudiziarie contestano alle piattaforme un impatto negativo sulla salute mentale degli adolescenti. Durante audizioni pubbliche, i vertici di Instagram sono stati interrogati sulla tempistica e sull’efficacia degli strumenti di sicurezza introdotti negli ultimi anni. Questo nuovo sistema si inserisce in un quadro in cui la prevenzione dei rischi diventa parte integrante della strategia aziendale.

Profilazione comportamentale, salute mentale e responsabilità delle piattaforme

Il nodo giuridico riguarda la natura dei dati trattati. Monitorare ricerche ripetute implica un’analisi semantica delle query e una classificazione algoritmica del comportamento dell’utente. Si entra in un ambito che può toccare informazioni legate alla salute mentale, anche in assenza di una diagnosi clinica. Nel contesto europeo, il regolamento generale sulla protezione dei dati richiede basi giuridiche solide, trasparenza informativa e valutazioni d’impatto quando si trattano dati particolarmente delicati, soprattutto se riferiti a minori.

La questione riguarda anche la proporzionalità del trattamento. Informare i genitori può facilitare un intervento tempestivo e offrire supporto in situazioni di rischio. Allo stesso tempo, l’introduzione di alert automatici incide sull’autonomia digitale dell’adolescente e ridefinisce il confine tra prevenzione e controllo. La valutazione si sposta quindi sul bilanciamento tra tutela della persona e rispetto della sfera privata.

Meta ha inoltre annunciato che in futuro il sistema potrà attivarsi anche in caso di interazioni con strumenti di intelligenza artificiale integrati nell’app su temi collegati al suicidio o all’autolesionismo. Le conversazioni con sistemi generativi sono spesso percepite come spazi personali di espressione. L’eventuale estensione degli alert a questo ambito amplia il perimetro della profilazione e rende centrale il tema della conservazione dei dati, della sicurezza informatica e della responsabilità nella progettazione dei servizi digitali.

La protezione dei minori online entra così nel cuore dell’architettura tecnica delle piattaforme. Per chi sviluppa prodotti digitali o investe nel settore, questo passaggio indica una direzione precisa: prevenzione attiva dei rischi, integrazione della compliance nel design dei sistemi e assunzione di responsabilità lungo tutta la filiera tecnologica.