L’ultimo Atlante dell’Infanzia di Save the Children descrive un rapporto sempre più intenso tra adolescenti italiani e sistemi di intelligenza artificiale. Molti ragazzi cercano un confronto emotivo con i chatbot nei momenti di solitudine o inquietudine, in una dinamica che si sta consolidando al di fuori della supervisione adulta. Questa tendenza si inserisce in un contesto in cui gli adulti mostrano una familiarità minore con gli strumenti digitali, creando una distanza che rende difficile comprendere la portata del cambiamento in atto.
Una parte consistente degli adolescenti vive un benessere psicologico discontinuo, con un divario marcato tra ragazze e ragazzi. In questo scenario l’intelligenza artificiale appare come un interlocutore disponibile e privo di giudizi, sebbene non sia progettata per riconoscere segnali di sofferenza né per sostenere conversazioni delicate. Il vuoto giuridico su questo tipo di interazione resta evidente e conferma la necessità di criteri più chiari per tutelare chi si affida a un sistema digitale nei momenti più fragili.
Rischi emotivi e necessità di una cornice normativa
Il tema è entrato nel dibattito europeo anche grazie al richiamo di Brando Benifei, che ha posto l’attenzione sulla solidità delle tutele previste dall’AI Act, rilanciando il messaggio del Papa di qualche giorno fa. “In queste settimane in cui si sta discutendo del futuro della regolazione europea in ambito digitale, con nuove richieste di deregolamentazione che provengono da fuori Europa e da alcune aziende tecnologiche, è stato per me un onore e un’occasione di straordinaria importanza poter incontrare Papa Leone XIV per ringraziarlo personalmente per il suo impegno per un’intelligenza artificiale che metta al centro l’essere umano, a partire dai più vulnerabili come i minori e come i lavoratori, oggi toccati dalle grandi trasformazioni in atto”. Ha dichiarato Brando Benifei, eurodeputato e relatore del’AI Act europeo al termine dell’udienza privata col papa, avvenuta a conclusione della conferenza internazionale sulla dignità dei minori nell’era dell’intelligenza artificiale organizzata da Child Foundation.
A livello nazionale alcune misure sono state introdotte, come la verifica dell’età per l’accesso ai siti pornografici. È una scelta che rafforza il controllo sugli ambienti più esposti. Cosa diversa è affrontare il rapporto emotivo tra adolescenti e chatbot. Non esiste una definizione giuridica che inquadri questo tipo di utilizzo, e mancano procedure che impongano ai sistemi digitali di riconoscere situazioni a rischio o di indirizzare il giovane verso un supporto adeguato.
Verso nuovi standard per proteggere gli adolescenti
L’intelligenza artificiale sta diventando una presenza costante per molti ragazzi, un riferimento che segue il ritmo delle loro emozioni. Questa dinamica può trasformarsi in un rapporto sbilanciato, in cui un modello conversazionale sembra offrire certezze che non può garantire. Senza una regolazione capace di cogliere questa evoluzione, la protezione dei minori rischia di rimanere incompleta.
Nell’insieme, le riflessioni di Save the Children, il richiamo del legislatore europeo e quello del Pontefice convergono su una stessa conclusione: la vulnerabilità digitale dei minori è ormai un elemento sociale, non un’ipotesi teorica. Per colmare il divario serve un salto di qualità normativo capace di affrontare i rischi emotivi con la stessa attenzione dedicata ai rischi tecnici. Una strategia che includa standard europei sulle interazioni, procedure trasparenti e responsabilità distribuite lungo tutta la filiera dello sviluppo digitale.
