Il rapporto pubblicato da Amnesty International in Francia riaccende i riflettori sul legame tra algoritmi, salute mentale e responsabilità delle piattaforme digitali. Lo studio, intitolato Dragged into the Rabbit Hole, descrive un fenomeno inquietante: in pochi minuti, un profilo adolescente simulato su TikTok viene esposto a una sequenza di video su tristezza, ansia e autolesionismo. Un’esperienza che conferma la potenza delle logiche di raccomandazione automatica.
Quando il design genera dipendenza
Amnesty sottolinea che il problema non riguarda solo i contenuti, ma la struttura stessa della piattaforma. Le funzioni progettate per aumentare l’interazione possono trasformarsi in meccanismi di dipendenza, soprattutto per gli utenti più giovani. L’algoritmo riconosce le emozioni e le amplifica, creando una spirale di esposizione a contenuti negativi che rafforza fragilità preesistenti. In questo scenario, la responsabilità si sposta dal moderatore al progettista. Ciò che viene immaginato come “intrattenimento personalizzato” può diventare un rischio sistemico per la salute mentale.
Il quadro europeo del Digital Services Act
Il Digital Services Act impone alle piattaforme di grandi dimensioni di individuare, valutare e mitigare i rischi generati dai propri sistemi, inclusi quelli per la salute fisica e psicologica degli utenti. TikTok, se le accuse saranno confermate, potrebbe aver violato questi obblighi. La Commissione europea ha già avviato un’indagine per verificare il rispetto delle norme, con particolare attenzione ai minori e alla trasparenza dei sistemi di raccomandazione. Il DSA non si limita a richiedere maggiore chiarezza e introduce anche sanzioni fino al 6% del fatturato globale in caso di inadempienza. È una svolta giuridica che mira a rendere il design una responsabilità legale, non solo un fattore estetico o commerciale.
Dal controllo ex post alla progettazione responsabile
La logica normativa europea segna un passaggio cruciale: la prevenzione diventa parte integrante del design. Non basta più rimuovere i contenuti dannosi dopo la pubblicazione; occorre progettare interfacce che ne riducano la probabilità di diffusione. Il concetto di safety by design diventa così il cuore del nuovo modello di accountability. Un’interfaccia che spinge alla fruizione compulsiva o che amplifica emozioni negative non può più essere considerata neutra. È, a tutti gli effetti, un rischio da mitigare.
La posizione di TikTok e il nodo della trasparenza
TikTok sostiene di aver introdotto strumenti di benessere digitale, limiti di tempo e controlli parentali. Misure che, secondo Amnesty, restano insufficienti di fronte a un sistema di raccomandazione che continua a privilegiare il tempo di permanenza e l’engagement rispetto alla tutela psicologica. Il vero nodo è la trasparenza: comprendere come l’algoritmo seleziona i contenuti significa capire chi ne sopporta le conseguenze. Finché il funzionamento dei sistemi resta opaco, ogni promessa di protezione rischia di essere parziale.
Responsabilità algoritmica e nuove frontiere del diritto digitale
Il caso TikTok è uno dei primi test concreti della responsabilità algoritmica in Europa. La verifica avviata dalla Commissione potrebbe ridefinire il perimetro della responsabilità giuridica delle piattaforme, spostandola dalle scelte editoriali alle scelte ingegneristiche.
