Francia, TikTok sotto accusa per i contenuti che spingono i minori al suicidio

Tempo di lettura: 3 minuti

La Procura di Parigi indaga su TikTok per presunti fallimenti nella protezione dei minori da contenuti autolesionistici. Il caso potrebbe segnare un punto di svolta nell’applicazione del Digital Services Act. Sul banco degli imputati non ci sono solo i video, ma l’algoritmo che li rende visibili

La decisione della Procura di Parigi di aprire un’indagine su TikTok segna una svolta nel rapporto tra intelligenza artificiale e responsabilità giuridica. La piattaforma è accusata di non aver impedito la diffusione di contenuti che spingono i minori verso il suicidio, un tema che tocca direttamente la salute mentale, la tutela dei giovani e la trasparenza dei sistemi algoritmici.

Un’indagine che mette in discussione gli algoritmi

Tutto parte da un rapporto parlamentare francese che denuncia il funzionamento del sistema di raccomandazione di TikTok. Secondo le autorità, l’algoritmo spingerebbe gli utenti più fragili in un circolo di video legati alla depressione e all’autolesionismo, amplificando stati d’animo negativi. Gli inquirenti hanno affidato alla brigata per i crimini informatici l’analisi dei meccanismi di moderazione e della gestione del rischio da parte della società, per verificare il rispetto delle normative europee sulla protezione dei minori e la trasparenza digitale.

I reati ipotizzati sono pesanti. Si delineano la propaganda a favore del suicidio e la mancata protezione di persone vulnerabili. TikTok ha dichiarato di collaborare con le autorità, ricordando di aver introdotto funzioni di supporto psicologico e strumenti per limitare la diffusione dei contenuti dannosi. L’indagine, pur nella sua fase iniziale, assume un valore simbolico per l’intero ecosistema digitale: l’algoritmo non è più solo un codice, ma un soggetto che incide direttamente sulla vita delle persone.

Dall’intelligenza artificiale al diritto europeo

Il caso francese apre un precedente importante. Per la prima volta una procura europea indaga sul legame tra design algoritmico e danno psicologico, portando la responsabilità digitale a un nuovo livello. Il tema centrale non è tanto la presenza di contenuti illeciti, ma la capacità di un sistema di raccomandazione di amplificarli e renderli più accessibili. È qui che entra in gioco il Digital Services Act, che impone alle piattaforme obblighi di valutazione del rischio e di mitigazione degli effetti negativi derivanti dall’intelligenza artificiale.

Se l’inchiesta dovesse confermare le accuse, le conseguenze sarebbero rilevanti anche per altri operatori digitali. Le imprese dovranno dimostrare non solo di saper gestire la moderazione, ma di poter prevedere e prevenire l’impatto dei propri algoritmi sul comportamento umano. La Francia, già protagonista nelle normative su fake news e regolazione delle piattaforme, si conferma come laboratorio europeo nella costruzione di nuove forme di tutela.

Verso una nuova responsabilità digitale

La questione è più ampia di una singola piattaforma e riguarda il modo in cui le tecnologie di raccomandazione modellano l’attenzione e influenzano le emozioni. L’algoritmo diventa così un fattore giuridico, non solo tecnico. Audit algoritmici, valutazioni d’impatto e governance dell’intelligenza artificiale non sono più scelte opzionali, ma requisiti di conformità che definiscono la credibilità di un’impresa.