Il patteggiamento di TikTok nel contenzioso californiano sulla dipendenza da social media cristallizza un passaggio storico. Per la prima volta il cuore del modello di business delle piattaforme digitali, che investe l’architettura algoritmica dell’attenzione, entra in tribunale come possibile fonte diretta di responsabilità.
La vicenda, esplosa pubblicamente tra il 27 e il 29 gennaio 2026, nasce dalla denuncia di una giovane identificata come K.G.M., ma ha rapidamente assunto una dimensione sistemica. L’accusa principale mossa alle piattaforme è relativa all’aver progettato ambienti digitali capaci di indurre comportamenti compulsivi, soprattutto negli adolescenti, pur essendo consapevoli dei rischi psicologici connessi.
Dal “tempo speso” al danno prevedibile
Per anni il dibattito su social media e minori si è mosso lungo una linea difensiva chiara che faceva rientrare l’uso eccessivo nella responsabilità dell’utente o della famiglia, con l’algoritmo strumento neutro di personalizzazione. Il contenzioso californiano rompe questa narrazione, spostando l’attenzione dalla fruizione individuale alla progettazione sistemica.
Gli atti processuali descrivono piattaforme costruite attorno a meccanismi di rinforzo comportamentale come feed infiniti, ripetizione dei contenuti, autoplay, notifiche progettate per interrompere e richiamare l’attenzione. Un ecosistema pensato per massimizzare permanenza, frequenza e coinvolgimento emotivo.
Se un danno è prevedibile e previsto e il sistema viene mantenuto nonostante tale consapevolezza, la responsabilità delle piattaforme diventa evidente.
Il significato reale del patteggiamento di TikTok
La scelta di TikTok di patteggiare prima dell’apertura del dibattimento va letta in questa chiave. Non si può certamente far passare come un’ammissione formale di colpa, ma nemmeno come una semplice transazione economica. È una decisione che evita il cuore più pericoloso del processo e cioè l’esposizione pubblica delle logiche interne di progettazione, delle metriche di engagement e delle valutazioni sui rischi per i minori.
In un procedimento di questo tipo, il vero costo non è la discovery e non un risarcimento del danno. È lì che un’azienda rischia di consegnare al giudizio pubblico, e a futuri tribunali, documenti, comunicazioni interne e analisi che potrebbero diventare precedenti di fatto.
Il patteggiamento, però, non indebolisce l’impianto accusatorio. Anzi, lo rafforza. Perché ora il processo prosegue concentrandosi su chi ha deciso di restare in aula.
Meta e Alphabet: quando la consapevolezza diventa prova
Per Meta e Alphabet, il contenzioso assume una dimensione ancora più delicata. Gli atti fanno riferimento a comunicazioni interne che mostrerebbero una conoscenza approfondita degli effetti delle piattaforme sui più giovani. Studi commissionati, report interni, messaggi tra dirigenti che descrivono Instagram come una forma di dipendenza o che riconoscono l’impatto negativo di certi meccanismi di engagement.
Qui il processo cambia natura. Non si discute più solo di causalità tra uso e danno, ma di una possibile scelta consapevole di non intervenire, o di intervenire in modo insufficiente, pur in presenza di segnali allarmanti.
Dal punto di vista giuridico, questo passaggio è decisivo. Perché introduce il tema della responsabilità organizzativa rispetto a una strategia aziendale protratta nel tempo.
Salute mentale, perizia e tribunale
Un altro elemento che rende questo caso diverso dai precedenti è il ruolo centrale della salute mentale come oggetto di prova. Ansia, depressione, disturbi dell’attenzione, isolamento sociale non vengono evocati come effetti collaterali generici, ma analizzati attraverso perizie cliniche e studi longitudinali.
Il tribunale è chiamato a valutare se esista un nesso sufficientemente solido tra l’architettura delle piattaforme e il danno psicologico, e se tale nesso fosse prevedibile per chi quelle piattaforme le ha progettate. È un passaggio delicatissimo, perché porta il giudice a confrontarsi con neuroscienze, psicologia comportamentale e design algoritmico.
Oltre la California: un precedente globale
Sebbene il processo si svolga negli Stati Uniti, le sue implicazioni travalicano il contesto americano. In Europa, il tema della protezione dei minori è già al centro del Digital Services Act e dell’AI Act, nonché nella discussione in atto in relazione al chat control, ma il contenzioso californiano introduce una prospettiva complementare che investe la responsabilità ex post per danni prodotti da scelte di progettazione consapevoli.
Se Meta e Alphabet dovessero essere ritenute responsabili, il messaggio sarebbe chiaro anche per il legislatore europeo. La regolazione ex ante non basta, se non è accompagnata dalla possibilità di chiamare le piattaforme a rispondere delle conseguenze reali dei loro sistemi.
