Per anni l’Europa si è impegnata a costruire architetture normative per governare la rivoluzione digitale. Prima specifiche e complesse, poi con una certa tendenza alla semplificazione, ma sempre con l’obiettivo di difendere i diritti fondamentali. Uno spazio politico e giuridico, diverso da quello disegnato da Cina e Usa preoccupati principalmente di battere la concorrenza e fare cassa, in grado di mettere limiti quando il progresso tecnologico va a incidere sulla dignità delle persone.
Il caso Grok esploso ora diventa una vera e propria prova della verità. Nel giro di pochi giorni, il chatbot di intelligenza artificiale sviluppato da xAI e integrato nella piattaforma X è diventato il centro di una tempesta che attiene al modo stesso in cui il potere digitale viene esercitato e controllato. L’ammissione di falle nei sistemi di sicurezza, che hanno consentito la generazione e la diffusione di deepfake sessuali non consensuali, anche riconducibili a minori, ha fatto saltare l’ultimo alibi. Quella ricostruzione che vuole legare le responsabilità all’errore occasionale, all’uso improprio, alla responsabilità individuale.
Le reazioni delle istituzioni europee
Va sottolineato che la reazione europea, in questa occasione, è stata rapida, ma soprattutto corale. In Francia l’indagine giudiziaria è stata ampliata, con il coinvolgimento delle autorità di regolazione e una presa di posizione politica che ha parlato esplicitamente di contenuti illegali e di obblighi non rispettati.
In Germania e nel Regno Unito il caso è entrato nel dibattito pubblico come un problema che non riguarda solo X, ma l’intero ecosistema dell’intelligenza artificiale generativa. A Bruxelles, la Commissione ha chiesto a X di conservare tutta la documentazione interna relativa a Grok fino al 2026, un atto che segnala l’ingresso in una fase di verifica strutturale.
Tutti segnali di un cambio di passo. Per la prima volta, l’Europa sembra volere andare oltre una mera attività di verifica ex post dell’attività delle piattaforme. Necessariamente l’analisi deve spostarsi verso cosa è stato consentito, previsto, tollerato. Il nodo politico è legato ovviamente a ciò che Grok ha prodotto, ma anche al contesto in cui lo ha potuto fare. Grok è uno strumento integrato in una piattaforma globale, progettato per interagire in tempo reale con milioni di utenti. In questo modello, la creazione del contenuto e la sua diffusione avvengono nello stesso spazio. Non c’è distanza tra produzione e circolazione, non c’è un filtro esterno che possa assorbire la responsabilità.
Deepfake sessuali e scelte di sistema
È qui che la parola “falla”, utilizzata dagli stessi portavoce di X, diventa insufficiente. Una falla è qualcosa che sfugge al controllo. Ma quando un sistema rende agevole, ripetibile e prevedibile la generazione di deepfake sessuali non consensuali, siamo davanti a un problema di scelte, non di incidenti. Di priorità, non di imprevisti.
I deepfake sessuali sono una forma di violenza simbolica e gravissima che colpisce identità reali, con effetti che non si esauriscono nel momento della creazione del contenuto. Quando il volto e il corpo di una persona diventano materiale digitale manipolabile, il consenso viene cancellato come principio fondante della rappresentazione.
Quando le vittime sono adulti, le conseguenze sono già devastanti. Quando entrano in gioco i minori, il quadro cambia radicalmente. È questo il motivo che ha spinto governi e autorità a intervenire con una durezza inedita. La tutela dei minori, del resto, rappresenta uno dei confini oltre i quali nessuna sperimentazione può essere giustificata.
Oggi, dunque, l’Europa, oggi, è chiamata a dimostrare cosa davvero sa fare e se il nuovo impianto regolatorio che ha costruito negli ultimi anni è davvero uno strumento di governo del potere digitale o solo una dichiarazione di intenti.
Il Digital Services Act impone alle grandi piattaforme di valutare e mitigare i rischi sistemici che derivano dai loro servizi. L’AI Act nasce proprio per evitare che sistemi di intelligenza artificiale capaci di incidere profondamente sui diritti fondamentali vengano immessi sul mercato senza adeguate garanzie. Ma tutto questo ha senso solo se viene applicato nei casi più difficili e controversi e nei confronti di soggetti che detengono potere e sponsor influenti.
La politica difenda l’interesse pubblico
Bisogna intanto capire in che tempi e in che modi i contenuti illegali sono stati e saranno rimossi. Ma la vera domanda è: cosa è stato controllato prima? Che tipo di valutazione del rischio è stata fatta? Se la possibilità di generare deepfake sessuali non consensuali fosse prevedibile, e lo era, perché non è stata bloccata a monte. È su questo terreno che si misura la responsabilità delle piattaforme e, insieme, la credibilità delle istituzioni europee.
In questo clima si collocano anche le prese di posizione delle autorità nazionali, come il Garante italiano, che iniziano a parlare apertamente di rischio per i diritti e le libertà fondamentali. Quando il potere tecnologico incide così profondamente sulla vita delle persone, ci troviamo davanti a questioni di interesse pubblico.
L’Europa deve dimostrare di essere pronta ad assumersi fino in fondo la responsabilità di governare uno spazio digitale che non è più neutro, ma strutturalmente politico. Uno spazio in cui decisioni di progettazione producono effetti sociali, culturali e giuridici immediati. E le regole scritte devono trovare piena applicazione per tutelare davvero la nostra democrazia e tutelare i cittadini, con un’attenzione ancora più forte nei confronti dei minori.
