Germania e Uk in pressione su X dopo i deepfake sessuali di Grok con protagonisti donne e minori

Tempo di lettura: 3 minuti

Le reazioni di Regno Unito e Germania al caso Grok spostano il dibattito europeo sull’intelligenza artificiale dalla rimozione dei contenuti alla responsabilità preventiva delle piattaforme digitali, con il Digital Services Act al centro delle possibili azioni contro X

Il caso Grok ha superato rapidamente la dimensione tecnica per diventare un passaggio politico rilevante nel rapporto tra intelligenza artificiale e responsabilità delle piattaforme digitali. Le reazioni di Regno Unito e Germania indicano un cambio di passo nell’approccio europeo verso i sistemi di IA generativa integrati nei social network, soprattutto quando la loro operatività consente la produzione di contenuti illegali come immagini deepfake intime non consensuali.

Le accuse rivolte al chatbot Grok non riguardano episodi isolati. Le autorità europee leggono quanto emerso come l’effetto di un funzionamento strutturale che ha reso possibile la generazione seriale di immagini sessualizzate su richiesta degli utenti. In questa prospettiva, la questione non è solo l’abuso dello strumento, ma il modo in cui lo strumento è stato progettato, distribuito e controllato all’interno di una piattaforma con una platea globale.

Responsabilità delle piattaforme e obblighi di prevenzione

Nel Regno Unito, la ministra della Tecnologia Liz Kendall ha assunto una posizione esplicita, definendo inaccettabile la diffusione di immagini intime create senza consenso e sottolineando come nessuno dovrebbe essere esposto a questo tipo di violazione online. Le sue dichiarazioni collocano il tema all’interno della sicurezza digitale e della tutela delle persone, con un’attenzione particolare all’impatto sproporzionato su donne e ragazze.

Alla presa di posizione politica si è affiancato l’intervento dell’autorità di regolazione Ofcom, che ha chiesto a X di chiarire come Grok sia stato in grado di generare tali immagini e quali misure siano state adottate per prevenire abusi. L’attenzione si sposta così dalla gestione dei contenuti già pubblicati alla capacità della piattaforma di anticipare e ridurre i rischi legati all’uso dell’intelligenza artificiale generativa.

In Germania, il tono si è fatto ancora più severo. Il commissario federale per la Cultura e i Media Wolfram Weimer ha parlato di una vera industrializzazione delle molestie sessuali, resa possibile dalla scalabilità dei sistemi di IA e dall’assenza di barriere efficaci. La scelta lessicale segnala una lettura che supera la dimensione del singolo illecito per concentrarsi sull’architettura complessiva del servizio.

Dal Digital Services Act all’enforcement europeo

Il governo tedesco ha richiamato esplicitamente il Digital Services Act, sostenendo che gli strumenti normativi per intervenire esistono già. Il nodo non viene individuato nella mancanza di regole, ma nella loro applicazione concreta. Secondo Berlino, la responsabilità delle piattaforme non può essere scaricata esclusivamente sugli utenti quando il design del servizio facilita la produzione sistematica di contenuti illegali.

La Commissione europea si muove nella stessa direzione, qualificando le immagini deepfake intime come contenuti illegali e ribadendo gli obblighi delle piattaforme in materia di prevenzione e mitigazione del rischio. In alcuni Stati membri, come la Francia, all’azione regolatoria si è affiancato il coinvolgimento delle autorità giudiziarie, con segnalazioni dirette alle procure competenti.

Le risposte delle piattaforme, basate sulla rimozione successiva dei contenuti e sulla sospensione degli account, mostrano limiti evidenti rispetto all’impostazione europea. Il quadro normativo non si limita a richiedere interventi ex post, ma pretende che i servizi digitali dimostrino di aver adottato misure strutturali idonee a evitare la produzione di contenuti illegali.

Il caso Grok assume così il valore di un precedente operativo. Non riguarda soltanto un singolo chatbot, ma mette alla prova la capacità dell’Unione europea di applicare in modo effettivo le proprie regole a sistemi di intelligenza artificiale già pienamente integrati nell’economia delle piattaforme. Le conseguenze di questo confronto potrebbero estendersi ben oltre X, coinvolgendo l’intero ecosistema digitale che fa affidamento sull’IA generativa.