Deepfake e chatbot, Grok sotto indagine per aver “spogliato” donne e minori

Tempo di lettura: 3 minuti

L’indagine francese su Grok e sulla piattaforma X apre un fronte giuridico che intreccia Digital Services Act e AI Act. Al centro ci sono i doveri di prevenzione, controllo e responsabilità dei sistemi di intelligenza artificiale generativa quando producono contenuti illegali

Il caso Grok ha trasformato una questione tecnica in un confronto giuridico che coinvolge l’intera architettura normativa europea sull’intelligenza artificiale. Dopo l’ammissione da parte di xAI dell’esistenza di falle nei sistemi di sicurezza del chatbot, la Procura di Parigi ha esteso l’indagine già avviata sulla piattaforma X, includendo direttamente il sistema di IA integrato nel social network. L’attenzione degli inquirenti si concentra sulla creazione e diffusione di deepfake sessuali non consensuali, alcuni dei quali potenzialmente riconducibili a minori, un ambito che colloca il caso tra quelli di maggiore allarme sul piano penale e regolatorio.

Responsabilità delle piattaforme e obblighi di prevenzione

La vicenda mette in discussione il modo in cui le grandi piattaforme gestiscono i rischi legati all’uso di sistemi generativi. X, classificata come piattaforma di grandi dimensioni, è soggetta agli obblighi rafforzati previsti dal Digital Services Act (DSA), che impongono non solo la rimozione tempestiva dei contenuti illegali, ma anche l’adozione di misure preventive adeguate a ridurre i rischi sistemici. La diffusione di video sessuali falsi senza consenso evidenzia come la risposta ex post non sia sufficiente a soddisfare i requisiti normativi quando il danno è già prodotto e amplificato dalla viralità del mezzo. Per questo le autorità francesi stanno valutando se le procedure di moderazione e i meccanismi di controllo implementati siano stati proporzionati alla natura e alla gravità dei contenuti generati.

L’indagine si inserisce in un contesto in cui la distinzione tra responsabilità della piattaforma e responsabilità del fornitore tecnologico appare meno definita rispetto al passato. L’integrazione nativa di Grok all’interno di X rende difficile separare il momento della generazione del contenuto da quello della sua distribuzione pubblica, con il risultato che le due dimensioni finiscono per sovrapporsi sul piano giuridico.

AI Act e gestione del rischio nei sistemi generativi

Accanto al profilo DSA, il caso solleva interrogativi diretti sull’applicazione dell’AI Act. La normativa europea sull’intelligenza artificiale impone ai fornitori obblighi stringenti in materia di gestione del rischio, qualità dei dataset e prevenzione degli usi illeciti, soprattutto quando i sistemi possono produrre contenuti che ledono diritti fondamentali. La generazione di deepfake sessuali non consensuali rientra tra gli scenari che il legislatore europeo ha individuato come particolarmente sensibili, con un’attenzione ancora più elevata quando sono coinvolti minori.

In questo quadro, eventuali lacune nei filtri, nei meccanismi di addestramento o nelle procedure di controllo non rappresentano solo un problema reputazionale. Possono tradursi in violazioni regolatorie, con conseguenze amministrative rilevanti. L’ammissione di una falla tecnica non chiude il tema della responsabilità, ma apre quello della capacità del fornitore di dimostrare di aver adottato misure adeguate e proporzionate per prevenire abusi prevedibili.

La cornice penale richiamata dalla Procura di Parigi, che prevede sanzioni detentive e pecuniarie per la creazione e la diffusione di contenuti sessuali senza consenso, si intreccia così con il livello europeo della regolazione. Il risultato è un caso che potrebbe incidere sulla prassi applicativa delle nuove norme, offrendo alle autorità di vigilanza un terreno concreto per definire il perimetro delle responsabilità quando l’intelligenza artificiale generativa è incorporata in servizi digitali di larga diffusione.

Il procedimento in corso suggerisce che la valutazione dei sistemi di IA non si limiterà più alle loro prestazioni tecniche, ma riguarderà la solidità complessiva delle misure di sicurezza, di governance e di controllo del rischio. In questo senso, Grok diventa un precedente operativo che potrebbe orientare l’interpretazione combinata di DSA e AI Act nei casi futuri.