L’UE alza la pressione su X e pretende controlli stringenti sul chatbot Grok

Tempo di lettura: 3 minuti

La Commissione europea valuta se le misure adottate da X per limitare i contenuti sessualizzati generati dal chatbot Grok rispettano il Digital Services Act, chiarendo quali obblighi hanno le piattaforme che utilizzano intelligenza artificiale nell’Unione europea.

La Commissione europea ha avviato un confronto diretto con X dopo la diffusione di immagini sessualizzate generate dal chatbot Grok, integrato nella piattaforma e basato su sistemi di intelligenza artificiale. Bruxelles ha chiesto chiarimenti sulle misure adottate dall’azienda per impedire la produzione di questo tipo di contenuti, con particolare attenzione ai casi che coinvolgono donne e minori, considerati ad alto rischio sul piano della tutela delle persone.

Secondo quanto comunicato dall’esecutivo europeo, le modifiche annunciate da X, tra cui il divieto di funzionalità che consentono la trasformazione delle immagini in chiave sessuale, saranno oggetto di una valutazione approfondita. L’analisi non riguarda soltanto l’esistenza formale di nuove regole interne, ma la loro capacità di funzionare in modo effettivo una volta che il servizio è disponibile per milioni di utenti nell’Unione europea.

Come l’Unione europea applica il Digital Services Act ai chatbot

Il confronto con X si inserisce nel quadro più ampio del Digital Services Act, il regolamento che disciplina le responsabilità delle piattaforme online nella gestione dei contenuti. La Commissione ha chiarito che, se le misure adottate non garantiranno una protezione adeguata, potrà ricorrere agli strumenti di enforcement previsti dalla normativa, inclusi obblighi correttivi e sanzioni. L’attenzione si sposta quindi dal singolo episodio al modello di gestione del rischio adottato dalla piattaforma.

In questo contesto, i contenuti generati automaticamente assumono lo stesso rilievo di quelli pubblicati dagli utenti. L’uso di sistemi di intelligenza artificiale non attenua la responsabilità del servizio che li integra, ma richiede procedure di controllo preventive, meccanismi di intervento rapido e una governance tecnica in grado di ridurre la circolazione di materiale illecito prima che produca effetti concreti.

Le conseguenze per le piattaforme e per chi sviluppa intelligenza artificiale

Il caso Grok rappresenta un segnale per l’intero settore digitale. Le autorità europee mostrano di voler verificare come le scelte di progettazione influenzino la possibilità di generare contenuti problematici. Questo approccio coinvolge non solo i grandi social network, ma anche le aziende che sviluppano o forniscono modelli di intelligenza artificiale destinati a essere integrati in servizi accessibili al pubblico.

Per chi opera nel mercato europeo, il messaggio è operativo. La conformità normativa passa dalla capacità di anticipare i rischi, documentare le misure adottate e intervenire in modo strutturato quando emergono criticità. Il richiamo della Commissione a X mostra che il Digital Services Act viene utilizzato come strumento concreto di vigilanza e che l’uso dell’intelligenza artificiale nelle piattaforme online è ormai sottoposto a un livello di controllo destinato a incidere sulle strategie tecnologiche e organizzative delle imprese.