La Commissione europea ha avviato un nuovo procedimento formale nei confronti di X nell’ambito del Digital Services Act, con un’attenzione mirata all’integrazione di Grok all’interno del servizio nell’Unione europea. La decisione arriva insieme all’estensione dell’indagine aperta nel dicembre 2023 sui sistemi di raccomandazione, che ora include in modo esplicito l’impatto del passaggio verso un modello fondato su Grok. Il baricentro dell’enforcement si sposta così dalla teoria alla pratica della governance dell’intelligenza artificiale applicata ai servizi digitali.
Valutazione dei rischi sistemici e obblighi DSA
Il procedimento riguarda gli obblighi di valutazione e mitigazione dei rischi sistemici previsti dal Digital Services Act per le Very Large Online Platforms. Secondo la Commissione, l’uso di Grok introduce profili di rischio connessi alla diffusione di contenuti illegali, tra cui immagini sessualmente esplicite manipolate e materiale che può ledere diritti fondamentali, con effetti rilevanti sul benessere delle persone e sulla violenza di genere. L’indagine punta a verificare se la piattaforma abbia svolto una valutazione preventiva adeguata e se le misure adottate risultino proporzionate ed efficaci rispetto al nuovo profilo di rischio generato dall’intelligenza artificiale integrata.
Nel perimetro dell’istruttoria rientra anche la dimensione di accountability. La Commissione valuta la completezza della documentazione prodotta da X e la capacità di dimostrare, in modo tracciabile, le scelte compiute nella progettazione e nell’implementazione delle funzionalità basate su IA. L’integrazione di un sistema generativo incide sul funzionamento complessivo del servizio e richiede una relazione di valutazione del rischio dedicata prima del rilascio, soprattutto quando la modifica ha effetti diretti sui meccanismi di diffusione dei contenuti.
Sistemi di raccomandazione e responsabilità giuridica
L’estensione dell’indagine ai sistemi di raccomandazione rappresenta il punto più sensibile del caso. L’attenzione dell’esecutivo europeo riguarda il modo in cui i contenuti prodotti o influenzati da Grok vengono amplificati, suggeriti e contestualizzati agli utenti. In questa prospettiva, il sistema di raccomandazione assume un ruolo centrale nella produzione degli effetti di scala e diventa un elemento determinante nella valutazione della responsabilità giuridica della piattaforma. La verifica riguarda i contenuti problematici e la loro distribuzione e l’impatto che tali meccanismi possono avere sull’esposizione degli utenti a rischi già noti.
La Commissione ha preparato l’indagine in coordinamento con Coimisiún na Meán, autorità irlandese competente per i servizi digitali, che parteciperà formalmente al procedimento in qualità di autorità del Paese di stabilimento. L’avvio del procedimento attribuisce a Bruxelles pieni poteri istruttori, dalle richieste di informazioni alle ispezioni, fino all’adozione di misure provvisorie o a una decisione di non conformità. In questo quadro, le autorità nazionali vengono esonerate dal vigilare sul medesimo perimetro, con un rafforzamento dell’enforcement a livello europeo.
Il caso si inserisce in una fase già complessa per X, segnata da precedenti contestazioni su moderazione dei contenuti, trasparenza pubblicitaria e accesso ai dati per i ricercatori. La nuova indagine su Grok consolida una linea regolatoria che tratta l’intelligenza artificiale integrata come componente strutturale del rischio sistemico. Per le piattaforme e per chi opera nella compliance digitale, dunque, un campanello d’allarme che suona fin dalla progettazione dei sistemi, passando poi per la documentazione delle scelte e controllo dei meccanismi di raccomandazione che diventano elementi decisivi nella valutazione della conformità al quadro normativo europeo.
