L’autorità irlandese per la protezione dei dati ha avviato un’indagine formale su Grok, il chatbot sviluppato da xAI e integrato nella piattaforma X, per accertare se il trattamento dei dati personali e la generazione di immagini sessualizzate di persone reali, inclusi minori, siano conformi al regolamento europeo sulla protezione dei dati. L’Irlanda è competente perché le attività europee di X hanno sede nel Paese e, in qualità di autorità capofila, può applicare sanzioni fino al 4% del fatturato globale annuo in caso di violazioni accertate.
La decisione arriva dopo settimane di polemiche legate alla diffusione, attraverso il chatbot, di immagini alterate tramite intelligenza artificiale che ritraevano persone reali in pose esplicite su richiesta degli utenti. X ha annunciato interventi tecnici per limitare la produzione di questo tipo di contenuti, ma verifiche successive hanno mostrato che con prompt mirati il sistema era ancora in grado di generarli. L’indagine dovrà chiarire se le misure adottate siano coerenti con gli obblighi di sicurezza, trasparenza e minimizzazione dei dati previsti dalla normativa europea.
Perché l’Irlanda indaga su Grok e cosa prevede il regolamento europeo
Il regolamento generale sulla protezione dei dati impone ai titolari del trattamento di dimostrare come vengono raccolti, utilizzati e protetti i dati personali, soprattutto quando entrano in gioco informazioni sensibili o situazioni che possono ledere la dignità delle persone. Nel caso di sistemi generativi integrati in piattaforme social, la questione riguarda anche l’architettura del modello, le fonti dei dataset, i controlli preventivi e la capacità di impedire la creazione di contenuti lesivi. L’attenzione dell’autorità si concentra quindi sulla filiera completa: sviluppo, integrazione nella piattaforma e gestione operativa.
Quali sanzioni rischia X e quali effetti per le aziende che usano intelligenza artificiale
Se emergessero violazioni, le sanzioni potrebbero arrivare fino al 4% del fatturato globale, una soglia che rende il tema rilevante per qualsiasi grande operatore tecnologico. Il procedimento irlandese si affianca a iniziative parallele della Commissione europea e dell’autorità britannica, segno di un coordinamento crescente nel controllo delle piattaforme che distribuiscono strumenti di intelligenza artificiale generativa.
La responsabilità non si esaurisce nella rimozione dei contenuti dopo una segnalazione, ma investe la progettazione del sistema, la valutazione preventiva dei rischi e la documentazione delle scelte tecniche adottate. Dataset, addestramento, filtri e supervisione umana diventano elementi centrali nella dimostrazione di conformità. L’Europa sta applicando regole già esistenti per misurare la maturità dei nuovi strumenti digitali e questo approccio avrà effetti concreti su tutto l’ecosistema.
