Caso Grok, associazioni e donne chiedono ad Apple e Google di rimuoverla dagli app store

Tempo di lettura: 2 minuti

Le organizzazioni per l'uguaglianza di genere chiedono la rimozione di X e Grok dagli app store perché l’AI genererebbe immagini sessualmente abusive, aprendo interrogativi su responsabilità degli store, moderazione dei contenuti e obblighi di conformità per le app basate su intelligenza artificiale.

La richiesta avanzata da organizzazioni per l’uguaglianza di genere ad Apple e Google di rimuovere X e Grok dagli app store nasce dalla diffusione di immagini AI sessualmente abusive e non consensuali, generate attraverso strumenti integrati nelle due applicazioni. Secondo i promotori dell’iniziativa, la presenza di questi servizi nei marketplace digitali rende possibile una produzione seriale di contenuti che colpiscono in modo sproporzionato donne e minori, con effetti che vanno oltre la semplice violazione delle policy interne.

Responsabilità degli app store nella distribuzione dell’intelligenza artificiale

Il caso sposta l’attenzione dal singolo contenuto illecito alla filiera della distribuzione. Gli app store non agiscono più come canali neutrali, ma come infrastrutture che selezionano, promuovono e mantengono accessibili strumenti di intelligenza artificiale a milioni di utenti. In questo quadro, la richiesta di rimozione di X e Grok introduce una questione operativa: chi rende disponibile un sistema generativo assume un ruolo attivo nella valutazione dei rischi legati ai suoi output, soprattutto quando il design del servizio consente la creazione di immagini iperrealistiche partendo da fotografie reali.

Alcuni governi hanno già adottato misure restrittive, vietando l’uso di Grok o avviando indagini formali. In Europa e nel Regno Unito, le autorità stanno chiedendo chiarimenti sul funzionamento dei sistemi e sulle barriere effettivamente predisposte per evitare abusi. Questo approccio segnala un cambio di prospettiva: la moderazione ex post non viene più considerata sufficiente se l’architettura del servizio permette la reiterazione del danno.

Implicazioni operative per sviluppatori e piattaforme digitali

Per le aziende che sviluppano o distribuiscono applicazioni basate su intelligenza artificiale, il caso rappresenta un precedente rilevante. L’accesso ai principali app store diventa condizionato alla capacità di dimostrare controlli preventivi sugli output, processi di mitigazione del rischio e sistemi di intervento rapidi. La rimozione da un marketplace globale produce effetti immediati sulla visibilità e sulla sostenibilità economica di un servizio, con un impatto spesso più incisivo di una sanzione amministrativa.

Il confronto in corso mostra come la governance dell’intelligenza artificiale passi sempre più attraverso scelte industriali e contrattuali, oltre che normative.