Google ha rimosso il modello di intelligenza artificiale Gemma dalla piattaforma AI Studio dopo che la senatrice repubblicana Marsha Blackburn ha accusato l’azienda di aver diffuso contenuti diffamatori su di lei. Il caso, esploso a fine ottobre negli Stati Uniti, mette al centro la questione della responsabilità dei modelli linguistici generativi e riaccende il dibattito sul controllo delle allucinazioni e dei bias nei sistemi di intelligenza artificiale.
Google sospende Gemma dopo le accuse di diffamazione
Tutto è iniziato quando, rispondendo a una domanda su presunte accuse a carico della senatrice, Gemma ha generato una risposta inventata. In pratica è stato diffuso un racconto su una relazione con un agente di polizia e presunti reati sessuali, corredato da link inesistenti. Blackburn ha definito l’episodio “un atto di diffamazione prodotto e distribuito da un modello di proprietà Google”. Nella lettera indirizzata a Sundar Pichai, amministratore delegato del gruppo, la senatrice chiede chiarimenti sul funzionamento tecnico del modello e sulle misure per evitare nuove falsificazioni.
Il documento, datato 30 ottobre, richiama anche altri casi simili. Durante un’audizione del Senato, Blackburn ha ricordato la vicenda dell’attivista Robby Starbuck, anch’egli oggetto di presunti contenuti falsi generati da Gemma. Alla domanda su come l’azienda intendesse gestire simili errori, il vicepresidente di Google per le relazioni istituzionali, Markham Erickson, ha risposto che le “allucinazioni” sono un problema noto e che il gruppo sta lavorando per ridurle. Una spiegazione che, secondo Blackburn, non basta a giustificare le conseguenze reputazionali di simili episodi.
Bias, responsabilità e regolazione dell’intelligenza artificiale
La senatrice ha accusato Google di mantenere un modello di IA “ideologicamente sbilanciato”, capace di penalizzare figure conservatrici attraverso risposte distorte. L’azienda, da parte sua, ha replicato con una nota ufficiale: Gemma non è mai stato progettato come strumento per il pubblico, ma come modello open source destinato a sviluppatori e ricercatori. “Abbiamo notato che utenti non autorizzati lo stavano utilizzando per domande fattuali,” ha scritto il team, annunciando la rimozione temporanea del modello da AI Studio, che resta accessibile solo via API.
Il caso Gemma si inserisce in un contesto politico già teso. L’ex presidente Donald Trump ha recentemente firmato un ordine esecutivo contro quella che ha definito “woke AI”, denunciando una presunta parzialità dei modelli generativi verso posizioni progressiste. La polemica, amplificata da parte dei media conservatori, spinge il dibattito oltre la dimensione tecnica: se un algoritmo può diffamare un rappresentante eletto, quali garanzie esistono per cittadini e imprese?
Il tema è tutt’altro che marginale. La vicenda americana anticipa discussioni che presto investiranno anche l’Europa, dove l’entrata in vigore dell’AI Act imporrà nuovi obblighi di trasparenza, sicurezza e supervisione umana.
