Deloitte rimborsa il governo dopo un report scritto con l’intelligenza artificiale

Tempo di lettura: 2 minuti

Il colosso della consulenza ha ammesso di aver usato strumenti di intelligenza artificiale nella redazione di un rapporto governativo da 440.000 dollari. Il documento conteneva errori e riferimenti inesistenti, portando alla decisione di restituire parte del pagamento. La vicenda riaccende il dibattito sulla responsabilità umana nell’uso dell’AI nei servizi professionali.

Deloitte ha accettato di restituire parte del compenso ricevuto dal governo australiano dopo che un rapporto da 440.000 dollari, elaborato anche con l’uso dell’intelligenza artificiale, è risultato contenere errori e citazioni inventate. Il documento, commissionato dal Dipartimento per l’Occupazione e le Relazioni sul Lavoro, è stato rivisto e corredato di una nota che chiarisce l’impiego dell’AI. L’azienda ha precisato che le modifiche non intaccano le conclusioni principali del lavoro, ma la vicenda ha scatenato un acceso dibattito sulla responsabilità professionale nell’uso degli strumenti digitali.

AI come strumento, non come colpevole

Il caso Deloitte ha riportato al centro la questione della trasparenza nei servizi professionali. L’AI è stata utilizzata tramite il modello GPT-4 su Microsoft Azure, ma alcuni passaggi del testo contenevano riferimenti inesistenti. Secondo accademici e analisti, si tratta di un classico esempio di “hallucinations”, cioè informazioni errate generate da modelli linguistici. Tuttavia, l’errore non è della tecnologia in sé: è dell’essere umano che la impiega senza un adeguato controllo. L’intelligenza artificiale è uno strumento potente, ma resta priva di discernimento. La supervisione umana rimane essenziale per garantire affidabilità e correttezza dei contenuti. Il rimborso deciso da Deloitte non è solo un gesto economico. È un riconoscimento implicito di responsabilità e un segnale per il mercato. Chi utilizza l’AI in ambito consulenziale deve specificare in modo chiaro l’entità dell’intervento algoritmico e i limiti dell’automazione. Nei contratti con la pubblica amministrazione, in particolare, la trasparenza su come vengono prodotte le analisi e i documenti è parte integrante del rapporto di fiducia con il committente.

Verso una governance dell’intelligenza artificiale

L’episodio solleva una questione più ampia: come gestire l’integrazione dell’intelligenza artificiale nei processi di lavoro senza compromettere la qualità e la responsabilità professionale. Le grandi società di consulenza stanno già sperimentando modelli generativi per analisi, bozze e reportistica, ma l’esperienza australiana dimostra che l’assenza di supervisione può minare la credibilità di un intero progetto. Serve una governance chiara, con protocolli di validazione e clausole contrattuali che definiscano chi risponde di eventuali errori. Il governo australiano ha accolto la restituzione come segnale di collaborazione, ma ha aperto una riflessione sull’uso dell’AI nei rapporti istituzionali. In futuro, simili incarichi potrebbero prevedere audit indipendenti e dichiarazioni obbligatorie sull’impiego di strumenti generativi.