Negli ultimi dodici mesi, l’intelligenza artificiale ha mostrato quanto possa essere preziosa e al contempo rappresentare un’enorme criticità per il mondo delle imprese. Secondo un sondaggio di EY, spesso a causa di mancati conformi, risultati difettosi, pregiudizi o interruzioni degli obiettivi di sostenibilità. EY è la società britannica di servizi alle imprese precedentemente nota come Ernst & Young, ha condotto il sondaggio in forma anonima tra 975 dirigenti che supervisionano l’intelligenza artificiale in aziende con un fatturato annuo superiore a 1 miliardo di dollari di tutto il mondo a luglio e agosto 2025. rivelando che le principali aziende internazionali hanno subito perdite complessive di 4,4 miliardi di dollari, generate non tanto dalla tecnologia in sé, quanto da errori di gestione, vulnerabilità di sicurezza e mancanza di governance adeguata.
L’intelligenza artificiale come fattore di rischio
Il rapporto evidenzia un contrasto netto: le imprese che hanno investito in programmi strutturati di “Responsible AI” hanno migliorato le proprie performance, mentre quelle che hanno integrato sistemi di IA senza un piano di supervisione hanno registrato danni economici e reputazionali. Le prime hanno introdotto regole chiare su sicurezza, trasparenza e controllo dei rischi, ottenendo vantaggi tangibili in termini di efficienza, costi e fiducia interna.
Molti incidenti descritti derivano da errori di cybersecurity o da modelli generativi e predittivi poco controllati. Dataset incompleti, architetture non aggiornate o prompt mal configurati hanno causato errori nei settori della finanza, dell’e-commerce, della sanità e della logistica. Alcune imprese hanno violato il GDPR o esposto dati sensibili, altre hanno subito danni d’immagine a causa di algoritmi che producevano risultati distorti o discriminatori.
Dal quadro normativo alla cultura aziendale
L’AI Act europeo segna un punto di svolta. Le aziende devono introdurre procedure di accountability, tracciabilità dei dati e auditing interno per garantire l’affidabilità dei sistemi di IA. L’assenza di questi strumenti può tradursi in perdite economiche e contenziosi, oltre a sanzioni per violazioni delle norme europee. Il tema si intreccia con la Direttiva NIS2 e con il Cyber Resilience Act, che impongono obblighi di sicurezza sempre più stringenti per prodotti digitali e infrastrutture connesse.
In questo contesto, la “Responsible AI” assume un valore operativo: significa supervisionare i processi, adottare pratiche etiche nella gestione dei dati e rafforzare la sicurezza fin dalla fase di progettazione. Le aziende che hanno scelto questa via hanno migliorato la produttività fino al 20% e ridotto gli incidenti informatici.
Reputazione e fiducia come nuovi asset
Oggi l’intelligenza artificiale rappresenta anche un elemento reputazionale. La fiducia dei clienti e dei partner nasce dalla capacità di dimostrare che i sistemi adottati sono sicuri, trasparenti e conformi alle regole. Le imprese più evolute non si limitano a investire in tecnologia, ma costruiscono una cultura della sicurezza che coinvolge ogni livello aziendale. Chi riesce a trasformare la gestione dell’IA in un modello di responsabilità condivisa non solo evita rischi, ma crea valore sostenibile nel tempo.
