Un bug di Microsoft Copilot ha consentito l’accesso a email riservate negli ambienti enterprise

Tempo di lettura: 4 minuti

Un bug in Microsoft Copilot ha consentito l’elaborazione di email confidenziali nonostante etichette di sensibilità e regole di Data Loss Prevention attive. Cosa è accaduto, quali sono i rischi giuridici per le imprese e quali implicazioni emergono alla luce del Regolamento generale sulla protezione dei dati e dell’AI Act

Per alcune settimane, in diversi ambienti aziendali che avevano configurato etichette di sensibilità e regole di Data Loss Prevention in modo corretto, Microsoft Copilot ha potuto includere nel proprio contesto di risposta email classificate come confidenziali. La criticità, identificata internamente come bug applicativo, è stata poi corretta con una patch distribuita in modo progressivo. Secondo quanto comunicato dal fornitore, non si sono verificate esfiltrazioni verso soggetti esterni. I contenuti interessati riguardavano soprattutto email presenti nelle cartelle Bozze e Posta inviata di Outlook desktop, che l’assistente poteva utilizzare per generare sintesi o risposte contestuali.

Cosa è successo in Microsoft 365 e perché riguarda la governance dell’intelligenza artificiale

Il difetto non dipendeva da configurazioni errate dei clienti, ma da una modalità con cui il sistema interpretava il contesto informativo. In determinate condizioni, Copilot Chat riusciva a processare contenuti che le policy aziendali avevano escluso dall’elaborazione automatizzata. Questo passaggio tecnico cambia la prospettiva e anche il modo con cui inquadrare il problema. Siamo ben oltre la semplice circolazione dei dati, ma all’interno della coerenza tra regole impostate e comportamento effettivo del software. Quando un motore di intelligenza artificiale aggrega informazioni provenienti da più fonti per costruire una risposta, il rispetto delle barriere di classificazione deve essere garantito lungo ogni flusso di codice, senza eccezioni. Se un modulo interno interpreta le policy in modo difforme, la protezione documentale perde efficacia.

Sotto il profilo normativo, l’episodio non rientra automaticamente tra le violazioni con obbligo di notifica previste dal Regolamento generale sulla protezione dei dati, poiché non risultano accessi da parte di terzi. Rimane però aperta la questione dei principi di minimizzazione, limitazione delle finalità e protezione dei dati fin dalla progettazione. L’articolo 25 del regolamento europeo richiede che le misure tecniche siano effettive e adeguate. Un malfunzionamento che consente un trattamento diverso rispetto a quello previsto dalle policy interne pone un tema di progettazione e di verifica continua delle misure adottate.

Quali rischi per imprese e settori regolamentati

La vicenda assume un peso ancora maggiore nei comparti regolamentati come finanza, sanità e pubblica amministrazione. In questi contesti, anche l’elaborazione interna di contenuti riservati da parte di un sistema automatizzato può generare impatti reputazionali e contrattuali rilevanti. L’integrazione dell’intelligenza artificiale nei workflow quotidiani trasforma questi strumenti in componenti strutturali dell’infrastruttura informativa che incidono sulla produzione documentale e, in alcuni casi, sui processi decisionali.

Il caso Copilot evidenzia inoltre un tema di vendor risk management. Le imprese che adottano soluzioni di questo tipo devono verificare l’applicazione delle patch, analizzare i log per individuare eventuali anomalie pregresse e rivedere le clausole contrattuali in materia di responsabilità e audit. La gestione dell’intelligenza artificiale richiede il coinvolgimento coordinato di IT, funzioni legali e responsabili della protezione dei dati, perché la tecnologia entra nel perimetro della governance aziendale.

L’episodio contribuisce a ridefinire il concetto di affidamento digitale. Quando un assistente basato su intelligenza artificiale genera nuove informazioni partendo da dati esistenti, la qualità e la legittimità dell’output dipendono dalla corretta applicazione delle regole di accesso ai contenuti di origine. Ogni architettura software può presentare vulnerabilità; ciò che cambia, nell’era dell’AI integrata, è la portata sistemica dell’errore.

L’illusione dell’infallibilità algoritmica

L’adozione massiva dell’AI nei contesti enterprise è stata accompagnata da una narrativa di efficienza e produttività. Gli assistenti digitali promettono risparmio di tempo, sintesi intelligente, automazione. Ma ogni promessa tecnologica presuppone un affidamento. L’affidamento è la convinzione che il sistema rispetti le regole impostate. Quando un bug consente di superare barriere di protezione dati, l’affidamento viene incrinato. La differenza tra una piattaforma tradizionale e un assistente AI sta nella capacità di quest’ultimo di generare nuova informazione a partire da dati esistenti. Se i dati di partenza includono contenuti riservati, anche in modo non intenzionale, l’output può riflettere elementi che non avrebbero dovuto essere elaborati.

Governance interna

Le imprese che utilizzano Copilot devono interrogarsi su tre livelli. Primo: verificare che la patch sia effettivamente applicata e che i log non mostrino comportamenti anomali residui. Secondo: rivedere le policy di classificazione e assicurarsi che le etichette di sensibilità siano coerenti con le reali esigenze di protezione. Terzo: aggiornare la valutazione d’impatto sull’uso dell’AI, includendo scenari di malfunzionamento. È opportuno coinvolgere DPO, responsabili IT e legali interni in un’analisi congiunta.