DeepSeek sotto osservazione in più Paesi, cambiamenti nei rapporti tra AI, sicurezza nazionale e tutela dei dati

Tempo di lettura: 3 minuti

Cosa sta succedendo a DeepSeek, perché è sotto indagine in diversi Paesi e quali rischi emergono per dati, sicurezza nazionale e uso delle AI extra-UE da parte di aziende e professionisti del digitale.

Le indagini avviate in diversi Paesi su DeepSeek segnalano un mutamento concreto nel modo in cui l’intelligenza artificiale viene osservata dalle autorità pubbliche. Oltre a valutare il funzionamento tecnico di un sistema, sarà verificato dove finiscono i dati, come vengono conservati e quali implicazioni producono quando l’infrastruttura è collocata fuori dai confini nazionali o europei.

Secondo le informazioni disponibili, DeepSeek raccoglie e conserva numerose tipologie di dati personali, incluse le richieste degli utenti e i file caricati, su server situati in Cina. Questo aspetto ha spinto autorità di più continenti a interrogarsi sulla compatibilità di tali pratiche con le normative locali e con gli standard di sicurezza richiesti quando l’IA viene utilizzata in ambiti sensibili o istituzionali.

Perché DeepSeek è diventata un caso internazionale

L’azione coordinata o parallela di Paesi diversi mostra come la questione preoccupi più mercati. In Australia e nella Repubblica Ceca l’uso dei servizi DeepSeek è stato vietato all’interno delle amministrazioni pubbliche per motivi legati alla sicurezza dei dati. In Germania le autorità hanno chiesto agli operatori degli store digitali di rimuovere l’applicazione, mentre in Francia l’autorità per la protezione dei dati ha avviato approfondimenti sul funzionamento del sistema e sui possibili rischi per gli utenti.

In Asia la linea seguita è stata altrettanto prudente. In Corea del Sud i download dell’app sono stati sospesi dopo che l’azienda ha riconosciuto di non aver rispettato alcune regole sulla protezione dei dati personali, per poi riprendere in una fase successiva. Taiwan ha invece escluso l’uso del servizio negli uffici governativi, citando timori legati sia alla sicurezza sia alla possibilità che i dati finiscano sotto il controllo di soggetti esterni.

Il ruolo dell’Italia e il peso della regolazione europea

In Italia l’Autorità Garante della Concorrenza e del Mercato ha chiuso un’istruttoria su DeepSeek dopo aver ottenuto impegni vincolanti dall’azienda. L’indagine riguardava, tra l’altro, la presunta mancanza di informazioni chiare per gli utenti sulla possibilità che il sistema producesse risposte non corrette. In precedenza, l’applicazione era stata bloccata proprio per l’assenza di trasparenza sul trattamento dei dati personali.

Il caso italiano si inserisce in un contesto più ampio, in cui l’Unione europea sta rafforzando il controllo sulle tecnologie di IA, soprattutto quando i fornitori operano fuori dallo spazio comunitario.

Implicazioni per imprese e professionisti del digitale

Le verifiche su DeepSeek producono effetti che vanno oltre la singola piattaforma. Le aziende che integrano strumenti di IA nei propri processi, così come i professionisti che li utilizzano quotidianamente, devono considerare che la scelta di un software non è solo tecnica o economica. Quando un servizio è sviluppato e gestito fuori dall’UE, entrano in gioco valutazioni legate alla conformità normativa, al rischio di blocchi improvvisi e alla possibile esposizione a sanzioni.

In questo scenario, la trasparenza sul trattamento dei dati e la capacità di dimostrare standard di sicurezza adeguati diventano elementi centrali per chi offre soluzioni di intelligenza artificiale.