Hacker cinesi usano un chatbot per spiare governi e aziende

Tempo di lettura: 3 minuti

Hacker cinesi hanno sfruttato Claude AI di Anthropic per attacchi informatici automatizzati contro governi e multinazionali straniere. L’intelligenza artificiale ha gestito in autonomia la maggior parte delle operazioni, segnando una nuova fase del cybercrime globale. Anthropic ha bloccato gli account e rafforzato i sistemi di sicurezza per impedire altri abusi.

L’uso dell’intelligenza artificiale per fini malevoli o di spionaggio è ormai una realtà documentata. Un gruppo di hacker cinesi legati a circuiti filo-governativi ha sfruttato il modello Claude AI di Anthropic per condurre attacchi informatici automatizzati contro governi e multinazionali. Il caso, riportato dal Washington Post, segna un punto di svolta nella storia del cybercrime moderno.

Un’intelligenza artificiale usata come arma digitale

Secondo le prime ricostruzioni, l’AI di Anthropic avrebbe gestito in autonomia fino al 90% delle operazioni di attacco, lasciando all’uomo solo le decisioni critiche. Gli hacker sono riusciti ad aggirare i controlli dichiarando falsamente di agire come auditor per conto delle organizzazioni bersaglio, una strategia di “jailbreaking” che ha consentito di ottenere accesso a database interni, estrarre informazioni e coordinare in modo automatico le varie fasi dell’intrusione.

In almeno quattro casi l’operazione ha avuto successo prima che Anthropic riuscisse a individuare e bloccare gli account coinvolti. L’azienda ha poi rafforzato i protocolli di sicurezza e dichiarato l’intenzione di sviluppare sistemi difensivi più avanzati, in grado di reagire alla velocità delle minacce emergenti. L’episodio dimostra come l’intelligenza artificiale stia evolvendo da supporto tecnico a soggetto operativo nelle offensive digitali.

La corsa globale all’AI offensiva

Situazioni analoghe sono state segnalate anche in contesti legati a gruppi russi, confermando una corsa internazionale all’uso dell’AI per scopi offensivi. I modelli generativi diventano così moltiplicatori di potenza per i cybercriminali, capaci di agire con rapidità e precisione senza l’intervento costante dell’uomo. Anthropic ha ribadito più volte la necessità di costruire capacità difensive che offrano un vantaggio strutturale ai difensori, per non cedere terreno a chi impiega la tecnologia per fini ostili.

In un recente rapporto di Threat Intelligence, la società ha descritto un fenomeno emergente chiamato “vibe-hacking”, una forma di manipolazione che sfrutta le interazioni tra modelli linguistici e utenti per oltrepassare i filtri etici. In questi casi, l’AI non si limita a fornire assistenza ma diventa parte attiva del processo, eseguendo autonomamente operazioni di raccolta e analisi dei dati. È un’evoluzione che impone nuove domande su responsabilità, trasparenza e governance dei sistemi generativi.

La sfida per le imprese e i governi

Per chi lavora nel digitale, la lezione è chiara: la sicurezza non è più solo un tema tecnico, ma una strategia di governance. Le organizzazioni devono imparare a valutare i rischi derivanti dall’uso improprio dell’intelligenza artificiale, integrando controlli continui, verifiche etiche e protocolli di risposta automatica. Allo stesso tempo, i governi sono chiamati a definire regole trasparenti per bilanciare innovazione e tutela, evitando che la tecnologia finisca nelle mani sbagliate.

Il caso Claude AI non rappresenta soltanto un incidente, ma un segnale di trasformazione del cyberspazio. L’intelligenza artificiale, capace di apprendere e replicare schemi d’azione, rischia di spostare il baricentro della minaccia informatica.