L’AI agentica cambia il volto del cybercrime e sfida il diritto digitale

Tempo di lettura: 3 minuti

L’automazione guidata dall’intelligenza artificiale sta rivoluzionando le strategie del cybercrime. Gli attacchi diventano continui, adattivi e difficili da tracciare, mentre il diritto fatica a definire i nuovi confini della responsabilità. Europa e imprese si trovano davanti a un cambio di paradigma nella difesa digitale

L’intelligenza artificiale agentica riscrive anche il volto del cybercrime e le sue modalità operative. I nuovi sistemi autonomi, capaci di prendere decisioni operative in completa indipendenza, stanno trasformando il cybercrime in un fenomeno più rapido, complesso e difficilmente controllabile. Un recente report di Trend Micro delinea uno scenario in cui gli agenti intelligenti non si limitano a supportare gli attaccanti, ma gestiscono l’intera catena dell’offensiva informatica, dalla raccolta dei dati preliminari alla monetizzazione delle violazioni.

Dal cybercrime-as-a-service al cybercrime-as-a-servant

Secondo lo studio, l’automazione segna il passaggio da un modello di servizi criminali su richiesta a una struttura autonoma e continua. Gli agenti digitali possono operare senza pause, imparare dalle difese e ridefinire gli obiettivi in tempo reale. Phishing, furti di identità e sfruttamento dei dati rubati non appaiono più come azioni isolate, ma come processi permanenti, in grado di evolversi senza un controllo umano diretto. Questa dinamica abbassa la soglia di ingresso al crimine informatico e ne modifica l’organizzazione economica, facendo in modo che l’autonomia diventi un moltiplicatore di efficienza e di rischio.

La vera novità non risiede tanto nelle tecniche impiegate, quanto nel modo in cui vengono orchestrate. L’AI agentica introduce un livello di coordinamento che rende il cybercrime più scalabile e resiliente. Ogni agente è in grado di adattarsi al contesto e replicare strategie di successo, alimentando un ciclo di apprendimento che rafforza l’intero ecosistema criminale. Di fronte a questo scenario, la tradizionale distinzione tra attacco umano e automatizzato perde significato, costringendo esperti di sicurezza e legislatori a ripensare i criteri di responsabilità.

Nuove sfide per il diritto e per la governance europea

L’autonomia decisionale dei sistemi intelligenti solleva interrogativi complessi sul piano giuridico. Se un’azione dannosa deriva da una decisione presa da un agente digitale, chi ne risponde? La catena di causalità tra scelta umana e conseguenza tecnica si frammenta, e con essa la possibilità di attribuire colpe e sanzioni. Per i giuristi, questa opacità apre un terreno inesplorato che richiede nuove categorie interpretative e una cooperazione internazionale più efficace.

Il contesto normativo europeo si trova in prima linea. La direttiva NIS2 rafforza gli obblighi di gestione del rischio e sicurezza informatica, mentre l’AI Act impone standard di trasparenza e controllo umano nei sistemi ad alto livello di autonomia. Tuttavia, la velocità con cui si diffonde l’automazione criminale rischia di superare la capacità delle imprese di adeguarsi. Le grandi organizzazioni possono investire in difese basate su agenti intelligenti, ma molte realtà medio-piccole rimangono esposte a vulnerabilità strutturali difficili da colmare.

Verso una sicurezza adattiva e condivisa

Le imprese che non investiranno in strategie di resilienza rischiano di trovarsi in netto svantaggio. La sicurezza digitale deve evolversi verso modelli adattivi, capaci di rispondere in tempo reale alla rapidità dell’offensiva, riuscendo a combinare tecnologia, diritto e formazione. E il legislatore dovrà dimostrare di riuscire a stare al passo con i tempi per assicurare prevenzione e criteri oggettivi per l’individuazione dei soggetti responsabili.