Migliaia di modelli AI girano online senza controlli e usati per phishing e disinformazione

Tempo di lettura: 3 minuti

Un report di SentinelOne e Censys spiega come modelli AI open-source esposti su server insicuri, privi di guardrail, vengano già sfruttati per phishing, spam e campagne di disinformazione, aprendo un problema concreto di sicurezza e responsabilità per aziende e sviluppatori.

Migliaia di modelli di intelligenza artificiale open-source risultano oggi accessibili online su server privi di adeguati meccanismi di sicurezza. È quanto emerge da una ricerca condotta dalle società di cybersecurity SentinelOne e Censys, che per quasi dieci mesi hanno analizzato istanze di modelli linguistici esposte pubblicamente su Internet.

Il dato che colpisce non riguarda solo la quantità delle installazioni osservate, ma il modo in cui queste vengono gestite. In molti casi i modelli funzionano senza guardrail, oppure con sistemi di controllo rimossi deliberatamente attraverso la modifica dei prompt di sistema. In questo assetto, le capacità generative vengono utilizzate per produrre contenuti destinati a spam, phishing e campagne di disinformazione, con un livello di automazione che riduce tempi, costi e barriere di accesso.

Perché i modelli open-source diventano un problema di sicurezza

I ricercatori hanno individuato migliaia di server che eseguono modelli linguistici al di fuori dei grandi ecosistemi controllati. Queste installazioni non beneficiano delle misure di monitoraggio, filtraggio e mitigazione del rischio adottate dalle principali piattaforme commerciali. In circa un quarto dei casi analizzati è stato possibile osservare direttamente le istruzioni di sistema, rilevando configurazioni che consentono comportamenti dannosi.

La questione riguarda anche la distribuzione geografica delle infrastrutture. Una parte rilevante dei server individuati opera in Asia e negli Stati Uniti, ma il fenomeno si estende su scala globale. Questo rende complessa qualsiasi forma di intervento coordinato e mette in evidenza una zona grigia in cui l’uso legittimo e quello illecito convivono sulla stessa base tecnologica.

Responsabilità e filiera dell’intelligenza artificiale

Il tema centrale che emerge dalla ricerca è quello della responsabilità lungo la filiera. Una volta che un modello open-source viene rilasciato, il controllo non rimane nelle mani di chi lo ha sviluppato. Tuttavia, secondo diversi esperti di governance dell’intelligenza artificiale, esiste un dovere di diligenza che coinvolge anche i laboratori di origine, chiamati a documentare i rischi prevedibili e a fornire strumenti di mitigazione.

Allo stesso tempo, chi mette questi modelli in produzione assume un ruolo determinante. L’esposizione pubblica di sistemi generativi senza protezioni adeguate crea superfici di attacco nuove, difficili da intercettare con gli strumenti tradizionali della cybersecurity. Il risultato è una capacità computazionale “in eccesso” che può essere facilmente riconvertita per finalità abusive.

Per imprese e professionisti del digitale entrano in gioco valutazioni operative, obblighi di sicurezza e impatti reputazionali. La diffusione incontrollata di modelli di intelligenza artificiale senza guardrail mostra come il confine tra sperimentazione tecnica e rischio sistemico sia ormai sottile e richieda un approccio più maturo alla gestione di queste tecnologie.