Una mappatura condotta dai ricercatori di SentinelLABS insieme alla piattaforma di analisi Censys ha portato alla luce un dato che racconta molto dello stato attuale dell’intelligenza artificiale open source. Oltre 175 mila server che eseguono Ollama, un applicativo pensato per utilizzare modelli di AI in locale, risultano accessibili direttamente da Internet. Le istanze individuate sono distribuite in circa 130 Paesi e ospitano modelli largamente diffusi come Llama 3, Qwen 2 e Gemma 2, spesso usati in ambienti di sviluppo, test e sperimentazione aziendale.
Il numero, di per sé, dice poco se non viene letto insieme a un altro elemento emerso dall’analisi. Molti di questi server condividono configurazioni simili, componenti software comuni e modalità di esposizione analoghe. Questo crea una struttura omogenea, che gli esperti descrivono come una monocultura tecnologica. In un contesto del genere, una singola vulnerabilità o un token compromesso possono diventare il punto di ingresso per colpire migliaia di sistemi in modo simultaneo.
Server AI esposti e configurazioni ripetute
Il funzionamento di Ollama aiuta a capire come si sia arrivati a questa situazione. Il software nasce per l’uso locale e, nelle impostazioni standard, ascolta solo sull’indirizzo della macchina che lo ospita. In molti casi, però, viene configurato per essere raggiungibile dall’esterno, sia per comodità durante lo sviluppo sia per l’integrazione con altri servizi. Quando questo passaggio avviene senza un’adeguata protezione di rete o senza autenticazione, il server diventa accessibile a chiunque conosca l’indirizzo.
Secondo i ricercatori, alcune istanze consentono funzionalità avanzate che, se abusate, possono portare all’esecuzione di codice da remoto o all’uso improprio delle risorse di calcolo. In scenari più complessi, un attaccante potrebbe sfruttare questi server come punto di partenza per attività fraudolente, mascherando la propria identità o consumando capacità computazionale a spese di terzi.
Dall’esperimento locale all’infrastruttura critica
Il quadro che emerge va oltre il singolo applicativo. L’adozione rapida di strumenti di intelligenza artificiale open source sta trasformando software nati per la sperimentazione in vere e proprie infrastrutture esposte, senza che questo cambiamento venga sempre accompagnato da un’evoluzione delle pratiche di sicurezza. Molti sviluppatori e aziende continuano a trattare questi sistemi come ambienti temporanei, anche quando vengono utilizzati in modo continuativo o collegati a dati e processi sensibili.
La ricerca mette quindi in evidenza una distanza crescente tra la velocità con cui l’AI viene integrata nei flussi di lavoro digitali e la maturità delle misure di protezione adottate. In assenza di monitoraggio costante e di controlli strutturati, eventuali compromissioni rischiano di restare invisibili per lungo tempo, amplificando gli effetti di un attacco.
L’AI open source, è vero che offre flessibilità e accesso rapido a tecnologie avanzate, ma richiede lo stesso livello di attenzione riservato a qualsiasi altro servizio di rete. Trattarla come semplice software locale, quando in realtà è parte dell’infrastruttura digitale, espone a rischi che vanno ben oltre il laboratorio di sviluppo.
