ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

23.000 host attivi, 130 paesi: gli hacker dirottano modelli di intelligenza artificiale open source 

DiHannah CollymoreHannah Collymore
Tempo di lettura: 3 minuti.
23.000 host attivi, 130 paesi: gli hacker dirottano modelli di intelligenza artificiale open source 
  • I ricercatori della sicurezza hanno individuato oltre 175.000 host di intelligenza artificiale unici in 130 paesi, con 23.000 server "persistenti" che costituiscono una retetronper le attività criminali.
  • Gli hacker stanno dirottando questi modelli di intelligenza artificiale non protetti per rubare potenza di calcolo, aggirare i filtri di sicurezza e rivendere l'accesso ad altri criminali.
  • Oltre il 48% di questi sistemi esposti consente agli hacker di eseguire potenzialmente codice o di accedere a database interni privati ​​tramite semplici prompt di testo.

Si dice che circa 175.000 server privati ​​siano esposti alla rete Internet pubblica, dando agli hacker l'opportunità di svolgere le loro attività illecite. 

Il problema è stato segnalato dai ricercatori di sicurezza SentinelOne e Censys, che trac7,23 milioni di osservazioni in oltre 300 giorni. 

Gli hacker sfruttano l'ambientazione di Ollama

Un recente rapporto di SentinelOne e Censys ha rilevato che oltre 175.000 server di intelligenza artificiale privati ​​sono accidentalmentedenta Internet. Questi sistemi utilizzano Ollama, un software open source che consente di eseguire potenti modelli di intelligenza artificiale, come Llama di Meta o Gemma di Google, sui propri computer anziché utilizzare un sito web come ChatGPT. 

Per impostazione predefinita, Ollama comunica solo con il computer su cui è installato. Tuttavia, un utente può modificare le impostazioni per semplificare l'accesso remoto, il che potrebbe esporredentl'intero sistema alla rete Internet pubblica.

Hanno trac7,23 milioni di osservazioni per quasi 300 giorni e hanno scoperto che, sebbene molti di questi "host" di intelligenza artificiale siano temporanei, circa 23.000 di essi rimangono online quasi sempre. Questi sistemi "sempre attivi" sono bersagli perfetti per gli hacker perché forniscono hardware gratuito e potente, non monitorato da alcuna grande azienda tecnologica.

Negli Stati Uniti, circa il 18% di questi sistemi esposti si trova in Virginia, probabilmente a causa dell'elevata densità di data center locali. In Cina, il 30% degli host si trova a Pechino. 

Sorprendentemente, il 56% di tutti questi sistemi di intelligenza artificiale esposti funziona su connessioni Internet domestiche odent. Questo rappresenta un problema importante perché gli hacker possono utilizzare questi indirizzi IP domestici per nascondere la propriadent. 

Quando un hacker invia un messaggio dannoso tramite l'intelligenza artificiale domestica di qualcuno, sembra che provenga da una persona normale e non da una botnet criminale.

In che modo i criminali utilizzano questi sistemi di intelligenza artificiale dirottati?

Secondo Pillar Security, una nuova rete criminale nota come Operation Bizarre Bazaar è attivamente alla ricerca di questi endpoint di intelligenza artificiale esposti. Cercano sistemi in esecuzione sulla porta predefinita 11434 che non richiedono una password. Una volta trovato, rubano il "calcolo" e lo vendono ad altri che vogliono eseguire attività di intelligenza artificiale a basso costo, come la generazione di migliaia di email di phishing o la creazione di contenuti deepfake.

Tra ottobre 2025 e gennaio 2026, la società di sicurezza informatica GreyNoise ha registrato oltre 91.403 sessioni di attacco mirate a queste configurazioni di intelligenza artificiale. Sono state individuate due tipologie principali di attacchi. 

  • Il primo utilizza una tecnica chiamata Server-Side Request Forgery (SSRF) per forzare l'IA a connettersi ai server dell'hacker. 
  • La seconda è una massiccia campagna di "scansione" in cui gli hacker inviano migliaia di semplici domande per scoprire esattamente quale modello di intelligenza artificiale è in esecuzione e cosa è in grado di fare.

Circa il 48% di questi sistemi è configurato per la "chiamata di strumenti". Ciò significa che l'IA può interagire con altri software, effettuare ricerche sul web o leggere file sul computer. 

Se un hacker trova un sistema come questo, può usare la "iniezione immediata" per ingannare l'IA. Invece di chiedere una poesia, potrebbe dire all'IA di "elencare tutte le chiavi API nel codice sorgente" o di "riepilogare i file segreti del progetto". Poiché non c'è alcun controllo umano, l'IA spesso obbedisce a questi comandi.

Il Check Point 2026 Cyber ​​Security Report mostra che il numero totale di attacchi informatici è aumentato del 70% tra il 2023 e il 2025. Nel novembre 2025, Anthropic ha segnalato il primo caso documentato di una campagna di spionaggio informatico orchestrata dall'intelligenza artificiale, in cui un gruppo sponsorizzato da uno stato ha utilizzato agenti di intelligenza artificiale per eseguire l'80% di un attacco informatico senza l'aiuto umano.

Proprio questo mese sono state scoperte diverse nuove vulnerabilità, come CVE-2025-1975 e CVE-2025-66959. Si tratta di falle che consentono agli hacker di mandare in crash un server Ollama inviandogli un file modello appositamente creato. 

Poiché il 72% di questi host utilizza lo stesso formato di file specifico denominato Q4_K_M, un singolo attacco riuscito potrebbe mettere fuori uso migliaia di sistemi contemporaneamente.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO