Gruppi di Corea del Nord, Iran e Cina segnalati per l'uso dell'intelligenza artificiale in malware e attività dannose

- I gruppi di hacker finanziati dallo Stato sfruttano l'intelligenza artificiale in ogni fase delle loro operazioni, dalla ricognizione al phishing, fino al malware e al furto di dati.
- Il rapporto di Google ha avvertito che l'intelligenza artificiale generativa sta abbassando le barriere all'ingresso, consentendo attacchi informatici più rapidi e precisi.
- Il rapporto di Anthropic dell'agosto 2025 ha fatto eco a risultati simili, rivelando l'uso improprio da parte della Corea del Nord della sua intelligenza artificiale Claude per spacciarsi per sviluppatori remoti per frodi informatiche.
Un nuovo rapporto del Threat Analysis Group (GTAG) di Google ha dimostrato che gli hacker finanziati da stati provenienti da Corea del Nord, Iran e Cina stanno sperimentando e ottimizzando attivamente gli attacchi informatici con strumenti di intelligenza artificiale (IA), che in questo caso è stato Gemini di Google.
Google ha affermato di aver osservato diversi gruppi affiliati allo Stato utilizzare i suoi grandi modelli linguistici per attività di ricognizione, ingegneria sociale, sviluppo di malware e miglioramento di "tutte le fasi delle loro operazioni, dalla ricognizione e creazione di esche di phishing allo sviluppo di comando e controllo (C2) e all'esfiltrazione dei dati"
Il rapporto ha rilevato prove di nuovi e sofisticati attacchi basati sull'intelligenza artificiale. Ha inoltre sottolineato che l'intelligenza artificiale generativa sta riducendo le barriere tecniche per le operazioni dannose, aiutando gli aggressori a lavorare più velocemente e con maggiore precisione.
Il rapporto si basa su avvertimenti simili di Microsoft e OpenAI, che hanno rivelato sperimentazioni analoghe da parte dello stesso trio di attori sostenuti dalla nazione.
Inoltre, Anthropic, la società dietro Claude AI, ha pubblicato un rapporto su come ha individuato e contrastato l'uso dell'intelligenza artificiale per gli attacchi; i gruppi legati alla Corea del Nord sono stati i principali attori malintenzionati menzionati nel rapporto.
Gli attori statali nordcoreani si rivolgono all'intelligenza artificiale
Nel suo ultimo aggiornamento sulle minacce, Google ha spiegato nei dettagli come un gruppo iraniano noto come TEMP.Zagros, noto anche come MuddyWater, abbia utilizzato Gemini per generare e correggere codice dannoso camuffato da ricerca accademica, con l'obiettivo finale di sviluppare malware personalizzato.
Così facendo, ha inavvertitamente rivelato dettagli operativi chiave che hanno consentito a Google di interrompere parti della sua infrastruttura.
È stato scoperto che alcuni criminali informatici legati alla Cina utilizzavano Gemini per migliorare le esche di phishing, effettuare ricognizioni sulle reti prese di mira e studiare tecniche di movimento laterale una volta all'interno dei sistemi compromessi. In alcuni casi, hanno utilizzato Gemini in modo improprio per esplorare ambienti non familiari, come infrastrutture cloud, Kubernetes e vSphere, a dimostrazione di un tentativo di espandere la propria portata tecnica.
operatori nordcoreanimentre testavano strumenti di intelligenza artificiale per potenziare campagne di ricognizione e phishing. Un gruppo criminale nordcoreano noto per il suo ruolo nelle campagne di furto di criptovalute che sfruttano l'ingegneria sociale ha anche tentato di utilizzare Gemini per scrivere codice che gli avrebbe consentito di rubare criptovalute.
Google è riuscita a mitigare questi attacchi e a chiudere gli account coinvolti.
Una nuova frontiera per la difesa informatica
Il rapporto di Anthropic, pubblicato nell'agosto del 2025, fornisce prove a sostegno dell'uso improprio dell'intelligenza artificiale da parte di soggetti legati a stati. L'azienda ha scoperto che agenti nordcoreani avevano utilizzato il modello Claude per spacciarsi per sviluppatori di software da remoto in cerca di lavoro.
Si dice che abbiano utilizzato Claude per generare curriculum, campioni di codice e risposte a colloqui tecnici per assicurarsitracfreelance all'estero.
Sebbene le scoperte di Anthropic abbiano portato alla luce l'azione fraudolenta di utilizzare l'intelligenza artificiale per ottenere posti di lavoro, che avrebbe portato a un'operazione di hacking più grande nelle organizzazioni che assumono, concordano anche con la conclusione di Google secondo cui gli strumenti di intelligenza artificiale vengonomatictestati da malintenzionati per ottenere un vantaggio aggiuntivo.
I risultati rappresentano un nuovo grattacapo per la comunità globale della sicurezza informatica. Le stesse caratteristiche che rendono i modelli e le applicazioni di intelligenza artificiale potenti strumenti di produttività vengono utilizzate anche per creare potenti strumenti di danno, come dimostrano i report, e con i progressi compiuti, anche questi aggressori si adatteranno e i loro attacchi diventeranno più sofisticati.
I governi e le aziende tecnologiche stanno iniziando a reagire e la continua collaborazione tra tutte le parti interessate per mitigare queste azioni sarà la strada da seguire.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















