L'ondata di dell'IA ha travolto sia coloro che hanno buone intenzioni, sia coloro che hanno intenzioni più sinistre. Gli esperti di sicurezza stanno lanciando l'allarme, sottolineando che l'utilizzo di tali modelli, la generazione di testo dannoso, o "hackbot", è ormai noto tra gli autori delle minacce. Ha raggiunto il livello di un servizio chiavi in mano nei servizi in abbonamento.
I criminali informatici sfruttano gli strumenti dell'intelligenza artificiale
Da un lato, gli esperti di sicurezza informatica hanno rapidamente compreso il potenziale degli strumenti basati sull'intelligenza artificiale per proteggere meglio i loro sistemi. Anche gli autori delle minacce hanno mostrato altrettanta propensione a utilizzare queste tecnologie per sfruttare le lacune di sicurezza lasciate dai loro attaccati. Negli ultimi anni, si è registrato un aumento esponenziale del numero di applicazioni di intelligenza artificiale utilizzate da malintenzionati, il che ha attirato l'attenzione dei team di sicurezza su un approccio adeguato per contrastare le minacce legate all'intelligenza artificiale.
D'altro canto, anche gli esperti britannici di sicurezza informatica hanno indicato l'IA come un nuovo rischio emergente, che implica acque inesplorate e la sua natura in continua evoluzione. Il NCSC prevede che il 2024, il primo trimestre, sarà il più grande e supererà con successo i record del 2022 e del 2023. Gli abili criminali hanno anche utilizzato modelli linguistici per l'ingegneria sociale, che prevedevano di inserire celebrità in un ambiente video o audio utilizzando schemi di phishing o dispositivi di riconoscimento vocale. Vascut Jakkal, vicepresidente dent sicurezza di Microsoft Corporation, ha partecipato alla RSA Conference 2024. Il problema non è il deterioramento di questi strumenti, ma la loro crescente disponibilità per il cracking delle password, che è legata per 10 volte alla crescita degli attacchi legati all'identità dent
Alcuni esperti hanno inoltre concluso che i chatbot utilizzano una frase univoca per sviluppare attivamente malware. In effetti, servizi pubblici come ChatGPT e Gemini hanno implementato misure di sicurezza per impedirne l'uso improprio per scopi dannosi. Tuttavia, gli hacker hanno aggirato molte protezioni attraverso tecniche di ingegneria sofisticate e tempestive.
Hackbot-as-a-service: la tendenza crescente della criminalità informatica
Secondo studi recenti, i modelli linguistici visibili al pubblico in genere non riescono a sfruttare le debolezze della sicurezza del software. Tuttavia, solo GPT-4 di OpenAI ha mostrato caratteristiche promettenti, in quanto potrebbe produrre eseguibili per difetti noti. Le restrizioni di cui sopra sembrano aver probabilmente favorito la produzione di prototipi di chatbot dannosi progettati per aiutare i criminali informatici a svolgere le loro attività illecite.
Vengono pubblicizzati sui forum e sui marketplace del dark web, che offrono il potere di assumere e sfruttare gli aggressori, alimentando un modello di hackbot-as-a-service. Uno dei recenti post sul blog pubblicati dal team di Trustwave SpiderLabs nell'agosto del 2023 illustra il crescente volume di modelli di linguaggio dannosi ospitati su diverse bacheche nascoste del dark web a scopo di lucro.
Trustwave ha pubblicato il modello WormGPT a giugno 2021, uno dei modelli di linguaggio dannoso noti di questi hacker. Questo approccio può verificarsi in dispositivi in cui i bot iniettano attacchi informatici tramite strutture di hacking ospitate sul dark web. Generato a luglio 2023, FraudGPT è stato individuato per la prima volta dai ricercatori di minacce di Netenrich prima di raggiungere Telegram.
Questi strumenti consentono agli aggressori di progettare risorse utilizzate in attacchi di ingegneria sociale, come e-mail di phishing, deepfake e clonazione vocale. Tuttavia, i loro creatori sostengono che il loro vero valore risieda nello sfruttamento delle vulnerabilità. Consentono agli hacker di alimentare questi modelli dannosi con codice relativo a vulnerabilità specifiche, che potrebbe teoricamente produrre diversi exploit proof-of-concept (PoC) che un aggressore potrebbe provare.
Questi prodotti vengono venduti nei mercati clandestini del dark web, dove agli hacker viene addebitato un canone mensile per utilizzare l'hackbot, proprio come il ransomware viene distribuito nel modello ransomware-as-a-service (raas), che è direttamente collegato a un complesso ransomware che molte aziende si trovano ad affrontare oggi.
Sebbene WormGPT sia il primo modello di linguaggio dannoso su larga scala introdotto, altri modelli di linguaggio dannosi e non etici come BlackHatGPT, XXXGPT e WolfGPT sono seguiti a breve, formando un nuovo segmento di mercato del mercato nero informatico.
L'efficacia degli hackbot: propaganda o minaccia reale?
A differenza della ricerca condotta da Trustwave, che mirava a testare l'efficacia degli strumenti consigliati confrontandone gli output con quelli generati da chatbot legittimi, i risultati indicavano che ChatGPT poteva essere efficacemente utilizzato per creare malware Python con i giusti prompt. Per farlo, era necessario inviare un messaggio al responsabile dichiarando che il codice era white hat prima dell'implementazione e che l'output del codice necessitava di ulteriori modifiche.
ChatGPT potrebbe essere in grado di inoltrare messaggi di testo reali per attacchi di phishing, ma il comando di comando dovrebbe essere molto specifico a questo scopo. ChatGPT si baserà generalmente su questo solo quando gli utenti richiedono qualcosa di sbagliato. Per questo motivo, questi chatbot possono essere visti come un metodo più semplice per i criminali informatici o l'intelligenza artificiale per attaccare i chatter, invece di dover lavorare noiosamente per creare una pagina o un malware.
Sebbene questo settore sia nuovo e le minacce siano ancora in evoluzione, le aziende devono essere pienamente consapevoli dei loro attuali livelli di protezione. I contenuti e le caratteristiche culturali di cui sono inondati i sistemi di intelligenza artificiale potrebbero essere sfruttati in modo improprio per creare un divario di disinformazione che può essere colmato solo creando programmi di sicurezza e strumenti di gestionedenttronefficaci.
La legittimità delle soluzioni a questo problema crescente è ancora oggetto di dibattito. Tuttavia, recenti ceppi di ransomware hanno dimostrato che i criminali informatici possono eguagliare, se non superare, la velocità di sviluppo degli sviluppatori software.

