Il National Cyber Security Centre (NCSC) del Regno Unito ha lanciato un allarme sul potenziale rischio che i malware basati sull'intelligenza artificiale diventino una minaccia significativa entro il 2025. In un recente rapporto, l'NCSC, un'agenzia del Government Communications Headquarters (GCHQ), ha affermato che esiste una "possibilità realistica" che attori statali altamente competenti possano utilizzare l'intelligenza artificiale per generare malware in grado di eludere gli attuali filtri di sicurezza. Questo sviluppo potrebbe inaugurare una nuova era di minacce informatiche, che interesseranno ogni aspetto, dall'individuazione di dispositivi vulnerabili all'analisi dei dati, fino agli attacchi di ingegneria sociale.
Malware generato dall'intelligenza artificiale all'orizzonte
Il rapporto del NCSC evidenzia che l'intelligenza artificiale ha il potenziale per produrre malware in grado di aggirare le misure di sicurezza esistenti, ma richiede dati di exploit di alta qualità per l'addestramento. L'agenzia ritiene che alcune entità statali altamente capaci possano possedere repository di malware sufficientemente estesi da consentire l'addestramento efficace di modelli di intelligenza artificiale a tale scopo. Sebbene si preveda che gli attacchi informatici più avanzati basati sull'intelligenza artificiale emergeranno nel 2026 o successivamente, i primi ad adottare strumenti di intelligenza artificiale generativa saranno probabilmente gli aggressori più capaci.
L'impatto dell'intelligenza artificiale sui dispositivi vulnerabili e sull'analisi dei dati
Il NCSC prevede che l'intelligenza artificiale renderà più facile per gli aggressori individuare i dispositivi vulnerabili, riducendo il tempo a disposizione dei difensori per correggerli prima dello sfruttamento. Inoltre, l'intelligenza artificiale migliorerà l'analisi dei dati in tempo reale, consentendo agli aggressori didentrapidamente file preziosi, aumentando l'efficienza delle attività di disturbo, estorsione e spionaggio.
Il rapporto sottolinea che competenze, attrezzature, risorse finanziarie e accesso a dati di qualità sono essenziali per sfruttare l'intelligenza artificiale avanzata nelle operazioni informatiche. Gli attori statali altamente capaci sono nella posizione migliore per sfruttare il potenziale dell'intelligenza artificiale in attacchi informatici sofisticati. Tuttavia, si prevede che anche gli aggressori con competenze e risorse limitate trarranno vantaggio dai progressi dell'intelligenza artificiale nei prossimi quattro anni.
L'intelligenza artificiale potenzia i criminali informatici
All'estremità inferiore dello spettro, si prevede che i criminali informatici che impiegano attacchi di ingegneria sociale sfruttino strumenti di intelligenza artificiale generativa di livello consumer, come ChatGPT, Google Bard e Microsoft Copilot. Ciò potrebbe tradursi in tentativi di phishing più convincenti e localizzati. Inoltre, le bande di ransomware potrebbero utilizzare l'intelligenza artificiale per l'analisi dei dati, consentendo tentativi di estorsione più efficaci,dentpiù facilmente dati preziosi.
Sfide per i professionisti della sicurezza informatica
Il NCSC prevede che gli attacchi informatici basati sull'intelligenza artificiale aumenteranno in volume e impatto nei prossimi due anni, intensificando le sfide che gli operatori della sicurezza informatica si trovano ad affrontare. Questi professionisti sono già alle prese con minacce in continua evoluzione e si prevede che l'intelligenza artificiale svolgerà un ruolo significativo nel plasmare il panorama delle minacce.
Il NCSC sta monitorando attentamente lo sviluppo dell'IA nella gestione delle minacce informatiche. La conferenza annuale CYBERUK dell'agenzia, che si terrà a maggio, si concentrerà sulla considerevole minaccia che le tecnologie emergenti rappresentano per la sicurezza nazionale. Il CEO uscente Lindy Cameron ha sottolineato la necessità di gestire i rischi dell'IA sfruttandone al contempo il potenziale per uno sviluppo responsabile.
Sforzi globali per affrontare i rischi per la sicurezza dell'IA
L'avvertimento del NCSC fa seguito al Summit inaugurale sulla sicurezza dell'IA tenutosi nel Regno Unito, che ha portato alla Dichiarazione di Bletchley, un'iniziativa globale per la gestione dei rischi dell'IA. Nell'ambito di questo impegno, i principali sviluppatori di IA si sono impegnati a condividere il codice con i governi per garantire uno sviluppo responsabile dell'IA.
Sebbene il piano di test dell'IA rappresenti un passo nella giusta direzione, non è giuridicamente vincolante e non gode del sostegno di alcune nazioni. Ciò solleva dubbi sulla sua efficacia nell'affrontare la crescente minaccia degli attacchi informatici basati sull'IA.
L'allarme del NCSC sottolinea l'evoluzione del panorama delle minacce nel cyberspazio, dove il malware potenziato dall'intelligenza artificiale è all'orizzonte. Con il potenziale di aggirare le attuali misure di sicurezza, l'intelligenza artificiale pone sfide sia per i professionisti della sicurezza informatica, sia per i governi e le organizzazioni. Mentre il mondo affronta le implicazioni dell'intelligenza artificiale nelle minacce informatiche, la vigilanza e la cooperazione internazionale saranno essenziali per rimanere al passo con le minacce emergenti.

