Uno studiodentun'allarmante lacuna di sicurezza nell'implementazione dell'intelligenza artificiale generativa

- I vertici aziendali danno priorità all'innovazione dell'intelligenza artificiale generativa rispetto alla sicurezza.
- Gli strumenti di “intelligenza artificiale ombra” non protetti possono comportare rischi per i dati.
- Le aziende inizieranno a integrare l'intelligenza artificiale generativa, il che richiederà misure di sicurezza approfondite.
L'82% dei dirigenti di alto livello ritiene che un'IA sia fondamentale. Tuttavia, solo il 24% di loro integra la sicurezza nelle proprie iniziative relative all'IA generativa. È quanto emerge da una nuova ricerca congiunta di IBM e Amazon Web Services, presentata alla RSA Conference 2024, che ha analizzato i risultati di un sondaggio incentrato sulle opinioni dei dirigenti di alto livello in merito a come promuovere casi d'uso sicuri per l'IA, con particolare attenzione all'IA generativa. IBM riporta che solo il 24% degli intervistatidentconsiderato la dimensione della sicurezza nelle proprie iniziative di IA generativa, mentre quasi il 70% afferma che l'innovazione ha la precedenza sulla sicurezza.
Compromesso tra innovazione e sicurezza
Sebbene la maggior parte dei dirigenti tema che rischi imprevedibili possano avere un impatto sulle iniziative di IA di generazione, non stanno dando priorità alla sicurezza. Sebbene non sia ancora stato delineato un panorama completo delle minacce legate all'IA, alcuni casi d'uso hanno previsto l'utilizzo di ChatGPT o simili per generare script di phishing via email e audio deepfake. I ricercatori di sicurezza di IBM X-Force hanno avvertito che, come accade con le tecnologie più mature, è prevedibile che i sistemi di IA saranno sempre più presi di mira su larga scala.
Sebbene una superficie di minaccia consolidata per l'IA stia appena iniziando a formarsi, i ricercatori di IBM X-Force prevedono che, una volta che il panorama del settore si sarà sviluppato attorno a tecnologie e modelli di abilitazione comuni, gli autori delle minacce inizieranno a prendere di mira questi sistemi di IA in modo più ampio, si legge nel rapporto. In effetti, questa convergenza è in atto con la rapida maturazione del mercato e l'emergere di fornitori leader in ambito hardware, software e servizi.
IBM, la preoccupazione più immediata rapportoriguarda le aziende che non proteggono adeguatamente i modelli di intelligenza artificiale che sviluppano e utilizzano nelle proprie attività. Un'applicazione inadeguata degli strumenti di intelligenza artificiale generale (GenAI) può portare a una gestione impropria o alla divulgazione di dati sensibili. Il rapporto evidenzia inoltre che l'“IA ombra” è in aumento all'interno delle organizzazioni, poiché i dipendenti utilizzano strumenti di GenAI non approvati e protetti dai team di sicurezza aziendali.
A tal fine, a gennaio IBM ha annunciato un framework per la protezione della GenAI. I suoi principi fondamentali sono la centralizzazione dei dati, utilizzati per addestrare i modelli di intelligenza artificiale, la protezione dei modelli tramite una combinazione di analisi delle pipeline di sviluppo per individuare vulnerabilità, l'applicazione di policy e controllo degli accessi per l'utilizzo dell'intelligenza artificiale e la protezione del suo utilizzo da attacchi basati su modelli di intelligenza artificiale in tempo reale.
Proteggere la pipeline dell'IA
Lunedì, il team di sicurezza offensiva X-Force Red di IBM ha lanciato un servizio di test di intelligenza artificiale che mira a valutare applicazioni di intelligenza artificiale, modelli di intelligenza artificiale e pipeline MLSecOps attraverso il red teaming. Mercoledì, alla RSA Conference 2024, IBM presenterà "Innovate Now, Secure Later? Decisions, Decision..." sulla protezione e la governance della pipeline di intelligenza artificiale.
Il secondo relatore è stato Ryan Dougherty, direttore del programma per la sicurezza tecnologica di IBM Security. Intervistato da TechTarget Editorial, ha affermato che la sicurezza dell'IA fin da subito è una delle principali preoccupazioni di IBM Security nel settore tecnologico. Ha aggiunto: "Questo è ciò che rende quest'area così critica, in particolare per quanto riguarda l'IA generativa: si sta integrando profondamente nelle applicazioni e nei processi aziendali. L'integrazione nel tessuto aziendale la pone al di sopra e al di là dei potenziali rischi e minacce".
Secondo lui, da una prospettiva aziendale, l'intelligenza artificiale deve avere un fondamento nella sua vera natura.
"L'intelligenza artificiale generativa viene addestrata e resa operativa su enormi quantità di dati aziendali sensibili, e dobbiamo proteggere questi nuovi gioielli perché è lì che entra in gioco il vantaggio competitivo. Tutto ruota attorno ai dati che queste organizzazioni hanno e alle informazioni che ottengono utilizzando l'intelligenza artificiale generativa e inserendole nelle loro applicazioni per migliorare il loro business".
Dougherty ha aggiunto che stanno spendendo molto per i modelli, che sono molto costosi. Molti investimenti e proprietà intellettuale sono destinati all'operatività di queste applicazioni di intelligenza artificiale generativa, e le aziende semplicemente non possono permettersi di proteggerle.
Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandeclina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Raccomandiamotronindipendentident e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















