Protect AI, azienda leader nella basata sull'intelligenza artificiale , ha presentato la sua ultima innovazione, Guardian. Questa soluzione all'avanguardia consente alle organizzazioni di applicare solide policy di sicurezza ai propri modelli di apprendimento automatico, garantendo che codice dannoso non si infiltri nei loro ambienti di intelligenza artificiale.
Basato sullo strumento open source ModelScan di Protect AI, Guardian unisce funzionalità open source con funzionalità di scansione proprietarie, garantendo alle aziende una sicurezza completa dei modelli.
Affrontare i rischi dell'intelligenza artificiale e dell'apprendimento automatico democratizzati
La democratizzazione dell'intelligenza artificiale e dell'apprendimento automatico ha portato alla diffusione di modelli fondamentali su piattaforme come Hugging Face. Questi modelli, scaricati da milioni di utenti ogni mese, svolgono un ruolo cruciale nel supportare un'ampia gamma di applicazioni di intelligenza artificiale.
Tuttavia, questa accessibilità ha anche introdotto vulnerabilità di sicurezza, poiché lo scambio aperto di file su questi repository può inavvertitamente facilitare la diffusione di software dannosi tra gli utenti.
Ian Swanson, CEO di Protect AI, ha affermato: "I modelli di apprendimento automatico sono diventati risorse fondamentali nell'infrastruttura di un'organizzazione, ma spesso non eseguono le rigorose scansioni di virus e codici dannosi che altri tipi di file ricevono prima dell'uso.
Con migliaia di modelli scaricati milioni di volte ogni mese da piattaforme come Hugging Face, il potenziale di infiltrazione di codice pericoloso è significativo. Guardian consente ai clienti di riprendere il controllo sulla sicurezza dei modelli open source
Guardian: protezione dagli attacchi di serializzazione dei modelli
Uno dei rischi critici associati ai modelli di machine learning condivisi apertamente è l'attacco di serializzazione del modello. Questo si verifica quando il codice malware viene iniettato in un modello durante la serializzazione (salvataggio) e prima della distribuzione, creando una versione moderna del Trojan Horse.
Una volta incorporato in un modello, questo codice dannoso nascosto può essere eseguito per rubare dati sensibili, comprometteredent, manipolare dati e altro ancora. Questi rischi sono prevalenti nei modelli ospitati su repository di grandi dimensioni come Hugging Face.
Protect AI ha precedentemente lanciato ModelScan, uno strumento open source progettato per analizzare i modelli di intelligenza artificiale/apprendimento automatico alla ricerca di potenziali attacchi, salvaguardando i sistemi dalle vulnerabilità della supply chain. Fin dal suo inizio, Protect AI ha utilizzato ModelScan per valutare oltre 400.000 modelli ospitati su Hugging Face,denti modelli con falle di sicurezza e aggiornando costantemente questa knowledge base.
Ad oggi, sono stati scoperti oltre 3.300 modelli in grado di eseguire codice non autorizzato. Questi modelli continuano a essere scaricati e distribuiti in ambienti di apprendimento automatico senza adeguate misure di sicurezza per analizzarli alla ricerca di potenziali rischi prima dell'adozione.
Guardian: il gateway sicuro per lo sviluppo e la distribuzione dei modelli
A differenza di altre alternative open source, Guardian di Protect AI è un gateway sicuro che colma il divario tra i processi di sviluppo e distribuzione ML che si basano su piattaforme come Hugging Face e altri repository di modelli.
Guardian utilizza scanner di vulnerabilità proprietari, tra cui uno scanner specializzato per i livelli Keras lambda, per ispezionare in modo proattivo i modelli open source alla ricerca di codice dannoso, garantendo l'utilizzo di modelli sicuri e conformi alle policy all'interno delle reti aziendali.
Controllo degli accessi migliorato e informazioni complete
Guardian offre funzionalità avanzate di controllo degli accessi e dashboard intuitive che garantiscono ai team di sicurezza il controllo completo sull'inserimento dei modelli , fornendo al contempo informazioni approfondite su origini, creatori e licenze dei modelli. Questo livello di trasparenza garantisce alle organizzazioni la possibilità di prendere decisioni consapevoli sui modelli da integrare nei propri ambienti di intelligenza artificiale.
Inoltre, Guardian si integra con i framework di sicurezza esistenti e completa Radar di Protect AI, offrendo un'ampia visibilità della superficie delle minacce per l'intelligenza artificiale e l'apprendimento automatico all'interno delle organizzazioni.

