Protect AI, acteur majeur de de l'IA , a dévoilé sa dernière innovation : Guardian. Cette solution de pointe permet aux entreprises d'appliquer des politiques de sécurité robustes à leurs modèles d'apprentissage automatique, garantissant ainsi la protection de leurs environnements d'IA contre tout code malveillant.
S'appuyant sur l'outil open source ModelScan de Protect AI, Guardian combine les capacités open source avec des fonctionnalités d'analyse propriétaires, offrant une sécurité complète des modèles aux entreprises.
Gérer les risques liés à la démocratisation de l'IA/ML
La démocratisation de l'intelligence artificielle et de l'apprentissage automatique a permis la large diffusion de modèles fondamentaux sur des plateformes comme Hugging Face. Ces modèles, téléchargés par des millions d'utilisateurs chaque mois, jouent un rôle crucial dans le fonctionnement d'un large éventail d'applications d'IA.
Cependant, cette accessibilité a également introduit des failles de sécurité, car l'échange ouvert de fichiers sur ces plateformes peut faciliter involontairement la diffusion de logiciels malveillants parmi les utilisateurs.
Ian Swanson, PDG de Protect AI, a déclaré : « Les modèles d'apprentissage automatique sont devenus des atouts essentiels dans l'infrastructure d'une organisation, pourtant ils ne bénéficient souvent pas des analyses antivirus et de codes malveillants rigoureuses que subissent les autres types de fichiers avant utilisation.
Avec des milliers de modèles téléchargés des millions de fois chaque mois depuis des plateformes comme Hugging Face, le risque d'infiltration de code malveillant est considérable. Guardian permet aux clients de reprendre le contrôle de la sécurité de leurs modèles open source
Guardian : Protection contre les attaques de sérialisation de modèles
L'un des risques majeurs liés au partage ouvert des modèles d'apprentissage automatique est l'attaque par sérialisation de modèles. Celle-ci se produit lorsqu'un code malveillant est injecté dans un modèle lors de sa sérialisation (enregistrement) et avant sa distribution, créant ainsi une version moderne du cheval de Troie.
Une fois intégré à un modèle, ce code malveillant dissimulé peut être exécuté pour voler des données sensibles, compromettre desdent, manipuler des données, et bien plus encore. Ces risques sont fréquents dans les modèles hébergés sur de grands référentiels comme Hugging Face.
Protect AI a précédemment lancé ModelScan, un outil open source conçu pour analyser les modèles d'IA/ML afin d'identifier les attaques potentielles et de protéger les systèmes contre les vulnérabilités de la chaîne d'approvisionnement. Depuis sa création, Protect AI a utilisé ModelScan pour évaluer plus de 400 000 modèles hébergés sur Hugging Face, endentceux présentant des failles de sécurité et en mettant à jour en continu sa base de connaissances.
À ce jour, plus de 3 300 modèles se sont révélés capables d’exécuter du code malveillant. Ces modèles continuent d’être téléchargés et déployés dans des environnements d’apprentissage automatique sans mesures de sécurité adéquates permettant d’identifier les risques potentiels avant leur adoption.
Guardian : La passerelle sécurisée pour le développement et le déploiement de modèles
Contrairement à d'autres solutions open source, Guardian de Protect AI est une passerelle sécurisée qui comble le fossé entre les processus de développement et de déploiement du ML qui s'appuient sur des plateformes comme Hugging Face et d'autres référentiels de modèles.
Guardian utilise des scanners de vulnérabilités propriétaires, dont un scanner spécialisé pour les couches Keras Lambda, afin d'inspecter de manière proactive les modèles open source à la recherche de code malveillant, garantissant ainsi l'utilisation de modèles sécurisés et conformes aux politiques au sein des réseaux organisationnels.
Contrôle d'accès amélioré et informations complètes
Guardian propose des fonctionnalités avancées de contrôle d'accès et des tableaux de bord intuitifs qui permettent aux équipes de sécurité de maîtriser totalement l' des modèles , tout en offrant une visibilité complète sur leur origine, leurs créateurs et leurs licences. Ce niveau de transparence garantit aux organisations la possibilité de prendre des décisions éclairées concernant les modèles qu'elles intègrent à leurs environnements d'IA.
De plus, Guardian s'intègre aux cadres de sécurité existants et complète le Radar de Protect AI, offrant une visibilité étendue sur la surface des menaces pour l'IA et l'apprentissage automatique au sein des organisations.

