Hugging Face reçoit un nombre considérable de modèles d'IA à des fins de test et d'évaluation, lesquels sont vulnérables aux attaques de pirates informatiques. Le rythme d'adoption de l'intelligence artificielle est sans précédent. Cette frénésie a certes permis le développement de nombreux outils utiles, mais elle a aussi offert aux pirates un moyen plus rapide et plus facile de mettre en œuvre leurs stratégies malveillantes. Ainsi, chez Hugging Face, les pirates ont pu récupérer les informations des utilisateurs en exécutant leurs propres codes malveillants.
D'après les chercheurs de la société de sécurité cloud WIZ, l'architecture du système d'exécution des modèles d'apprentissage automatique présentait deux failles majeures. Ces failles, à savoir un risque de prise de contrôle de l'infrastructure d'inférence partagée et un risque de prise de contrôle de l'intégration et du déploiement continus (CI/CD) partagés, exposaient les utilisateurs à des attaques de pirates informatiques. En d'autres termes, ces failles offraient aux pirates un moyen détourné d'injecter leur code et de modifier les registres.
Le partenariat entre Hugging Face et WIZ pour explorer les lacunes
Des pirates informatiques pouvaient accéder sans autorisation aux données d'autres utilisateurs en téléchargeant leurs propres modèles d'IA malveillants. Ce problème majeur risquait de nuire gravement dent la réputation de Hugging Face, car ces plateformes sont largement utilisées pour le stockage et le traitement de modèles d'IA en tant que service (AaaS). WIZ s'est associé à des entreprises AaaS afin d'identifier les failles de sécurité de ces plateformes. Dans le cas de Hugging Face, son immense popularité et son adoption massive l'ont exposée à la vigilance des pirates. La collaboration de WIZ a permis à Hugging Face de corriger les faiblesses de son système et de renforcer la sécurité de sa plateforme.
Comme nous le savons, les modèles d'IA nécessitent une puissance GPU élevée pour fonctionner, ce qui explique pourquoi les startups et autres petits fournisseurs font appel à des prestataires de services d'IA. L'API d'interface de Hugging Face offre précisément ce type de service. Or, WIZ Research a exécuté son propre modèle d'IA malveillant, doté de fonctionnalités dangereuses, compromettant ainsi le service Hugging Face. Le système est alors devenu vulnérable, permettant à WIZ d'accéder aux modèles d'autres clients utilisant ce service.
Solutions et recours pour la protection sur les plateformes AlaaS
WIZ a déclaré sur son blog que ces lacunes et ces constats ne concernent pas uniquement Hugging Face, mais ont des implications plus larges pour l'ensemble du secteur de l'IA en tant que service. Tous les acteurs du secteur sont exposés à un risque majeur, car les pirates informatiques les considèrent comme un GitHub de modèles d'IA et cherchent à obtenir un accès inter-utilisateurs illégal.
Hugging Face et Wiz ont conjointement proposé des mesures de précaution pour prévenir les failles de sécurité. Ils ont préconisé des contrôles de sécurité rigoureux et une surveillance régulière des activités. Ils ont également suggéré l'utilisation de registres sécurisés et la mise en place d'un environnement isolé pour l'exécution des applications utilisateur, en renforçant la protection des emplacements de stockage du code afin d'empêcher tout accès inter-utilisateurs.

