Une étudedentune faille de sécurité alarmante dans le déploiement de l'IA générative

- La direction générale privilégie l'innovation en matière d'IA générative à la sécurité.
- Les outils d’« IA parallèle » non sécurisés peuvent engendrer des risques pour les données.
- Les entreprises vont commencer à intégrer l'IA générative, ce qui nécessitera des mesures de sécurité renforcées.
82 % des dirigeants estiment qu'une IA est essentielle. Pourtant, seuls 24 % d'entre eux intègrent la sécurité à leurs initiatives liées à l'IA générative. C'est ce que révèle une nouvelle étude conjointe d'IBM et d'Amazon Web Services, présentée lors de la conférence RSA 2024. Cette étude détaille les résultats d'un sondage mené auprès de dirigeants sur la manière de garantir la sécurité des cas d'utilisation de l'IA, notamment de l'IA générative. IBM indique que seulement 24 % des répondantsdentpris en compte la dimension de sécurité dans leurs initiatives en matière d'IA générative, tandis que près de 70 % affirment que l'innovation prime sur la sécurité.
Compromis entre innovation et sécurité
Alors que la plupart des dirigeants craignent que des risques imprévisibles n'affectent les initiatives en matière d'IA, la sécurité n'est pas leur priorité. Bien que le paysage des menaces liées à l'IA ne soit pas encore pleinement établi, certains cas d'utilisation ont impliqué le recours à ChatGPT ou à des outils similaires pour générer des scripts d'e-mails d'hameçonnage et des fichiers audio falsifiés. Les chercheurs en sécurité d'IBM X-Force ont averti que, comme pour les technologies plus matures, les systèmes d'IA peuvent être ciblés à une échelle de plus en plus importante.
Bien que la surface de menace consolidée liée à l'IA commence seulement à se former, les chercheurs d'IBM X-Force prévoient qu'une fois que le paysage industriel aura atteint sa maturité autour des technologies et des modèles d'activation communs, les acteurs malveillants commenceront à cibler plus largement ces systèmes d'IA, indique le rapport. De fait, cette convergence est déjà en cours, le marché mûrissant rapidement et des fournisseurs de premier plan émergeant déjà dans les domaines du matériel, des logiciels et des services.
Plus inquiétant encore, selon le rapport, sont les entreprises qui ne sécurisent pas correctement les modèles d'IA qu'elles développent et utilisent dans le cadre de leurs activités. Une mauvaise utilisation des outils d'IA générale peut entraîner une gestion erronée ou une fuite de données sensibles. D'après le rapport, l'« IA parallèle » est de plus en plus utilisée au sein des organisations, les employés ayant recours à des outils d'IA générale non approuvés et non sécurisés par les équipes de sécurité de l'entreprise.
À cette fin, IBM a annoncé en janvier un cadre de sécurité pour l'IA de génération. Ses principes fondamentaux sont la centralisation des données utilisées pour l'entraînement des modèles d'IA, la sécurisation de ces modèles grâce à une combinaison d'analyses des pipelines de développement pour détecter les vulnérabilités, l'application de politiques et de contrôles d'accès pour l'utilisation de l'IA, et la protection de cette utilisation contre les attaques basées sur des modèles d'IA en temps réel.
Sécuriser le pipeline de l'IA
Lundi, l'équipe de sécurité offensive X-Force Red d'IBM a lancé un service de test d'intelligence artificielle visant à évaluer les applications, les modèles et les pipelines MLSecOps d'IA par le biais de simulations d'attaques. Mercredi, lors de la conférence RSA 2024, IBM présentera « Innover maintenant, sécuriser plus tard ? Des choix difficiles… », une conférence portant sur la sécurisation et la mise en place d'une gouvernance pour le pipeline d'IA.
Le deuxième intervenant était Ryan Dougherty, directeur des programmes de sécurité chez IBM Security. Dans une interview accordée à la rédaction de TechTarget, il a déclaré que la sécurisation de l'IA dès sa conception est une priorité absolue pour IBM Security dans le domaine technologique. Il a ajouté : « C'est ce qui rend ce domaine si crucial, notamment pour l'IA générative : elle s'intègre profondément aux applications et processus métier. Cette intégration au sein de l'entreprise la rend bien plus vulnérable aux risques et menaces potentiels. »
D'après lui, d'un point de vue commercial, l'IA doit s'appuyer sur sa nature réelle.
« L’IA générative est entraînée et mise en œuvre sur d’immenses quantités de données commerciales sensibles, et nous devons protéger ces précieuses informations car c’est là que réside l’avantage concurrentiel. Il repose sur les données que possèdent ces organisations et sur les connaissances qu’elles tirent de l’IA générative et de son intégration dans leurs applications pour améliorer leurs activités. »
Dougherty a ajouté qu'ils paient une fortune pour ces modèles, qui sont très coûteux. Des investissements et une propriété intellectuelle considérables sont consacrés à la mise en œuvre de ces applications d'IA générative, et les entreprises n'ont tout simplement pas les moyens de les sécuriser.
Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.
Avertissement: Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitandécline toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustronrecommandons vivement d’effectuer vosdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















