Face à l'évolution du paysage de la cybersécurité, un rapport de PwC révèle que 70 % des dirigeants d'entreprises technologiques et commerciales prévoient d'adopter l'IA générative pour leur cyberdéfense au cours des 12 prochains mois. Cette évolution fait suite à la sophistication croissante des cybermenaces, alimentée par la capacité de l'IA générative à concevoir à grande échelle des courriels professionnels convaincants.
Tirer la sonnette d'alarme sur la cybersécurité
Le monde numérique est en constante évolution, tout comme les tactiques des cybercriminels. Les systèmes de cybersécurité traditionnels sont confrontés à des défis croissants, principalement dus aux capacités grandissantes de l'intelligence artificielle générative (IAG). Selon le rapport Digital Trust Insights 2024 de PwC, 70 % des dirigeants d'entreprises et du secteur technologique prévoient d'utiliser l'IAG comme un élément clé de leur stratégie de cyberdéfense.
Cette évolution vise à atténuer l'inquiétude croissante suscitée par les méthodes traditionnelles de cybersécurité, car la capacité de l'IA générative à générer à grande échelle des courriels professionnels sophistiqués a alimenté le risque de cybermenaces. Selon un consensus parmi les experts du secteur, 52 % d'entre eux anticipent que l'IA générative sera à l'origine de cyberattaques catastrophiques au cours de l'année à venir.
La double nature de l'IA générative
Si l'intelligence artificielle générative promet de renforcer la cyberdéfense, elle représente également un outil redoutable pour les cybercriminels. Ces derniers peuvent exploiter les capacités de cette technologie pour créer des courriels trompeurs et des contenus deepfake réalistes, tels que des vidéos, des enregistrements et des images, afin de cibler des personnes non averties par le biais d'attaques d'hameçonnage.
Un rapport de SlashNext sur les menaces en temps réel souligne que les cybercriminels figurent parmi les utilisateurs les plus fréquents des chatbots basés sur des modèles de langage complexes (LLM). Ces acteurs malveillants utilisent ces chatbots pour concevoir des attaques de type « fraude au président » (BEC) et mener des campagnes d'hameçonnage ciblées avec une grande précision. Depuis le lancement de ChatGPT d'OpenAI fin 2022, le nombre de courriels d'hameçonnage malveillants a connu une augmentation spectaculaire de 1 265 %.
De plus, l'adaptabilité de l'IA générative permet aux acteurs malveillants de modifier aisément les codes d'attaque existants, les rendant suffisamment différents pour échapper à la détection. La prévalence de l'IA générative est devenue un sujet central sur le dark web, et les mentions à ce sujet se sont multipliées tout au long de l'année.
Évolution des menaces et des logiciels malveillants auto-évolutifs
L'un des aspects les plus préoccupants de l'IA générative dans les cyberattaques est la création de souches de logiciels malveillants capables d'auto-évolution. Ces souches génèrent des variations adaptées à des cibles spécifiques, employant des techniques, des charges utiles et un code polymorphe uniques. Cette adaptabilité leur permet d'échapper efficacement à la détection par les mesures de sécurité existantes. Dans ce contexte de cybersécurité à haut risque, seules les opérations les plus agiles et adaptatives pourront conserver un avantage face à ces menaces en constante évolution.
Renforcement des cyberdéfenses
Pour renforcer les défenses contre les menaces croissantes que représentent les cyberattaques pilotées par l'IA générative, les experts du secteur mettent l'accent sur les stratégies suivantes :
1. Sécuriser l'ensemble du pipeline d'IA
Il est crucial de sécuriser et de chiffrer les données utilisées pour l'entraînement et le réglage fin des modèles d'IA. La surveillancedentdes vulnérabilités, des logiciels malveillants et des corruptions de données pendant le développement des modèles est une étape essentielle pour renforcer les défenses contre les intrusions potentielles.
2. Discussions collaboratives au niveau du conseil d'administration
Les responsables de la cybersécurité, des technologies, des données et des opérations devraient se réunir au niveau du conseil d'administration. Ces discussions devraient porter sur l'évolution des risques, et plus particulièrement sur la manière dont l'IA générative peut être exploitée pour exposer des données sensibles et permettre un accès non autorisé aux systèmes.
3. Détection et défense innovantes
Bien que les contrôles de sécurité existants puissent être étendus à la protection des infrastructures et des données supportant les systèmes d'IA, il est essentiel de comprendre la nécessité de méthodes innovantes spécifiquement conçues pour détecter et stopper les attaques d'IA adverses. Des mesures proactives sont indispensables pour contrer la montée en puissance des cybermenaces issues de l'IA générative.
L'intelligence artificielle générative (IAG) devenant à la fois un atout pour les entreprises et une arme redoutable pour les cybercriminels, les organisations doivent trouver un juste équilibre. Il est impératif d'adopter cette technologie de manière éthique et responsable tout en renforçant les mesures de cybersécurité. Sensibiliser le public, sécuriser le processus d'IA et investir dans des défenses de pointe sont les clés pour naviguer avec succès dans un paysage de la cybersécurité en constante évolution. Dans un monde numérique en perpétuelle mutation, ces stratégies seront essentielles pour protéger les données sensibles et maintenir la confiance dans l'univers numérique.

