Le Centre national britannique de cybersécurité (NCSC) a mis en garde contre le risque que les logiciels malveillants pilotés par l'IA ne deviennent une menace majeure d'ici 2025. Dans un rapport récent, le NCSC, agence rattachée au Quartier général des communications du gouvernement (GCHQ), a déclaré qu'il existe une « possibilité réelle » que des acteurs étatiques hautement qualifiés utilisent l'IA pour générer des logiciels malveillants capables de contourner les filtres de sécurité actuels. Cette évolution pourrait inaugurer une nouvelle ère de cybermenaces, affectant tous les aspects, de la détection des appareils vulnérables à l'analyse des données, en passant par les attaques d'ingénierie sociale.
Des logiciels malveillants générés par l'IA à l'horizon
Le rapport du NCSC souligne que l'IA a le potentiel de produire des logiciels malveillants capables de contourner les mesures de sécurité existantes, mais qu'elle nécessite des données d'exploitation de haute qualité pour son entraînement. L'agence estime que certaines entités étatiques très compétentes pourraient posséder des répertoires de logiciels malveillants suffisamment vastes pour entraîner efficacement des modèles d'IA à cette fin. Bien que les cyberattaques les plus sophistiquées pilotées par l'IA soient attendues à partir de 2026, les premiers utilisateurs d'outils d'IA générative seront probablement les attaquants les plus redoutables.
Impact de l'IA sur les appareils vulnérables et analyse des données
Le NCSC prévoit que l'IA facilitera la découverte des appareils vulnérables par les attaquants, réduisant ainsi le temps dont disposent les équipes de défense pour les corriger avant toute exploitation. De plus, l'IA améliorera l'analyse des données en temps réel, permettant aux attaquants d'dentrapidement les fichiers sensibles et d'accroître l'efficacité des actions de perturbation, d'extorsion et d'espionnage.
Le rapport souligne que l'expertise, l'équipement, les ressources financières et l'accès à des données de qualité sont essentiels pour exploiter l'IA avancée dans les cyberopérations. Les acteurs étatiques les plus performants sont les mieux placés pour tirer parti du potentiel de l'IA dans les cyberattaques sophistiquées. Cependant, même les attaquants aux compétences et ressources limitées devraient bénéficier des progrès de l'IA au cours des quatre prochaines années.
L'IA au service des cybercriminels
Dans les cas les plus complexes, les cybercriminels utilisant des attaques d'ingénierie sociale devraient exploiter des outils d'IA générative grand public, tels que ChatGPT, Google Bard et Microsoft Copilot. Ceci pourrait permettre des tentatives d'hameçonnage plus convaincantes et mieux ciblées. Par ailleurs, les groupes de ransomware pourraient utiliser l'IA pour l'analyse de données, facilitant ainsi les tentatives d'extorsion de données plus efficaces grâce àdentidentification plus aisée des données sensibles.
Défis pour les professionnels de la cybersécurité
Le NCSC prévoit que les cyberattaques pilotées par l'IA gagneront en volume et en impact au cours des deux prochaines années, accentuant ainsi les défis auxquels sont confrontés les professionnels de la cybersécurité. Ces derniers doivent déjà faire face à des menaces en constante évolution, et l'IA devrait jouer un rôle déterminant dans la transformation du paysage des menaces.
Le NCSC surveille de près l'évolution de l'IA face aux cybermenaces. Sa conférence annuelle CYBERUK, qui se tiendra en mai, sera consacrée à la menace considérable que représentent les technologies émergentes pour la sécurité nationale. La directrice générale sortante, Lindy Cameron, a insisté sur la nécessité de gérer les risques liés à l'IA tout en exploitant son potentiel pour un développement responsable.
Les efforts mondiaux pour lutter contre les risques liés à la sécurité de l'IA
L'avertissement du NCSC fait suite au premier Sommet sur la sécurité de l'IA, qui s'est tenu au Royaume-Uni et a abouti à la Déclaration de Bletchley, une initiative mondiale visant à gérer les risques liés à l'IA. Dans ce cadre, les principaux développeurs d'IA se sont engagés à partager leur code avec les gouvernements afin de garantir un développement responsable de l'IA.
Bien que le plan de tests d'IA représente un pas dans la bonne direction, il n'est pas juridiquement contraignant et ne bénéficie pas du soutien de certains pays. Cela soulève des questions quant à son efficacité face à la menace croissante des cyberattaques menées par l'IA.
L’avertissement du NCSC souligne l’évolution des menaces dans le cyberespace, où les logiciels malveillants dotés d’intelligence artificielle (IA) se profilent à l’horizon. Capable de contourner les mesures de sécurité actuelles, l’IA représente un défi pour les experts en cybersécurité, les gouvernements et les organisations. Face aux enjeux de l’IA dans les cybermenaces, la vigilance et la coopération internationale seront essentielles pour anticiper les menaces émergentes.

