Les cybercriminels utilisent l'intelligence artificielle pour mettre en œuvre des stratagèmes toujours plus sophistiqués. Ils ciblent tout, des économies de retraite aux secrets d'entreprise, avec des méthodes de plus en plus difficiles à déceler.
La même technologie qui permet de personnaliser les publicités pour les acheteurs en ligne est désormais utilisée par des personnes mal intentionnées pour collecter des données personnelles et lancer rapidement des arnaques sur mesure. Très rapidement.
De grandes entreprises d'IA comme Anthropic, OpenAI et Google signalent que des criminels exploitent leurs plateformes pour orchestrer des opérations d'hameçonnage complexes, développer des logiciels malveillants et exécuter diverses cyberattaques. Des spécialistes de la sécurité mettent en garde contre la production par ces criminels de faux enregistrements audio et vidéo de dirigeants d'entreprise afin d'inciter les employés à divulguer des informations sensibles.
Les entreprises et les administrations pourraient bientôt être confrontées à des essaims de systèmes alimentés par l'IA capables de repérer les failles des réseaux informatiques, puis de planifier et de mener des attaques presque sans intervention humaine.
Les nouvelles technologies transforment les méthodes des criminels en ligne. Alice Marwick, directrice de la recherche chez Data & Society, un organismedent de recherche technologique, a déclaré au Wall Street Journal que le changement le plus important concerne l'ampleur et la portée de leurs actions. « Le véritable changement réside dans la portée et l'échelle des arnaques. Elles sont plus vastes, plus ciblées et plus convaincantes. »
Brian Singer estdent à l'université Carnegie Mellon. Il étudie l'utilisation des grands modèles de langage dans les cyberattaques et les systèmes de défense. Selon ses estimations, la moitié, voire les trois quarts, des spams et des messages d'hameçonnage diffusés dans le monde proviennent désormais de systèmes d'intelligence artificielle.
Les attaques elles-mêmes sont devenues plus crédibles. Les systèmes d'IA entraînés sur les communications d'entreprise peuvent produire des milliers de messages au ton naturel, conformes au style de l'entreprise. Ils imitent la façon d'écrire des dirigeants et font référence à des actualités récentes issues de documents publics.
Cette technologie permet également aux escrocs étrangers de masquer leurs fautes de langue, qui auparavant les rendaient facilement repérables. Les criminels peuvent usurper l'identité de leurs victimes grâce à de fausses vidéos et des voix copiées. Ils utilisent la même faussedentpour cibler plusieurs personnes simultanément.
John Hultquist est analyste principal chez Google Threat Intelligence Group. Il décrit le principal changement comme une « crédibilité à grande échelle »
Les personnes mal intentionnées sont de plus en plus habiles à choisir leurs cibles. Elles utilisent l'intelligence artificielle pour parcourir les réseaux sociaux et repérer les personnes confrontées à des difficultés majeures : divorce, décès dans la famille, perte d'emploi, et autres situations susceptibles de les rendre plus vulnérables aux arnaques sentimentales, aux fraudes financières ou aux fausses offres d'emploi.
Les marchés du dark web abaissent les barrières à l'entrée
Les barrières à l'entrée dans le monde de la cybercriminalité ont diminué. Sur les marchés clandestins, on trouve désormais des outils d'IA à vendre ou à louer pour des activités criminelles pour seulement 90 dollars par mois. Nicolas Christin dirige le département des logiciels et des systèmes sociétaux de l'université Carnegie Mellon.
Il a expliqué que ces plateformes proposent différents niveaux de prix et d'assistance client. « Les développeurs vendent des abonnements pour accéder aux plateformes d'attaque, avec des tarifs et un support client adaptés à chaque niveau. »
Ces services portent des noms tels que WormGPT, FraudGPT et DarkGPT. Ils peuvent créer des logiciels malveillants et des campagnes d'hameçonnage. Certains proposent même des ressources pédagogiques sur les techniques de piratage.
Margaret Cunningham est vice-dent de la stratégie de sécurité et d'IA cheztrac, une entreprise spécialisée en sécurité. Selon elle, c'est simple : « Il n'est pas nécessaire de savoir coder, il suffit de savoir où trouver l'outil. »
Une nouvelle technique, appelée vibevibevibe vibevibevibevibe vibevibe-hacking », permet aux apprentis criminels d'utiliser l'IA pour créer leurs propres programmes malveillants, plutôt que de les acheter auprès de sources clandestines. Anthropic a révélé en début d'année avoir déjoué plusieurs tentatives d'utilisation de son IA Claude pour créer des rançongiciels par des « criminels aux compétences techniques limitées ».
Les modes opératoires criminels évoluent. Selon les experts, la cybercriminalité fonctionne depuis des années comme un marché. Une opération de rançongiciel classique impliquait différents groupes : des courtiers en accès qui s’introduisaient dans les réseaux d’entreprises et revendaient les droits d’accès ; des équipes d’intrusion qui parcouraient les systèmes pour dérober des données ; et des fournisseurs de services de rançongiciel qui diffusaient le logiciel malveillant, géraient les négociations et se partageaient l’argent.
La rapidité et l'automatisation transforment les réseaux criminels
L'IA a accru la vitesse, la capacité et la disponibilité de ce système. Les tâches auparavant effectuées par des techniciens peuvent désormais être automatiséesmaticCela permet à ces groupes de fonctionner avec moins de personnel, moins de risques et une rentabilité accrue. « Voyez cela comme la prochaine étape de l'industrialisation. L'IA augmente la productivité sans nécessiter davantage de main-d'œuvre qualifiée », explique Christin.
L'IA peut-elle lancer des attaques de manière totalement autonome ? Pas encore. Les experts comparent la situation à la course aux véhicules entièrement autonomes. Les 95 % initiaux sont atteints. Mais la dernière étape, qui permettrait à une voiture de se déplacer partout et à tout moment sans intervention humaine, reste hors de portée.
Des chercheurs testent les capacités de piratage de l'IA en laboratoire. Une équipe de l'université Carnegie Mellon, soutenue par Anthropic, a recréé la célèbre fuite de données d'Equifax grâce à l'IA en début d'année. Singer a dirigé ces travaux au CyLab Security and Privacy Institute de Carnegie Mellon. Il les qualifie de « grand pas en avant ».
Les criminels exploitent l'IA à des fins malveillantes. Mais les entreprises spécialisées en IA affirment que ces mêmes outils peuvent aider les organisations à renforcer leurs défenses numériques.
Anthropic et OpenAI développent des systèmes d'IA capables d'analyser en continu le code logiciel afin de déceler les failles que des cybercriminels pourraient exploiter. Cependant, toute correction doit encore être approuvée par des humains. Un programme d'IA récemment mis au point par des chercheurs de Stanford a obtenu de meilleurs résultats que certains testeurs humains lors de la recherche de problèmes de sécurité au sein d'un réseau.
Même l'IA ne pourra pas empêcher toutes les intrusions. C'est pourquoi les organisations doivent se concentrer sur la création de réseaux robustes qui restent opérationnels même en cas d'attaques, explique Hultquist.

