L’essor des chatbots IA malveillants : les acteurs de la menace adoptent les « hackbots »

- Des pirates informatiques louent des chatbots dotés d'intelligence artificielle pour mener des cyberattaques.
- Les bots sont utilisés pour le phishing, les logiciels malveillants et l'exploitation de failles de sécurité.
- Volume important, mais efficacité contestée.
L'engouement pour l'IA a touché aussi bien les personnes bien intentionnées que celles aux intentions potentiellement malveillantes. Les spécialistes de la sécurité tirent la sonnette d'alarme, soulignant que l'utilisation de tels modèles pour générer des textes malveillants, ou « hackbots », est désormais monnaie courante chez les cybercriminels. Cette pratique est même devenue un service clé en main proposé par abonnement.
Les cybercriminels exploitent les outils d'IA
D'une part, les experts en cybersécurité ont rapidement pris conscience du potentiel des outils basés sur l'IA pour mieux protéger leurs systèmes. D'autre part, les acteurs malveillants ont également manifesté un empressement égal à utiliser ces technologies pour exploiter les failles de sécurité de leurs cibles. Ces dernières années, le nombre d'applications d'IA utilisées par des acteurs malveillants a connu une croissance exponentielle, incitant les équipes de sécurité à adopter une approche efficace pour contrer les menaces liées à l'IA.
D'autre part, des spécialistes britanniques de la cybersécurité ont également souligné que l'IA représente un nouveau risque émergent, synonyme d'incertitude et d'évolution constante. Le NCSC prévoit que le premier trimestre 2024 sera le plus important, surpassant même les records de 2022 et 2023. Des cybercriminels ingénieux ont également utilisé des modèles de langage pour l'ingénierie sociale, notamment en infiltrant des célébrités dans des vidéos ou des enregistrements audio via des techniques d'hameçonnage ou de reconnaissance vocale. Vascut Jakkal, vice-présidentdentdentdent dentdentdentdent dentdent.
Certains experts ont même conclu que les chatbots utilisent une phrase spécifique pour développer activement des logiciels malveillants. De fait, des services publics comme ChatGPT et Gemini ont mis en place des mesures de sécurité pour empêcher leur utilisation à des fins malveillantes. Cependant, des pirates informatiques ont réussi à contourner de nombreuses protections grâce à des techniques d'ingénierie sophistiquées et rapides.
Hackbot-as-a-service : une tendance croissante en matière de cybercriminalité
D'après des études récentes, les modèles de langage accessibles au public peinent généralement à exploiter les failles de sécurité des logiciels. Toutefois, seul GPT-4 d'OpenAI a montré des caractéristiques prometteuses, puisqu'il a pu générer des exécutables pour des failles connues. Ces restrictions semblent avoir favorisé la création de prototypes de chatbots malveillants conçus pour aider les cybercriminels à mener à bien leurs activités illégales.
Ces logiciels malveillants sont proposés à la vente sur les forums et les plateformes du dark web, qui permettent d'embaucher et d'exploiter ces attaquants, alimentant ainsi un modèle de « hackerbot as a service ». Un article de blog récent, publié par l'équipe Trustwave SpiderLabs en août 2023, illustre l'augmentation du nombre de modèles de langage malveillant hébergés à des fins lucratives sur de nombreux forums de discussion cachés du web.
Trustwave a publié le modèle WormGPT en juin 2021 ; il s'agit de l'un des modèles de langage malveillants connus utilisés par ces pirates. Cette approche peut être mise en œuvre sur des équipements où des bots injectent des cyberattaques via des structures de piratage hébergées sur le dark web. Généré en juillet 2023, FraudGPT a été initialement découvert par les chercheurs en sécurité de Netenrich avant d'être détecté sur Telegram.
Ces outils permettent aux attaquants de concevoir des ressources utilisées dans des attaques d'ingénierie sociale, telles que des courriels d'hameçonnage, des deepfakes et le clonage vocal. Cependant, leurs créateurs affirment que leur véritable intérêt réside dans l'exploitation des vulnérabilités. Ils permettent aux pirates informatiques d'intégrer du code relatif à des vulnérabilités spécifiques dans ces modèles malveillants, ce qui pourrait théoriquement générer plusieurs exploits de type preuve de concept (PoC) qu'un attaquant pourrait tester.
Ces produits sont vendus sur les marchés clandestins du dark web où les pirates informatiques paient une licence mensuelle pour utiliser le hackbot, tout comme le ransomware est fourni dans le modèle ransomware-as-a-service (raas), qui est directement lié à un complexe de ransomware auquel de nombreuses entreprises sont confrontées aujourd'hui.
Bien que WormGPT soit le premier modèle de langage malveillant à grande échelle introduit, d'autres modèles de langage malveillants et contraires à l'éthique comme BlackHatGPT, XXXGPT et WolfGPT ont rapidement suivi, formant un nouveau segment de marché du cybermarché noir.
L’efficacité des hackbots : effet de mode ou menace réelle ?
Contrairement à l'étude de Trustwave, qui visait à tester l'efficacité des outils recommandés en comparant leurs résultats à ceux générés par des chatbots légitimes, les résultats ont montré que ChatGPT pouvait être manipulé pour créer des logiciels malveillants Python avec les bonnes instructions. Pour ce faire, il était nécessaire d'envoyer un message indiquant que le code était éthique avant son déploiement, et le code généré devait également subir des modifications supplémentaires.
ChatGPT peut potentiellement transmettre de véritables messages texte pour des attaques d'hameçonnage, mais la commande utilisée doit être très spécifique à cet effet. ChatGPT n'y recourt généralement que lorsque les utilisateurs effectuent une requête inappropriée. De ce fait, ces chatbots peuvent être perçus comme une méthode plus simple pour les cybercriminels ou l'IA d'attaquer les utilisateurs, leur évitant ainsi de développer laborieusement une page ou un logiciel malveillant.
Bien que ce secteur soit récent et que les menaces évoluent constamment, les entreprises doivent prendre pleinement conscience de leur niveau de protection actuel. Les contenus et les caractéristiques culturelles qui inondent les systèmes d'IA peuvent être exploités pour créer une faille de désinformation qu'il convient de combler uniquement par la mise en place de programmes de sécurité de l'IA et d'outils de gestion d'denttron.
La légitimité des solutions proposées à ce problème croissant fait encore débat. Pourtant, les récentes souches de rançongiciels ont démontré que les cybercriminels peuvent égaler, voire surpasser, la vitesse de développement des logiciels par les développeurs.
Si vous souhaitez une approche plus sereine de la DeFi et des cryptomonnaies , sans le battage médiatique habituel, commencez par cette vidéo gratuite.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















