人工智能的普及浪潮席卷了众多人群,既包括那些怀有善意的人,也包括那些心怀不轨的人。安全专家发出警告,指出使用此类模型、恶意文本生成器或“黑客机器人”如今已成为网络威胁行为者的惯用伎俩,甚至在订阅服务中也发展成为一种现成的“一站式”服务。
网络犯罪分子利用人工智能工具
一方面,网络安全专家迅速意识到人工智能工具在更好地保护系统方面的潜力。另一方面,威胁行为者也同样渴望利用这些技术来攻击被攻击者留下的安全漏洞。过去几年,恶意行为者使用的人工智能应用数量呈指数级增长,这促使安全团队开始关注如何采取有效措施来应对与人工智能相关的威胁。.
另一方面,英国网络安全专家也指出,人工智能是一种新兴风险,它充满未知领域,且其性质不断变化。中心(NCSC)预测,2024年第一季度将是网络攻击数量最多的季度,成功超越了2022年和2023年的记录。狡猾的犯罪分子同样利用语言模型进行社会工程攻击,他们通过网络钓鱼或语音识别设备,将名人置于视频或音频环境中。微软公司安全副总裁瓦斯库特·贾卡尔dent了2024年RSA安全大会。问题不在于这些工具的劣化,而在于它们在密码破解方面的日益普及,这与身份攻击的增长密切dent。
一些专家进一步得出结论,聊天机器人会使用独特的短语来主动开发恶意软件。事实上,诸如 ChatGPT 和 Gemini 等公开服务已经实施了安全措施,以防止其被恶意利用。然而,黑客利用复杂而迅速的工程技术绕过了许多保护措施。.
黑客机器人即服务:网络犯罪领域日益增长的趋势
根据近期研究,公开的语言模型通常无法利用软件安全漏洞。然而,只有 OpenAI 的 GPT-4 展现出令人瞩目的特性,因为它能够针对已知漏洞生成可执行文件。上述限制似乎可能促成了原型恶意聊天机器人的出现,这些机器人旨在协助网络犯罪分子实施恶意活动。.
这些恶意语言模型在暗网论坛和市场上被广泛宣传,这些平台提供雇佣和利用攻击者的渠道,从而催生了一种“黑客机器人即服务”的模式。Trustwave SpiderLabs 团队在 2023 年 8 月发布的一篇博文指出,大量恶意语言模型被托管在多个隐蔽的网络论坛上,以牟利为目的。.
Trustwave 于 2021 年 6 月发布了 WormGPT 模型,这是黑客已知的恶意语言模型之一。这种攻击方式可能出现在一些设备上,僵尸程序通过暗网托管的黑客组织注入网络攻击。FraudGPT 于 2023 年 7 月生成,在 Telegram 发现之前,Netenrich 的威胁研究人员就已发现了它。.
这些工具允许攻击者设计用于社会工程攻击的资产,例如钓鱼邮件、深度伪造和语音克隆。然而,它们的开发者声称,这些工具的真正价值在于利用漏洞。它们使黑客能够将针对特定漏洞的代码输入到这些恶意模型中,理论上可以生成多个概念验证 (PoC) 漏洞利用程序供攻击者尝试。.
这些产品在暗网的隐秘市场出售,黑客需要每月支付许可费才能使用黑客机器人,就像勒索软件以勒索软件即服务 (raas) 模式交付一样,而这种模式与许多公司目前面临的勒索软件体系直接相关。.
虽然 WormGPT 是第一个大规模恶意语言模型,但其他恶意和不道德的语言模型,如 BlackHatGPT、XXXGPT 和 WolfGPT,很快也相继出现,形成了网络黑市的一个新细分市场。.
黑客机器人的效力:炒作还是真正的威胁?
与Trustwave的研究不同,Trustwave的研究旨在通过比较推荐工具的输出结果与合法聊天机器人生成的输出结果来测试其效率,而本研究结果表明,只要 ChatGPT就可以有效地创建Python恶意软件。为此,需要在部署前向相关方发送消息,声称该代码是白帽代码,并且还需要对代码输出进行额外的修改。
ChatGPT或许能够伪装成真实的文本信息进行网络钓鱼攻击,但其指令必须非常具体才能达到此目的。ChatGPT通常只会在用户提出错误请求时才会利用这一点。因此,对于网络犯罪分子或人工智能而言,这些聊天机器人可以被视为一种更简便的攻击方式,无需费力地创建网页或恶意软件。.
尽管人工智能行业尚属新兴领域,威胁也仍在不断变化,但企业必须真正了解自身当前的防护水平。人工智能系统所充斥的内容和文化特征可能被滥用,从而制造虚假信息鸿沟,而弥合这一鸿沟的唯一途径是建立更tron的人工智能安全程序和dent管理工具。.
针对日益严重的网络犯罪问题,各种解决方案的合理性仍在争论之中。然而,近期出现的勒索软件变种表明,网络犯罪分子开发软件的速度即便不能超过软件开发人员,也至少能够与之匹敌。.

