人工智能领域的领先企业 Protect AI发布了其最新创新产品 Guardian。这款尖端解决方案能够帮助企业对其机器学习模型实施强大的安全策略,确保恶意代码无法渗透到其人工智能环境中。
Guardian 基于 Protect AI 的开源工具 ModelScan 构建,将开源功能与专有扫描功能相结合,为企业提供全面的模型安全保障。.
应对人工智能/机器学习民主化带来的风险
人工智能和机器学习的普及使得基础模型得以在诸如Hugging Face等平台上广泛应用。这些模型每月被数百万用户下载,在驱动各种人工智能应用方面发挥着至关重要的作用。.
然而,这种可访问性也带来了安全漏洞,因为这些存储库中文件的公开交换可能会无意中促进恶意软件在用户之间的传播。.
Protect AI 的首席执行官 Ian Swanson 表示:“机器学习模型已成为组织基础设施中不可或缺的资产,但它们在使用前通常缺乏其他文件类型所接受的严格的病毒和恶意代码扫描。.
每月有数千个模型从 Hugging Face 等平台被下载数百万次,因此危险代码入侵的可能性非常大。Guardian 让客户能够重新掌控开源模型的安全。
Guardian:防范模型序列化攻击
公开共享机器学习模型面临的主要风险之一是模型序列化攻击。这种攻击是指在模型序列化(保存)过程中、分发之前,将恶意软件代码注入模型,从而形成现代版的木马程序。.
一旦嵌入模型中,这种隐藏的恶意代码就可以被执行,从而窃取敏感数据、泄露dent、篡改数据等等。这些风险在托管于大型存储库(例如 Hugging Face)上的模型中尤为普遍。.
Protect AI 此前推出了开源工具 ModelScan,该工具旨在扫描 AI/ML 模型以发现潜在攻击,从而保护系统免受供应链漏洞的侵害。自推出以来,Protect AI 已利用 ModelScan 评估了 Hugging Face 上托管的超过 40 万个模型,dent存在安全漏洞的模型,并持续更新其知识库。.
迄今为止,已发现超过3300个模型具备执行恶意代码的能力。这些模型仍在被下载并部署到机器学习环境中,而缺乏足够的安全措施在部署前对其进行潜在风险扫描。.
Guardian:模型开发和部署的安全门户
与其他开源替代方案不同,Protect AI 的 Guardian 是一个安全网关,弥合了依赖 Hugging Face 等平台和其他模型存储库的机器学习开发和部署过程之间的差距。.
Guardian 采用专有的漏洞扫描器,包括专门用于 Keras lambda 层的扫描器,主动检查开源模型中的恶意代码,从而保证在组织网络中使用安全、符合策略的模型。.
增强的访问控制和全面的洞察
Guardian 提供高级访问控制功能和直观的仪表盘,使安全团队能够完全掌控模型的准入,同时提供关于模型来源、创建者和许可的全面洞察。这种透明度确保组织能够就其 AI 环境中集成的模型做出明智的决策。
此外,Guardian 还与现有的安全框架集成,并补充了 Protect AI 的 Radar,为组织内的 AI 和机器学习提供了广泛的威胁面可见性。.

