Your bank is using your money. You’re getting the scraps.WATCH FREE

Protect AI推出Guardian,保护机器学习模型免受恶意代码侵害

本文内容:

  • Protect AI 的 Guardian 可保护 AI 模型、数据和系统免受恶意软件的侵害。.
  • 它会扫描开源模型以发现隐藏威胁,确保人工智能安全使用。.
  • Guardian 提供控制和安全保障,并可轻松集成到现有系统中。.

人工智能领域的领先企业 Protect AI发布了其最新创新产品 Guardian。这款尖端解决方案能够帮助企业对其机器学习模型实施强大的安全策略,确保恶意代码无法渗透到其人工智能环境中。

Guardian 基于 Protect AI 的开源工具 ModelScan 构建,将开源功能与专有扫描功能相结合,为企业提供全面的模型安全保障。.

应对人工智能/机器学习民主化带来的风险

人工智能和机器学习的普及使得基础模型得以在诸如Hugging Face等平台上广泛应用。这些模型每月被数百万用户下载,在驱动各种人工智能应用方面发挥着至关重要的作用。. 

然而,这种可访问性也带来了安全漏洞,因为这些存储库中文件的公开交换可能会无意中促进恶意软件在用户之间的传播。.

Protect AI 的首席执行官 Ian Swanson 表示:“机器学习模型已成为组织基础设施中不可或缺的资产,但它们在使用前通常缺乏其他文件类型所接受的严格的病毒和恶意代码扫描。. 

每月有数千个模型从 Hugging Face 等平台被下载数百万次,因此危险代码入侵的可能性非常大。Guardian 让客户能够重新掌控开源模型的安全。

另见  BitcoinCash价格突破 226.00 美元转为上涨趋势

Guardian:防范模型序列化攻击

公开共享机器学习模型面临的主要风险之一是模型序列化攻击。这种攻击是指在模型序列化(保存)过程中、分发之前,将恶意软件代码注入模型,从而形成现代版的木马程序。. 

一旦嵌入模型中,这种隐藏的恶意代码就可以被执行,从而窃取敏感数据、泄露dent、篡改数据等等。这些风险在托管于大型存储库(例如 Hugging Face)上的模型中尤为普遍。.

Protect AI 此前推出了开源工具 ModelScan,该工具旨在扫描 AI/ML 模型以发现潜在攻击,从而保护系统免受供应链漏洞的侵害。自推出以来,Protect AI 已利用 ModelScan 评估了 Hugging Face 上托管的超过 40 万个模型,dent存在安全漏洞的模型,并持续更新其知识库。.

迄今为止,已发现超过3300个模型具备执行恶意代码的能力。这些模型仍在被下载并部署到机器学习环境中,而缺乏足够的安全措施在部署前对其进行潜在风险扫描。.

Guardian:模型开发和部署的安全门户

与其他开源替代方案不同,Protect AI 的 Guardian 是一个安全网关,弥合了依赖 Hugging Face 等平台和其他模型存储库的机器学习开发和部署过程之间的差距。. 

另见:  日本最大的财富管理公司野村证券在第三季度亏损后削减加密货币投资

Guardian 采用专有的漏洞扫描器,包括专门用于 Keras lambda 层的扫描器,主动检查开源模型中的恶意代码,从而保证在组织网络中使用安全、符合策略的模型。.

增强的访问控制和全面的洞察

Guardian 提供高级访问控制功能和直观的仪表盘,使安全团队能够完全掌控模型的准入,同时提供关于模型来源、创建者和许可的全面洞察。这种透明度确保组织能够就其 AI 环境中集成的模型做出明智的决策。

此外,Guardian 还与现有的安全框架集成,并补充了 Protect AI 的 Radar,为组织内的 AI 和机器学习提供了广泛的威胁面可见性。.

如果你正在阅读这篇文章,你已经领先一步了。订阅我们的新闻简报,继续保持领先优势

分享链接:

免责声明:提供的信息并非交易建议。Cryptopolitan.com对任何基于本页面信息进行的投资概不负责。我们Cryptopolitantron您在做出任何投资决定前进行独立研究dent/或咨询合格的专业人士。

阅读最多

正在加载最热门文章…….

随时掌握加密货币新闻动态,每日更新将发送至您的邮箱。

编辑推荐

正在加载编辑精选文章…….

订阅加密货币资讯,掌握先机

市场瞬息万变。.

我们行动更快。.

订阅 Cryptopolitan Daily,即可在您的收件箱中及时获取敏锐、精辟、相关的加密货币见解。.

立即加入,
不错过任何精彩瞬间。

深入了解情况,掌握事实,
抢占先机。

订阅 CryptoPolitan