AIのリーディングカンパニーであるProtect AIは、最新のイノベーション「Guardian」を発表しました。この最先端ソリューションにより、組織は機械学習モデルに堅牢なセキュリティポリシーを適用し、悪意のあるコードがAI環境に侵入するのを防ぐことができます。
Protect AI のオープンソース ツール ModelScan を基盤として構築された Guardian は、オープンソース機能と独自のスキャン機能を組み合わせて、企業に包括的なモデル セキュリティを提供します。.
民主化されたAI/MLのリスクへの対処
人工知能と機械学習の民主化により、Hugging Faceのようなプラットフォーム上で基礎モデルが広く利用可能になりました。これらのモデルは毎月数百万人のユーザーにダウンロードされており、幅広いAIアプリケーションの基盤として重要な役割を果たしています。.
しかし、こうしたアクセス可能性によってセキュリティ上の脆弱性も生じており、これらのリポジトリでのファイルのオープンな交換により、意図せずして悪意のあるソフトウェアがユーザー間で拡散してしまう可能性があります。.
Protect AI の CEO である Ian Swanson 氏は、次のように述べています。「機械学習モデルは組織のインフラストラクチャにおいて不可欠な資産となっていますが、他のファイル タイプが使用前に受けるような厳格なウイルスおよび悪意のあるコードのスキャンが欠如している場合がよくあります。.
Hugging Faceのようなプラットフォームから毎月数千ものモデルが何百万回もダウンロードされているため、危険なコードが侵入する危険性は極めて高いです。Guardianは、お客様がオープンソースモデルのセキュリティを再び管理できるよう支援します。
ガーディアン: モデルのシリアル化攻撃からの保護
公開されている機械学習モデルに関連する重大なリスクの一つは、モデルシリアル化攻撃です。これは、モデルのシリアル化(保存)中および配布前にマルウェアコードが注入され、現代版のトロイの木馬が作成される場合に発生します。.
モデル内に埋め込まれたこの隠された悪意のあるコードは、機密データの窃取、dent情報の侵害、データの操作などに利用される可能性があります。こうしたリスクは、Hugging Faceのような大規模リポジトリにホストされているモデルに多く見られます。.
Protect AIは以前、AI/MLモデルをスキャンして潜在的な攻撃を検出し、サプライチェーンの脆弱性からシステムを保護するオープンソースツール「ModelScan」をリリースしました。Protect AIは設立以来、ModelScanを活用してHugging Faceにホストされている40万以上のモデルを評価し、セキュリティ上の欠陥のあるモデルをdent、このナレッジベースを継続的に更新してきました。.
現在までに、3,300以上のモデルが不正コード実行能力を持つことが発見されています。これらのモデルは、導入前に潜在的なリスクを検査するための適切なセキュリティ対策を講じることなく、機械学習環境にダウンロードされ、展開され続けています。.
Guardian: モデルの開発と展開への安全なゲートウェイ
他のオープンソースの代替製品とは異なり、Protect AI の Guardian は安全なゲートウェイであり、Hugging Face などのプラットフォームやその他のモデル リポジトリに依存する ML 開発と展開プロセス間のギャップを埋めます。.
Guardian は、Keras ラムダ レイヤー専用のスキャナーを含む独自の脆弱性スキャナーを採用し、オープンソース モデルに悪意のあるコードがないか積極的に検査し、組織のネットワーク内で安全でポリシーに準拠したモデルの利用を保証します。.
強化されたアクセス制御と包括的な洞察
Guardianは、高度なアクセス制御機能と直感的なダッシュボードを提供します。セキュリティチームは、モデルのエントリを完全に制御できると同時に、モデルの出所、作成者、ライセンスに関する包括的な情報も提供します。この高い透明性により、組織はAI環境に組み込むモデルについて、十分な情報に基づいた意思決定を行うことができます。
さらに、Guardian は既存のセキュリティ フレームワークと統合し、Protect AI の Radar を補完して、組織内の AI と機械学習に対する広範な脅威表面の可視性を提供します。.

