マイクロソフト社は、Azure AI Studio にいくつかのセキュリティ機能を追加しました。これにより、時間の経過とともに、ユーザーが AI モデルを異常または不適切な動作を引き起こすモードに設定する可能性が引き続き低減されるはずです。ワシントン州レドモンドに本社を置くこの多国籍テクノロジー企業は、ブログ投稿でこれらの改善点の概要を説明し、AI の相互作用の整合性を保証し、ユーザーベースの信頼を育むことを強調しました。.
プロンプトシールドなど
主要な開発の一つに、「プロンプトシールド」の開発があります。これは、AIチャットボットとの会話中にプロンプトインジェクションを検出して無効化する技術です。これはいわゆるジェイルブレイクであり、基本的にはAIモデルから望ましくない反応を引き出すように意図的に形成されたユーザーからの入力です。.
例えば、マイクロソフトは、悪意ある命令の実行が可能な「プロンプト・インジェクション」という手法で間接的にその役割を果たしています。このようなシナリオは、データの盗難やシステム乗っ取りといった深刻なセキュリティ被害につながる可能性があります。マイクロソフトの責任あるAI担当最高製品責任者であるサラ・バード氏によると、これらのメカニズムは、こうした特異な脅威をリアルタイムで検知し、対応するための鍵となります。.
マイクロソフトは、モデルが誤った情報や誤解を招く情報を表現している可能性がある場合にそれを指摘する警告がユーザーの画面にすぐに表示されるようになると付け加え、ユーザーフレンドリーさと信頼性をさらに高めるという。.
AIツールへの信頼の構築
マイクロソフトの取り組みは、個人消費者や法人顧客を対象としたサービスで広く活用されている、ますます普及している生成型AIへの信頼を高めることを目的とした、より大規模な取り組みの一環です。マイクロソフトは、ユーザーがコパイロットチャットボットを操作して奇妙または有害な出力を生成させるという事例が発生した後、綿密な調査を行いました。これは、AI技術と一般の知識の普及に伴い増加する可能性のある、前述のような操作的な戦術に対するtronな防御策の必要性を示す結果を支持するものです。攻撃者が質問を繰り返したり、ロールプレイングで促したりするなど、攻撃のパターンを認識することが、予測と軽減につながります。.
OpenAIの最大の投資家であり戦略的パートナーであるマイクロソフトは、責任ある安全な生成AI技術の導入と構築方法の限界を押し広げています。両社は、安全対策として、生成AIの責任ある導入と基盤モデルの構築に尽力しています。しかしバード氏は、これらの大規模言語モデルは、将来のAIイノベーションの基盤として認識されつつあるものの、改ざん耐性を備えているわけではないことを認めました。.
これらの基盤を構築するには、モデル自体に頼るだけでは不十分で、AI の安全性とセキュリティに対する包括的なアプローチが必要になります。.
Microsoft は最近、変化する AI の脅威の状況を保護するために講じられている積極的な措置を示し保証するために、Azure AI Studio のセキュリティ対策を強化すると発表しました。.
タイムリーなスクリーンとアラートを組み込むことで、AI の誤用を回避し、AI 相互作用の完全性と信頼性を維持するよう努めています。.
AI テクノロジーは絶えず進化し、日常生活のさまざまな場面に導入されているため、Microsoft やその他の AI コミュニティは、非常に警戒を強めるセキュリティ姿勢を維持する時期に来ていると言えます。.

