AI 安全協定は、革新的なアプローチを通じて人工知能テクノロジーの有望な成長の可能性とセキュリティを開発するための英国と米国政府の共同の取り組みです。
この協定は、英国と米国のテクノロジー大西洋横断戦略対話の下、英国技術大臣ミシェル・ドネランと米国商務長官ジーナ・ライモンドによって2024年4月初旬に正式に締結された。
新たな課題と倫理基準に取り組むための AI 安全性協定
この協定は、両国間の科学的アプローチと共同の取り組みを取り入れて、仕事を遂行できる人工知能モデル、システム、エージェントの信頼できる指揮者の作成を可能にすることを目的としています。
人工知能は、医療、金融、教育などのさまざまな分野で重要な役割を果たしており、重要かつ機密性の高いインフラストラクチャで信頼されています。 普及のペースと人工知能のコンピューティング能力の向上により、状況はさらに緊迫しており、厳格な安全対策と倫理原則の制定が必要となっています。
IEEE の上級メンバーで唯一のエンジニアリング トレーナーであるアイーシャ イクバル氏によると、人工知能の成長率は 2023 年から 2030 年まで年間 37.3% になると予測されています。このmatic拡大は、人間の専門家の供給が限られているなどの課題を引き起こします。システムやアーキテクチャの設計、政府関連の問題、制度の自動化や離職などの社会的懸念などです。
この協定は説明可能な AI と倫理基準を促進します
この契約は、人工知能の安全性と責任ある開発基準を設定することでこれらの課題に取り組むことができるようにするためのものです。 これらの基準は、リスク軽減策や説明責任の証明として機能するだけではありません。 また、信頼できる環境を構築し、システムの倫理設計を注意深く監視することも目的としています。
スタンフォード大学で働く人工知能倫理エンジニアのエリザベス・ワトソン氏は、説明可能な人工知能とその台頭の重要性を指摘する。 AI のこの側面は、社会のより多くの分野で海軍の影響がますます増大している専門家以外にもアルゴリズムを理解できるようにすることであり、これはより多くの分野で必要となる重要な機能です。 Explainable AI は、監督当局や一般の人々がアルゴリズムの結果をチェックして異議を唱えることを容易にし、機械学習システムが説明可能で責任あるものであることを確認します。
先進的なコラボレーションによる世界的な効果
ここで英国と米国の協力は、AI の安全性における最も先進的な 2 か国の戦略として認識できます。 このような協力が先導し、共同で行動して共通の安全プロトコルを開発すると同時に、健全なものとして AI システムテストの標準を作成することが期待されています。
これらのプロトコルは、AI システムが未知のケースに一般化できるかどうかを確認すると同時に、システムの機能的な柔軟性を維持しながら合理的な判断を下せるかどうかを確認するツールとして機能します。
ワトソン氏は事前に、協力の結果、AIの自律性に対する人々の絶え間ない不安に答える効果的な標準の普及に世界がさらされるだろうと述べた。 英国と米国は、協力的なアプローチにより、長期的に世界規模で AI を管理する方法を決定する可能性のある支援的で倫理的なルールブックの開発において他国に例を提供しています。
この協定は、AI テクノロジーの新興システムが生み出す包括的な問題に対する最初の積極的な行動となりました。 これは、技術開発における国際協力の価値を意味するだけでなく、科学技術に方向性を集合的に注入することができ、AI の成長を効果的に管理し方向付けることができるという事実も意味します。