Google、OpenAI、Meta は、リスクを抑制できない場合は AI モデルの開発を中止することに同意しました。 両社は火曜日、英国と韓国が主催するAIソウルサミットで「AI安全コミットメント」に署名した。
こちらもお読みください:英国と韓国が AI サミットで協力
世界各地のこれほど多くの大手 AI 企業が、AI の安全性について同じ取り組みに同意するのは世界初のことです。
— 英国首相、リシ・スナック
AI企業16社がAIの安全性に関する取り組みに同意
報告書によると、米国、中国、中東にまたがる合計 16 社の AI 企業が安全誓約に同意しました。
Microsoft、Amazon、Anthropic、Samsungtronics、中国の開発会社 Zhipu.ai なども安全基準に同意する企業です。
こちらもお読みください: アリババとテンセントが AI スタートアップ Zhipu に 3 億 4,200 万ドルを投資
AI の安全性に関する誓約では、すべての企業に対し、2025 年初めにフランスで開催される AI アクション サミットまでに、それぞれの安全性フレームワークを公開することが求められています。このフレームワークでは、企業が自社モデルのリスクをどのように判断するか、またどのようなリスクが「耐えられないとみなされる」のかが説明されます。
AI企業は危険なAIモデルに手を引くだろう
報告書によると、最も極端なケースでは、リスクを抑制できない場合、企業は「モデルやシステムの開発や導入をまったく行わない」という。
AI の真の可能性は、リスクを把握できた場合にのみ発揮されます。 AI を安全に開発するのは私たち全員の責任です。
— ミシェル・ドネラン、英国技術長官
2023 年 7 月、米国政府は AI のリスクと利点に対処するために同様の取り組みを行いました。 ジョー・バイデンdent 、Google、Microsoft、Meta、OpenAI、Amazon、Anthropic、Inflectionと会談し、リリース前に自社のAI製品の安全性を確保するAIセーフガードについて話し合った。
OpenAIを巡ってAIの安全性に関する議論が激化
AI の安全性に関する議論はここ数カ月、特に人間のような汎用知能を模倣することを目的とした AGI を中心に盛り上がっています。
そのうちの1社OpenAIは先週、共同創設者のイリヤ・サツケヴァー氏とトップレベルの幹部ヤン・ライケ氏が同社を辞任した後、この会話の中心に浮上した。 2 人は、モデルの不正行為を防ぐために設立された OpenAI Superalignment チームの責任者でした。
こちらもお読みください:もう一人の OpenAI 幹部、Jan Leike 氏が辞任
ライケ氏は投稿の中で、同社では「過去数年にわたり、安全文化やプロセスが輝く製品よりも後回しになってきた」と述べた。
私たちは、AGI の影響について信じられないほど真剣に取り組むのが遅れて久しいのです。
— ジャン・ライケ (@janleike) 2024 年 5 月 17 日
私たちはできる限りそれらに備えることを優先しなければなりません。
そうして初めて、AGI が全人類に確実に利益をもたらすことができるのです。
ライケ氏は、「OpenAI は安全第一の AGI 企業にならなければならない」と付け加え、AGI が全人類に利益をもたらすよう、できる限り安全第一の AGI 企業への準備を優先する必要があると付け加えました。
Ibiam Wayas によるクリプトポリタンのレポート
Cryptopolitan Academy:2025年にあなたのお金を育てたいですか?今後のWebClassでDeFiでそれを行う方法を学びますあなたのスポットを救ってください