Google、OpenAI、Metaは、リスクを抑制できない場合はAIモデルの開発を中止することに合意した。3社は火曜日、英国と韓国が主催したAIソウルサミットにおいて、「AI安全コミットメント」に署名した。.
こちらもご覧ください:英国と韓国がAIサミットで協力
世界中の多くの地域から、これほど多くの大手 AI 企業が AI の安全性に関して同じコミットメントに同意するのは世界初です。.
— 英国首相、リシ・スナック
16のAI企業がAIの安全性に関するコミットメントに合意
報告書によれば、米国、中国、中東にわたる合計16のAI企業が安全性誓約に同意した。
マイクロソフト、アマゾン、アントロピック、サムスンtron、中国の開発会社Zhipu.aiも、この安全基準に同意している企業です。.
関連記事:アリババとテンセントがAIスタートアップZhipuに3億4200万ドルを投資
AI安全性誓約では、2025年初頭にフランスで開催されるAIアクションサミットまでに、すべての企業に対し、それぞれの安全性フレームワークを公開することが求められています。このフレームワークでは、企業が自社モデルのリスクをどのように判断し、どのようなリスクが「許容できない」とみなされるかが説明されます。
AI企業はリスクのあるAIモデルを廃止するだろう
報告書によると、最も極端なケースでは、リスクを抑制できない場合、企業は「モデルやシステムをまったく開発または導入しない」ことになるという。.
AIの真の潜在能力は、リスクを把握して初めて発揮されます。AIが安全に開発されるようにするのは、私たち全員の責任です。.
— 英国の技術大臣、ミシェル・ドネラン
2023年7月、米国政府はAIのリスクとベネフィットに対処するために同様の取り組みを行いました。ジョー・バイデンdent 、Google、Microsoft、Meta、OpenAI、Amazon、Anthropic、Inflectionと会談し、AI製品のリリース前に安全性を確保するためのAIセーフガードについて議論しました。.
OpenAIをめぐるAIの安全性に関する議論が激化
ここ数か月、AIの安全性に関する議論が熱を帯びてきており、特に人間のような汎用知能を模倣することを目指すAGIをめぐってはそれが顕著だ。.
先週、OpenAIは共同創業者のイリヤ・スツケヴァー氏と最高経営責任者のヤン・ライケ氏が辞任したことで、この議論の中心に巻き込まれた。2人は、モデルの逸脱を防ぐために設立されたOpenAIスーパーアライメントチームの責任者だった。.
こちらもご覧ください: OpenAIのもう一人の幹部、Jan Leikeが辞任
ライケ氏は投稿の中で、「過去数年間、同社では安全文化とプロセスが派手な製品に後回しにされてきた」と述べた。.
AGIの影響について、私たちはとっくに真剣に考えるべき時が来ています。
— ヤン・ライケ(@janleike) 2024年5月17日
私たちは、できる限りの備えを最優先にしなければなりません。
そうして初めて、AGIが全人類に恩恵をもたらすことができるのです。
ライケ氏はさらに、「OpenAIは安全第一のAGI企業にならなければならない」とし、AGIが全人類に利益をもたらすように、できる限りの準備を優先しなければならないと述べた。.
イビアム・ウェイアスによるCryptopolitan 報道

