OpenAIとGoogle DeepMindの現従業員と元従業員数名が、両社が人類絶滅の引き金となり得るAIリスクを隠蔽していると非難した。公開書簡の中で、従業員らはAI企業が「効果的な(政府の)監督」を回避しながら利益を最優先していると主張した。
こちらもご覧ください: OpenAI、安全性への懸念からGPT-4の後継を準備
この公開書簡、OpenAIの元従業員11名、Google DeepMindの元従業員2名が署名し、元Googleの「AIのゴッドファーザー」ジェフリー・ヒントン。書簡は、企業が営利目的と規制の抜け穴を利用して、高度な人工知能がもたらす脅威を隠蔽できると主張している。
AIは「人類絶滅」につながる可能性がある
書簡によれば、OpenAIや、ジェミニ、自社システムの不十分な安全対策やリスクレベルに関する情報を公表していないが、それはそうすることが義務付けられていないためだという。
規制当局の監督がなければ、AIプログラムは人間に重大な危害をもたらす可能性がある。従業員は次のように警告した。
「こうしたリスクは、既存の不平等のさらなる固定化から、自律型AIシステムの制御の喪失による人類絶滅の可能性まで多岐にわたります。」
書簡の署名者たちが指摘しているように、AI企業自身もこれらのリスクを認識している。2023年5月、OpenAI、Anthropic、Google DeepMindのCEOは、 公開書簡に共同署名した。書簡には、「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争といった他の社会規模のリスクと並んで、世界的な優先事項であるべきだ」と簡潔に記されていた。
AI企業は、安全性とセキュリティよりも斬新な製品と利益を優先しているとして、厳しい監視のを開発するOpenAIは、この書簡で提起された懸念を認識し、安全な人工知能の開発に取り組んでいると述べた。
「当社は最も有能かつ安全なAIシステムを提供してきた実績を誇りに思っており、リスクへの対処に対する当社の科学的アプローチを信じている」とOpenAIの広報担当リンジー・ヘルド氏はtrac・タイムズに語った
「この技術の重要性を考えると、厳密な議論が不可欠であることに我々は同意しており、世界中の政府、市民社会、その他のコミュニティと引き続き連携していきます。」

内部告発者は報復を恐れている
OpenAIとGoogleの元従業員らは、AI開発者らにプログラムに関するより多くの情報を公開するよう義務付ける法律を規制当局が策定するまでの間、監督役を務めたいと述べた。.
しかし、dent保持契約や雇用主による報復の可能性により、労働者は懸念を公に表明することを躊躇しています。書簡には次のように記されています。
「業界全体で同様の事例が数多く発生していることを考えると、私たちの中には様々な形の報復を恐れる人がいるのも当然です。こうした問題に直面したり、声を上げたりするのは、私たちが初めてではありません。」
米国では内部告発者は法律で保護されているが、人工知能の危険性について声を上げる人々は、その技術がまだ規制されていないため保護されていない。.
こちらもご覧ください: EUデータ監視機関、ChatGPTは依然として虚偽を拡散していると指摘
書簡はAI企業に対し、検証可能な匿名のフィードバックを促進し、オープンな批判の文化を支持し、内部告発者に対して報復を行わないよう求めた。.
AI研究者のランス・B・エリオット氏と述べた。リスクについて声を上げない従業員は、昇進や昇給で報われるのだ。
一方、内部告発者や批評家はストックオプションを失い、会社から追放され、AI リーダーシップ コミュニティによって暗黙のうちにブラックリストに載せられる可能性があります。.
ジェフリー・ゴーゴによるCryptopolitan レポート

