が、同社の最新のフラッグシップでより「感情的な」モデルであるGPT-4o の発表からわずか数日後に同社を辞任しました
OpenAIのスーパーアライメントチーム共同リーダーが退任
OpenAIのSuperalignmentチームの共同リーダーであるJan Leike氏は、 X Wednesdayに「私は辞任した」と投稿した。
私が辞任しました
— ジャン・ライケ (@janleike) 2024 年 5 月 15 日
ライケ氏は自身の決定についてまだ詳細を明らかにしていない。 しかし、彼の投稿は、OpenAIの共同創設者であるイリヤ・サツケヴァー氏が会社を辞め、「私にとって非常に個人的に意味のあるプロジェクト」を追求すると発表した数時間後に投稿された。
OpenAIを辞める前、Sutskever氏は2023年12月から沈黙を続けていた。休止後の最初の投稿が辞任通知だったため、社内でのSutskever氏の立場を考えると懸念する人もいたようだ。
Leike 氏と Sutskever 氏は、OpenAI の Superalignment チームを共同で率いています。 この部隊は、超インテリジェント AI モデルの不正行為を防ぐために結成されました。
こちらもお読みください: OpenAI が「Superalignment」チームを発足
今月初め、OpenAIの共同創設者兼最高経営責任者(CEO)であるサム・アルトマン氏は、同社が一般に人工汎用知能(AGI)と呼ばれるそのようなスーパーモデルの1つを作成する計画があることを認めた。 AGI は人間と同じようにタスクを実行でき、場合によってはそれを超えてタスクを実行できます。
「私たちが年間5億ドルを消費しようと、50億ドルを消費しようと、あるいは年間500億ドルを消費しようと、私は気にしません、本当に気にしません」とアルトマン氏はスタンフォード大学のdentに語った。 「請求書の支払い方法を見つけられる限り、私たちは AGI を作っています。 高価なものになりますよ。」
スツケヴァー氏は、OpenAI が安全な AGI を構築するとdent していると語る
AGI の結果についてはさまざまな意見があります。 OpenAIは「人間性を高める」ことができると述べた。 しかし、AGIの大幅な進歩は人類の絶滅につながる可能性があると多くの人が主張しています。
そのため、多くの人が OpenAI のような企業が AGI をどのように構築しているかに懸念を抱いています。 しかし、Sutskever 氏は、OpenAI は安全な AGI を構築すると断言しました。
「Sam Altman、Greg Brockman、Mira Murati、Jakub Pachocki のリーダーシップの下、OpenAI が安全で有益な AGI を構築するとdent しています。」
Jakub Pachocki は Sutskever の後任として OpenAI の新しい主任研究員に就任します。 パチョッキ氏は以前、研究部長を務めていました。
Cryptopolitan Academy:2025年にあなたのお金を育てたいですか?今後のWebClassでDeFiでそれを行う方法を学びますあなたのスポットを救ってください