最新ニュース
あなたへのおすすめ
週刊
トップの座を維持する

最高の仮想通貨情報をあなたの受信トレイに直接お届けします。.

MetaのAI責任者はAGIについて心配するのは時期尚早だと語る

によるイビアム・ワヤスイビアム・ワヤス
読了時間2分
MetaのAI責任者はAGIについて心配するのは時期尚早だと語る
  • MetaのAI責任者は、AIの存在リスクを心配するのは時期尚早だと考えている。.
  • ルカン氏は、AIシステムが自発的に危険になることはないと述べた。.
  • Meta と OpenAI はどちらも AGI を作成する意図を明らかにしました。.

MetaのAI部門責任者であるヤン・ルカン氏は、人間レベルの知能を持つAIシステム(AGI)について懸念を抱くのは時期尚早だと述べた。ルカン氏の発言は、AGIが人類の存在に及ぼす影響についての議論がますます活発化する中でなされた。. 

こちらもお読みください: AGI推測の詳細

「現時点では、人間レベルの知能システムの設計図すら存在しない」とルカン氏は 月曜日にXに投稿した。「だから、それについて心配するのは時期尚早だ。そして、『存亡の危機』を防ぐために規制するのは、あまりにも時期尚早だ。」

AIはただ危険になるだけではいけない、とルカン氏は言う

多くの専門家は、AGIが現実のものとなるまでには数十年、あるいは数世紀かかると考えています。しかしながら、専門家はそのようなモデルが人類の存在を脅かす可能性があると警告しており、各国政府の間では懸念の声が上がっています。. 

関連記事: Google、OpenAI、その他13社がリスクのあるAIモデルを導入しないと誓約

ルカン氏は、AIシステムは「突然現れて危険になるような自然現象ではない」と考えている。人間はAIを創造する存在であるため、AIを安全にする力を持っていると彼は述べた。. 

「ターボジェットがひどい故障を起こすシナリオは何千通りも想像できます。しかし、私たちはターボジェットを広く配備する前に、非常に信頼性の高いものにすることに成功しました」とルカン氏は付け加えた。「AIについても同様の疑問が残ります。」

MetaのAI責任者は、法学修士課程では人間の知能に到達できないと語る

先週、ルカン氏は、ChatGPT、Geminiなどの人気のAIチャットボットを動かす大規模言語モデルは人間の知能には及ばないとも意見を述べた。. 

関連記事: OpenAIのChatGPT-4oは感情や気持ちを表現できる

フォーブス誌のインタビュー、ルカン氏は、LLM(論理学習モデル)は訓練が必要であり、入力されたデータに基づいてしか性能を発揮できないため、「論理的思考能力が限られている」と述べた。さらに、LLMは「本質的に安全ではない」ため、人間レベルのAIシステムを構築しようとする研究者は、他のモデルタイプを検討する必要があると指摘した。

OpenAIとMetaがAGI開発への関心を確認

ChatGPTの開発元であるOpenAIは、このような強力なモデルの開発を計画しています。5月、共同創設者のサム・アルトマン氏は、コストに関わらずAGIを開発すると述べました。.

「年間5億ドルを燃やそうが、50億ドルを燃やそうが、いや、500億ドルを燃やそうが、私は気にしません。本当に気にしません。支払いをする方法を見つけられる限り、私たちはAGIを作り続けます。費用はかかるでしょう。」

サム・アルトマン

Metaは人間レベルの知能の実現に向けた取り組みも開始した。1月、 マーク・ザッカーバーグは 、Metaの「長期的なビジョンは、汎用人工知能を構築し、責任を持ってオープンソース化し、誰もが恩恵を受けられるように広く利用可能にすることだ」と認めた。


 イビアム・ウェイアスによるCryptopolitan 報道

この記事を読んでいるあなたは、既に一歩先を行っています。 ニュースレターを購読して、その優位性を維持しましょう

この記事を共有する

免責事項: 本情報は投資助言ではありません。Cryptopolitan.com Cryptopolitan、 本ページの情報に基づいて行われた投資について一切責任を負いません。投資判断を行う前に、ごtrondentdentdentdentdentdentdentdent で調査を行うか、資格のある専門家にご相談されることを

もっと…ニュース
ディープ クリプト
速習コース