最新ニュース
あなたへのおすすめ
週刊
トップの座を維持する

最高の仮想通貨情報をあなたの受信トレイに直接お届けします。.

ジャック・マー氏のアント・グループは中国製チップをベースにしたAIのブレークスルーを主張

コリンズ・J・オコスコリンズ・J・オコス
読了時間3分
ジャック・マー氏のアント・グループは中国製チップをベースにしたAIのブレークスルーを主張
  • ジャック・マー氏が支援するアント・グループは、中国製の半導体を使用してコスト効率の高いAIトレーニングモデルを開発していると発表した。.
  • AIモデルは専門家の混合アプローチに基づいており、コストを20%削減し、Nvidiaなどの米国企業に激しい競争をもたらすと言われています。.
  • 同社は今月、自社のモデルが、まだ検証されていない特定のベンチマークにおいて、メタ・プラットフォームズ社を上回るパフォーマンスを示したことがあると主張する研究論文を発表した。.

アント・グループは、アリババとファーウェイの中国製半導体を活用した人工知能(AI)モデルの学習に新たな技術を開発したと発表した。このAI学習モデルは、Mixture of Experts(MoE)機械学習アプローチを採用し、NVIDIAのH800チップと同等の成果を、少なくとも20%低コストで達成できる。.

アント・グループは 主張した 。同社は、高性能ハードウェアを用いて1Tトークンの学習に約635万元(約88万ドル)のコストがかかったが、最適化されたアプローチにより、低スペックのハードウェアを用いることでコストを510万元にまで削減できると明らかにした。 

ブルームバーグ・インテリジェンスのシニアアナリスト、ロバート・リー氏は、アント・グループの主張が事実であれば、中国がNVIDIAチップの輸出規制を回避するために低コストで計算効率の高いモデルに移行し、AIの自給自足に向けて着実に歩みを進めていることを浮き彫りにすると述べた。NVIDIAのCEO、ジェンスン・フアン氏は、DeepSeekのR1のようなより効率的なモデルが登場しても計算需要は増加し続けると主張し、企業はコスト削減のための安価なチップではなく、収益増加のための高性能チップを必要とするだろうと主張した。.

アント・グループは最新のAIイノベーションに中国製チップを活用

アント・グループは、アリババとファーウェイ製の中国製チップを使用して、AIモデルのトレーニングにMoEアプローチに基づく技術を開発し、コストを20%削減したと、ミンミン・ロウ氏がブルームバーグTVの 「ザ・チャイナ・ショー」で語った。ロウ氏は、MoEアプローチを使用することでタスクをより小さなデータセットに分割し、効率を高めることができると説明し、「専門家チームを雇い、それぞれが問題の特定の部分に集中することで、全体の効率を高めるのと似ている」と述べた。 

ジャック・マー氏のアント・グループは中国製チップをベースにしたAIのブレークスルーを主張
ミンミン・ロー氏がチャイナショーに出演。出典: ブルームバーグ

ブルームバーグによると、このAIトレーニングモデルは、ディープシークがOpenAIやアルファベット傘下のGoogleが数十億ドルを投じた額よりもはるかに少ないコストで高性能なモデルをトレーニングできることを実証して以来、加速していた中国企業と米国企業間の競争にアントが参入したことを示すものだった。アント・グループの最新のAIイノベーションは、現在米国が中国への輸入を禁止している最先端のNVIDIA H800チップに代わる、中国企業がいかにして現地の代替品を利用しようとしているかを浮き彫りにした。.

「世界最高のカンフーマスターを倒すための攻撃ポイントを一つ見つけることができれば、それでも彼らに勝ったと言える。だからこそ、現実世界での応用が重要なのだ。」 ロビン・ユー、盛尚科技有限公司最高技術責任者

アント・グループは今月、自社のモデルが特定の未検証ベンチマークにおいてメタ・プラットフォームズ社を上回ることがあるとする研究論文を発表した。もしモデルが宣伝通りの性能を発揮すれば、アントのプラットフォームは中国のAI開発における新たな前進となる可能性がある。.

MoE AIトレーニングはGoogleとDeepSeekでの使用で認知度が高まっています

ブルームバーグは、MoE AIトレーニングモデルがGoogleや杭州スタートアップのDeepSeekによる活用で高い評価を得ており、人気の選択肢となっていると報じました。Antは、医療や金融を含む産業用AIソリューション向けに開発した大規模言語モデル(Ling-PlusとLing-Lite)における最近のブレークスルーを活用する予定です。. 

Antは 研究論文 、Ling-LiteモデルがMetaのLlamaモデルの1つと比較して、主要なベンチマークで優れた成績を収めたと述べている。Ling-LiteとLing-Plusの両モデルは、中国語ベンチマークにおいてDeepSeekの同等モデルを上回った。Ling-Liteには168億個のパラメータがあり、これらはモデルのパフォーマンスを制御するつまみやダイヤルのように機能する調整可能な設定である。Ling-Plusには2900億個のパラメータがあり、これは言語モデルの分野では比較的大きいと考えられている。比較のために、MIT Technology ReviewはChatGPTのGPT-4.5のパラメータ数を1.8兆個、DeepSeek-R1のパラメータ数を6710億個と推定している。

アントはまた、AIトレーニングの安定性を含むいくつかの領域で課題に直面していることを明らかにした。ハードウェアやAIトレーニングモデルの構造にわずかな変更を加えるだけでも、モデルのエラー率が急上昇するなどの問題が発生した。.

銀行にお金を預けておくのと、仮想通貨で一か八かの賭けをするのとでは、中間的な選択肢があります。まずは、 分散型金融

免責事項: 本情報は投資助言ではありません。Cryptopolitan.com Cryptopolitan、 本ページの情報に基づいて行われた投資について一切責任を負いません。投資判断を行う前に、ごtrondentdentdentdentdentdentdentdent で調査を行うか、資格のある専門家にご相談されることを

もっと…ニュース
ディープ クリプト
速習コース