AIの開発と維持にかかるコストの増加と利用可能なハードウェアの限界が課題となっている中、DeepSeekは人工知能(AI)の開発と拡張のための新たな計画を提示した。.
中国を拠点とするスタートアップ企業は、チップを追加して消費電力を増やすことなく、大幅に優れたAIモデルを構築できると考えています。提案されたmHCコンセプトは、この分野の多くの研究者から大きな注目を集めていますが、一般的にはまだ初期段階にあると考えられています。.
より大規模なAIシステムの開発におけるこのアプローチの利点を判断するには、さらなる研究が必要となる。mHCコンセプトの詳細を説明した技術論文が先週発表され、DeepSeekの創設者兼CEOであるLiang Wenfeng氏が共同執筆している。.
DeepSeekはAIの拡張のためにネットワーク設計を再考する
この研究の主な要素の 1 つは、多層ニューラル ネットワークのさまざまな層間で情報がどのように転送されるかを再評価することです。.
ニューラルネットワークの各層は、処理された情報を次の層に渡すことで、「残差学習ネットワーク」(ResNet)と呼ばれるものを形成します。約10年前にマイクロソフトリサーチのKaiming He氏らが開発したResNetは、今日の最先端AIシステムの多くに基礎的な機能を提供しています。
DeepSeekが開発したコンセプトは、ByteDanceが ハイパーコネクション 。ハイパーコネクションにより、情報は1つのメインパスではなく、ネットワーク上の複数のルートを移動できるようになり、学習の速度とエクスペリエンスの豊かさを向上させることができます。
ただし、これらは有益な場合もありますが、モデルのトレーニングが不安定になったり、完全に失敗したりするなど、問題のmatic トレーニングが発生する可能性もあります。.
香港城市大学のソン・リンキ氏によると、DeepSeek の研究は既存のアイデアの発展であり、ゼロから何かを発明するのではなく、DeepSeek が他社の研究を研究する手法の継続である。.
ResNet は 1 車線の高速道路に例えられ、Hyper-Connections は複数車線の高速道路に似ています。ただし、Song 氏は、適切なルールのない複数車線では衝突が増える可能性があると警告しています。.
香港科技大学の郭松教授は、この研究論文が AI研究。既存のモデルの設計に小さな修正を加え続けるのではなく、理論的構築に基づいた新しいモデルの開発へと研究が進化する可能性があると彼は考えています。
研究者はmHCを検査するが、実用上の懸念も浮上
深層学習におけるmHCの試験において最近達成されたマイルストーンに興奮が広がっている一方で、専門家は研究はまだ終わっていないことを強調しています。DeepSeekが提供した試験では、 270億のパラメータ。
「実験では最大 270 億のパラメータを持つモデルが検証されましたが、桁違いに大きい今日の最先端のモデルではどのようなパフォーマンスを発揮するのでしょうか?」
郭松教授。.
現在利用可能な AI モデルはより大規模になっており、数年前には 300 億のパラメータが標準だったのに比べ、通常は数千億のパラメータを持っています。.
郭氏もこの意見に同調し、mHCがAI技術の最先端分野で研究を遂行できるかどうかはまだ誰も結論を出せないと述べた。また、mHCの機能に必要なインフラは、小規模な研究機関や企業がモバイルデバイスで利用するには高度すぎる可能性があるとも述べた。.
によると Cryptopolitan、DeepSeekの人気は、DeepSeek V3という大規模言語モデルのリリースと、そのわずか数週間後にリリースされたDeepSeek-R1推論モデルによってもたらされたという。
ベンチマーク テスト中にモデルの結果を競合モデルと比較すると、両方のモデルは、他の競合言語モデルに使用されたトレーニング データのほんの一部だけを使用してリリースされたにもかかわらず、競合モデルの結果に達するかそれを上回ることができました。.

