・Armは、大規模AIデータセンター向けNeoverseチップにNvidiaのNVLinkを追加する予定です。
・Nvidiaは、Nvidia以外のチップでも動作するFusionと呼ばれる新しいNVLinkバージョンを発表しました。
・ハイパースケーラーがArmのNeoverse設計を採用するにつれ、ArmはIntelからサーバー市場でのシェアを奪っています。
Armは月曜日、AIデータセンター向けのNeoverseチップにNvidiaのNVLinkを組み込み始めると発表した。これは、膨大なAIワークロードの駆動をめぐる競争で誰が誰と提携しているかを示す動きだ。.
同社は、この計画により、ハイパースケーラーが利用するArmベースのサーバーチップにNVIDIAの高速リンクが直接組み込まれると述べた。この最新情報は両社から発表され、AIシステムの大規模化と運用コストの増大に伴い、この移行がなぜ重要なのかを説明した。
同社によれば、この新たなステップは、従来の単純なCPU設計図ではなく、完全なチップ設計を顧客に提供しようというCEOのルネ・ハース氏の取り組みに沿ったものだという。.
アーム社は、この変更はより多くの収益をもたらし、同社を携帯電話事業における長い歴史から脱却させることを目的としていると述べた。.
Nvidiaは、NVLinkにより多数のアクセラレータがデータを高速に移動し、作業負荷を分割し、1つのチップでは重すぎるモデルを処理できるため、NVLinkはすでに同社のAIシステムの中核ツールになっていると述べた。.
Nvidiaはまた、NVLinkがAIソフトウェアを実行するアクセラレータ間の主要なブリッジとして機能するとも述べた。.
Arm、Neoverseをクラウドサーバーにさらに深く進出
Armは、AWSやMicrosoftなど、すでにデータセンターでArmベースのチップを使用している顧客向けに、NeoverseプラットフォームにNVLinkを組み込みオプションとして搭載して出荷すると述べた。Nvidiaは、Fusionと呼ばれるこの技術の新バージョンを公開し、これにより他のハードウェアメーカーがNvidia以外のチップをNvidiaシステムに接続できるようになると述べた。.
エヌビディアは、この移行により、企業が巨大なAIクラスター内で複数のチップを混在させやすくなると述べた。同社によると、このインターフェースにより、サーバーは高速リンク上で高負荷のAIタスクを速度低下なく実行できるようになるという。.
Nvidiaは9月に、Intelと契約を結び、Intelが自社のサーバー製品の一部にNVLinkを追加すると発表した。これは両社間の長年の競争の末に実現したものであり、Nvidiaは今回の合意により、NVLinkがNvidiaのみのシステム以外でも機能することを示したとしている。.
アーム社は、かつてXeonが市場の99%を占めていたインテル社からサーバーシェアを奪いつつあると述べた。エヌビディア社は、既に一部のプロセッサに自社製アクセラレータと組み合わせたアームCPUを採用しており、規制当局に阻止されたにもかかわらずアーム社の買収を試みたことさえあると述べた。エヌビディア社は、アーム社との緊密な提携により、NVLinkがAIデータセンターの標準オプションとなる可能性があると述べた。
アームは、ハイパースケーラー(サーバー群を最大規模で保有する企業)へのNeoverseユニットの販売拡大に取り組んでいると述べた。同社は、Neoverseが市場シェアの50%に達すると予想している。エヌビディアは 予定で 、投資家はAI支出が依然として増加しているのか、それとも減速しているのかを目にすることになるだろう。
銀行にお金を預けておくのと、仮想通貨で一か八かの賭けをするのとでは、中間的な選択肢があります。まずは、 分散型金融。
速習コース
- どの仮想通貨でお金が稼げるか
- ウォレットを使ってセキュリティを強化する方法(そして実際に使う価値のあるウォレットはどれか)
- プロが使う、あまり知られていない投資戦略
- 仮想通貨への投資を始める方法(どの取引所を使うべきか、購入すべき最適な仮想通貨など)
















