半導体大手NVIDIAは、チャットボットやその他のAIツールによる応答生成速度を向上させるために設計された、強力な新型人工知能プロセッサを発表する準備を進めている。これにより、 ChatGPT、比較すると動作が遅く感じられるようになる可能性がある。
NVIDIAの年次開発者会議GTCで初公開される予定のこの新プラットフォームは、AI推論、つまり学習済みモデルがユーザーの質問に対して回答を生成する段階に最適化されている。学習と推論の両方を処理するように設計された従来のGPUとは異なり、この次世代プロセッサは、より高速かつ効率的な応答の提供に特化している。.
高速AI処理ハードウェアを専門とするGroqの創業者たちが12月に買収された際の、最初の具体的な成果となるだろう
昨年後半、NVIDIAはチップ開発スタートアップのGroqから技術ライセンスを取得し、CEOを含む主要人材を採用するために約200億ドルを費やしたと報じられた。ほぼ同時期に、NVIDIAのCEOであるジェンセン・フアンは従業員に対し、「Groqの低遅延プロセッサをNVIDIAのAIファクトリーアーキテクチャに統合し、プラットフォームを拡張して、より幅広いAI推論およびリアルタイムワークロードに対応できるようにする計画だ」と語った。
、この新しい推論チップは複雑なAIクエリを高速で処理することが期待されており、 OpenAIをはじめとする主要な顧客企業が採用する可能性が高いという。同紙の報道では、この新しいチップがOpenAIの推論ワークロードの約10%を処理できる可能性も示されている。
GroqスタイルのチップはSRAMを使用するだろうと関係者は述べている。
NVIDIAのCEOは先日行われた決算説明会で、AIの「スーパーボウル」とも呼ばれる次回のGTCイベントで、いくつかの新製品を発表する予定であることを示唆した。彼は「GTCで皆さんと共有したい素晴らしいアイデアがいくつかあります」と述べていた。
ほとんどのアナリストは、Groqスタイルのチップがラインナップの一部になる可能性があるという点で意見が一致している。また、その設計は、NVIDIAが推論コンピューティングにおけるメモリ制約にどのように対処しようとしているのかを明らかにする可能性があるとも述べている。こうしたプラットフォームは通常、高帯域幅メモリ(HBM)上で動作する。しかし、HBMは近年入手が困難になっている。.
関係者にと、同社はHBMに採用されているダイナミックRAMではなく、SRAMをチップに採用する計画だという。SRAMはアクセスしやすく、AI推論ワークロードのパフォーマンス向上に繋がる可能性がある。
このチップが発表されれば、チップメーカーとAIトレーニングモデルにとって大きな前進となる可能性がある。しかし、d-Matrixの創業者兼CEOであるシド・シェス氏は、その発売の可能性について、開発に暗い影を落とした。彼は、NVIDIAがAIトレーニングの分野では依然として圧倒的なリーダーである一方、推論は全く異なる状況にあると指摘した。そして、「完成したAIモデルを実行するには、トレーニング時と同じ種類のプログラミングは必要ないため、開発者はNVIDIA以外の競合他社に目を向けることができる」と述べた。
しかしながら、他のテクノロジー大手も推論コンピューティングの発展に取り組んでいる。Metaは今週、推論に特化した4つのプロセッサを発表し、シリコンバレーのある投資家は、業界が「NVIDIAが支配的」ではない段階に入りつつあるかもしれないと述べた。.
しかし、最近では、NVIDIAのライバル企業であるFuriosaAIの最高経営責任者であるジューン・パイク氏が、容易に導入可能な推論コンピューティングの利点についてコメントする中で、ほとんどのデータセンターは最新の液冷式GPUに対応できないと警告した。.
しかし、バンク・オブ・アメリカのアナリストは、彼の懸念にもかかわらず、推論ワークロードがAIデータセンター支出の75%を占め、市場規模は約1.2兆ドルに達すると予測している。これは昨年の約50%から増加する。クリエイティブ・ストラテジーズのテクノロジーアナリスト、ベン・バジャリン氏も、将来のデータセンターは画一的なモデルには当てはまらず、企業はチップや施設の開発において異なるアプローチを取るだろうと述べている。.
NVIDIAは2026年後半にVera Rubinチップをリリースする予定だ。
NVIDIAは最近、次世代AIチップであるVera Rubin AIチップを発表した。DeepSeekのような推論型AIプラットフォームの台頭により、コンピューティング需要がさらに高まると見込んでいる。同社は、このチップによってより大規模なAIモデルのトレーニングが可能になり、より高度な出力をより幅広いユーザー層に提供できると主張している。
黄氏によると、Rubinも2026年後半に市場に投入され、ハイエンドの「ウルトラ」バージョンは2027年に登場する予定だという。.
彼はまた、Rubinシステム1つには576個のGPUが1つのチップに統合されると説明した。現在、NVIDIAのBlackwellチップはNVL72システムに72個のGPUをクラスタリングしているため、Rubinはより高度なメモリを搭載することになる。.

