Advanced Micro Devices(AMD)は、Instinct MI300シリーズアクセラレータの発表により、人工知能( AI )アクセラレータ市場におけるNVIDIAの優位性に挑戦する競争に正式に参入しました。AMDは、AI市場が2023年には450億ドル、2027年には4,000億ドルに達すると予測しており、この動きは両社のテクノロジー大手による熾烈な競争を巻き起こすと予想されています。AMDは2024年に20億ドル以上のAIチップ販売を目標に、AI分野への積極的な進出を準備しています。
MI300Xによるパフォーマンスの飛躍
AMDは2つのAIアクセラレータ製品を発表します。MI300Xは、NVIDIAのH100の有力な競合製品として位置付けられています。MI300Xの際立った特徴の一つは、192GBという驚異的な高帯域幅メモリです。これはNVIDIAのH100の2倍以上のメモリ容量です。この大幅なメモリ容量の優位性は、特に大規模なメモリリソースを必要とする大規模言語モデル(LLM)を扱うアプリケーションにとって極めて重要となる可能性があります。.
AMDは、NvidiaのH100と比較して、MI300Xの性能について大胆な主張を展開しています。BLOOM 176Bモデルを例に挙げ、特定のLLMで推論を実行する際に1.6倍の性能を発揮すると報告されています。もう一つ注目すべき機能は、MI300Xが700億パラメータのモデルで推論を実行できることです。これはNvidiaの現在の製品ラインナップにはない機能です。.
Zen 4 CPUコアを搭載したMI300Aのご紹介
MI300Xはハイエンドモデルとして位置づけられていますが、AMDは異なる価値提案を提供するMI300Aも提供しています。MI300AはMI300XよりもGPUコア数とメモリ容量が少ないものの、AMDの最新Zen 4 CPUコアを搭載しています。この構成により、MI300Aは効率性を重視したtronコンピューティング市場に対応できる製品となっています。AMDは、MI300Aは前世代のMI250Xと比較して、ワット当たりの性能が1.9倍向上していると述べています。.
データセンターGPU市場におけるNVIDIAの大きな強みの一つは、そのソフトウェアエコシステムです。16年以上前に確立されたNVIDIAのCUDAプラットフォームは、GPUを計算タスクに活用するための業界標準となっています。AMDなどの競合他社にとっての課題は、CUDAがNVIDIA GPUのみをサポートしているため、顧客が他のAIチップベンダーにシームレスに乗り換えることが困難になっていることです。.
これに対し、AMDはオープンGPUコンピューティング・プラットフォームであるROCmを提供しています。ROCmは現在6番目のバージョンです。ROCmはTensorFlowやPyTorchといった人気のAIフレームワークをサポートしており、AMDは戦略的パートナーシップや買収を通じてエコシステムを拡大してきました。特に注目すべきは、オープンソースAIソフトウェア企業Nod.aiを買収し、ソフトウェア機能を強化し、NVIDIAとの差を縮めたことです。.
主要なパートナーシップと顧客の採用
Nvidiaがソフトウェア面での優位性を維持する一方で、AMDは既に新しいAIチップの主要顧客を確保しています。MicrosoftとMeta Platforms(旧Facebook)はAMDの技術採用を表明しています。MicrosoftはAzure上でMI300Xを搭載した新しい仮想サーバーシリーズを立ち上げる予定であり、Meta PlatformsはMI300Xを様々なAI推論ワークロードに活用する予定です。.
さらに、OracleはMI300Xチップを搭載したベアメタルインスタンスを提供する予定で、Dell、Hewlett-Packard Enterprise、Lenovo、Supermicroなどの大手ハードウェアメーカーは、AMDの新しいAI製品を中心に構築されたシステムを計画している。.
AMDは短期的にはAIアクセラレーターの需要急増に対応できる態勢を整えている。しかし、この市場の長期的な発展は依然として不透明だ。AIは依然として基盤技術であり続けるが、競争が激化し、NVIDIA以外の有力な選択肢が増えるにつれて、価格圧力が高まる可能性がある。.

