Appleは、月曜日に発表された研究論文で詳述されているように、新たなAIソフトウェア基盤にGoogleのTensor Processing Unit(TPU)を採用することを決定した。これは、AIモデルの学習にはNVIDIAのGPUが一般的に使用される業界の標準から大きく逸脱するものだ。.
最新の技術論文、同社のAFMとそれをサポートするAFMサーバーは、GoogleのCloud TPUクラスター上で稼働している。これらの詳細から、AppleはAIフレームワークに必要な複雑な計算のために、Googleのクラウドコンピューティング施設からサーバースペースを転貸していることが示唆される。
アップルが新しいAIシステムを発表
Appleは、技術論文とともに、人工知能システム「Apple Intelligence」も発表しました。この新システムには、改良されたSiri、自然言語処理、AIによる要約機能が搭載されています。さらに、Appleは来年中に、画像や絵文字の生成機能、アプリから情報を取得して活用できる強化されたSiriなど、生成型AI機能をシステムに組み込む予定です。.
技術論文には、AppleのオンデバイスAFMは2048個のTPU v5pチップで、AFMサーバーは8192個のTPU v4チップで学習されたと記載されています。現行モデルはGoogleのTPU v5pで、これは12月に発表され、AI計算の効率を向上させます。2017年に市場に投入されたGoogleのTPUは、AI演算を実行するための最も洗練されたカスタムチップの一つです。.
Nvidiaは、ニューラルネットワークの学習に使用されるGPUの主要サプライヤーであり続けています。しかし、高コストと入手のしやすさの制約から、企業は他の選択肢を模索してきました。Nvidiaの主要顧客には、OpenAI、Microsoft、Anthropicなどが挙げられます。しかし、Google、Meta、Oracle、Teslaといった他のテクノロジー大手も、AI機能の開発に関心を示しています。.
テクノロジーリーダーはAI投資のリスクとメリットを比較検討
MetaのCEO、マーク・ザッカーバーグ氏とAlphabetのCEO、サンダー・ピチャイ氏は最近、AIインフラへの過剰投資について懸念を表明したが、投資不足は将来のゲームチェンジャーとなるであろう技術において後れを取る大きなリスクをもたらすという点では一致している。GoogleはNVIDIAの最大の顧客であるだけでなく、AIモデルの学習にTPUを採用し、クラウドサービスを通じてNVIDIAのGPUを提供している。.
Appleが述べているように、GoogleのTPUはより複雑で大規模なAIモデルの構築を可能にします。6月に開催されたAppleの世界開発者会議(WDC)で公開された情報も盛り込まれた詳細な研究論文によると、これらのTPUは同社の高度なAI計画に必要な計算能力を備えていることが示されています。Appleが今週、AI機能をベータユーザーにリリースすると、ハードウェアに関する決定の効果がより明確になるでしょう。.

