Microsoftは、企業のAIアプリ開発の負担を軽減する新しいツールセットを発表しました。その中心となるのが、Azure AI Foundryです。.
この新しいサービスは、開発者がOpenAI、Mistral、Meta Platforms、その他対応プロバイダーのAIモデルを切り替えられるように設計されています。これは、AIイノベーションのスピードが企業の適応能力を上回っている中で、企業にとっての悩みの種となってきた柔軟性の実現を目指したものです。.
マイクロソフトのクラウドコンピューティング責任者、スコット・ガスリー氏は、「新しいモデルはどれも、たとえ同じファミリーであっても、いくつかのタスクではより良い回答やパフォーマンスが得られるという点でメリットがあるが、他の点では後退する可能性がある」と語った。.
壊れたワークフローを修正する
現在、6万社のお客様がAzure AIをご利用いただいています。これは決して少ない数字ではありません。そして、お客様はプラットフォームの1,700ものモデルを活用してアプリを開発しています。しかし、問題は、このプロセスが煩雑だということです。開発者はイノベーションを起こすのではなく、新しいモデルとの格闘に時間を浪費しているのです。.
アップデートや新リリースのたびに、まるでゼロから始めるような感覚になり、企業はそれを嫌がります。OpenAIやMetaが何か素晴らしいものをリリースするたびに、ワークフローをバラバラにしたくないのです。.
そこでAzure AI Foundryの出番です。より合理化されたシステムにより、企業は不要な手間をかけずにモデルを自由に組み合わせることができます。問題なく動作する古いOpenAIモデルをお持ちですか?それを使い続けましょう。.
Metaの新機能を試してみませんか? 切り替えて、使い勝手を確かめ、うまくいったものはそのまま使い続けましょう。選択肢が重要です。Foundryの一部はAzure AI Studioのアップグレード版ですが、新機能にはAIエージェントのデプロイツールも含まれています。.
マイクロソフトは、選択肢を増やしながらも、OpenAIとの緊密な関係を放棄するつもりはないと述べています。ガスリー氏は明言しました。「OpenAIのモデルは依然としてマイクロソフトにとって重要です。しかし、企業には代替手段が必要になる場合があり、マイクロソフトもそのことを理解しています。『選択肢は重要になります』とガスリー氏は述べました。」.
すべてを動かすハードウェア
しかしもちろん、AIを動かすにはパワーが必要です。そして、マイクロソフトは誰よりもそれを熟知しています。昨年、同社は初の自社開発AIチップを発表し、今回、2つの新たなハードウェアでその力をさらに強化しました。.
まず、暗号化と署名鍵を保護するために設計されたセキュリティマイクロプロセッサです。来年から、Microsoftのデータセンターのすべての新規サーバーにこのチップが搭載される予定です。.
さらに、ネットワーク、サーバー、AIチップ間のデータ転送を高速化するデータ処理ユニット(DPU)があります。これはNVIDIA製の類似ハードウェアと直接競合しますが、Microsoftは自社製品の方がより効率的だと考えています。.
これらのDPUは、今日のAIモデルに必要な膨大なワークロードを処理するために不可欠です。MicrosoftのチップリーダーであるRani Borkar氏は、AIモデルは「非常に大きく成長している」と述べています。Borkar氏は、インフラストラクチャ内のすべてのコンポーネントがシームレスに連携することで、高速かつ効率的な処理を維持する必要があると述べています。.

