微软发布了一套全新的工具,旨在减轻企业开发人工智能应用的负担。其核心产品是什么?Azure AI Foundry。.
这项新服务旨在让开发者能够在 OpenAI、Mistral、Meta Platforms 或任何其他受支持提供商的 AI 模型之间轻松切换。简而言之,它的核心在于灵活性——而灵活性一直是企业的一大痛点,因为 AI 创新的速度已经远远超过了企业的适应能力。.
微软云计算主管斯科特·格思里表示:“即使是同一系列的新模型,在某些任务上也能提供更好的答案或性能,但在其他方面可能会出现退步。”.
修复故障的工作流程
目前,已有 6 万家客户使用 Azure AI。这可不是个小数目。他们正在利用该平台的 1700 个模型来驱动他们的应用程序。但问题在于:这个过程很繁琐。开发人员浪费时间去研究新模型,而不是专注于创新。.
每次更新或新版本发布都像是从头开始,企业对此非常反感。他们不想每次 OpenAI 或 Meta 发布新功能时都不得不彻底推翻现有的工作流程。.
这时 Azure AI Foundry 就派上了用场。它是一个更精简的系统,允许企业轻松混合搭配各种模型,避免不必要的麻烦。如果你有一个运行良好的旧版 OpenAI 模型,那就继续使用它。.
想试试 Meta 的新功能吗?切换过去看看效果如何,然后保留好用的。选择越多越好。Foundry 的部分功能是对 Azure AI Studio 的升级,但新增功能包括用于部署 AI 代理的工具。.
尽管提供了更多选择,微软表示不会放弃与OpenAI的紧密合作关系。格思里明确指出:OpenAI的模型对微软仍然至关重要。但有时,企业需要其他选择,微软也明白这一点。“选择至关重要,”格思里说道。.
驱动这一切的硬件
当然,人工智能需要强大的硬件支持才能运行,而微软比任何人都更清楚这一点。去年,该公司发布了首款自主研发的人工智能芯片,如今又推出了两款全新的硬件产品,进一步巩固了其在人工智能领域的领先地位。.
首先,是一款旨在保护加密和签名密钥的安全微处理器。从明年开始,微软数据中心的每台新服务器都将配备这款芯片。.
此外,还有数据处理单元 (DPU),它可以加快数据在网络、服务器和人工智能芯片之间的传输速度。它与英伟达生产的类似硬件直接竞争,但微软认为其版本效率更高。.
这些分布式处理单元(DPU)对于处理当今人工智能模型所需的海量工作负载至关重要,正如微软芯片负责人拉尼·博卡尔所说,这些模型“规模越来越大”。她表示,其基础设施中的每个组件都需要无缝协作,才能保持快速高效运行。.

