마이크로소프트는 기업들이 AI 앱을 개발하는 데 따르는 어려움을 줄여주는 새로운 도구 세트를 발표했습니다. 그 핵심은 바로 Azure AI Foundry입니다.
이 새로운 솔루션은 개발자가 OpenAI, Mistral, Meta Platforms 또는 기타 지원되는 제공업체의 AI 모델 간에 자유롭게 전환할 수 있도록 설계되었습니다. 이는 간단히 말해 유연성에 관한 것입니다. AI 혁신의 속도가 기업의 적응 능력을 앞지르는 상황에서 기업들이 오랫동안 어려움을 겪어왔던 부분을 해결해 주는 솔루션입니다.
마이크로소프트의 클라우드 컴퓨팅 책임자인 스콧 거스리는 "같은 계열에 속하더라도 새로운 모델은 각각 특정 작업에서 더 나은 답변이나 성능 면에서 이점을 제공하지만, 다른 부분에서는 퇴보가 있을 수도 있다"고 말했다.
망가진 워크플로 수정
현재 6만 명의 고객이 Azure AI를 사용하고 있습니다. 결코 적은 숫자가 아닙니다. 이들은 플랫폼의 1,700개 모델을 활용하여 앱을 구동하고 있습니다. 하지만 문제는 이 과정이 번거롭다는 것입니다. 개발자들은 혁신에 집중하기보다는 새로운 모델을 다루는 데 시간을 낭비하고 있습니다.
새로운 업데이트나 릴리스가 나올 때마다 마치 처음부터 다시 시작하는 것 같은 느낌이 들고, 기업들은 이를 싫어합니다. OpenAI나 Meta에서 새로운 기능이 출시될 때마다 기존 워크플로를 완전히 뜯어고치고 싶어 하지 않기 때문입니다.
바로 이런 점에서 Azure AI Foundry가 유용합니다. Azure AI Foundry는 기업들이 불필요한 번거로움 없이 모델을 자유롭게 조합하여 사용할 수 있도록 간소화된 시스템을 제공합니다. 기존에 잘 작동하는 OpenAI 모델이 있다면 그대로 사용해도 됩니다.
Meta에서 제공하는 최신 기능을 사용해 보시겠습니까? 새 기능으로 전환하여 더 나은지 확인하고, 잘 작동하는 기능은 그대로 유지하세요. 모든 것은 다양한 옵션을 통해 이루어집니다. Foundry의 일부는 Azure AI Studio의 업그레이드 버전이지만, 새로운 기능에는 AI 에이전트 배포 도구가 포함되어 있습니다.
더 많은 선택지를 제공함에도 불구하고 마이크로소프트는 오픈AI와의 긴밀한 관계를 유지하는 것이라고 밝혔습니다. 거스리 CEO는 오픈AI의 모델이 여전히 마이크로소프트에 매우 중요하다는 점을 분명히 했습니다. 하지만 때로는 기업에 대안이 필요하며, 마이크로소프트는 이를 잘 알고 있습니다. 거스리 CEO는 "선택의 폭을 넓히는 것이 중요해질 것"이라고 말했습니다.
이 모든 것을 구동하는 하드웨어
하지만 물론 AI가 제대로 작동하려면 강력한 성능이 필요하고, 마이크로소프트는 그 사실을 누구보다 잘 알고 있습니다. 작년에 마이크로소프트는 자체 개발한 첫 AI 칩을 공개했고, 이제 두 가지 새로운 하드웨어를 통해 이 분야에 더욱 집중하고 있습니다.
먼저, 암호화 및 서명 키를 보호하도록 설계된 보안 마이크로프로세서가 있습니다. 내년부터 마이크로소프트 데이터 센터의 모든 신규 서버에는 이 칩이 탑재될 예정입니다.
다음으로 데이터 처리 장치(DPU)가 있는데, 이는 네트워크, 서버 및 AI 칩 간의 데이터 이동 속도를 향상시킵니다. 이는 엔비디아가 만든 유사한 하드웨어와 직접적인 경쟁 관계에 있지만, 마이크로소프트는 자사 버전이 더 효율적이라고 생각합니다.
이러한 DPU는 오늘날 AI 모델에 필요한 막대한 작업 부하를 처리하는 데 필수적이며, 마이크로소프트의 칩 책임자인 라니 보르카르는 이러한 모델이 "엄청나게 커지고 있다"고 말했습니다. 그녀는 모든 인프라 구성 요소가 빠르고 효율적인 작동을 위해 원활하게 연동되어야 한다고 강조했습니다.

