A Microsoft anunciou um novo conjunto de ferramentas para simplificar o desenvolvimento de aplicativos de IA para empresas. A peça central? O Azure AI Foundry.
Essa nova oferta foi projetada para permitir que os desenvolvedores alternem entre modelos de IA da OpenAI, Mistral, Meta Platforms ou qualquer outro provedor compatível. Trata-se de flexibilidade, pura e simplesmente — algo que tem sido um problema para as empresas, já que o ritmo da inovação em IA supera sua capacidade de adaptação.
Scott Guthrie, chefe de computação em nuvem da Microsoft, disse: "Cada novo modelo — mesmo que seja da mesma família — tem benefícios em termos de melhores respostas ou desempenho em algumas tarefas, mas pode haver regressões em outras".
Corrigindo o fluxo de trabalho quebrado
Atualmente, 60.000 clientes usam o Azure AI. Não é um número pequeno. E eles estão aproveitando os 1.700 modelos da plataforma para impulsionar seus aplicativos. Mas aqui está o problema: esse processo é complicado. Os desenvolvedores perdem tempo tentando entender novos modelos em vez de inovar.
Cada atualização ou novo lançamento parece um recomeço do zero, e as empresas detestam isso. Elas não querem desmantelar seus fluxos de trabalho sempre que a OpenAI ou a Meta lançam algo interessante.
É aí que entra o Azure AI Foundry. Trata-se de um sistema mais simplificado que permite às empresas combinar modelos sem complicações desnecessárias. Tem um modelo antigo da OpenAI que funciona bem? Continue usando-o.
Quer experimentar algo mais recente da Meta? Troque para outra opção, veja se é melhor e mantenha o que funciona. O importante são as opções. Partes do Foundry são uma atualização do Azure AI Studio, mas os novos recursos incluem ferramentas para implantar agentes de IA.
Apesar de oferecer mais opções, a Microsoft afirma que não está abandonando sua estreita relação com a OpenAI. Guthrie foi enfático: os modelos da OpenAI ainda são muito importantes para a Microsoft. Mas, às vezes, as empresas precisam de alternativas, e a Microsoft sabe disso. "A possibilidade de escolha continuará sendo importante", disse Guthrie.
O hardware que alimenta tudo isso
Mas é claro que a IA precisa de recursos para funcionar, e a Microsoft sabe disso melhor do que ninguém. No ano passado, a empresa revelou seus primeiros chips de IA desenvolvidos internamente e, agora, reforçou sua estratégia com dois novos dispositivos.
Em primeiro lugar, um microprocessador de segurança projetado para proteger as chaves de criptografia e assinatura. A partir do próximo ano, todos os novos servidores nos centros de dados da Microsoft incluirão esse chip.
Há também a unidade de processamento de dados (DPU), que acelera a transferência de dados entre redes, servidores e chips de IA. Ela compete diretamente com hardware similar fabricado pela Nvidia, mas a Microsoft acredita que sua versão é mais eficiente.
Essas DPUs são vitais para lidar com as cargas de trabalho massivas exigidas pelos modelos de IA atuais, que, como disse Rani Borkar, líder da área de chips da Microsoft, “estão crescendo muito”. Ela afirmou que todos os componentes da infraestrutura precisam funcionar em perfeita harmonia para manter a velocidade e a eficiência.

