Microsoft ha anunciado un nuevo conjunto de herramientas para simplificar el desarrollo de aplicaciones de IA para las empresas. La pieza clave: Azure AI Foundry.
Esta nueva oferta está diseñada para que los desarrolladores puedan cambiar entre modelos de IA de OpenAI, Mistral, Meta Platforms o cualquier otro proveedor compatible. Se trata de flexibilidad, simple y llanamente, algo que ha sido un problema para las empresas, ya que el ritmo de la innovación en IA supera su capacidad de adaptación.
Scott Guthrie, director de computación en la nube de Microsoft, dijo: “Cada nuevo modelo, incluso si pertenece a la misma familia, tiene beneficios en términos de mejores respuestas o rendimiento en algunas tareas, pero puede haber regresiones en otras cosas”, dijo.
Arreglando el flujo de trabajo roto
Actualmente, 60.000 clientes usan Azure AI. No es una cifra pequeña. Y aprovechan los 1.700 modelos de la plataforma para impulsar sus aplicaciones. Pero el problema es que este proceso es engorroso. Los desarrolladores pierden tiempo lidiando con nuevos modelos en lugar de innovar.
Cada actualización o nuevo lanzamiento se siente como empezar desde cero, y las empresas lo detestan. No quieren destrozar sus flujos de trabajo cada vez que OpenAI o Meta lanzan algo brillante.
Ahí es donde entra en juego Azure AI Foundry. Es un sistema más ágil que permite a las empresas combinar modelos sin complicaciones innecesarias. ¿Tiene un modelo OpenAI antiguo que funciona bien? Consígalo.
¿Quieres probar algo nuevo de Meta? Cámbialo, comprueba si funciona mejor y quédate con lo que funciona. Todo se reduce a las opciones. Algunas partes de Foundry son una actualización de Azure AI Studio, pero las nuevas características incluyen herramientas para implementar agentes de IA.
A pesar de ofrecer más opciones, Microsoft afirma que no abandonará su estrecha relación con OpenAI. Guthrie fue claro: los modelos de OpenAI siguen siendo importantes para Microsoft. Pero a veces, las empresas necesitan alternativas, y Microsoft lo sabe. «La elección será importante», afirmó Guthrie.
El hardware que lo impulsa todo
Pero claro, la IA necesita potencia para funcionar, y Microsoft lo sabe mejor que nadie. El año pasado, la compañía presentó sus primeros chips de IA de fabricación propia, y ahora ha redoblado sus esfuerzos con dos nuevos dispositivos.
En primer lugar, un microprocesador de seguridad diseñado para proteger las claves de cifrado y firma. A partir del próximo año, todos los nuevos servidores en los centros de datos de Microsoft incluirán este chip.
Luego está la unidad de procesamiento de datos (DPU), que acelera la transferencia de datos entre redes, servidores y chips de IA. Es un competidor directo de hardware similar de Nvidia, pero Microsoft cree que su versión es más eficiente.
Estas DPU son vitales para gestionar las enormes cargas de trabajo que requieren los modelos de IA actuales, que, como lo expresó Rani Borkar, líder de chips de Microsoft, "están creciendo enormemente". Borkar afirmó que todos los componentes de su infraestructura deben funcionar en conjunto a la perfección para mantener la rapidez y la eficiencia.

