Microsoft a annoncé un nouvel ensemble d'outils pour rendre le développement d'applications d'IA moins un casse-tête pour les entreprises. La pièce maîtresse ? Fonderie Azure AI.
Cette nouvelle offre est conçue pour permettre aux développeurs de basculer entre les modèles d'IA d'OpenAI, Mistral, Meta Platforms ou tout autre fournisseur pris en charge. Il s'agit de flexibilité, purement et simplement, quelque chose qui a été un problème pour les entreprises alors que le rythme de l'innovation en matière d'IA dépasse leur capacité d'adaptation.
Scott Guthrie, responsable du cloud computing chez Microsoft, a déclaré : « Chaque nouveau modèle, même s'il appartient à la même famille, présente des avantages en termes de meilleures réponses ou performances sur certaines tâches, mais vous pourriez avoir des régressions sur d'autres choses », a-t-il déclaré.
Réparer le flux de travail interrompu
À l’heure actuelle, 60 000 clients utilisent Azure AI. Ce n'est pas un petit nombre. Et ils exploitent les 1 700 modèles de la plateforme pour alimenter leurs applications. Mais voici le problème : ce processus est maladroit. Les développeurs perdent du temps à lutter avec de nouveaux modèles au lieu d’innover.
Chaque mise à jour ou nouvelle version donne l’impression de repartir de zéro, et les entreprises détestent cela. Ils ne veulent pas détruire leurs flux de travail à chaque fois qu'OpenAI ou Meta publie quelque chose de brillant.
C'est là qu'Azure AI Foundry entre en jeu. Il s'agit d'un système plus rationalisé qui permet aux entreprises de mélanger et d'associer des modèles sans problèmes inutiles. Vous disposez d’un ancien modèle OpenAI qui fonctionne correctement ? Tenez-vous-en à cela.
Vous voulez essayer quelque chose de plus récent de Meta ? Allumez-le, voyez si c'est mieux et conservez ce qui fonctionne. Tout est une question d'options. Certaines parties de Foundry constituent une mise à niveau d'Azure AI Studio, mais les nouvelles fonctionnalités incluent des outils de déploiement d'agents IA.
Bien qu'il offre plus de choix, Microsoft affirme qu'il n'abandonne pas sa relation étroite avec OpenAI. Guthrie a été clair : les modèles d'OpenAI restent un gros problème pour Microsoft. Mais parfois, les entreprises ont besoin d’alternatives, et Microsoft le sait. "Le choix va être important", a déclaré Guthrie.
Le matériel qui alimente tout
Mais bien sûr, l’IA a besoin de puissance pour fonctionner, et Microsoft le sait mieux que quiconque. L'année dernière, la société a dévoilé ses premières puces d'IA locales, et elle a maintenant doublé sa mise avec deux nouveaux éléments matériels.
Tout d’abord, un microprocesseur de sécurité conçu pour protéger les clés de chiffrement et de signature. À partir de l'année prochaine, chaque nouveau serveur des centres de données Microsoft inclura cette puce.
Ensuite, il y a l'unité de traitement des données (DPU), qui accélère le déplacement des données entre les réseaux, les serveurs et les puces IA. C'est un concurrent direct du matériel similaire fabriqué par Nvidia, mais Microsoft pense que sa version est plus efficace.
Ces DPU sont essentiels pour gérer les charges de travail massives requises par les modèles d'IA actuels qui, comme l'a dit Rani Borkar, responsable des puces chez Microsoft, « deviennent si importants ». Elle a déclaré que chaque composant de leur infrastructure doit fonctionner ensemble de manière transparente pour que les choses restent rapides et efficaces.
Clai de différence de fil : l'outil secret que les projets de crypto utilisent pour obtenir une couverture médiatique garantie