Microsoft hat neue Tools angekündigt, die die Entwicklung von KI-Anwendungen für Unternehmen vereinfachen sollen. Das Herzstück? Azure AI Foundry.
Dieses neue Angebot ermöglicht Entwicklern den Wechsel zwischen KI-Modellen von OpenAI, Mistral, Meta Platforms oder anderen unterstützten Anbietern. Es geht um Flexibilität – ganz einfach. Genau das hat Unternehmen bisher oft Probleme bereitet, da die KI-Innovationen ihre Anpassungsfähigkeit übersteigen.
Scott Guthrie, der Leiter der Cloud-Computing-Abteilung von Microsoft, sagte: „Jedes neue Modell – selbst wenn es zur selben Familie gehört – bietet Vorteile in Bezug auf bessere Ergebnisse oder eine höhere Leistung bei bestimmten Aufgaben, aber es kann auch zu Rückschritten bei anderen Dingen kommen.“.
Behebung des fehlerhaften Arbeitsablaufs
Aktuell nutzen 60.000 Kunden Azure AI. Das ist eine beachtliche Zahl. Und sie setzen die 1.700 Modelle der Plattform für ihre Anwendungen ein. Doch das Problem ist: Dieser Prozess ist umständlich. Entwickler verschwenden Zeit damit, sich mit neuen Modellen auseinanderzusetzen, anstatt Innovationen voranzutreiben.
Jedes Update oder jede neue Version fühlt sich an wie ein Neustart, und Unternehmen hassen das. Sie wollen ihre Arbeitsabläufe nicht jedes Mal komplett umkrempeln, wenn OpenAI oder Meta etwas Neues und Attraktives veröffentlichen.
Hier kommt Azure AI Foundry ins Spiel. Es handelt sich um ein schlankeres System, mit dem Unternehmen Modelle unkompliziert kombinieren können. Sie haben ein älteres OpenAI-Modell, das einwandfrei funktioniert? Dann behalten Sie es bei.
Möchten Sie etwas Neueres von Meta ausprobieren? Wechseln Sie einfach, prüfen Sie, ob es besser ist, und behalten Sie, was funktioniert. Es geht um Wahlmöglichkeiten. Foundry basiert teilweise auf Azure AI Studio, bietet aber auch neue Funktionen wie Tools zum Bereitstellen von KI-Agenten.
Trotz des erweiterten Angebots betont Microsoft, die enge Zusammenarbeit mit OpenAI nicht aufzugeben. Guthrie stellte klar: Die Modelle von OpenAI sind nach wie vor von großer Bedeutung für Microsoft. Doch manchmal benötigen Unternehmen Alternativen, und das ist Microsoft bewusst. „Wahlmöglichkeiten werden wichtig sein“, so Guthrie.
Die Hardware, die das Ganze antreibt
Aber natürlich braucht KI auch Rechenleistung, und Microsoft weiß das besser als jeder andere. Letztes Jahr stellte das Unternehmen seine ersten selbstentwickelten KI-Chips vor und hat nun mit zwei neuen Hardware-Komponenten nachgelegt.
Zunächst ein Sicherheitsmikroprozessor zum Schutz von Verschlüsselungs- und Signaturschlüsseln. Ab dem nächsten Jahr wird jeder neue Server in den Rechenzentren von Microsoft mit diesem Chip ausgestattet sein.
Dann gibt es noch die Datenverarbeitungseinheit (DPU), die den Datenaustausch zwischen Netzwerken, Servern und KI-Chips beschleunigt. Sie ist ein direkter Konkurrent zu ähnlicher Hardware von Nvidia, doch Microsoft ist überzeugt, dass seine Version effizienter ist.
Diese DPUs sind unerlässlich für die Bewältigung der enormen Arbeitslasten, die von den heutigen KI-Modellen benötigt werden, welche, wie Rani Borkar, Leiterin der Chipentwicklung bei Microsoft, es ausdrückte, „immer größer werden“. Sie sagte, dass jede Komponente in ihrer Infrastruktur nahtlos zusammenarbeiten muss, um einen schnellen und effizienten Betrieb zu gewährleisten.

