Am Mittwoch kündigte Nvidia eine Reihe von Partnerschaften mit europäischen Ländern und Unternehmen an, die Infrastruktur und Software umfassen, um seine zentrale Rolle im globalen Bereich der künstlichen Intelligenz zu behaupten.
Der Vorstandsvorsitzende Jensen Huang gab die Neuigkeit im Rahmen seiner Keynote-Ansprache auf der GTC-Veranstaltung seines Unternehmens in Paris bekannt. Wie CNBC berichtete, war diese Präsentation Teil seiner laufenden Europareise .
Das Unternehmen positioniert sich als Infrastrukturanbieter und bietet Grafikprozessoren für Rechenzentren an, um Ländern den Einsatz von KI für ihre Wirtschaft und Bevölkerung zu ermöglichen. Huang unternahm kürzlich eine ähnliche Reise in den Nahen Osten, wo Nvidia seine neuesten Chips für große Rechenzentrumsprojekte in Saudi-Arabien und den Vereinigten Arabischen Emiraten liefern will.
„Jede industrielle Revolution beginnt mit der Infrastruktur. Künstliche Intelligenz ist die essentielle Infrastruktur unserer Zeit, genau wie einst Elektrizität und das Internet“, sagte Huang am Mittwoch in einer Pressemitteilung.
In einer weiteren Präsentation fügte Huang hinzu : „Europa hat nun die Bedeutung dieser KI-Fabriken, die Bedeutung dieser KI-Infrastruktur erkannt.“ Nvidia verwendet den Begriff „KI-Fabriken“, um große Rechenzentren zu beschreiben, die mit seinen GPUs ausgestattet sind.
Er sagte voraus, dass sich die Rechenkapazität für KI in Europa in den nächsten zwei Jahren verzehnfachen wird.
Europa drängt auf „souveräne KI“, um Daten innerhalb der EU zu halten
Der Vorstoß nach Europa ist Teil von Nvidias umfassenderen Bemühungen, seine globale Präsenz zu vertiefen und seine Technologie in nationale KI-Pläne einzubetten – eine Strategie, die an Dringlichkeit gewonnen hat, nachdem US-Exportbeschränkungen für seine Top-Chips die Einnahmen aus China .
Um diese Ziele zu erreichen, arbeitet Nvidia nach eigenen Angaben mit nationalen Regierungen, regionalen Cloud- und Telekommunikationsunternehmen sowie Technologiezentren in ganz Europa zusammen.
Ein bedeutender Vertrag wurde mit dem französischen Startup Mistral geschlossen, das eine „KI-Cloud“ mit 18.000 Nvidia Grace Blackwell-Chips aufbauen wird. Die Plattform ermöglicht es Unternehmen, KI-Anwendungen mithilfe von Mistrals eigenen Modellen zu entwickeln und auszuführen.
Nvidia skizzierte zudem geplante Infrastrukturprojekte in Italien und Armenien, nannte aber nur wenige Details. Die Telekommunikationsanbieter Orange und Telefónica werden im Rahmen der neuen Vereinbarungen mit dem Chiphersteller bei der Implementierung von KI-Anwendungen und großen Sprachmodellen zusammenarbeiten.
In Deutschland plant das Unternehmen den Aufbau einer „industriellen Cloud“ mit 10.000 GPUs, die speziell auf die Bedürfnisse europäischer Hersteller zugeschnitten ist und KI-Dienstleistungen bietet. Ein zentrales Thema in Europa ist die „souveräne KI“ – die Idee, dass Server, die Daten für Nutzer in der Europäischen Union verarbeiten, innerhalb der Region und nicht im Ausland angesiedelt sein sollten.
Nvidia kündigte außerdem Pläne zur Eröffnung von „Technologiezentren“ in Ländern wie Großbritannien, Frankreich, Spanien und Deutschland an. Diese Zentren werden sich auf fortgeschrittene Forschung, die Ausbildung von Fachkräften und die Beschleunigung wissenschaftlicher Entdeckungen konzentrieren.
Nvidia hat sein Angebot DGX Cloud Lepton erweitert, einen Marktplatz, der Entwicklern Zugriff auf GPUs weltweit ermöglicht. Der Dienst umfasst nun mehr Cloud-Anbieter und ist in das KI-Modell-Repository Hugging Face integriert.
Nvidia erweitert die KI-Software
Neben der Hardware Nvidia auch sein Softwareangebot ausgebaut, um an der Spitze der KI-Entwicklung zu bleiben.
Im vergangenen Jahr brachte Nvidia NIM auf den Markt, ein vorkonfiguriertes KI-Modellpaket für den schnellen Einsatz. Am Mittwoch gab das Unternehmen bekannt, dass nun jedes große Sprachmodell von Hugging Face über den NIM-Dienst bereitgestellt werden kann. Entwickler können sich so die Entwicklung eigener Modelle sparen und stattdessen auf die Plattform von Nvidia zugreifen, um eine breite Palette an Optionen zu nutzen.
Das deutsche Startup DeepL gab , dass es für seine Sprachübersetzungsdienste eines der neuesten Systeme von Nvidia einsetzt. Dank dieses Upgrades kann DeepL nach eigenen Angaben nun das gesamte Internet in nur 18 Tagen übersetzen. Dies ist eine deutliche Verbesserung gegenüber den zuvor benötigten 194 Tagen.
DeepL, das seine eigenen KI-Modelle entwickelt hat, ist ein direkter Konkurrent von Diensten wie Google Translate.
Durch die Verknüpfung seiner leistungsstarken GPUs mit einem wachsenden Angebot an Software-Tools will Nvidia seine Führungsposition im Bereich der künstlichen Intelligenz (KI) behaupten und seine Stellung gegenüber Wettbewerbern stärken. Das von Huang geführte Unternehmen erklärte, dass die Kombination von Hardware und Software den Kunden einen reibungsloseren Weg zur KI-Implementierung ermögliche und den Bedarf an Komponenten von verschiedenen Zulieferern reduziere.
Foto von 