Apple hat seine Entscheidung bekannt gegeben, die Tensor Processing Units (TPUs) von Google für seine neue KI-Software-Infrastruktur zu nutzen, wie in einem am Montag veröffentlichten Forschungspapier detailliert beschrieben. Dies stellt eine deutliche Abweichung vom Branchenstandard dar, bei dem die GPUs von Nvidia normalerweise die erste Wahl für das Training von KI-Modellen sind.
Laut dem neuesten technischen Dokument von Apple arbeiten das AFM des Unternehmens und der AFM-Server, der es unterstützt, auf den Cloud-TPU-Clustern von Google. Diese Details deuten darauf hin, dass Apple den Serverraum von den Cloud-Computing-Einrichtungen von Google für die komplexen Berechnungen, die in seinen KI-Frameworks erforderlich sind, untervermietet hat.
Apple stellt neues KI-System vor
Apple stellte zusammen mit dem technischen Dokument auch sein künstliches Intelligenzsystem Apple Intelligence vor. Das neue System verfügt über eine verbesserte Siri, eine verbesserte Verarbeitung natürlicher Sprache und KI-Zusammenfassungen. Darüber hinaus beabsichtigt Apple, im nächsten Jahr generative KI-Funktionen in das System zu integrieren, darunter die Generierung von Bildern und Emojis sowie eine verbesserte Siri, die Informationen aus Apps abrufen und nutzen kann.
In dem technischen Dokument heißt es außerdem, dass das AFM-Gerät von Apple mit 2048 TPU-v5p-Chips und der AFM-Server mit 8192 TPU-v4-Chips trainiert wurde. Das aktuelle Modell ist Googles TPU v5p, das im Dezember angekündigt wurde und die Effizienz der KI-Berechnung steigert. Die TPUs von Google, die 2017 auf den Markt kamen, gehören immer noch zu den fortschrittlichsten maßgeschneiderten Chips für die Ausführung von KI-Operationen.
NVidia ist nach wie vor der führende Anbieter von GPUs für das Training neuronaler Netze. Aufgrund der hohen Kosten und der eingeschränkten Zugänglichkeit haben Organisationen jedoch versucht, nach anderen Alternativen zu suchen. Zu den wichtigsten Kunden von Nvidia gehören OpenAI, Microsoft und Anthropic. Aber auch andere Technologiegiganten wie Google, Meta, Oracle und Tesla bekunden Interesse an der Entwicklung von KI-Fähigkeiten.
Technologieführer wägen die Risiken und Vorteile von KI-Investitionen ab
Mark Zuckerberg, CEO von Meta, und Sundar Pichai, CEO von Alphabet, äußerten kürzlich Bedenken hinsichtlich übermäßiger Investitionen in die KI-Infrastruktur, waren sich jedoch einig, dass mangelnde Investitionen ein hohes Risiko darstellen, bei einer Technologie, die in Zukunft bahnbrechend sein wird, an Boden zu verlieren. Obwohl Google einer der größten Kunden von Nvidia ist, setzt Google auch TPUs zum Trainieren von KI-Modellen ein und bietet Nvidia-GPUs über Cloud-Dienste an.
Nach Angaben von Apple ermöglichen Googles TPUs den Aufbau komplexerer und größerer KI-Modelle. Das detaillierte Forschungspapier, das auch Informationen enthält, die auf Apples Worldwide Developers Conference im Juni veröffentlicht wurden, weist darauf hin, dass diese TPUs die Rechenleistung bieten, die für die fortschrittlichen KI-Pläne des Unternehmens erforderlich ist. Wenn Apple diese Woche seine KI-Funktionen für Beta-Benutzer freigibt, werden die Auswirkungen seiner Hardware-Entscheidungen deutlicher sichtbar.