Apple hat bekannt gegeben, dass es für seine neue KI-Softwareinfrastruktur auf Googles Tensor Processing Units (TPUs) setzen wird, wie aus einer am Montag veröffentlichten Studie hervorgeht. Dies stellt eine deutliche Abkehr vom Branchenstandard dar, bei dem üblicherweise Nvidias GPUs für das Training von KI-Modellen verwendet werden.
Laut dem neuesten technischen Dokument von Apple laufen Apples AFM und der zugehörige AFM-Server auf Googles Cloud-TPU-Clustern. Diese Details deuten darauf hin, dass Apple für die komplexen Berechnungen seiner KI-Frameworks Serverkapazität von Googles Cloud-Computing-Einrichtungen angemietet hat.
Apple stellt neues KI-System vor
Apple präsentierte außerdem sein KI-System Apple Intelligence zusammen mit dem zugehörigen technischen Dokument. Das neue System bietet ein verbessertes Siri, eine optimierte Verarbeitung natürlicher Sprache und KI-gestützte Zusammenfassungen. Darüber hinaus plant Apple, im Laufe des nächsten Jahres generative KI-Funktionen in das System zu integrieren, darunter die Erstellung von Bildern und Emojis sowie ein erweitertes Siri, das Informationen aus Apps abrufen und nutzen kann.
Das technische Dokument führte außerdem aus, dass Apples AFM-On-Device mit 2048 TPU v5p-Chips und der AFM-Server mit 8192 TPU v4-Chips trainiert wurde. Das aktuelle Modell ist Googles TPU v5p, die im Dezember vorgestellt wurde und die Effizienz von KI-Berechnungen verbessert. Googles TPUs, die 2017 auf den Markt kamen, zählen nach wie vor zu den leistungsstärksten Spezialchips für KI-Operationen.
Nvidia ist nach wie vor der dominierende Anbieter von GPUs für das Training neuronaler Netze. Aufgrund der hohen Kosten und der eingeschränkten Verfügbarkeit suchen Unternehmen jedoch nach Alternativen. Zu Nvidias wichtigsten Kunden zählen OpenAI, Microsoft und Anthropic. Aber auch andere Technologiekonzerne wie Google, Meta, Oracle und Tesla zeigen Interesse an der Entwicklung von KI-Funktionen.
Technologieführer wägen die Risiken und Vorteile von KI-Investitionen ab.
Meta-CEO Mark Zuckerberg und Alphabet-CEO Sundar Pichai äußerten kürzlich Bedenken hinsichtlich Überinvestitionen in die KI-Infrastruktur, waren sich aber einig, dass mangelnde Investitionen ein hohes Risiko bergen, bei einer Technologie, die die Zukunft revolutionieren wird, den Anschluss zu verlieren. Google, einer der größten Kunden von Nvidia, nutzt ebenfalls TPUs zum Trainieren von KI-Modellen und bietet Nvidia-GPUs über Cloud-Dienste an.
Wie Apple mitteilte, ermöglichen Googles TPUs die Entwicklung komplexerer und größerer KI-Modelle. Die detaillierte Forschungsarbeit, die auch Informationen der Apple Worldwide Developers Conference im Juni einbezieht, zeigt, dass diese TPUs die für Apples fortschrittliche KI-Pläne erforderliche Rechenleistung bieten. Sobald Apple diese Woche seine KI-Funktionen für Beta-Nutzer freigibt, werden die Auswirkungen der Hardware-Entscheidungen deutlicher sichtbar sein.

