Während die internationalen Spannungen weiterhin ein heißes Thema sind, scheinen chinesische Chiphersteller und Cloud-Service-Anbieter konzertierte Anstrengungen zu unternehmen, um DeepSeek und andere lokal entwickelte KI-Modelle zu unterstützen.
DeepSeek erfährt in seinem Heimatland, das auch einige der größten Technologieunternehmen der Welt beheimatet, besondere Aufmerksamkeit.
gab am Samstag bekannt, dass das Unternehmen mit dem KI-Startup SiliconFlow zusammenarbeitet, um Kunden die Modelle von DeepSeek anzubieten. Dies soll über den Cloud-Service Ascend erfolgen.
Ein Schreiben von @deepseek_ai, @Huawei gedankt wird . #DeepSeek #Huawei pic.twitter.com/cRgGCS1iZ3
— Living In Harmony ⭕☯Ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@LivingInHarmony) 5. Februar 2025
Huawei produziert auch eigene KI-Chips. Das bedeutet, dass die Zusammenarbeit dem KI-Startup KI-Chips liefern könnte.
Am Montag gaben Moore Threads und Hygon Information Technology, Entwickler von KI-Prozessoren, bekannt, dass ihre Rechencluster und Beschleuniger die DeepSeek-Modelle R1 und V3 unterstützen werden. Beide Unternehmen wollen mit Nvidia konkurrieren.
Moore Threads erklärte: „Wir zollen DeepSeek Respekt.“ Sie fügten hinzu, dass die Fortschritte der DeepSeek-Modelle unter Verwendung inländischer Grafikprozessoren (GPUs) „Chinas KI-Industrie revolutionieren könnten“
Als Nächstes kündigte Gitee AI, eine in Shenzhen ansässige Service-Website für KI-Entwickler, vier auf DeepSeek-R1 basierende Modelle an. Die Modelle werden über Server mit GPUs des in Shanghai ansässigen Chipdesigners MetaX verfügbar sein.
DeepSeek hat nach wie vor weltweite Unterstützer
DeepSeek reihte sich in die Riege der US-amerikanischen KI-Chatbots ein und bietet nun einen kostenlosen KI-Assistenten an. Das Unternehmen betonte jedoch, dass sein kostenloser KI-Assistent deutlich weniger Daten verbraucht und nur einen Bruchteil der Kosten vergleichbarer Dienste verursacht. Diese Strategie ist eindeutig einzigartig.
Trotz der Kontroversen haben einige Unternehmen die Modelle des chinesischen KI-Startups übernommen. Tatsächlich überholte die App den US-Konkurrenten ChatGPT bei den Downloads im Apple App Store, was einen weltweiten Ausverkauf von Technologieaktien auslöste.
Deepseek hat in ungewöhnlich kurzer Zeit ein Modell nach dem anderen auf den Markt gebracht. Das neue DeepSeek-V3-Modell erschien im Dezember 2024. Am 20. Januar 2025 folgten DeepSeek-R1, DeepSeek-R1-Zero und DeepSeek-R1-Distill. Am 27. Januar 2025 ergänzte das Unternehmen sein Angebot um das neue KI-Modell Janus-Pro-7B mit Fokus auf Bildverarbeitung.
Das DeepSeek-R1-Zero-Modell verfügt über 671 Milliarden Parameter, während die DeepSeek-R1-Distill-Serie Modelle mit zwischen 1,5 Milliarden und 70 Milliarden Parametern umfasst.
Mittlerweile bieten Amazon Web Services (AWS), Microsoft und Google Cloud dieses Modell ihren Kunden an. Bislang nutzen sie jedoch noch nicht das Token-basierte Preissystem, das andere KI-Modelle wie beispielsweise Metas Llama 3 verwenden.
Darüber hinaus bot die Alibaba Group am Montag die KI-Modelle von DeepSeek auf ihrer Cloud-Plattform an. Auch Baidu und Tencent haben angekündigt, ihren Nutzern die Modelle von DeepSeek anzubieten.
Die Analysten von Bernstein sagten: „ DeepSeek beweist, dass wettbewerbsfähige große Sprachmodelle (LLM) auf Chinas ‚gut genug‘ Chips eingesetzt werden können, wodurch die Abhängigkeit von hochmoderner US-Hardware verringert wird.“
Allerdings haben Länder wie Italien und die Niederlande den Dienst blockiert und untersuchen die KI-App von DeepSeek aufgrund von Datenschutzbedenken.
DeepSeek AI revolutioniert die Preismodelle
Marktanalysten sind überzeugt, dass Cloud-Anbieter mit Infrastrukturvermietungen mehr Gewinn erzielen werden als mit direkten Nutzungsgebühren.
Die Anmietung von Cloud-Servern für KI-Aufgaben ist technisch teurer als die Nutzung von Modellen über APIs. AWS berechnet bis zu 124 US-Dollar pro Stunde für einen für KI optimierten Cloud-Server. Bei einer Nutzung rund um die Uhr belaufen sich die Kosten auf etwa 90.000 US-Dollar pro Monat.
Microsoft Azure-Nutzer müssen für DeepSeek keine speziellen Server mieten. Sie bezahlen für die tatsächlich genutzte Rechenleistung. Die Kosten können daher je nach Effizienz der Modellnutzung variieren.
Gruppen, die Metas Llama 3.1 über AWS nutzen, zahlen hingegen 3 US-Dollar pro 1 Million Tokens. Diese Tokens sind Textbausteine, wobei 1.000 Tokens etwa 750 Wörtern entsprechen.
Kleinere Cloud-Anbieter wie Together AI und Fireworks AI haben begonnen, ein einfaches Preissystem zu verwenden. Bei ihrem DeepSeek-R1-Modell berechnen sie einen Festbetrag pro Token.
Eine weitere, günstigere Option für DeepSeek-R1 bietet die API des Mutterkonzerns zu 2,19 US-Dollar pro Million Token. Dies ist drei- bis viermal günstiger als bei einigen westlichen Cloud-Anbietern.

