Alors que les hostilités internationales restent un sujet brûlant, les fabricants de puces et les fournisseurs de services cloud chinois semblent déployer des efforts concertés pour soutenir DeepSeek et d'autres modèles d'IA développés localement.
DeepSeek bénéficie d'une attention particulière de la part de son pays d'origine, qui abrite également certaines des plus grandes entreprises technologiques au monde.
Samedi, Huawei Technologies a annoncé sa collaboration avec la start-up spécialisée en intelligence artificielle SiliconFlow afin de proposer les modèles de DeepSeek à ses clients via sa plateforme cloud Ascend.
Lettre de @deepseek_ai reconnaissant le soutien de @Huawei #DeepSeek #Huawei pic.twitter.com/cRgGCS1iZ3
— Vivre en harmonie ⭕☯Ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@LivingInHarmony) 5 février 2025
Huawei produit également ses propres puces d'IA. Leur collaboration pourrait donc permettre à la start-up spécialisée en IA de se procurer ces puces.
Lundi, Moore Threads et Hygon Information Technology, sociétés spécialisées dans le développement de processeurs d'IA, ont annoncé que leurs clusters de calcul et leurs accélérateurs seraient compatibles avec les modèles R1 et V3 de DeepSeek. Ces deux entreprises cherchent à concurrencer Nvidia.
Moore Threads a déclaré : « Nous rendons hommage à DeepSeek. » Ils ont ajouté que les progrès réalisés par les modèles de DeepSeek utilisant des unités de traitement graphique (GPU) fabriquées localement « pourraient dynamiser l'industrie chinoise de l'IA. »
Ensuite, Gitee AI, une plateforme web de Shenzhen offrant un service complet aux développeurs d'IA, a annoncé proposer quatre modèles basés sur DeepSeek-R1. Ces modèles seront accessibles via des serveurs équipés de GPU du concepteur de puces MetaX, basé à Shanghai.
DeepSeek compte toujours des soutiens dans le monde entier
DeepSeek a rejoint les chatbots IA américains en proposant un assistant IA gratuit. L'entreprise affirme cependant que son assistant IA gratuit consomme moins de données et coûte beaucoup moins cher que les services existants. De toute évidence, sa stratégie est originale.
Malgré les controverses, certaines entreprises ont adopté les modèles de cette start-up chinoise spécialisée en intelligence artificielle. De fait, l'application a dépassé son concurrent américain ChatGPT en nombre de téléchargements sur l'App Store d'Apple, provoquant une nouvelle vague de ventes massives d'actions technologiques à l'échelle mondiale.
DeepSeek a lancé plusieurs modèles à un rythme exceptionnellement rapide. Son nouveau modèle DeepSeek-V3 est sorti en décembre 2024. Puis, le 20 janvier 2025, DeepSeek-R1, DeepSeek-R1-Zero et DeepSeek-R1-Distill ont été commercialisés. Enfin, le 27 janvier 2025, la société a ajouté un nouveau modèle d'IA, Janus-Pro-7B, axé sur la vision.
Le modèle DeepSeek-R1-Zero possède 671 milliards de paramètres, tandis que la série DeepSeek-R1-Distill comprend des modèles avec entre 1,5 et 70 milliards de paramètres.
Aujourd'hui, Amazon Web Services (AWS), Microsoft et Google Cloud proposent tous ce modèle à leurs clients. Cependant, pour l'instant, ils n'ont pas encore adopté le système de tarification par jeton utilisé par d'autres modèles d'IA, comme Llama 3 de Meta.
Par ailleurs, lundi, les services cloud du groupe Alibaba ont intégré les modèles d'IA de DeepSeek à leur plateforme. Baidu et Tencent ont également annoncé proposer ces modèles à leurs utilisateurs via leurs services cloud.
Les analystes de Bernstein ont déclaré : « DeepSeek démontre que des modèles de langage de grande taille (LLM) compétitifs peuvent être déployés sur les puces « suffisamment bonnes » de Chine, réduisant ainsi la dépendance à l'égard du matériel américain de pointe. »
Cependant, des pays comme l'Italie et les Pays-Bas ont bloqué le service et enquêtent sur l'application d'IA de DeepSeek en raison de problèmes de confidentialité.
DeepSeek AI bouleverse les modèles de tarification
Les analystes de marché insistent sur le fait que les fournisseurs de services cloud tireront davantage de profit des locations d'infrastructure que des frais d'utilisation directe des modèles.
Louer des serveurs cloud pour des tâches d'IA est techniquement plus coûteux que d'utiliser des modèles via des API. AWS facture jusqu'à 124 $ de l'heure pour un serveur cloud optimisé pour l'IA, soit environ 90 000 $ par mois pour une utilisation 24 h/24 et 7 j/7.
Les utilisateurs de Microsoft Azure n'ont pas besoin de louer de serveurs dédiés pour DeepSeek. En revanche, ils paient en fonction de la puissance de calcul utilisée. Le coût peut donc varier selon les performances du modèle.
En revanche, les groupes utilisant Meta Llama 3.1 via AWS paient 3 $ pour chaque million de jetons. Ces jetons correspondent à des fragments de texte, et 1 000 jetons représentent environ 750 mots.
Des entreprises de cloud plus petites, comme Together AI et Fireworks AI, ont commencé à utiliser un système de tarification simple. Elles facturent un montant fixe pour chaque jeton avec leur modèle DeepSeek-R1.
Une autre option moins coûteuse pour DeepSeek-R1 est l'API de sa société mère à 2,19 $ par million de jetons. C'est trois à quatre fois moins cher que certains fournisseurs de cloud occidentaux.

