DeepSeek V4 devrait surpasser ChatGPT et Claude en programmation à contexte long, ciblant ainsi les tâches de programmation de haut niveau. Selon des sources internes, le secteur de l'IA de la Silicon Valley devrait s'inquiéter si les tests internes confirment ses performances attendues après son lancement mi-février.
La start-up chinoise d'IA DeepSeek prévoit de lancer DeepSeek V4, son dernier modèle de langage à grande échelle, le 17 février. Selon des sources proches du dossier, ce modèle est en passe de surpasser les modèles de langage à grande échelle existants, tels que ChatGPT d'OpenAI et Claude d'Anthropic, dans le traitement des invites et des tâches de code à contexte long.
Les développeurs attendent avec impatience la sortie de DeepSeek V4
L'entreprise chinoise n'a divulgué publiquement aucune information concernant la sortie imminente ni confirmé les rumeurs à l'heure où nous écrivons ces lignes. Sur différents réseaux sociaux, les développeurs ont exprimé leur vive impatience. Yuchen Jin, développeur en IA et cofondateur d'Hyperbolic Labs, a écrit sur X : « DeepSeek V4 devrait sortir prochainement, avec untronque Claude et GPT. »
Le subreddit r/DeepSeek s'est également enflammé , un utilisateur expliquant que son obsession pour le modèle V4 imminent de DeepSeek n'était pas normale. Il a déclaré consulter fréquemment « les actualités, les rumeurs et même la documentation sur le site web de DS pour repérer tout changement ou signe annonciateur d'une mise à jour ».
Les précédentes versions de DeepSeek ont eu un impact considérable sur les marchés mondiaux. La start-up chinoise spécialisée en IA a lancé son modèle de raisonnement R1 en janvier 2025, provoquant une flambée des cours boursiers d'un billion de dollars. Ce modèle a égalé les performances du modèle 01 d'OpenAI en matière de calcul et de raisonnement, tout en coûtant nettement moins cher que le modèle 01 de la start-up américaine.
L'entreprise chinoise aurait dépensé seulement 6 millions de dollars pour le lancement de ce modèle. Parallèlement, ses concurrents internationaux investissent près de 70 fois plus pour un résultat équivalent. Son modèle V3 a également obtenu un score de 90,2 % au test de performance MATH-500, contre 78,3 % pour Claude. La mise à jour V3 plus récente de DeepSeek (V3.2 Speciale) a encore amélioré sa productivité.
Le principal argument de vente du modèle V4 a évolué par rapport à la version V3, qui privilégiait le raisonnement pur, les preuves formelles et les mathématiques logiques. Cette nouvelle version devrait être un modèle hybride combinant des tâches de raisonnement et des tâches sans raisonnement. Le modèle vise à conquérir le marché des développeurs en comblant un manque existant : celui d'une génération de code à contexte long et de haute précision.
Claude Opus 4.5 domine actuellement le benchmark SWE avec une précision de 80,9 %. La version 4 doit surpasser ce modèle pour le détrôner. Fort de ses succès précédents, le nouveau modèle pourrait bien franchir ce cap et s'imposer comme leader du benchmark.
DeepSeek, pionnier du mHC pour la formation des LLM
Le succès de DeepSeek a laissé nombre de professionnels perplexes. Comment une entreprise aussi petite a-t-elle pu réaliser de tels exploits ? Le secret pourrait bien résider dans son article de recherche publié le 1er janvier. L'entreprise ydentidentifié une nouvelle méthode d'entraînement permettant aux développeurs de gérer facilement des modèles de langage complexes. Liang Wenfeng, fondateur et PDG de DeepSeek, y explique que l'entreprise utilise les hyperconnexions à contrainte de variété (mHC) pour entraîner ses modèles d'IA.
Le responsable a proposé d'utiliser mHC pour résoudre les problèmes rencontrés lors de l'entraînement de grands modèles de langage. Selon Wenfeng, mHC est une évolution d'Hyper-Connections (HC), un framework utilisé par d'autres développeurs d'IA pour entraîner leurs grands modèles de langage. Il a expliqué que HC et d'autres architectures d'IA traditionnelles contraignent toutes les données à transiter par un canal unique et étroit. À l'inverse, mHC élargit ce chemin en créant de multiples canaux, facilitant ainsi le transfert de données et d'informations sans provoquer d'effondrement de l'entraînement.
Lian Jye Su, analyste en chef chez Omdia, a félicité le PDG Wenfeng pour la publication de leurs recherches. Su a souligné que la décision de DeepSeek de publier ses méthodes d'entraînement témoigne d'un regain de confiance dans le secteur chinois de l'IA. DeepSeek domine les pays en développement. Un rapport publié jeudi par Microsoft indique que DeepSeek contrôle 89 % du marché chinois de l'IA et gagne du terrain dans les pays émergents.

