DeepSeek V4 : L'IA multimodale chinoise à mille milliards de paramètres
Le laboratoire chinois d'IA DeepSeek s'apprête à lancer V4, son premier modèle phare nativement multimodal, optimisé pour les puces domestiques Huawei et Cambricon plutôt que pour le matériel Nvidia, et dont le lancement sous une licence open source pourrait à nouveau ébranler les marchés mondiaux de l'IA.
Un nouveau coup de tonnerre dans le monde de l'IA ?
Un peu plus d'un an après que son modèle de raisonnement R1 a déclenché ce que les analystes ont appelé un "moment Spoutnik" pour les entreprises technologiques américaines, le laboratoire chinois d'IA DeepSeek s'apprête à lancer sa prochaine version majeure. Selon un article de TechNode, citant le Financial Times, l'entreprise prévoyait de dévoiler DeepSeek V4 au cours de la première semaine de mars 2026, une date stratégiquement choisie avant les réunions parlementaires annuelles de la Chine, les "Deux Sessions", qui ont débuté le 4 mars.
Ce lancement marque la première sortie de modèle majeur de l'entreprise depuis le lancement de R1 en janvier 2025, et représente une ambition considérablement accrue : V4 est décrit comme un système nativement multimodal capable de générer du texte, des images et des vidéos au sein d'une architecture unifiée unique, plutôt que de greffer des capacités visuelles sur une base textuelle uniquement, comme l'ont fait de nombreux modèles occidentaux.
Ce qui différencie V4
L'architecture du modèle est basée sur une conception de type Mixture-of-Experts (MoE), les premières fuites des environnements de test suggérant environ mille milliards de paramètres au total et environ 32 milliards de paramètres actifs par passe d'inférence. Cette approche, qui consiste à acheminer chaque requête à travers seulement une fraction du réseau complet, est la même astuce d'efficacité que DeepSeek a utilisée dans les modèles précédents pour offrir des performances de pointe à un coût de calcul considérablement inférieur.
Selon plusieurs rapports regroupant les premières données de référence, les tests internes indiquent que V4 pourrait surpasser les principaux modèles occidentaux, notamment Claude et ChatGPT, sur les tâches de codage à long contexte, avec une fenêtre de contexte s'étendant, selon les informations, à un million de tokens. Ces chiffres n'ont pas encore été vérifiés de manière indépendante par le biais de benchmarks publiés et doivent être traités avec prudence jusqu'à la publication des résultats officiels.
Si cela se confirme, les implications en termes de prix seraient à elles seules disruptives. Les analystes estiment que l'accès à l'API pourrait coûter entre 0,10 et 0,30 dollar par million de tokens d'entrée, soit une fraction de ce que facturent actuellement les modèles américains comparables.
La dimension matérielle
L'aspect peut-être le plus important de V4 sur le plan géopolitique est ce qui le fait fonctionner. DeepSeek a travaillé avec les fabricants chinois de puces d'IA Huawei et Cambricon pour optimiser V4 pour leur matériel le plus récent, selon TechNode. Rompant avec les normes de l'industrie, l'entreprise a refusé l'accès anticipé à Nvidia et AMD, les principaux fournisseurs américains de puces, accordant plutôt à Huawei un accès anticipé pour affiner les performances.
"L'accélération des délais d'optimisation, qui sont désormais passés de plusieurs mois à plusieurs semaines, réduit la dépendance vis-à-vis des fournisseurs et affaiblit les avantages traditionnels des fabricants de puces", a noté l'analyste Ben Bajarin de Creative Strategies, cité par Open Source For You. Cette décision est un signal délibéré : la Chine construit une pile logicielle d'IA qui fonctionne sur du silicium chinois.
L'open source comme arme stratégique
DeepSeek prévoit de publier V4 sous une licence open source, poursuivant ainsi une tendance qui a donné au laboratoire une influence mondiale démesurée. Ses modèles précédents ont accumulé plus de 75 millions de téléchargements sur Hugging Face, permettant aux développeurs du monde entier de les déployer et de les affiner sans frais de licence.
Cette stratégie open source amplifie la pression concurrentielle sur OpenAI, Anthropic et Google, dont les modèles propriétaires sont confrontés à un défi de coût et d'accessibilité qu'aucune réponse réglementaire ne peut facilement résoudre. Comme l'a observé l'Observatoire de la veille numérique, les analystes considèrent chaque version de DeepSeek comme renforçant le positionnement du laboratoire en tant que champion national de l'IA pour la Chine, que ce soit ou non l'intention initiale.
Quelles sont les prochaines étapes ?
La course s'accélère des deux côtés. Une variante plus légère, "V4 Lite", avec environ 200 milliards de paramètres, serait entrée en phase de test interne, élargissant ainsi les options de déploiement. Pendant ce temps, les laboratoires d'IA occidentaux observent attentivement : Anthropic, fin février 2026, a publiquement accusé DeepSeek et d'autres laboratoires chinois de mener des campagnes à grande échelle pour extraire les capacités des modèles par le biais d'une collecte de données non autorisée, une allégation qui souligne à quel point l'industrie américaine prend désormais au sérieux la menace concurrentielle.
Que V4 soit à la hauteur de ses spécifications divulguées ou non, la trajectoire de DeepSeek est claire : des versions plus rapides, une inférence moins chère, des poids ouverts et un matériel qui contourne les contrôles américains à l'exportation. Le paysage mondial de l'IA a un nouveau challenger permanent.