Introduction

Le laboratoire chinois d'IA DeepSeek a lancé deux versions préliminaires de son nouveau modèle de langage, DeepSeek V4, une mise à jour attendue du modèle V3.2 de l'année dernière et du modèle de raisonnement R1 qui a fait sensation dans le monde de l'IA.

Contexte Technique

Les deux modèles, DeepSeek V4 Flash et V4 Pro, sont des modèles de type « mixture-of-experts » avec des fenêtres de contexte de 1 million de jetons chacun, suffisamment pour permettre l'utilisation de grandes bases de code ou de documents dans les invites. L'approche « mixture-of-experts » consiste à activer uniquement un certain nombre de paramètres par tâche pour réduire les coûts d'inférence.

Le modèle Pro dispose d'un total de 1,6 billion de paramètres (49 milliards actifs), ce qui en fait le plus grand modèle de poids ouvert disponible, dépassant ainsi Moonshot AI's Kimi K 2.6 (1,1 billion), MiniMax's M1 (456 milliards) et plus du double de DeepSeek V3.2 (671 milliards). Le modèle V4 Flash plus petit dispose de 284 milliards de paramètres (13 milliards actifs).

Analyse et Implications

DeepSeek affirme que les deux modèles sont plus efficaces et performants que DeepSeek V3.2 en raison d'améliorations architecturales et ont presque « comblé l'écart » avec les modèles leaders actuels, tant ouverts que fermés, sur les benchmarks de raisonnement.

La société prétend que son nouveau modèle V4-Pro-Max surpasse ses pairs open-source sur les benchmarks de raisonnement et dépasse OpenAI's GPT-5.2 et Gemini 3.0 Pro sur certaines tâches. Sur les benchmarks de concours de codage, DeepSeek a déclaré que les performances des deux modèles V4 sont « comparables à GPT-5.4 ».

Cependant, les modèles semblent légèrement en retard sur les modèles de pointe dans les tests de connaissance, en particulier OpenAI's GPT-5.4 et Google's Gemini 3.1 Pro. Ce retard suggère une « trajectoire de développement qui suit les modèles de pointe d'environ 3 à 6 mois », a écrit le laboratoire.

Perspective

Les deux modèles V4 Flash et V4 Pro ne prennent en charge que le texte, contrairement à de nombreux de leurs pairs à code fermé, qui offrent une prise en charge pour la compréhension et la génération d'audio, de vidéo et d'images.

Notamment, DeepSeek V4 est beaucoup plus abordable que n'importe quel modèle de pointe disponible aujourd'hui. Le modèle V4 Flash plus petit coûte 0,14 $ par million de jetons d'entrée et 0,28 $ par million de jetons de sortie, sous-estimant GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini et Claude Haiku 4.5. Le modèle V4 Pro plus grand coûte 0,145 $ par million de jetons d'entrée et 3,48 $ par million de jetons de sortie, sous-estimant également Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 et GPT-5.4.

Le lancement survient un jour après que les États-Unis aient accusé la Chine de voler l'IP des laboratoires américains d'IA à grande échelle en utilisant des milliers de comptes proxy. DeepSeek lui-même a été accusé par Anthropic et OpenAI de « distillation », essentiellement de copie, de leurs modèles d'IA.