Introduction
Le laboratoire chinois d'IA DeepSeek vient de lancer les premiers modèles de sa série V4, à savoir DeepSeek-V4-Pro et DeepSeek-V4-Flash. Ces deux modèles sont des mélanges d'experts avec un contexte de 1 million de tokens. Le modèle Pro possède 1,6 billion de paramètres totaux, dont 49 milliards actifs, tandis que le modèle Flash compte 284 milliards de paramètres totaux, dont 13 milliards actifs.
Contexte Technique
Les modèles DeepSeek-V4-Pro et DeepSeek-V4-Flash utilisent la licence MIT standard. Le modèle Pro est actuellement le plus grand modèle de poids ouvert, dépassant les modèles Kimi K2.6 et GLM-5.1. Les tailles de stockage de ces modèles sont respectivement de 865 Go pour le Pro et de 160 Go pour le Flash sur Hugging Face.
Les tests ont été effectués via OpenRouter, en utilisant la commande llm-openrouter pour générer des images SVG de pélicans à vélo. Les résultats montrent que les modèles DeepSeek-V4 sont très performants, en particulier pour la génération d'images.
Analyse et Implications
Le coût de ces modèles est très compétitif, avec des tarifs de 0,14 $ par million de tokens d'entrée et de 0,28 $ par million de tokens de sortie pour le modèle Flash, et de 1,74 $ par million de tokens d'entrée et de 3,48 $ par million de tokens de sortie pour le modèle Pro. Cela les rend plus abordables que les modèles de pointe de Gemini, OpenAI et Anthropic.
La note du papier de DeepSeek explique que cette efficacité est due à une optimisation importante de l'efficacité, en particulier pour les prompts de contexte plus longs. Les benchmarks auto-déclarés par DeepSeek montrent que leur modèle Pro est compétitif avec les autres modèles de pointe, même s'il accuse un léger retard par rapport aux modèles les plus récents.
Perspective
Il sera intéressant de suivre les prochaines étapes de DeepSeek, en particulier la sortie de versions quantisées de leurs modèles. Cela pourrait permettre de faire fonctionner ces modèles sur des machines plus modestes, comme un MacBook Pro de 128 Go. Les équipes comme Unsloth devraient également proposer des versions quantisées de ces modèles, ce qui pourrait encore améliorer leur accessibilité.