DeepSeek Dévoile les Modèles V3.2, Établissant de Nouvelles Normes d'Efficacité pour l'IA de Pointe
Édité par : Veronika Radoslavskaya
La société d'intelligence artificielle basée à Hangzhou, DeepSeek, a annoncé le 1er décembre 2025 la mise sur le marché de deux nouveaux modèles d'IA expérimentaux : DeepSeek-V3.2 et DeepSeek-V3.2-Speciale. Avec ce lancement, le développeur open-source se positionne en concurrence directe avec les modèles propriétaires phares, en fixant des références inédites en matière d'efficacité et en atteignant une parité concurrentielle dans des domaines spécifiques.
DeepSeek affirme que l'intégration de capacités de raisonnement avancées couplée à l'exécution autonome de tâches constitue une avancée architecturale majeure pour sa plateforme. Cette prouesse démontre que les systèmes ouverts continuent de rivaliser avec vigueur face aux modèles propriétaires de premier plan issus de la Silicon Valley.
La percée technologique fondamentale qui soutient cette efficacité réside dans le mécanisme d'Attention Dispersée DeepSeek (DSA). Cette innovation architecturale permet de diminuer la complexité computationnelle habituellement inhérente au traitement de contextes étendus. Par conséquent, le modèle maintient des vitesses d'inférence rapides tout en réduisant significativement les coûts de calcul.
L'itération principale, DeepSeek-V3.2, exploite cette architecture DSA et s'appuie sur la fonctionnalité d'utilisation d'outils introduite avec la version V3.1. Cette nouvelle mouture prend en charge l'invocation d'outils externes, tels que des exécuteurs de code, des calculateurs et des moteurs de recherche. Elle offre une flexibilité opérationnelle grâce à deux modes de fonctionnement distincts : le mode avec 'pensée' et le mode sans 'pensée'.
Le modèle affiche des résultats probants sur des défis de codage concrets, notamment ceux vérifiés par SWE-bench Verified. Il est également très bien noté par la communauté dans les environnements compétitifs, s'assurant ainsi une place dans le peloton de tête pour les charges de travail générales équilibrées. C'est une véritable démonstration de force pour l'écosystème ouvert.
Quant au modèle spécialisé, DeepSeek-V3.2-Speciale, il a été conçu pour atteindre une performance maximale dans les calculs mathématiques complexes et les défis de raisonnement multi-étapes approfondis. DeepSeek avance que cette version Speciale atteint des métriques de performance équivalentes à celles du Gemini-3 Pro de Google dans des évaluations de raisonnement ciblées.
De surcroît, l'entreprise rapporte que DeepSeek-V3.2-Speciale a obtenu une performance de niveau or sur des ensembles de données de référence simulant les éditions 2025 de compétitions mondiales prestigieuses, incluant l'Olympiade Internationale de Mathématiques (OIM) et l'Olympiade Internationale d'Informatique (OII). Il est clair que ces résultats placent la barre très haut.
L'accès à la version gourmande en calcul, DeepSeek-V3.2-Speciale, est actuellement restreint via un point d'accès API temporaire jusqu'au 15 décembre 2025, signalant une phase de déploiement contrôlé. En revanche, le modèle standard V3.2 est immédiatement accessible sur demande via une application ou une interface web. Ce rythme effréné dans l'évolution de l'IA confirme que les cadres open-source deviennent rapidement fonctionnellement compétitifs face aux systèmes propriétaires dans les domaines les plus ardus.
Sources
Gestión
DeepSeek - Wikipedia
DeepSeek-V3.2 Release
2025 Major Release: How Does DeepSeekMath-V2 Achieve Self-Verifying Mathematical Reasoning? Complete Technical Analysis - DEV Community
DeepSeek launches two new AI models to take on Gemini and ChatGPT | Mint
DeepSeek releases AI model 'DeepSeek-Math-V2' specialized for mathematical reasoning, achieving a gold medal-level accuracy rate at the International Mathematical Olympiad - GIGAZINE
Lisez plus d’actualités sur ce sujet :
Avez-vous trouvé une erreur ou une inexactitude ?
Nous étudierons vos commentaires dans les plus brefs délais.
