OpenAI lance GPT-5.4 Mini et Nano pour optimiser vitesse et coûts des charges de travail intensives
Édité par : Aleksandr Lytviak
OpenAI a officiellement dévoilé le 17 mars 2026 ses nouveaux modèles d'intelligence artificielle compacts, GPT-5.4 Mini et GPT-5.4 Nano, marquant une évolution stratégique vers la segmentation des offres pour répondre aux impératifs de latence et de coût du marché actuel. Ces deux itérations allégées de la série GPT-5.4 sont spécifiquement conçues pour exceller dans les charges de travail nécessitant une exécution rapide et économique, telles que les sous-agents, l'assistance au codage et les tâches multimodales en temps réel. Cette annonce fait suite à la mise sur le marché du modèle phare GPT-5.4 Thinking, survenu le 5 mars 2026, signalant une orientation claire d'OpenAI vers des portefeuilles d'IA spécialisés plutôt que de dépendre uniquement de modèles monolithiques.
Le GPT-5.4 Mini se positionne comme la solution privilégiée pour les développeurs exigeant une réactivité élevée, notamment pour l'interprétation d'instantanés d'interface utilisateur et le raisonnement visuel immédiat. Ce modèle démontre une amélioration substantielle par rapport à son prédécesseur, le GPT-5 Mini, s'exécutant plus de deux fois plus rapidement et approchant les performances du GPT-5.4 sur des évaluations clés comme SWE-Bench Pro et OSWorld-Verified. Dans l'environnement Codex, le GPT-5.4 Mini est particulièrement avantageux, consommant seulement 30 % du quota alloué au GPT-5.4 pour les flux de travail impliquant des sous-agents, facilitant ainsi l'exécution parallèle de tâches moins intensives en raisonnement. Ses spécifications techniques confirment son orientation vers l'efficacité: il est doté d'une fenêtre contextuelle de 400 mille jetons et prend en charge les entrées texte et image, ainsi que l'utilisation d'outils et l'appel de fonctions.
Les structures tarifaires reflètent cette spécialisation. Le tarif API du GPT-5.4 Mini est fixé à 0,75 $ par million de jetons d'entrée et 4,50 $ par million de jetons de sortie, ce qui représente une réduction significative par rapport au GPT-5.4, dont le coût de sortie est de 15,00 $ par million de jetons. Cependant, ces nouveaux modèles présentent une augmentation de prix notable par rapport à leurs homologues de la série GPT-5, malgré une meilleure performance par latence. Quant au GPT-5.4 Nano, il représente l'option la plus petite et la plus rapide, strictement réservée à l'API, ciblant des fonctions fondamentales telles que la classification, l'extraction de données et le classement. Son coût est encore plus agressif, s'établissant à 0,20 $ par million de jetons d'entrée et 1,25 $ par million de jetons de sortie, le rendant idéal pour les tâches de sous-agent simples et répétitives.
L'architecture de déploiement est différenciée: le Mini est accessible via l'API, Codex et les plateformes ChatGPT (pour la fonctionnalité 'Thinking' des utilisateurs Gratuits et Go), tandis que le Nano est exclusivement accessible via l'API. L'intégration de ces modèles dans l'écosystème Microsoft Foundry est confirmée, où les modèles Azure OpenAI sont disponibles pour le développement d'agents d'IA à l'échelle de l'entreprise, bénéficiant de la sécurité et de la gouvernance de Microsoft. Le service d'agent Foundry, désormais en disponibilité générale, est construit sur l'API Responses d'OpenAI, assurant une compatibilité de migration minimale pour les équipes utilisant déjà les API agentiques d'OpenAI.
Les données de performance mettent en évidence la progression générationnelle: le GPT-5.4 Mini atteint 54,38 % sur SWE-Bench Pro, surpassant les 45,69 % du GPT-5 Mini, et se rapproche des 57,7 % du GPT-5.4. Sur Terminal-Bench 2.0, l'amélioration est marquée, le GPT-5.4 Mini atteignant 60,00 % contre 38,20 % pour le GPT-5 Mini. Cette poussée de performance dans les tâches de codage et d'utilisation d'outils, comme le montre son score de 42,9 % sur Toolathlon contre 26,9 % pour son prédécesseur, valide l'affirmation d'OpenAI selon laquelle ces modèles sont les plus performants de leur catégorie pour les charges de travail déléguées. L'observation implicite dans cette diversification est que l'ère des modèles universels cède la place à des architectures hiérarchiques d'IA, où les grands modèles planifient et les petits exécutent rapidement en parallèle, une approche validée par des entités comme Notion dans leurs flux de travail.
6 Vues
Sources
Republic World
Mynet Haber
OpenAI ships GPT-5.4 mini and nano, faster and more capable but up to 4x pricier
OpenAI has announced 'GPT-5.4 mini/nano,' a fast, low-cost, and lightweight model
OpenAI 2026 AI Roadmap: GPT-5, 5.2 & Open Models - i10X
OpenAI's Latest AI Models Are Built for Speed - CNET
OpenAI releases GPT-5.4 mini and nano, its most capable small models yet
9to5Mac
ZDNET
OpenAI
Thurrott.com
Microsoft
Lisez plus d’actualités sur ce sujet :
Avez-vous trouvé une erreur ou une inexactitude ?Nous étudierons vos commentaires dans les plus brefs délais.



