OpenAI发布GPT-5.4 Mini与Nano模型 聚焦效率与成本优化
编辑者: Aleksandr Lytviak
2026年3月17日,人工智能研究机构OpenAI对外发布了GPT-5.4系列的两款衍生模型:GPT-5.4 Mini和GPT-5.4 Nano。此次发布标志着AI技术发展策略的调整,即从侧重旗舰模型的绝对能力,转向在特定高频工作负载中寻求性能、延迟与成本之间的平衡,以适应当前AI应用向专业化和高效率演进的趋势。
GPT-5.4 Mini被定位为OpenAI迄今为止性能最强的小型模型,其核心设计目标是优化对延迟敏感型任务,例如代码辅助、实时图像推理和复杂界面截图分析。该模型在关键基准测试中展现出接近旗舰GPT-5.4模型的性能。例如,在SWE-Bench Pro测试中,GPT-5.4 Mini的得分达到54.4%,与GPT-5.4的57.7%差距缩小,并显著超越了前代GPT-5 Mini的45.7%。在计算机操作基准OSWorld-Verified上,GPT-5.4 Mini的得分为72.1%,接近GPT-5.4的75.0%。在实际运行速度方面,GPT-5.4 Mini比GPT-5 Mini提升了超过两倍。
在商业部署方面,GPT-5.4 Mini已全面集成至API、Codex平台和ChatGPT三大渠道。对于开发者而言,在Codex环境中使用GPT-5.4 Mini处理子智能体工作流,仅消耗GPT-5.4配额的30%,为处理简单编程任务实现了约三分之一的成本节约。在ChatGPT生态中,免费用户和Go级用户可通过“Thinking”功能直接体验。对于达到GPT-5.4 Thinking速率限制的其他用户,GPT-5.4 Mini将作为自动降级选项,以确保工作流的连续性。该模型的API定价为每百万输入Token 0.75美元,每百万输出Token 4.50美元,并支持高达400千Token的上下文窗口。
与Mini模型同步推出的GPT-5.4 Nano,则专注于成本效率,仅通过API向开发者开放,主要服务于分类、数据提取、排序和简单的子智能体任务。GPT-5.4 Nano的API定价极具竞争力,输入Token成本低至每百万0.20美元,输出Token成本为1.25美元,使其成为GPT-5.4系列中成本效益最高的版本。行业观察认为,这种由大模型负责规划、小模型负责执行的AI Agent协作架构,预计将在2026年成为主流工作模式,Nano模型是执行层面的理想选择。
尽管新模型在性能与效率上实现提升,但原始资料指出,与GPT-5系列的前身相比,新模型的绝对定价存在显著增加。科技公司Hebbia的首席技术官Aabhas Sharma在测试后评价,GPT-5.4 Mini在同类模型中提供了相对稳定的端到端性能,尤其在需要分析大量文档的金融和法律领域,其精准度获得认可。OpenAI的此举与2026年AI行业从单一模型依赖转向专业化产品组合的宏观趋势一致,旨在为快速增长的AI代理系统和多模态应用市场提供更具落地性的解决方案。此次发布紧随3月5日旗舰GPT-5.4 Thinking模型的推出,进一步完善了OpenAI的产品矩阵,同时,微软Foundry平台已同步支持这些新模型。
6 查看
来源
Republic World
Mynet Haber
OpenAI ships GPT-5.4 mini and nano, faster and more capable but up to 4x pricier
OpenAI has announced 'GPT-5.4 mini/nano,' a fast, low-cost, and lightweight model
OpenAI 2026 AI Roadmap: GPT-5, 5.2 & Open Models - i10X
OpenAI's Latest AI Models Are Built for Speed - CNET
OpenAI releases GPT-5.4 mini and nano, its most capable small models yet
9to5Mac
ZDNET
OpenAI
Thurrott.com
Microsoft
阅读更多关于该主题的新闻:
你发现了错误或不准确的地方吗?我们会尽快考虑您的意见。



