OpenAI、GPT-5.4シリーズの軽量モデル「Mini」と「Nano」を発表:産業界の需要に応える戦略的展開
編集者: Aleksandr Lytviak
OpenAIは2026年3月17日、GPT-5.4シリーズの軽量バリアントであるGPT-5.4 MiniおよびGPT-5.4 Nanoを静かに発表した。この展開は、単一の巨大モデルへの依存から脱却し、パフォーマンス、コスト、遅延の最適バランスを求める現代の産業界の需要に直接対応するものである。新モデル群は、高頻度ワークロード、コーディング支援、サブエージェント運用、およびリアルタイムのマルチモーダルタスク向けに最適化されており、AIポートフォリオ戦略における明確な一環として位置づけられる。
GPT-5.4 Miniは、レスポンス速度が製品体験を左右する開発者ワークロード、特にコーディングアシスタントやリアルタイムの画像推論をターゲットとしている。このモデルは、先行モデルのGPT-5 Miniと比較して実行速度が2倍以上向上しており、主要ベンチマークであるSWE-Bench Proでは54.4%を達成し、フラッグシップモデルGPT-5.4の57.7%に迫る結果を示した。Codex環境下では、サブエージェントのワークフローにおいてGPT-5.4のクォータ消費量を30%に抑制し、コスト効率の高い並列処理を可能にする。API価格は入力トークン100万あたり0.75ドル、出力トークン100万あたり4.50ドルで、コンテキストウィンドウは40万トークンをサポートする。ChatGPTでは、無料ユーザーおよびGoユーザーが「Thinking」機能を通じて利用可能であり、他のユーザーにはGPT-5.4 Thinkingのレートリミット時のフォールバックとして提供される。
一方、GPT-5.4 Nanoは、分類、データ抽出、ランキング、および単純なサブエージェント作業など、速度とコスト効率が最優先されるタスクのために設計された、最も小型かつ最速のオプションであり、API専用での提供となる。NanoモデルのAPI価格は、入力トークン100万あたり0.20ドル、出力トークン100万あたり1.25ドルと設定されており、GPT-5.4と比較して出力価格は12分の1に相当する。NanoモデルはSWE-Bench Proで52.4%を記録し、前世代のMiniモデルを上回る性能を示しており、単純なコーディング支援タスクにおける進化が確認された。
この発表は、AI開発におけるアーキテクチャの進化、特に階層的なAIシステムにおける「サブエージェント」の役割を明確に定義している。これは、大規模モデルが計画立案を行い、GPT-5.4 Miniのような軽量モデルが並行してサブタスクを実行する、2026年のAIトレンドと一致する。HebbiaやCodeRabbitといった企業はGPT-5.4 Miniのテスト導入を進めており、そのエンドツーエンドのパフォーマンスと、より大規模なGPT-5.4モデルよりも高いソース帰属率を評価している。Microsoft Foundryでもこれらのモデルが利用可能であることが確認されており、OpenAIが単なる性能競争から、開発者やエンタープライズ顧客の具体的な運用要件に応える多層的な製品ポートフォリオへと軸足を移していることが示唆される。
6 ビュー
ソース元
Republic World
Mynet Haber
OpenAI ships GPT-5.4 mini and nano, faster and more capable but up to 4x pricier
OpenAI has announced 'GPT-5.4 mini/nano,' a fast, low-cost, and lightweight model
OpenAI 2026 AI Roadmap: GPT-5, 5.2 & Open Models - i10X
OpenAI's Latest AI Models Are Built for Speed - CNET
OpenAI releases GPT-5.4 mini and nano, its most capable small models yet
9to5Mac
ZDNET
OpenAI
Thurrott.com
Microsoft
このトピックに関するさらに多くのニュースを読む:
エラーや不正確な情報を見つけましたか?できるだけ早くコメントを考慮します。



