OpenAI stellt GPT-5.4 Mini und Nano für spezialisierte KI-Anwendungen vor
Bearbeitet von: Aleksandr Lytviak
Am 17. März 2026 hat OpenAI die Einführung der kompakten Modelle GPT-5.4 Mini und GPT-5.4 Nano bekannt gegeben. Diese Neuvorstellungen zielen darauf ab, eine optimierte Balance zwischen Leistungsfähigkeit, Kostenkontrolle und geringer Latenz für hochvolumige Arbeitslasten zu schaffen. Die Veröffentlichung signalisiert eine strategische Verschiebung in der KI-Industrie, weg von monolithischen Ansätzen hin zu diversifizierten KI-Portfolios, ein zentraler Trend für das Jahr 2026.
Das GPT-5.4 Mini-Modell wurde primär für Entwickleranwendungen konzipiert, die eine hohe Reaktionsfähigkeit erfordern, wie etwa Coding-Assistenten, Echtzeit-Bildinterpretation und multimodales Schlussfolgern. OpenAI gibt an, dass GPT-5.4 Mini mehr als doppelt so schnell arbeitet wie sein Vorgänger, das GPT-5 Mini. Auf etablierten Benchmarks wie SWE-Bench Pro nähert sich das Mini-Modell der Performance des Flaggschiffs GPT-5.4 an, was eine signifikante Effizienzsteigerung darstellt. Konkret verbraucht das GPT-5.4 Mini in Subagenten-Workflows innerhalb von Codex nur 30% der GPT-5.4-Quote, was eine erhebliche Kostenreduktion für Entwickler bedeutet.
Die Preisgestaltung für das GPT-5.4 Mini über die API ist auf 0,75 USD pro Million Input-Tokens und 4,50 USD pro Million Output-Tokens festgelegt, ergänzt durch ein Kontextfenster von 400.000 Tokens. Dieses Modell unterstützt Text- und Bildeingaben sowie essenzielle Funktionen wie Tool-Nutzung, Funktionsaufrufe und Websuche. Die Verfügbarkeit des GPT-5.4 Mini ist breit gefächert und umfasst die API, Codex sowie die ChatGPT-Plattform, wo es Nutzern der kostenlosen und Go-Stufen über die „Thinking“-Funktion zugänglich ist.
Das GPT-5.4 Nano repräsentiert die kleinste und kosteneffizienteste Option der neuen Serie, optimiert für Aufgaben, bei denen Geschwindigkeit und geringe Kosten im Vordergrund stehen, wie Klassifizierung, Datenextraktion, Ranking und einfache Subagenten-Tätigkeiten. Im Gegensatz zum Mini-Modell ist das Nano-Modell derzeit ausschließlich über die API zugänglich. Beobachter sehen in dieser Segmentierung eine Analogie zu menschlichen Teams, bei denen große Modelle die Planung übernehmen, während kleinere Modelle wie Mini und Nano die delegierten Subaufgaben effizient abarbeiten.
Interessanterweise weisen die bereitgestellten Materialien darauf hin, dass die neuen Modelle trotz ihrer verbesserten Performance-pro-Latenz im Vergleich zu ihren GPT-5-Vorgängern mit einem „bemerkenswerten Preisanstieg“ verbunden sind, was auf eine strategische Neuausrichtung der Preisstruktur hindeutet. Die breitere Verfügbarkeit des GPT-5.4 Mini als Fallback für GPT-5.4 Thinking unterstreicht OpenAIs Bemühungen, die Leistungsfähigkeit der neuen Generation auch bei Lastspitzen zu gewährleisten. Die Integration dieser Modelle wird durch Partner wie Microsoft Foundry unterstützt, eine Plattform, die den Zugriff auf eine breite Palette von Modellen, einschließlich Azure OpenAI, ermöglicht und die Entwicklung sowie Governance von KI-Anwendungen vereinheitlicht. Die Benchmarkergebnisse, wie die 54,38% auf SWE-bench Pro für das GPT-5.4 Mini im Vergleich zu 45,69% für das GPT-5 Mini, belegen den Fokus auf operative Effizienz.
6 Ansichten
Quellen
Republic World
Mynet Haber
OpenAI ships GPT-5.4 mini and nano, faster and more capable but up to 4x pricier
OpenAI has announced 'GPT-5.4 mini/nano,' a fast, low-cost, and lightweight model
OpenAI 2026 AI Roadmap: GPT-5, 5.2 & Open Models - i10X
OpenAI's Latest AI Models Are Built for Speed - CNET
OpenAI releases GPT-5.4 mini and nano, its most capable small models yet
9to5Mac
ZDNET
OpenAI
Thurrott.com
Microsoft
Weitere Nachrichten zu diesem Thema lesen:
Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.



