OpenAI Wprowadza GPT-5.4 Mini i Nano, Optymalizując AI dla Wysokiego Wolumenu

Edytowane przez: Aleksandr Lytviak

Dnia 17 marca 2026 roku, OpenAI zaprezentowało dwa nowe, skompresowane warianty swojej sztucznej inteligencji: GPT-5.4 Mini oraz GPT-5.4 Nano. Ta strategiczna dywersyfikacja oferty ma na celu zaspokojenie rynkowego zapotrzebowania na rozwiązania AI oferujące optymalny kompromis między wydajnością, opóźnieniami a kosztem operacyjnym. Ruch ten sygnalizuje szerszy trend w branży, polegający na przechodzeniu od monolitycznych modeli do wyspecjalizowanych portfeli AI w bieżącym roku.

GPT-5.4 Mini został zaprojektowany dla obciążeń deweloperskich wymagających natychmiastowej reakcji, takich jak asystenci kodowania, interpretacja zrzutów ekranu interfejsu użytkownika oraz rozumowanie obrazowe w czasie rzeczywistym. Według OpenAI, model ten jest ponad dwukrotnie szybszy od swojego poprzednika, GPT-5 Mini, osiągając wyniki zbliżone do pełnego GPT-5.4 w kluczowych testach. Na benchmarku SWE-Bench Pro, GPT-5.4 Mini uzyskał 54.4%, co stanowi znaczący wzrost w porównaniu do 45.7% GPT-5 Mini, zbliżając się do wyniku 57.7% osiągniętego przez GPT-5.4. W ramach platformy Codex, model ten zużywa zaledwie 30% kosztów GPT-5.4, co czyni go odpowiednim do delegowania mniej złożonych zadań w architekturze subagentów.

Specyfikacja techniczna GPT-5.4 Mini obejmuje okno kontekstowe wynoszące 400 tysięcy tokenów oraz obsługę danych wejściowych tekstowych i obrazowych, z pełnym wsparciem dla wywoływania funkcji, użycia narzędzi oraz wyszukiwania w sieci i plikach. Ceny API dla GPT-5.4 Mini ustalono na 0.75 USD za milion tokenów wejściowych i 4.50 USD za milion tokenów wyjściowych. W usłudze ChatGPT model ten jest dostępny dla użytkowników Free i Go poprzez funkcję „Myślenie”, a dla pozostałych służy jako mechanizm awaryjny dla GPT-5.4 Thinking.

GPT-5.4 Nano jest pozycjonowany jako najmniejsza i najbardziej opłacalna opcja, priorytetyzująca szybkość i efektywność kosztową w zadaniach takich jak klasyfikacja, ekstrakcja danych, rankingowanie oraz proste prace subagentów. Jego wydajność na benchmarku OSWorld-Verified wyniosła 39.0%, co jest wynikiem niższym niż 42.0% osiągnięte przez GPT-5 Mini, co sugeruje wyższe wymagania obliczeniowe dla zadań wymagających rozumowania wizualnego. Dostępność GPT-5.4 Nano ograniczona jest wyłącznie do interfejsu API, gdzie jego cena wynosi 0.20 USD za milion tokenów wejściowych i 1.25 USD za milion tokenów wyjściowych.

Obserwacje rynkowe, w tym te poczynione przez Aabhase Sharmę, CTO w Hebbia, wskazują, że GPT-5.4 Mini dostarcza „silną wydajność end-to-end” i osiąga wyższe wskaźniki zaliczenia zadań oraz lepszą atrybucję źródeł niż większy model GPT-5.4 w wewnętrznych ewaluacjach Hebbia. Partnerstwo z Microsoft Foundry, gdzie modele te są również dostępne, umacnia ich pozycję w ekosystemie korporacyjnym. Kierunek rozwoju promowany przez OpenAI potwierdza tezę, że w 2026 roku kluczowe staje się orkiestrowanie kombinacji modeli, a nie poszukiwanie jednego „najlepszego” modelu, ponieważ systemy złożone z wyspecjalizowanych komponentów zyskują na znaczeniu w złożonych zastosowaniach korporacyjnych.

6 Wyświetlenia

Źródła

  • Republic World

  • Mynet Haber

  • OpenAI ships GPT-5.4 mini and nano, faster and more capable but up to 4x pricier

  • OpenAI has announced 'GPT-5.4 mini/nano,' a fast, low-cost, and lightweight model

  • OpenAI 2026 AI Roadmap: GPT-5, 5.2 & Open Models - i10X

  • OpenAI's Latest AI Models Are Built for Speed - CNET

  • OpenAI releases GPT-5.4 mini and nano, its most capable small models yet

  • 9to5Mac

  • ZDNET

  • OpenAI

  • Thurrott.com

  • Microsoft

Czy znalazłeś błąd lub niedokładność?Rozważymy Twoje uwagi tak szybko, jak to możliwe.