OpenAI Lança Modelos GPT-5.4 Mini e Nano Focados em Eficiência e Velocidade
Editado por: Aleksandr Lytviak
A OpenAI anunciou em 17 de março de 2026 o lançamento das variantes de inteligência artificial GPT-5.4 Mini e GPT-5.4 Nano. Estes modelos compactos da série GPT-5.4 foram desenvolvidos para otimizar o equilíbrio entre desempenho, redução de latência e custo operacional, visando aplicações que demandam processamento em grande volume e respostas em tempo real. A iniciativa sinaliza uma consolidação estratégica no portfólio da empresa, alinhada à tendência do setor de especializar Grandes Modelos de Linguagem (LLMs) como fator de competitividade, distanciando-se da dependência exclusiva de arquiteturas monolíticas.
O GPT-5.4 Mini foi especificamente projetado para cenários onde a latência é um fator crítico, como em assistentes de codificação que exigem resposta imediata, subagentes de apoio e sistemas de interpretação multimodal de interfaces. Este modelo representa um avanço de desempenho significativo em relação ao seu antecessor, o GPT-5 Mini, operando com mais de duas vezes a velocidade. Em avaliações cruciais, o GPT-5.4 Mini demonstrou capacidades próximas ao modelo principal GPT-5.4, alcançando 53,40% no SWE-Bench Pro (comparado a 57,73% do GPT-5.4) e 72,1% no OSWorld-Verified (contra 75% do modelo completo). Adicionalmente, para fluxos de trabalho de subagentes no Codex, o Mini utiliza apenas 30% da cota de recursos designada ao GPT-5.4.
O GPT-5.4 Nano constitui a opção mais ágil e econômica da nova família, priorizando a eficiência para tarefas menos complexas, como classificação, extração de dados e ranqueamento, além de subagentes de suporte simples. A disponibilidade do Nano é restrita à API, enquanto o Mini pode ser acessado via API, Codex e plataformas ChatGPT, servindo também como recurso de contingência para usuários do GPT-5.4 Thinking. A precificação da API para o GPT-5.4 Mini estabelece um custo de US$ 0,75 por milhão de *tokens* de entrada e US$ 4,50 por milhão de *tokens* de saída, suportando uma janela de contexto de 400 mil *tokens*.
Apesar de ser o modelo menor, o Nano superou o GPT-5 Mini em benchmarks de codificação, atingindo 52,39% no SWE-Bench Pro, o que sublinha a eficácia da otimização arquitetônica. A presença destes modelos na Microsoft Foundry confirma a integração contínua entre os ecossistemas de IA da OpenAI e da Microsoft para implementação em escala empresarial. A arquitetura de modelos em camadas, onde um modelo principal orquestra múltiplos subagentes Mini em execução paralela, torna o processamento paralelo em larga escala economicamente viável. Esta capacidade de descarregar tarefas sensíveis à latência dos modelos principais permite que empresas reduzam custos operacionais e acelerem funcionalidades em tempo real, como a revisão contínua de código.
Este lançamento, que se seguiu à introdução do GPT-5.4 Thinking em 5 de março de 2026, reforça a posição da OpenAI sobre suas ofertas de modelos pequenos mais capazes até o momento. Com melhorias de mais de 57% no Terminal-Bench 2.0 em relação ao GPT-5 Mini, o GPT-5.4 Mini é posicionado como um componente essencial para a próxima geração de sistemas agenticos autônomos, que se projeta estar presente em 40% das aplicações empresariais até o final de 2026.
6 Visualizações
Fontes
Republic World
Mynet Haber
OpenAI ships GPT-5.4 mini and nano, faster and more capable but up to 4x pricier
OpenAI has announced 'GPT-5.4 mini/nano,' a fast, low-cost, and lightweight model
OpenAI 2026 AI Roadmap: GPT-5, 5.2 & Open Models - i10X
OpenAI's Latest AI Models Are Built for Speed - CNET
OpenAI releases GPT-5.4 mini and nano, its most capable small models yet
9to5Mac
ZDNET
OpenAI
Thurrott.com
Microsoft
Leia mais notícias sobre este tema:
Encontrou um erro ou imprecisão?Vamos considerar seus comentários assim que possível.



