OpenAI Apresenta Modelos GPT-5.4 Mini e Nano Mais Rápidos e de Menor Custo

OpenAI Introduces Faster, Lower-Cost GPT-5.4 Mini and Nano Models

Pontos principais

  • A OpenAI adiciona modelos GPT-5.4 Mini e Nano para processamento de IA mais rápido e barato.
  • O Mini executa mais de duas vezes mais rápido que o modelo completo com perda mínima de desempenho.
  • O Nano se concentra em tarefas simples de classificação e extração de dados ao menor custo.
  • Ambos retêm entrada de texto/imagem, uso de ferramentas, chamada de funções e uma janela de contexto de 400.000 tokens.
  • Os preços caem dramaticamente: Mini a $0,75/$4,50 por milhão de tokens, Nano a $0,20/$1,25.
  • Disponíveis hoje por meio da API, Codex e ChatGPT; Nano atualmente apenas API.
  • Fluxos de trabalho multi-modelo permitem que os desenvolvedores combinem modelos maiores para planejamento com o Mini/Nano para execução.
  • Os primeiros feedbacks mostram que o Mini pode igualar ou superar modelos concorrentes em várias tarefas.

A OpenAI lançou duas versões menores do seu modelo GPT-5.4 mais recente — Mini e Nano — projetadas para desenvolvedores que priorizam velocidade e custo sobre o máximo poder de raciocínio. O modelo Mini executa mais de duas vezes mais rápido que o modelo completo, mantendo-se próximo nos principais benchmarks, e o modelo Nano se concentra em tarefas simples de classificação e extração de dados. Ambos os modelos suportam entradas de texto e imagem, uso de ferramentas, chamada de funções e uma janela de contexto de 400.000 tokens, e estão disponíveis hoje por meio da API, Codex e ChatGPT. Essa abordagem em camadas permite que os desenvolvedores alocem modelos mais baratos para trabalhos rotineiros e reservem o modelo completo para raciocínio complexo, remodelando a forma como as aplicações de IA em tempo real são construídas.

Contexto

A OpenAI está expandindo sua carteira de modelos, oferecendo versões reduzidas do seu sistema GPT-5.4. A medida reflete uma demanda crescente de desenvolvedores por modelos que forneçam respostas rápidas e menores custos operacionais sem sacrificar as capacidades principais.

Novos Modelos Mini e Nano

O modelo GPT-5.4 Mini entrega mais de duas vezes a velocidade do modelo GPT-5.4 completo, mantendo um desempenho próximo ao do modelo maior nos principais benchmarks. A variante Nano impulsiona a eficiência ainda mais, visando tarefas mais simples, como classificação e extração de dados, onde a velocidade bruta e o custo são primordiais.

Desempenho e Custo

Ambos os modelos Mini e Nano retêm o conjunto completo de recursos, incluindo entradas de texto e imagem, uso de ferramentas, chamada de funções e uma janela de contexto de 400.000 tokens. O modelo Mini atinge 54,4 por cento no SWE-Bench Pro em comparação com 57,7 por cento para o modelo completo, e 72,1 por cento no OSWorld-Verified versus 75 por cento para a versão maior, mostrando uma pequena lacuna de desempenho. As reduções de custo são dramáticas: o Mini é precificado em $0,75 por milhão de tokens de entrada e $4,50 por milhão de tokens de saída, enquanto o Nano cai para $0,20 por milhão de tokens de entrada e $1,25 por milhão de tokens de saída.

Disponibilidade e Casos de Uso

Os novos modelos estão disponíveis hoje. O Mini é acessível por meio da API, Codex e ChatGPT, com usuários gratuitos e Go alcançando-o por meio da opção "Pensamento". O Nano está atualmente limitado à API e é direcionado a cargas de trabalho de alto volume, onde o controle de custo é crítico. Os desenvolvedores podem empregar um fluxo de trabalho multi-modelo, combinando um modelo maior para planejamento com o Mini ou Nano para execução, o que reflete as arquiteturas de aplicativos do mundo real que separam o julgamento do processamento repetitivo.

Implicações para Desenvolvedores

Essa oferta em camadas permite que os desenvolvedores transfiram a codificação rotineira e as tarefas de background para níveis mais baratos, reservando o modelo GPT-5.4 completo para raciocínio complexo. Os primeiros feedbacks indicam que o Mini pode igualar ou superar modelos concorrentes em várias tarefas a um custo menor, e em alguns casos fornece resultados mais fortes de ponta a ponta do que o modelo completo. A suite expandida habilita os desenvolvedores a equilibrar velocidade, custo e capacidade de forma mais eficaz, moldando a próxima geração de recursos de IA em tempo real.

#OpenAI#GPT-5.4#modelos de IA#aprendizado de máquina#ferramentas para desenvolvedores#eficiência de custo#dimensionamento de modelos#IA em tempo real#API#desenvolvimento de software

Também disponível em:

OpenAI Apresenta Modelos GPT-5.4 Mini e Nano Mais Rápidos e de Menor Custo | AI News