DeepSeek lança V4 Flash e V4 Pro, afirmando liderança em peso aberto

DeepSeek unveils V4 Flash and V4 Pro models, claiming open‑weight lead

Pontos principais

  • DeepSeek released two preview models: V4 Flash (284 B parameters) and V4 Pro (1.6 T parameters).
  • Both support a 1 million‑token context window for extensive prompts.
  • Mixture‑of‑experts architecture activates only a fraction of parameters per task, lowering inference costs.
  • V4 Pro is the largest open‑weight model available, surpassing Moonshot AI’s Kimi K 2.6.
  • Benchmark tests show the V4 series narrowing the gap with leading closed‑source models on reasoning tasks.
  • Knowledge tests place V4 behind GPT‑5.4 and Gemini 3.1 Pro by roughly three to six months.
  • Pricing: V4 Flash at $0.14/$0.28 per million tokens; V4 Pro at $0.145/$3.48 per million tokens.
  • Both models handle text only, unlike many competitors that also process audio, video, and images.
  • Launch follows U.S. accusations of Chinese AI IP theft and prior claims that DeepSeek copies other labs' models.

O laboratório de inteligência artificial chinês DeepSeek lançou duas versões de pré-visualização de seu próximo modelo de linguagem grande, DeepSeek V4 Flash e V4 Pro. Ambos os modelos usam uma arquitetura de mistura de especialistas e suportam uma janela de contexto de 1 milhão de tokens, permitindo que os usuários forneçam código-fonte ou documentos longos em prompts. DeepSeek afirma que V4 Pro, com 1,6 trilhão de parâmetros (49 bilhões ativos), é o maior modelo de peso aberto do mercado, enquanto V4 Flash oferece uma opção menor e mais acessível.

DeepSeek, o laboratório de inteligência artificial chinês, lançou versões de pré-visualização de sua última família de modelos de linguagem grande na terça-feira, introduzindo DeepSeek V4 Flash e DeepSeek V4 Pro. Ambos os modelos empregam uma arquitetura de mistura de especialistas que ativa apenas um subconjunto de parâmetros para cada tarefa, uma estratégia que reduz os custos de inferência sem sacrificar a capacidade.

Cada modelo suporta uma janela de contexto de 1 milhão de tokens, um tamanho que permite que os desenvolvedores incorporem código-fonte ou documentos longos em uma única solicitação. O menor V4 Flash tem 284 bilhões de parâmetros totais, dos quais 13 bilhões estão ativos a qualquer momento. Seu irmão maior, V4 Pro, tem 1,6 trilhão de parâmetros totais e 49 bilhões de parâmetros ativos, tornando-o o maior modelo de peso aberto atualmente disponível. Em comparação, o Kimi K 2.6 da Moonshot AI tem 1,1 trilhão de parâmetros e o M1 da MiniMax tem 456 bilhões.

DeepSeek afirma que ajustes arquitetônicos dão à série V4 uma vantagem mensurável sobre seu antecessor, V3.2, que tinha 671 bilhões de parâmetros. O laboratório afirma que os novos modelos têm "quase fechado a lacuna" com os sistemas de código fechado líderes em benchmarks de racionalização. Em testes de cabeça a cabeça, o V4-Pro-Max relatou ter superado os rivais de código aberto em uma série de tarefas lógicas e até superou o GPT-5.2 da OpenAI e o Gemini 3.0 Pro da Google em benchmarks selecionados. Competições de codificação mostraram desempenho comparável ao GPT-5.4.

Avaliações baseadas em conhecimento contam uma história ligeiramente diferente. Os modelos V4 ficam atrás das últimas ofertas de fronteira - GPT-5.4 da OpenAI e Gemini 3.1 Pro da Google - por um período estimado de três a seis meses em recall de fatos brutos. DeepSeek reconhece a lacuna, enquadrando-a como uma "trajetória de desenvolvimento" em vez de um defeito.

O preço é um recurso destacado. O DeepSeek V4 Flash custa $0,14 por milhão de tokens de entrada e $0,28 por milhão de tokens de saída, superando os mais baratos níveis do GPT-5.4 Nano, Gemini 3.1 Flash e Claude Haiku 4.5. As taxas do V4 Pro estão em $0,145 por milhão de tokens de entrada e $3,48 por milhão de tokens de saída, ainda mais barato do que o Gemini 3.1 Pro, GPT-5.5 e Claude Opus 4.7. Ambos os modelos atualmente lidam apenas com texto, faltando as capacidades multimodais - áudio, vídeo, geração de imagens - encontradas em muitos concorrentes.

O lançamento ocorre em meio a um escrutínio aumentado das empresas de IA chinesas. Funcionários dos EUA recentemente acusaram a China de roubo de propriedade intelectual em grande escala visando laboratórios de IA americanos. A própria DeepSeek enfrentou alegações da Anthropic e da OpenAI de "destilar" - basicamente copiar - seus modelos. Apesar da controvérsia, a empresa posiciona a série V4 como uma alternativa acessível para empresas e desenvolvedores que buscam soluções de peso aberto.

#Artificial Intelligence#Large Language Model#Open‑weight AI#DeepSeek#Mixture of Experts#Token Context Window#AI Benchmark#Model Pricing#AI Competition#Intellectual Property

Também disponível em: