DeepSeek Lança Modelos V4 de Código Aberto, Alegando Liderança em Benchmarks de Codificação e Preços de Tokens de Baixo Custo

DeepSeek Lança Modelos V4 de Código Aberto, Alegando Liderança em Benchmarks de Codificação e Preços de Tokens de Baixo Custo

Pontos principais

  • A DeepSeek lançou dois modelos de linguagem grande de código aberto: V4-Pro (1,6 trilhão de parâmetros) e V4-Flash (284 bilhões de parâmetros).
  • Ambos os modelos suportam uma janela de contexto de um milhão de tokens, uma característica rara na indústria.
  • O V4-Pro alcançou uma classificação de 3.206 no Codeforces, superando o GPT-5.4 e o Gemini em benchmarks de codificação.
  • No LiveCodeBench, o V4-Pro obteve uma taxa de aprovação de 93,5%, superando o Claude Opus 4.6 e o Gemini.
  • O V4-Flash igualou o V4-Pro em tarefas de agente mais simples, consumindo muito menos computação.
  • O preço foi estabelecido em $3,48 por milhão de tokens de saída, dramaticamente abaixo dos preços da OpenAI e da Anthropic.
  • Os modelos estão disponíveis no Hugging Face para implantação local; o V4-Pro exige uma quantidade substancial de VRAM.
  • O Claude Opus 4.6 ainda lidera na recuperação de contexto longo, e o GPT-5.4 lidera no Terminal Bench 2.0.

A empresa chinesa de IA DeepSeek lançou dois novos modelos de linguagem grande, V4-Pro e V4-Flash, ambos com uma janela de contexto de um milhão de tokens e licenças de código aberto no Hugging Face. O V4-Pro, um modelo de 1,6 trilhão de parâmetros, superou os principais modelos dos EUA em tarefas de codificação e agência, enquanto o V4-Flash entregou velocidade comparável a uma fração do custo de computação. A DeepSeek também anunciou um preço de token de $3,48 por milhão de tokens de saída, dramaticamente abaixo dos preços da OpenAI e da Anthropic, posicionando os modelos como alternativas de baixo custo para os desenvolvedores.

A DeepSeek, uma startup de inteligência artificial com sede em Hangzhou, anunciou em 24 de abril que está tornando dois novos modelos de linguagem grande disponíveis publicamente. A empresa chama as ofertas de V4-Pro, um modo "Especialista" com 1,6 trilhão de parâmetros totais e 49 bilhões de parâmetros ativos, e V4-Flash, um modo "Instantâneo" que executa 284 bilhões de parâmetros totais e 13 bilhões de parâmetros ativos. Ambos os modelos suportam uma janela de contexto de um milhão de tokens, uma capacidade raramente vista fora de um punhado de sistemas proprietários.

Ao contrário da maioria dos modelos de ponta, a DeepSeek lançou o código e os pesos no Hugging Face, permitindo que os desenvolvedores baixem e executem os modelos em seu próprio hardware. Embora o V4-Flash possa operar em configurações de GPU mais modestas, o V4-Pro exige uma quantidade substancial de VRAM, refletindo seu tamanho maior. A postura de código aberto marca uma clara divergência da abordagem de código fechado de concorrentes como OpenAI, Google e Anthropic.

Resultados de Benchmark e Preços

Em uma série de benchmarks públicos, o V4-Pro obteve uma classificação de 3.206 no Codeforces, superando a classificação de 3.168 do GPT-5.4 e a classificação de 3.052 do Google Gemini, tornando-se o modelo aberto mais forte para tarefas de programação competitiva. No LiveCodeBench, o modelo alcançou uma taxa de aprovação de 93,5%, superando a taxa de aprovação de 88,8% do Claude Opus 4.6 e a taxa de aprovação de 91,7% do Gemini. Para cargas de trabalho de agência, o V4-Pro obteve uma pontuação de 51,8 no Toolathlon, novamente superando o Claude (47,2) e o Gemini (48,8). O V4-Flash igualou o V4-Pro em tarefas de agente mais simples, consumindo muito menos computação.

Os modelos da DeepSeek não dominaram todas as categorias. O Claude Opus 4.6 manteve a liderança na recuperação de contexto longo, obtendo uma pontuação de 92,9 no benchmark MRCR 1M em comparação com a pontuação de 83,5 do V4-Pro. Da mesma forma, a OpenAI manteve a liderança no Terminal Bench 2.0, obtendo uma pontuação de 75,1 em comparação com a pontuação de 67,9 do V4-Pro.

O anúncio de preços atraiu atenção particular. A DeepSeek estabeleceu o preço do V4-Pro em $3,48 por milhão de tokens de saída, uma fração do preço de $30 da OpenAI e do preço de $25 da Anthropic para uso comparável. A empresa argumenta que a diferença de preços pode tornar seus modelos atraentes para os desenvolvedores que constroem aplicativos alimentados por IA, especialmente aqueles que precisam de janelas de contexto extensas.

Observadores da indústria notam que a combinação de disponibilidade de código aberto, desempenho forte em tarefas de codificação e agência e preços agressivos pode alterar a dinâmica do mercado de modelos grandes. No entanto, os requisitos de hardware para o V4-Pro podem limitar a adoção entre equipes menores que não têm clusters de GPU de ponta.

A movimentação da DeepSeek sublinha uma tendência mais ampla de democratizar o acesso a modelos de IA poderosos. Ao publicar os pesos e oferecer um nível de preços de baixo custo, a empresa espera estimular a inovação em toda a comunidade de desenvolvedores, enquanto desafia a dominância de provedores de código fechado.

#inteligência artificial#modelos de linguagem grande#código aberto#DeepSeek#benchmarking de IA#preços de tokens#codificação de IA#aprendizado de máquina#programação competitiva#Hugging Face

Também disponível em:

DeepSeek Lança Modelos V4 de Código Aberto, Alegando Liderança em Benchmarks de Codificação e Preços de Tokens de Baixo Custo | AI News