DeepSeek Presenta Modelos V4 de Código Abierto, Afirmación de Liderazgo en Benchmarks de Codificación y Precios de Tokens de Bajo Costo

Puntos clave
- DeepSeek lanzó dos modelos de lenguaje grande de código abierto: V4-Pro (1,6 billones de parámetros totales) y V4-Flash (284 mil millones de parámetros totales).
- Ambos modelos admiten una ventana de contexto de un millón de tokens, una capacidad que rara vez se ve fuera de unos pocos sistemas propietarios.
- V4-Pro obtuvo una calificación de Codeforces de 3.206, superando la calificación de 3.168 de GPT-5.4 y la calificación de 3.052 de Google Gemini.
- En LiveCodeBench, V4-Pro logró una tasa de aprobación del 93,5%, superando la tasa de aprobación del 88,8% de Claude Opus 4.6 y la tasa de aprobación del 91,7% de Gemini.
- V4-Flash igualó a V4-Pro en tareas de agentes más simples mientras consumía mucho menos cómputo.
- El precio se estableció en $3,48 por millón de tokens de salida, lo que reduce drásticamente las tarifas de OpenAI y Anthropic.
- Los modelos están disponibles en Hugging Face para implementación local; V4-Pro requiere una cantidad sustancial de VRAM.
- Claude Opus 4.6 aún lidera en la recuperación de contexto largo, y GPT-5.4 lidera en Terminal Bench 2.0.
La empresa china de inteligencia artificial DeepSeek lanzó dos nuevos modelos de lenguaje grande, V4-Pro y V4-Flash, ambos con una ventana de contexto de un millón de tokens y licencias de código abierto en Hugging Face. V4-Pro, un modelo de 1,6 billones de parámetros, superó a los modelos líderes de EE. UU. en tareas de codificación y agentes, mientras que V4-Flash entregó una velocidad comparable a una fracción del costo de cómputo. DeepSeek también anunció un precio de token de $3,48 por millón de tokens de salida, lo que reduce drásticamente las tarifas de OpenAI y Anthropic, posicionando los modelos como alternativas rentables para los desarrolladores.
DeepSeek, la startup de inteligencia artificial con sede en Hangzhou, anunció el 24 de abril que está haciendo que dos nuevos modelos de lenguaje grande estén disponibles públicamente. La empresa llama a las ofertas V4-Pro, un modo "Experto" con 1,6 billones de parámetros totales y 49 mil millones de parámetros activos, y V4-Flash, un modo "Instantáneo" que se ejecuta en 284 mil millones de parámetros totales y 13 mil millones de parámetros activos. Ambos modelos admiten una ventana de contexto de un millón de tokens, una capacidad que rara vez se ve fuera de unos pocos sistemas propietarios.
A diferencia de la mayoría de los modelos de vanguardia, DeepSeek lanzó el código y los pesos en Hugging Face, lo que permite a los desarrolladores descargar y ejecutar los modelos en su propio hardware. Si bien V4-Flash puede operar en configuraciones de GPU más modestas, V4-Pro requiere una cantidad sustancial de VRAM, lo que refleja su mayor escala. La postura de código abierto marca una clara desviación del enfoque de código cerrado de competidores como OpenAI, Google y Anthropic.
Resultados de Benchmark y Precios
En una serie de benchmarks públicos, V4-Pro obtuvo una calificación de Codeforces de 3.206, superando la calificación de 3.168 de GPT-5.4 y la calificación de 3.052 de Google Gemini, lo que lo convierte en el modelo abierto más fuerte para tareas de programación competitiva. En LiveCodeBench, el modelo logró una tasa de aprobación del 93,5%, superando la tasa de aprobación del 88,8% de Claude Opus 4.6 y la tasa de aprobación del 91,7% de Gemini. Para cargas de trabajo de agentes, V4-Pro obtuvo una puntuación de 51,8 en Toolathlon, superando nuevamente a Claude (47,2) y Gemini (48,8). V4-Flash igualó a V4-Pro en tareas de agentes más simples mientras consumía mucho menos cómputo.
Los modelos de DeepSeek no dominaron todas las categorías. Claude Opus 4.6 retuvo el liderazgo en la recuperación de contexto largo, con una puntuación de 92,9 en el benchmark MRCR 1M en comparación con la puntuación de 83,5 de V4-Pro. De manera similar, OpenAI GPT-5.4 permaneció por delante en Terminal Bench 2.0, con una puntuación de 75,1 en comparación con la puntuación de 67,9 de V4-Pro.
El anuncio de precios atrajo una atención particular. DeepSeek estableció el costo de V4-Pro en $3,48 por millón de tokens de salida, una fracción de los $30 de OpenAI y los $25 de Anthropic para un uso comparable. La empresa argumenta que la brecha de precios podría hacer que sus modelos sean atractivos para los desarrolladores que construyen aplicaciones impulsadas por inteligencia artificial, especialmente aquellos que necesitan ventanas de contexto extensas.
Los observadores de la industria señalan que la combinación de disponibilidad de código abierto, rendimiento sólido en tareas de codificación y agentes, y precios agresivos podría cambiar la dinámica del mercado de modelos grandes. Sin embargo, los requisitos de hardware para V4-Pro pueden limitar la adopción entre los equipos más pequeños que carecen de clusters de GPU de alta gama.
El movimiento de DeepSeek subraya una tendencia más amplia hacia la democratización del acceso a modelos de inteligencia artificial poderosos. Al publicar los pesos y ofrecer un nivel de precios de bajo costo, la empresa espera estimular la innovación en toda la comunidad de desarrolladores mientras desafía el dominio de los proveedores de código cerrado.