OpenAI lanza Codex‑Spark, un asistente de codificación rápido y ligero impulsado por el chip Cerebras

Puntos clave
- OpenAI lanzó Codex‑Spark, una versión ligera de su asistente de codificación Codex.
- Spark está impulsado por el Wafer Scale Engine 3 de Cerebras, un megachip con cuatro billones de transistores.
- El modelo se centra en la latencia ultra baja para la creación de prototipos rápidos y la colaboración en tiempo real.
- Está actualmente en una versión de previsualización de investigación para usuarios de ChatGPT Pro dentro de la aplicación Codex.
- El lanzamiento refleja una asociación de varios años más profunda entre OpenAI y Cerebras.
- Cerebras recientemente recaudó $1 mil millones a una valoración de $23 mil millones y está considerando una oferta pública inicial.
- OpenAI posiciona a Spark como el primer paso hacia la operación de Codex en modo dual: iteración rápida y razonamiento profundo.
OpenAI presentó Codex‑Spark, una versión ligera de su asistente de codificación Codex diseñada para inferencia rápida y colaboración en tiempo real. El nuevo modelo se ejecuta en el Wafer Scale Engine 3 de Cerebras, un megachip con cuatro billones de transistores, lo que marca una integración de hardware más profunda entre las dos empresas. Actualmente en una versión de previsualización de investigación para usuarios de ChatGPT Pro, Spark tiene como objetivo acelerar la creación de prototipos mientras complementa las tareas más pesadas y de ejecución más larga del modelo Codex original.
OpenAI presenta Codex‑Spark
OpenAI anunció una nueva versión ligera de su herramienta de codificación Codex, denominada GPT‑5.3‑Codex‑Spark. La empresa describe Spark como un "motor de productividad diaria" que permite la creación de prototipos rápidos y la colaboración en tiempo real, en contraste con el modelo Codex original que está diseñado para tareas más largas y complejas.
Asociación de hardware con Cerebras
El impulso de rendimiento detrás de Spark proviene de un chip dedicado suministrado por Cerebras, un socio de hardware de larga data de OpenAI. Spark se ejecuta en el Wafer Scale Engine 3 (WSE‑3) de Cerebras, el megachip de tercera generación equipado con cuatro billones de transistores. OpenAI destacó que esta integración es el "primer hito" de un acuerdo de varios años entre las dos empresas, una asociación que previamente se anunció como valorada en más de $10 mil millones.
Objetivos de diseño y capacidades
OpenAI enfatiza que Spark está diseñado para la latencia más baja posible, apuntando a flujos de trabajo que requieren tiempos de respuesta extremadamente rápidos. El modelo está destinado a admitir dos modos complementarios: un modo de colaboración en tiempo real para iteración rápida y un modo de ejecución más larga para razonamiento y ejecución más profundos. Según la empresa, el nuevo chip sobresale en el manejo de tareas que requieren un retraso mínimo, lo que permite nuevos patrones de interacción y casos de uso.
Disponibilidad y previsualización
Codex‑Spark está actualmente disponible como una versión de previsualización de investigación para usuarios de ChatGPT Pro dentro de la aplicación Codex. El lanzamiento fue insinuado en un tuit del CEO de OpenAI, Sam Altman, quien mencionó una "cosa especial que se lanza a los usuarios de Codex en el plan Pro" y señaló que "despierta alegría en mí".
Contexto de la industria
Cerebras ha sido un jugador notable en el hardware de inteligencia artificial durante más de una década, y sus actividades recientes incluyen recaudar $1 mil millones en capital fresco a una valoración de $23 mil millones, así como discusiones sobre una oferta pública inicial. La colaboración con OpenAI posiciona a Cerebras como un proveedor clave para cargas de trabajo de inferencia de inteligencia artificial de próxima generación.
Perspectiva
OpenAI y Cerebras ven a Spark como el comienzo de una exploración más amplia de capacidades de inferencia rápida. El CTO y cofundador de Cerebras, Sean Lie, comentó que asociarse con OpenAI y la comunidad de desarrolladores descubrirá qué puede permitir la inferencia rápida, desde nuevos patrones de interacción hasta experiencias de modelo fundamentalmente diferentes. La fase de previsualización sugiere que pueden seguir características adicionales y una disponibilidad más amplia a medida que evoluciona la asociación.