Anthropic presenta Opus 4.5, un modelo de IA más rápido, económico y capaz

Anthropic introduces cheaper, more powerful, more efficient Opus 4.5 model

Puntos clave

  • Anthropic lanza Opus 4.5, su nuevo modelo de IA insignia.
  • Las aplicaciones de Claude ahora resumen las conversaciones anteriores en lugar de detenerse bruscamente en 200,000 tokens.
  • Opus 4.5 logra una precisión del 80.9% en SWE-Bench Verificado, superando a GPT-5.1-Codex-Max (77.9%) y Gemini 3 Pro (76.2%).
  • El modelo sobresale en las pruebas de codificación agente y uso de herramientas.
  • Todavía se queda atrás de GPT-5.1 en las tareas de razonamiento visual (MMMU).
  • Los desarrolladores pueden usar las mismas técnicas de manejo de contexto a través de la API de Anthropic.
  • Las mejoras buscan proporcionar interacciones de usuario más suaves y largas, y flujos de trabajo de desarrollador más eficientes.

Anthropic anunció el lanzamiento de Opus 4.5, su nuevo modelo insignia, que ofrece un mejor rendimiento de codificación, experiencias de usuario más suaves y un manejo de contexto más inteligente. El modelo logró una puntuación de precisión del 80.9 por ciento en el benchmark SWE-Bench Verificado, superando a OpenAI's GPT-5.1-Codex-Max y Google’s Gemini 3 Pro. En las aplicaciones de consumo de Claude, ahora se resumen los puntos de conversación anteriores en lugar de terminar abruptamente las sesiones cuando se excede la ventana de contexto, mejorando la continuidad para los usuarios y los desarrolladores.

Nuevo lanzamiento de modelo y mejoras fundamentales

Anthropic lanzó Opus 4.5 como su modelo fronterizo más reciente, posicionándolo como una alternativa más económica, poderosa y eficiente a los modelos de lenguaje grande competidores. El anuncio destacó varias mejoras enfocadas en el usuario. En las aplicaciones web, móviles y de escritorio de Claude, el modelo ahora es menos propenso a detener abruptamente las conversaciones cuando se alargan. Anteriormente, los usuarios que alcanzaban la ventana de contexto de 200,000 tokens experimentaban detenciones bruscas, lo que obligaba a un final repentino del diálogo incluso si los presupuestos de uso permanecían.

En lugar de cortar, Claude ahora realiza una resumen en segundo plano de los segmentos de conversación anteriores, descartando material extraneous mientras preserva los puntos clave. Este enfoque busca mantener la coherencia y evitar que el modelo olvide detalles importantes a medida que avanza la conversación. Los desarrolladores que acceden a la API de Anthropic pueden aplicar técnicas similares de manejo y compactación de contexto en sus propias aplicaciones.

Benchmark de rendimiento

Opus 4.5 estableció un nuevo récord en el benchmark SWE-Bench Verificado, logrando una puntuación de precisión del 80.9 por ciento. Este resultado superó ligeramente a OpenAI’s GPT-5.1-Codex-Max, que obtuvo una puntuación del 77.9 por ciento, y Google’s Gemini 3 Pro, que obtuvo una puntuación del 76.2 por ciento. El modelo demostró una fuerza particular en las pruebas de codificación agente y uso de herramientas, aunque todavía se quedó atrás de GPT-5.1 en las tareas de razonamiento visual medidas por el benchmark MMMU.

Implicaciones para los usuarios y los desarrolladores

Las mejoras en la continuidad de la conversación y el manejo de contexto se espera que mejoren la experiencia general del usuario en los productos de consumo de Anthropic. Al resumir el diálogo anterior, Claude puede continuar interacciones más largas sin las detenciones bruscas que ocurrían anteriormente cuando se alcanzaba el límite de tokens.

Para los desarrolladores, los mismos principios de resumen y compactación de contexto están disponibles a través de la API de Anthropic, ofreciendo una ruta hacia una ingeniería de prompts más eficiente y un uso más rentable de las capacidades del modelo. El lanzamiento subraya el compromiso de Anthropic de entregar soluciones de IA de alto rendimiento, económicas y competitivas con los modelos líderes de OpenAI y Google.

#Anthropic#Opus 4.5#Claude#Modelo de lenguaje grande#Benchmark de IA#SWE-Bench#GPT-5.1#Gemini 3 Pro#API#Manejo de contexto#Rendimiento de codificación

También disponible en: