Google Presenta Gemini 3.1 Pro, Modelo de IA con Mejoras en la Resolución de Problemas

Google Unveils Gemini 3.1 Pro AI Model with Boosted Problem‑Solving Skills

Puntos clave

  • Google lanzó Gemini 3.1 Pro en previsualización para desarrolladores y consumidores.
  • Gemini 3.1 Pro obtiene una puntuación del 44,4% en Humanity’s Last Exam, superando a Gemini 3 y GPT 5.2.
  • Gemini 3.1 Pro alcanza una puntuación del 77,1% en ARC‑AGI‑2, más del doble que la puntuación de su predecesor.
  • El modelo no lidera la clasificación de Arena; Claude Opus 4.6 lidera en texto, y Opus/GPT lideran en código.
  • Gemini 3.1 Pro impulsa las últimas mejoras de Deep Think.
  • Google enfatiza las mejoras en el razonamiento y la resolución de problemas complejos.

Google anunció la versión de previsualización de Gemini 3.1 Pro, una versión mejorada de su modelo insignia Gemini 3. El nuevo modelo se posiciona como mejor en razonamiento complejo y resolución de problemas, con ganancias notables en benchmarks como Humanity’s Last Exam y ARC‑AGI‑2. Aunque muestra mejoras significativas, el modelo sigue detrás de los competidores en la clasificación pública de Arena para tareas de texto y código. Gemini 3.1 Pro también es la base de las últimas mejoras de Deep Think, lo que indica el continuo impulso de Google para avanzar en sus capacidades de IA básicas.

Visión General del Modelo

Google introdujo Gemini 3.1 Pro como la próxima iteración de su serie Gemini, lanzándolo hoy en formato de previsualización para desarrolladores y consumidores. La empresa describe el modelo como una entrega de capacidades de resolución de problemas y razonamiento más fuertes en comparación con su predecesor, Gemini 3.

Rendimiento en Benchmarks

En Humanity’s Last Exam, que mide el conocimiento avanzado específico del dominio, Gemini 3.1 Pro logró una puntuación récord del 44,4 por ciento, superando el 37,5 por ciento de Gemini 3 y superando a OpenAI’s GPT 5.2 con un 34,5 por ciento. En la prueba ARC‑AGI‑2, diseñada para evaluar desafíos de lógica novedosos que no pueden ser entrenados directamente, Gemini 3.1 Pro más que duplicó la puntuación anterior de Google, alcanzando un 77,1 por ciento en comparación con el 31,1 por ciento de Gemini 3.

Paisaje Competitivo

A pesar de las ganancias, Gemini 3.1 Pro no lidera la clasificación pública de Arena, que refleja los votos de preferencia de los usuarios sobre las salidas del modelo. En la categoría de texto, Claude Opus 4.6 lidera con cuatro puntos, mientras que para tareas de código, Opus 4.6, Opus 4.5 y GPT 5.2 High mantienen una ligera ventaja sobre Gemini 3.1 Pro.

Integración con Deep Think

El nuevo modelo también impulsa las últimas mejoras a la herramienta Deep Think de Google, lo que indica que Gemini 3.1 Pro sirve como la "inteligencia central" subyacente para esa función.

Implicaciones

El anuncio de Google destaca un enfoque continuo en refinar los grandes modelos de lenguaje para un razonamiento de orden superior, incluso cuando los benchmarks competitivos muestran resultados mixtos. La versión de previsualización permite a los desarrolladores acceder temprano para probar las capacidades del modelo en aplicaciones del mundo real, mientras que la empresa continúa recopilando comentarios para una implementación más amplia.

#Google#Gemini 3.1 Pro#Inteligencia Artificial#Modelo de Lenguaje Grande#Benchmark de IA#Deep Think#ARC‑AGI‑2#Clasificación de Arena#Razonamiento de IA#Desarrollo de IA

También disponible en: