Google agrega modelos 3D interactivos a Gemini AI, permitiendo a los usuarios ajustar simulaciones en tiempo real

Puntos clave
- El Gemini AI de Google ahora crea modelos y simulaciones 3D interactivos a solicitud del usuario.
- La función está disponible para los usuarios de nivel Pro a través de un botón "Muéstrame la visualización".
- Los usuarios pueden rotar, zoom y ajustar variables con controles deslizantes en tiempo real.
- Capacidades visuales similares fueron agregadas recientemente por el Claude de Anthropic y el ChatGPT de OpenAI.
- La actualización tiene como objetivo aumentar la participación y diferenciar a Gemini en el mercado de chatbots de IA.
Google ha mejorado su chatbot Gemini con una función que crea modelos y simulaciones 3D interactivos a demanda. Los usuarios de la versión Pro pueden pedirle al AI que visualice conceptos como la mecánica orbital o el efecto Doppler, y luego rotar, zoom o ajustar variables con controles deslizantes. Este movimiento sigue las capacidades de salida visual similares que Anthropic y OpenAI han implementado recientemente, lo que indica un impulso más amplio hacia explicaciones más inmersivas impulsadas por IA.
Google ha lanzado una nueva capacidad para su Gemini AI que va más allá de las imágenes estáticas y el texto. El chatbot ahora produce modelos y simulaciones tridimensionales interactivos que los usuarios pueden manipular en tiempo real. Cuando un usuario de nivel Pro le pide a Gemini que ilustre algo, como un péndulo doble o la órbita de la Luna alrededor de la Tierra, el sistema genera un modelo rotatable, completo con controles deslizantes y toggles que permiten al usuario cambiar la velocidad, ocultar elementos o pausar la animación.
En una prueba práctica, el autor solicitó a Gemini una simulación de la Luna y la Tierra. El AI respondió con una escena 3D donde la Luna podía girar alrededor del planeta, su trayectoria orbital podía ser ocultada y un control deslizante permitía al usuario acelerar o desacelerar el movimiento. Los controles de zoom y rotación funcionaron suavemente, lo que hizo que la experiencia se sintiera más como un laboratorio de física ligero que como un intercambio típico de chatbot.
Esta actualización llega solo semanas después de que los rivales Anthropic y OpenAI introdujeran herramientas visuales comparables. El Claude de Anthropic ahora agrega gráficos, diagramas y otras gráficas interactivas a sus respuestas, mientras que el ChatGPT de OpenAI puede generar visualizaciones para temas de matemáticas y ciencia. Hasta ahora, Gemini solo podía producir imágenes interactivas estáticas; la nueva función 3D marca su primera incursión en simulaciones dinámicas.
El acceso a la funcionalidad está limitado al modelo Pro de Gemini. Los usuarios seleccionan la opción Pro en la barra de prompts, formulan una solicitud como "muéstrame un péndulo doble" y luego hacen clic en el botón "Muéstrame la visualización" que aparece debajo de la respuesta de texto de Gemini. El AI entonces renderiza el modelo y presenta los controles interactivos.
El lanzamiento de Google sugiere que la empresa ve las visualizaciones interactivas como una forma de profundizar en la participación del usuario y diferenciar a Gemini en un mercado de chatbots de IA congestionado. Al permitir que los usuarios exploren conceptos de manera práctica, Gemini se acerca a las herramientas de aprendizaje experiencial tradicionalmente reservadas para software especializado.
Los observadores de la industria señalan que la carrera para integrar la salida visual en la IA conversacional podría cambiar la forma en que los educadores, ingenieros y usuarios casuales buscan respuestas. A medida que más plataformas adoptan gráficos en tiempo real, la línea entre la búsqueda, la tutoría y la simulación se desdibuja, lo que abre nuevas posibilidades para la productividad y el entretenimiento.