Perplexity lanza la función Computadora para que los usuarios elijan el mejor modelo de IA para cada tarea

Puntos clave
- Computadora dirige las solicitudes a Gemini, Grok o ChatGPT 5.2 según el tipo de tarea.
- Opus 4.6 es el motor de razonamiento central detrás del sistema.
- Se integra con Gmail, Outlook, GitHub, Slack, Notion y Salesforce.
- Puede redactar documentos, crear diapositivas, enviar correos electrónicos y programar tareas en segundo plano.
- Los suscriptores de Perplexity Max pueden utilizar la función ahora; el acceso a Enterprise Max llegará pronto.
- Los usuarios pueden seleccionar modelos para controlar el uso de tokens y el costo.
- La plataforma trata a los modelos de IA como herramientas especializadas en lugar de servicios intercambiables.
Perplexity presentó Computadora, una herramienta que dirige las solicitudes de los usuarios al modelo de IA más adecuado. El sistema combina Gemini para investigaciones profundas, Grok para trabajos ligeros y rápidos, y ChatGPT 5.2 para tareas de contexto largo, todos construidos sobre el motor de razonamiento Opus 4.6. Se integra con aplicaciones de productividad populares como Gmail, Outlook, GitHub, Slack, Notion y Salesforce, lo que permite a los usuarios redactar documentos, crear diapositivas, enviar correos electrónicos y programar tareas en segundo plano sin intervención manual. Los suscriptores de Perplexity Max pueden probar la función de inmediato, y se espera que los usuarios de Enterprise Max tengan acceso en un futuro próximo. La implementación destaca un cambio hacia la orquestación de modelos específicos en lugar de tratar la IA como un servicio intercambiable único.
Descripción general de la función
Perplexity anunció el lanzamiento de Computadora, una plataforma que selecciona dinámicamente el modelo de inteligencia artificial óptimo para cada sub-tarea en una solicitud de usuario. El sistema ejecuta Opus 4.6 como su motor de razonamiento central, pero asigna trabajos específicos a modelos especializados. Gemini se utiliza para investigaciones profundas, Grok maneja tareas rápidas y ligeras, y ChatGPT 5.2 gestiona operaciones que requieren recuerdo de contexto largo y búsquedas amplias. Al aprovechar las fortalezas de cada modelo, Computadora busca ofrecer resultados más eficientes y precisos.
Especialización de modelos
El diseño trata a los modelos de IA como una caja de herramientas en lugar de un electrodoméstico único. Los usuarios pueden ver qué modelo está manejo una sub-tarea determinada y pueden elegir una opción más económica o rápida cuando los presupuestos de tokens son una preocupación. Esta flexibilidad refleja la visión de Perplexity de que los modelos están cada vez más especializados, con cada uno destacándose en dominios distintos como la profundidad de la investigación, la velocidad o la memoria contextual.
Beneficios para los usuarios
Computadora se integra con servicios de productividad ampliamente utilizados, incluyendo Gmail, Outlook, GitHub, Slack, Notion y Salesforce. A través de estas conexiones, la plataforma puede escribir documentos, crear presentaciones, enviar correos electrónicos y programar tareas que se ejecutan mientras el usuario está desconectado. Una sola solicitud puede iniciar una cadena de acciones: investigación, análisis, creación de documentos, entrega de correos electrónicos y seguimiento, sin que el usuario necesite intervenir entre los pasos.
Disponibilidad y precios
La función está disponible hoy para los suscriptores de Perplexity Max que acceden a la versión web de escritorio. Los usuarios de Enterprise Max recibirán acceso en un futuro próximo. Perplexity enfatiza que el sistema es agnóstico de modelos, lo que permite el intercambio de motores subyacentes a medida que se desarrollan modelos mejores.
Implicaciones para la industria
Al orquestar múltiples modelos de IA, Perplexity cuestiona la idea de que los servicios de IA están convirtiéndose en commodities intercambiables. En cambio, la empresa argumenta que la especialización impulsará el desarrollo futuro, y un sistema inteligente debe emparejar tareas con el modelo mejor adaptado para ellas. La implementación proporciona una prueba temprana de si dicha orquestación ahorra tiempo o dinero para los usuarios, y establece un precedente para que otros proveedores de IA consideren flujos de trabajo de múltiples modelos.