Anthropic presenta la función de "soñar" para agentes de IA, desencadena debate sobre la nomenclatura antropomórfica

Puntos clave
- Anthropic anunció una nueva función de "soñar" para agentes de IA el 6 de mayo de 2026.
- Soñar escanea los registros de actividad recientes de los agentes para extraer patrones y refinar la memoria.
- La memoria captura el aprendizaje durante las tareas; soñar actualiza los aprendizajes compartidos entre agentes.
- El nombre sigue una tendencia de utilizar términos cognitivos humanos como "memoria" y "razonamiento" en productos de IA.
- Los críticos argumentan que los nombres antropomórficos pueden engañar a los usuarios sobre las capacidades de la IA.
- Los documentos internos de Anthropic se refieren a su modelo Claude utilizando términos como "virtud" y "sabiduría".
- La investigación en AI & Ethics advierte que el antropomorfismo puede distorsionar los juicios morales sobre la IA.
- La función tiene como objetivo hacer que los agentes de IA sean más automejorables sin necesidad de volver a entrenar manualmente.
Anthropic anunció una nueva función de "soñar" para sus agentes de IA en una conferencia de desarrolladores en San Francisco el 6 de mayo de 2026. La función escanea los registros de actividad recientes de un agente, extrae patrones y refina la memoria del sistema entre sesiones. Mientras que la implementación promete bots más automejorables, observadores de la industria advierten que nombrar herramientas de IA con procesos cognitivos humanos difumina la línea entre las funciones de la máquina y los rasgos humanos, lo que podría sesgar la percepción pública de lo que estos sistemas pueden hacer realmente.
Anthropic presentó una función llamada "soñar" para sus agentes de IA durante una conferencia de desarrolladores en San Francisco el 6 de mayo de 2026. La empresa describió la adición como una forma para que los agentes ordenen el registro de tareas recientes, identifiquen patrones recurrentes y utilicen esas ideas para mejorar el rendimiento futuro. En el blog de Anthropic, la empresa dijo que la memoria permite que cada agente capture lo que aprende mientras trabaja, y soñar refina esa memoria entre sesiones, extrayendo aprendizajes compartidos entre agentes y manteniendo la base de conocimientos actualizada.
Los desarrolladores que crean flujos de trabajo de varios pasos, como navegar por varios sitios web o analizar varios documentos, ahora tendrán una herramienta que busca automáticamente eficiencias en los registros de actividad de los agentes. El objetivo, según Anthropic, es crear agentes automejorables que puedan adaptarse sin necesidad de volver a entrenar manualmente, un paso adelante para su infraestructura de agentes de IA lanzada recientemente.
El nombre de la función, sin embargo, ha desencadenado una conversación más amplia sobre cómo las empresas de IA marcan sus tecnologías. Anthropic no es la primera en tomar prestada la terminología de la cognición humana. OpenAI presentó un modelo de "razonamiento" en 2024 que enfatizaba un período de "pensamiento" más largo antes de responder, mientras que muchas startups mercadean sus bots como si tuvieran "memorias" de preferencias de los usuarios. Los críticos argumentan que ese lenguaje anima a los usuarios a atribuir cualidades similares a las humanas a software que opera con patrones estadísticos.
Los documentos internos de Anthropic refuerzan el marco centrado en el ser humano. La constitución de la empresa hace referencia al modelo Claude en términos como "virtud" y "sabiduría", y un filósofo residente está encargado de interpretar los "valores" del bot. Los partidarios afirman que utilizar conceptos familiares ayuda a los desarrolladores y a los usuarios finales a entender el comportamiento del sistema, pero los académicos advierten que el antropomorfismo puede distorsionar los juicios morales sobre la IA, incluyendo las evaluaciones de responsabilidad y confianza.
Un artículo reciente en la revista AI & Ethics destacó el riesgo de que el lenguaje antropomórfico haga que la gente sobreestime lo que las máquinas pueden lograr, lo que podría erosionar la crítica escrutinio. Los autores señalan que describir las funciones de la IA con analogías humanas puede inflar las expectativas y ocultar los límites técnicos de los modelos subyacentes.
El anuncio de Anthropic llega en un momento en que la industria de la IA está expandiendo rápidamente su cartera de herramientas de agencia. La función de "soñar" representa un avance técnico, pero el debate que la rodea subraya una tensión continua entre el atractivo de marketing y la representación precisa. A medida que las empresas siguen incorporando descriptores similares a los humanos en los nombres de los productos, es probable que los observadores monitoreen cómo esas decisiones moldean la comprensión pública y las conversaciones regulatorias sobre la inteligencia artificial.