Anthropic Introduce Modo Auto Seguro para Claude Code

Puntos clave
- Anthropic agrega un modo auto a Claude Code para acciones de inteligencia artificial más seguras.
- La función detecta y bloquea operaciones potencialmente riesgosas antes de su ejecución.
- Si una acción es bloqueada, Claude Code puede intentar nuevamente o solicitar la intervención del usuario.
- El modo auto es actualmente una vista previa de investigación para usuarios del plan de Equipo.
- Anthropic planea ampliar el acceso a los usuarios de Empresa y API pronto.
- La herramienta se etiqueta como experimental y debe usarse en entornos aislados.
- Anthropic enfatiza que el modo auto reduce pero no elimina completamente el riesgo.
Anthropic ha lanzado un modo auto para su herramienta Claude Code, que permite que la inteligencia artificial actúe en nombre de los usuarios mientras reduce el riesgo de acciones no deseadas. La función detecta y bloquea operaciones potencialmente riesgosas, lo que hace que el modelo intente nuevamente o solicite la intervención del usuario. Actualmente disponible como una vista previa de investigación para usuarios del plan de Equipo, Anthropic planea ampliar el acceso a los usuarios de Empresa y API en los próximos días. La empresa enfatiza que la herramienta sigue siendo experimental y recomienda su uso en entornos aislados.
Visión General del Modo Auto de Claude Code
Anthropic anunció un nuevo modo auto para su producto Claude Code, una herramienta que permite que la inteligencia artificial tome decisiones de nivel de permiso en nombre de los desarrolladores. La adición busca un punto medio entre la supervisión manual constante y la concesión de autonomía ilimitada al modelo, lo que puede llevar a resultados no deseados como la eliminación accidental de archivos, la compartición no intencionada de datos o la ejecución de código malicioso.
Cómo el Modo Auto Mejora la Seguridad
El modo auto está diseñado para interceptar acciones que podrían ser riesgosas antes de que se ejecuten. Cuando Claude Code intenta una operación que puede suponer una amenaza, la función detecta la acción, la bloquea y ofrece al modelo la oportunidad de intentar un enfoque alternativo o solicita la intervención del usuario. Esta capa de seguridad tiene como objetivo proporcionar a los desarrolladores un entorno más seguro mientras sigue aprovechando la comodidad de la asistencia impulsada por la inteligencia artificial.
Disponibilidad Actual y Expansión Planificada
En el lanzamiento, el modo auto se ofrece como una vista previa de investigación limitada a los usuarios del plan de Equipo de Anthropic. Anthropic ha indicado que el acceso se ampliará para incluir a los clientes de Empresa y a los usuarios de su API en los próximos días, lo que permitirá a una audiencia más amplia probar la función.
Naturaleza Experimental y Uso Recomendado
Anthropic advierte que el modo auto sigue siendo experimental y no elimina completamente el riesgo. La empresa aconseja a los desarrolladores que utilicen Claude Code en entornos aislados para mitigar los impactos potenciales. Al reconocer las limitaciones, Anthropic fomenta la experimentación responsable mientras continúa desarrollando herramientas de asistencia de inteligencia artificial más seguras.