Anthropic Lança

Anthropic Unveils Auto Mode for Claude Code, Giving AI Autonomous Action with Safety Guardrails

Pontos principais

  • A Anthropic lança "modo automático" para Claude Code, permitindo que a IA execute ações seguras de forma autônoma.
  • O recurso inclui uma camada de segurança que verifica comportamento arriscado e ataques de injeção de prompts.
  • O modo automático funciona com Claude Sonnet 4.6 e Opus 4.6 e é recomendado para ambientes isolados e sandbox.
  • Ações arriscadas são bloqueadas, enquanto ações seguras procedem sem aprovação manual.
  • A implantação visa usuários Enterprise e API após uma pré-visualização de pesquisa inicial.
  • O modo automático segue as últimas ferramentas da Anthropic, Claude Code Review e Dispatch para Cowork.
  • A atualização reflete uma tendência mais ampla na indústria em direção a assistentes de codificação de IA mais autônomos.

A Anthropic introduziu um "modo automático" para sua IA Claude Code, permitindo que o sistema execute ações automaticamente quando consideradas seguras, bloqueando aquelas que parecem arriscadas. O recurso, agora em pré-visualização de pesquisa, adiciona uma camada de segurança que verifica comportamentos perigosos e ataques de injeção de prompts antes de qualquer ação ser executada.

Contexto

Desenvolvedores que trabalham com ferramentas de codificação impulsionadas por IA enfrentam um trade-off entre velocidade e controle. Soluções existentes frequentemente exigem que um humano aprove cada ação, ou concedem total tomada de decisão ao modelo sem salvaguardas. A última atualização da Anthropic para o Claude Code busca preencher essa lacuna introduzindo um modo autônomo que pode decidir quais ações são seguras para serem executadas por conta própria.

Recursos do Modo Automático

O modo automático está atualmente disponível em uma pré-visualização de pesquisa, significando que está pronto para testes, mas ainda não é um produto final. O recurso é construído sobre o comando existente "dangerously-skip-permissions" do Claude Code, mas adiciona uma camada de segurança que revisa cada ação potencial. Quando a IA determina que uma ação é segura, ela procede automaticamente; se a ação é sinalizada como arriscada, ela é bloqueada e o usuário é notificado.

Medidas de Segurança

A camada de segurança examina ações para duas principais preocupações: comportamento arriscado que o usuário não solicitou e ataques de injeção de prompts, onde instruções maliciosas são ocultas no conteúdo sendo processado. Ao filtrar essas ameaças, a Anthropic visa prevenir que o modelo tome etapas não intencionais ou prejudiciais. A empresa não divulgou os critérios exatos usados para diferenciar ações seguras de arriscadas, mas enfatiza que o recurso é destinado a ser usado em ambientes isolados para limitar danos potenciais.

Implantação e Recomendações

O modo automático atualmente suporta Claude Sonnet 4.6 e Opus 4.6. A Anthropic recomenda executar o recurso em configurações sandbox que sejam mantidas separadas de sistemas de produção, uma prática destinada a conter resultados não intencionais. A implantação será estendida a usuários Enterprise e API nos próximos dias, expandindo o acesso além da pré-visualização de pesquisa inicial.

Contexto da Indústria

Este desenvolvimento segue as últimas liberações da Anthropic do Claude Code Review, um revisor de código automatizado projetado para capturar bugs antes que eles entrem na base de código, e Dispatch para Cowork, que permite que os usuários atribuam tarefas a agentes de IA. O modo automático representa uma mudança mais ampla na indústria de IA em direção a ferramentas que podem agir sem esperar por aprovação humana explícita, refletindo movimentos semelhantes de empresas como GitHub e OpenAI. O desafio permanece em equilibrar os ganhos de velocidade da execução autônoma com a necessidade de mecanismos de segurança robustos.

Olhando para o Futuro

Embora a Anthropic não tenha fornecido especificações técnicas detalhadas para os critérios de segurança, os desenvolvedores provavelmente buscarão mais transparência antes de adotar o recurso amplamente. A ênfase da empresa em ambientes sandbox sugere uma abordagem cautelosa para a implantação de IA autônoma em configurações de produção. À medida que a pré-visualização de pesquisa progride, refinamentos adicionais na camada de segurança e suporte a modelos expandidos podem seguir, moldando como a codificação assistida por IA evolui nos fluxos de trabalho de empresa e desenvolvedor.

#Anthropic#Claude#modo automático#codificação de IA#IA autônoma#desenvolvimento de software#injeção de prompts#sandbox#IA empresarial#revisão de código#segurança de IA#ferramentas de software

Também disponível em:

Anthropic Lança | AI News