Anthropic prévia modo 'automático' para Claude Code para reduzir operações de arquivos de risco

Anthropic previews 'auto mode' for Claude Code to reduce risky file operations

Pontos principais

  • A Anthropic prévia o 'modo automático' para o Claude Code.
  • O modo usa um classificador para permitir ações seguras sem prompts de usuário.
  • Ações arriscadas fazem com que o Claude busque esclarecimentos ou adote um caminho alternativo.
  • Projetado para reduzir as chances de exclusões em massa de arquivos, vazamentos de dados e execução de código malicioso.
  • A Anthropic reconhece que o classificador ainda pode permitir ações arriscadas em condições ambíguas.
  • A recente interrupção de 13 horas da AWS, envolvendo uma ferramenta de IA, influenciou o desenvolvimento do modo automático.
  • A pré-visualização inicial está disponível para usuários do plano de equipe.
  • Os usuários Enterprise e API receberão o recurso nos próximos dias.

A Anthropic começou a pré-visualizar um novo 'modo automático' dentro do Claude Code, oferecendo um meio-termo entre o comportamento padrão de segurança em primeiro lugar e a operação totalmente autônoma. O recurso usa um classificador para permitir que o Claude execute ações que julga seguras, enquanto se afasta de comandos potencialmente perigosos, como exclusões em massa de arquivos ou execução de código malicioso.

Contexto

A Anthropic introduziu uma pré-visualização do 'modo automático' para seu assistente de IA Claude Code. A empresa posicionou o recurso como um compromisso entre a configuração padrão - onde o Claude pede aprovação do usuário antes de cada gravação de arquivo ou comando bash - e a prática arriscada que alguns desenvolvedores empregam para deixar o chatbot agir com supervisão mínima.

Visão geral do recurso

Quando o modo automático é habilitado, um classificador avalia cada ação proposta. Se o classificador julga a ação segura, o Claude prossegue sem solicitar a confirmação do usuário. Se a ação parece arriscada, o Claude é redirecionado para buscar esclarecimentos ou adotar uma abordagem alternativa. Este design visa reduzir incidentes como exclusões em massa de arquivos, exposição de dados sensíveis ou execução de código malicioso.

Mecanismos de segurança

A Anthropic construiu o classificador para atuar como um guardião, concedendo permissão apenas para ações que atendem aos critérios de segurança. O objetivo é reduzir a probabilidade de que o Claude delete involuntariamente grandes números de arquivos, extraia informações confidenciais ou execute scripts prejudiciais. Ao filtrar as ações, o sistema busca proteger tanto os desenvolvedores quanto os ambientes em que trabalham.

Limitações e advertências

A Anthropic alerta que o classificador não é infalível. A empresa observa que a intenção ambígua do usuário ou a falta de contexto sobre o ambiente de destino pode levar o classificador a permitir ações arriscadas. Nesses casos, o Claude ainda pode executar operações que acarretam riscos adicionais.

Motivação

A recente interrupção de 13 horas da AWS, que foi vinculada a uma ferramenta de IA que excluiu um ambiente de hospedagem, parece ter influenciado a decisão da Anthropic de desenvolver o modo automático. Embora a Amazon tenha atribuído o incidente a um erro humano e permissões mais amplas do que o esperado, o evento destacou a necessidade de salvaguardas mais rigorosas em torno da execução de código impulsionada por IA.

Plano de implantação

Os usuários do plano de equipe podem começar a pré-visualizar o modo automático imediatamente. A Anthropic planeja estender o recurso aos clientes Enterprise e API nos próximos dias, permitindo que um conjunto mais amplo de desenvolvedores se beneficie da camada de segurança adicionada, enquanto retém os ganhos de produtividade do Claude Code.

#Anthropic#Claude Code#modo automático#segurança de IA#geração de código#aprendizado de máquina#desenvolvimento de software#computação em nuvem#risco de IA#IA empresarial

Também disponível em:

Anthropic prévia modo 'automático' para Claude Code para reduzir operações de arquivos de risco | AI News