Anthropic Anuncia Novas Capacidades de Uso de Computador do Claude com Salvaguardas Incorporadas

Pontos principais
- A Anthropic adicionou uma funcionalidade de uso de computador que permite que o Claude interaja diretamente com a área de trabalho do usuário.
- Salvaguardas são incorporadas para bloquear ações arriscadas, como mover dinheiro, modificar arquivos ou lidar com dados sensíveis.
- O acesso a certos aplicativos de alto risco, como plataformas de investimento e criptomoeda, é restrito por padrão.
- A Anthropic aconselha os usuários a começar com aplicativos confiáveis e evitar usar informações sensíveis durante a pré-visualização.
- O lançamento segue ferramentas de controle de desktop semelhantes da Perplexity, Manus e Nvidia.
- A popularidade viral do OpenClaw no início do ano levou a OpenAI a contratar seu criador para desenvolver agentes pessoais de próxima geração.
A Anthropic introduziu uma funcionalidade de uso de computador para o seu modelo de IA Claude, permitindo que o sistema interaja diretamente com a área de trabalho do usuário. A empresa enfatizou um conjunto de salvaguardas projetadas para bloquear ações arriscadas, como mover dinheiro, modificar arquivos ou acessar dados sensíveis, embora tenha advertido que essas proteções não são absolutas. Os usuários são aconselhados a começar com aplicativos confiáveis e evitar lidar com informações sensíveis durante a fase de pré-visualização.
Novas Capacidades de Uso de Computador do Claude da Anthropic
A Anthropic adicionou uma capacidade que permite que o seu modelo de IA Claude controle o ambiente de área de trabalho de um computador. Quando ativada, o Claude pode ver tudo o que é exibido na tela, incluindo dados pessoais, documentos sensíveis e informações privadas. Essa funcionalidade faz parte de uma pré-visualização de pesquisa que visa explorar como os agentes de IA podem ajudar os usuários realizando tarefas diretamente em suas máquinas.
Salvaguardas Incorporadas e Limitações
A empresa destaca que o Claude está equipado com múltiplas salvaguardas destinadas a prevenir riscos comuns. Essas salvaguardas são projetadas para bloquear "operações arriscadas" como mover ou investir dinheiro, modificar arquivos, capturar imagens faciais ou inserir dados sensíveis. A Anthropic também observa que o acesso a certos aplicativos "proibidos" - como plataformas de investimento e negociação ou serviços de criptomoeda - será restrito por padrão. Embora essas medidas estejam em vigor, a Anthropic reconhece que elas não são perfeitas e que o Claude pode ocasionalmente agir fora dos limites pretendidos.
Orientação para Usuários Durante a Pré-visualização
A Anthropic recomenda que os usuários comecem concedendo ao Claude acesso apenas a aplicativos que confiam e evitem usar a funcionalidade com dados sensíveis. Essa precaução visa mitigar a exposição potencial de informações privadas enquanto a tecnologia ainda está sendo avaliada. A página de suporte da empresa reforça o conselho de começar com aplicativos confiáveis e ter cuidado com os tipos de dados que o Claude pode ver.
Contexto da Indústria e Esforços Comparáveis
O anúncio chega logo após uma onda de ofertas semelhantes de outras empresas de tecnologia. A Perplexity introduziu uma funcionalidade de Computador Pessoal, a Manus lançou o Meu Computador e a Nvidia lançou o NemoClaw - cada uma permitindo que os agentes de IA controlem um desktop diretamente. Esses desenvolvimentos seguem a popularidade viral do OpenClaw no início do ano, que demonstrou o apelo de agentes de IA pessoais capazes de interagir com o computador de um usuário. Em resposta a esse momentum, a OpenAI contratou o criador do OpenClaw, Peter SteinBerger, para liderar a próxima geração de agentes pessoais.
Implicações e Perspectivas
O lançamento da Anthropic reflete uma tendência mais ampla da indústria em direção à integração de assistentes de IA mais estreitamente com tarefas de computação cotidianas. Ao combinar modelos de linguagem avançados com controle direto de desktop, as empresas visam criar experiências de usuário mais fluidas e produtivas. Ao mesmo tempo, a ênfase nas salvaguardas destaca as preocupações contínuas sobre privacidade, segurança e o potencial para ações não intencionais por sistemas de IA. À medida que a pré-visualização de pesquisa progride, a Anthropic e outras empresas provavelmente continuarão a refinar esses recursos para equilibrar utilidade com segurança.