Anthropic Enfrenta Vazamentos Internos Consecutivos Após Erro de Embalagem

Anthropic Faces Back-to-Back Internal Leaks After Packaging Error

Pontos principais

  • A Anthropic vazou quase 3.000 arquivos internos, incluindo um rascunho de postagem de blog sobre um modelo não lançado.
  • Um erro de embalagem no Claude Code versão 2.1.88 expôs cerca de 2.000 arquivos de código-fonte e mais de 512.000 linhas de código.
  • A empresa descreveu os incidentes como problemas de embalagem causados por erro humano, e não como violações de segurança.
  • O Claude Code é uma ferramenta de linha de comando para desenvolvedores escreverem e editarem código usando a IA da Anthropic.
  • A OpenAI recentemente interrompeu seu produto de geração de vídeo Sora, citando uma mudança de foco para ofertas voltadas para desenvolvedores.
  • O pesquisador de segurança Chaofan Shou identificou o vazamento e postou sobre ele no X.
  • Os desenvolvedores rapidamente analisaram o código vazado, rotulando o Claude Code como uma experiência de desenvolvedor de produção.
  • A Anthropic deve melhorar seus processos internos de segurança e embalagem para evitar mais divulgações acidentais.

A Anthropic experimentou dois incidentes consecutivos em que arquivos internos foram expostos involuntariamente. O primeiro vazamento, relatado na semana passada, tornou públicos quase 3.000 documentos internos, incluindo um rascunho de postagem de blog sobre um modelo não lançado. O último incidente ocorreu quando a empresa lançou a versão 2.1.88 do seu pacote de código Claude, acidentalmente incluindo cerca de 2.000 arquivos de código-fonte e mais de 512.000 linhas de código. A Anthropic rotulou os eventos como problemas de embalagem causados por erro humano, e não como violações de segurança. Os vazamentos chamaram a atenção de concorrentes e desenvolvedores, especialmente após a OpenAI interromper recentemente seu produto de geração de vídeo Sora diante da crescente competição do Claude Code.

Vazamentos Internos Consecutivos

A Anthropic, uma empresa que construiu sua identidade pública em torno do desenvolvimento cuidadoso de IA e transparência de riscos, sofreu dois incidentes separados em que materiais internos foram expostos involuntariamente ao público. O primeiro incidente, relatado na semana passada, envolveu a publicação acidental de quase 3.000 arquivos internos. Entre esses arquivos, havia um rascunho de postagem de blog que descrevia um novo modelo poderoso que a empresa ainda não havia anunciado.

O segundo incidente ocorreu quando a Anthropic lançou a versão 2.1.88 do seu pacote de software Claude Code. Um erro de embalagem causou a inclusão de um arquivo que expôs cerca de 2.000 arquivos de código-fonte e mais de 512.000 linhas de código — essencialmente o plano arquitetônico completo para um de seus produtos mais importantes. O pesquisador de segurança Chaofan Shou notou rapidamente o vazamento e postou sobre ele no X.

Resposta da Empresa

A Anthropic respondeu a várias publicações com uma declaração descrevendo os eventos como um "problema de embalagem de lançamento causado por erro humano, e não uma violação de segurança". Embora a formulação sugira uma postura medida, as reações internas provavelmente foram mais preocupadas, considerando a sensibilidade do material exposto.

Impacto no Claude Code e no Cenário Competitivo

O Claude Code não é uma oferta menor; é uma ferramenta de linha de comando que permite que os desenvolvedores usem a IA da Anthropic para escrever e editar código, e se tornou um concorrente formidável no mercado de IA voltado para desenvolvedores. O Wall Street Journal notou que a OpenAI recentemente removeu seu produto de geração de vídeo Sora do público após apenas seis meses, mudando o foco para desenvolvedores e empresas — uma mudança parcialmente atribuída ao crescente momentum do Claude Code.

O material vazado não continha o modelo de IA em si, mas sim a estrutura de software que direciona o comportamento do modelo, o uso de ferramentas e as limitações. Os desenvolvedores rapidamente começaram a publicar análises detalhadas, descrevendo o Claude Code como uma "experiência de desenvolvedor de produção, e não apenas um invólucro em torno de uma API". Embora os concorrentes possam achar a arquitetura instrutiva, o ritmo do desenvolvimento de IA significa que qualquer vantagem pode ser de curta duração.

Perspectiva Futura

Agora, a Anthropic enfrenta o desafio de reforçar seus processos internos de segurança e embalagem para evitar mais divulgações acidentais. Os incidentes destacam o delicado equilíbrio que as empresas de IA devem manter entre abertura, desenvolvimento responsável e proteção de tecnologia proprietária.

#Anthropic#segurança de IA#vazamento de software#segurança de código#Claude Code#OpenAI#Sora#ferramentas de desenvolvedor#violação de segurança#notícias de tecnologia

Também disponível em:

Anthropic Enfrenta Vazamentos Internos Consecutivos Após Erro de Embalagem | AI News