Anthropic Acusa Três Laboratórios de IA Chineses de Ataques de Destilação ao Claude

Pontos principais
- A Anthropic afirma que a DeepSeek, Moonshot e MiniMax conduziram "ataques de destilação" em larga escala ao Claude.
- As campanhas envolveram cerca de 24.000 contas fraudulentas e mais de 16 milhões de interações.
- A Anthropic vinculou a atividade às três empresas usando dados de endereços IP, solicitações de metadados e indícios de infraestrutura.
- A empresa planeja atualizar seus sistemas para tornar esses ataques mais difíceis de executar e mais fáceis de detectar.
- A OpenAI relatou anteriormente preocupações semelhantes com a destilação e baniu contas suspeitas.
- A Anthropic está lidando simultaneamente com uma ação judicial de editores de música sobre dados de treinamento.
A Anthropic alertou que três empresas chinesas de inteligência artificial - DeepSeek, Moonshot e MiniMax - conduziram campanhas em larga escala para extrair ilegalmente capacidades do seu chatbot Claude. A empresa afirma que as empresas usaram cerca de 24.000 contas fraudulentas para gerar mais de 16 milhões de interações, efetivamente usando o Claude como um atalho para melhorar seus próprios modelos.
Anthropic Levanta Alarme Sobre Ataques de Destilação
A Anthropic, criadora do chatbot Claude, acusou publicamente três empresas chinesas de inteligência artificial - DeepSeek, Moonshot e MiniMax - de realizar o que descreve como "campanhas em larga escala" para extrair ilegalmente as capacidades do Claude. A empresa caracteriza essas atividades como "ataques de destilação", onde modelos menos capazes dependem das respostas de um modelo mais poderoso para se treinar.
De acordo com o comunicado da Anthropic, as três empresas usaram aproximadamente 24.000 contas fraudulentas para gerar mais de 16 milhões de interações com o Claude. Ao utilizar as saídas do Claude, as empresas poderiam contornar o desenvolvimento de seus próprios modelos de IA, potencialmente bypassando salvaguardas construídas no Claude.
A Anthropic disse que vinculou cada campanha às empresas específicas com "alta confiança" ao analisar correlações de endereços IP, solicitações de metadados e outros indicadores de infraestrutura. A empresa também consultou outros jogadores da indústria que observaram comportamentos semelhantes.
A alegação segue uma reclamação semelhante feita pela OpenAI no ano passado, quando a OpenAI relatou que empresas rivais estavam destilando seus modelos e tomou medidas banindo contas suspeitas. A Anthropic indicou que irá atualizar seus sistemas para tornar os ataques de destilação mais difíceis de executar e mais fáceis de identificar.
Embora a Anthropic aponte esses abusos alegados, a empresa também enfrenta uma ação judicial separada de editores de música que alegam que a empresa usou cópias ilegais de músicas para treinar o Claude. A empresa não comentou sobre a ação judicial na presente declaração.