Anthropic Acusa Três Laboratórios de IA Chineses de Ataques de Destilação ao Claude

Anthropic Accuses Three Chinese AI Labs of Distillation Attacks on Claude

Pontos principais

  • A Anthropic afirma que a DeepSeek, Moonshot e MiniMax conduziram "ataques de destilação" em larga escala ao Claude.
  • As campanhas envolveram cerca de 24.000 contas fraudulentas e mais de 16 milhões de interações.
  • A Anthropic vinculou a atividade às três empresas usando dados de endereços IP, solicitações de metadados e indícios de infraestrutura.
  • A empresa planeja atualizar seus sistemas para tornar esses ataques mais difíceis de executar e mais fáceis de detectar.
  • A OpenAI relatou anteriormente preocupações semelhantes com a destilação e baniu contas suspeitas.
  • A Anthropic está lidando simultaneamente com uma ação judicial de editores de música sobre dados de treinamento.

A Anthropic alertou que três empresas chinesas de inteligência artificial - DeepSeek, Moonshot e MiniMax - conduziram campanhas em larga escala para extrair ilegalmente capacidades do seu chatbot Claude. A empresa afirma que as empresas usaram cerca de 24.000 contas fraudulentas para gerar mais de 16 milhões de interações, efetivamente usando o Claude como um atalho para melhorar seus próprios modelos.

Anthropic Levanta Alarme Sobre Ataques de Destilação

A Anthropic, criadora do chatbot Claude, acusou publicamente três empresas chinesas de inteligência artificial - DeepSeek, Moonshot e MiniMax - de realizar o que descreve como "campanhas em larga escala" para extrair ilegalmente as capacidades do Claude. A empresa caracteriza essas atividades como "ataques de destilação", onde modelos menos capazes dependem das respostas de um modelo mais poderoso para se treinar.

De acordo com o comunicado da Anthropic, as três empresas usaram aproximadamente 24.000 contas fraudulentas para gerar mais de 16 milhões de interações com o Claude. Ao utilizar as saídas do Claude, as empresas poderiam contornar o desenvolvimento de seus próprios modelos de IA, potencialmente bypassando salvaguardas construídas no Claude.

A Anthropic disse que vinculou cada campanha às empresas específicas com "alta confiança" ao analisar correlações de endereços IP, solicitações de metadados e outros indicadores de infraestrutura. A empresa também consultou outros jogadores da indústria que observaram comportamentos semelhantes.

A alegação segue uma reclamação semelhante feita pela OpenAI no ano passado, quando a OpenAI relatou que empresas rivais estavam destilando seus modelos e tomou medidas banindo contas suspeitas. A Anthropic indicou que irá atualizar seus sistemas para tornar os ataques de destilação mais difíceis de executar e mais fáceis de identificar.

Embora a Anthropic aponte esses abusos alegados, a empresa também enfrenta uma ação judicial separada de editores de música que alegam que a empresa usou cópias ilegais de músicas para treinar o Claude. A empresa não comentou sobre a ação judicial na presente declaração.

#Inteligência artificial#Segurança da IA#Claude#Anthropic#Ataques de destilação#Empresas de IA chinesas#DeepSeek#Moonshot#MiniMax#Treinamento de modelos#Propriedade intelectual#Ética da IA

Também disponível em:

Anthropic Acusa Três Laboratórios de IA Chineses de Ataques de Destilação ao Claude | AI News