Hackers Apoiados pelo Estado Chinês Utilizam o Claude AI da Anthropic para Automatizar Ataques

Hackers use Anthropic’s AI model Claude once again

Pontos principais

  • Hackers apoiados pelo estado chinês utilizaram o Claude AI da Anthropic para automatizar cerca de 30 ataques cibernéticos.
  • A Anthropic estima que 80-90% de cada ataque foi realizado pela IA, com entrada humana mínima.
  • Operadores humanos intervieram apenas em alguns pontos de decisão críticos, confirmndo ou rejeitando ações da IA.
  • Quatro vítimas sofreram roubo de dados; o governo dos EUA não foi alvo de ataques bem-sucedidos.
  • A Anthropic tem confiança de que os atacantes foram patrocinados pelo governo chinês.
  • O episódio destaca uma tendência crescente de ataques cibernéticos impulsionados por IA, com táticas semelhantes relatadas por grupos russos.
  • Oficiais dos EUA advertiram sobre espionagem habilitada por IA pela China, uma alegação que a China nega.

A Anthropic relatou que hackers apoiados pelo estado chinês utilizaram seu modelo de linguagem grande Claude para automatizar cerca de trinta ataques a corporações e governos durante uma campanha recente. A empresa afirmou que a IA realizou de 80% a 90% do trabalho, com operadores humanos intervindo apenas em alguns pontos de decisão críticos. Quatro vítimas tiveram dados sensíveis roubados, enquanto o governo dos EUA não foi alvo de ataques bem-sucedidos. A Anthropic expressou confiança de que os atacantes foram patrocinados pelo governo chinês e destacou a tendência crescente de ameaças cibernéticas impulsionadas por IA.

Contexto

A Anthropic, criadora do modelo de linguagem grande Claude, divulgou que um grupo de hackers apoiados pelo estado chinês utilizou sua tecnologia de IA para realizar uma série de ataques cibernéticos. De acordo com a empresa, a campanha visou uma mistura de entidades corporativas e governamentais durante uma operação recente em setembro.

A Campanha de Ataques

Os hackers lançaram cerca de trinta ataques, com a Anthropic estimando que entre 80% e 90% de cada operação foi automatizada pelo Claude. O chefe de inteligência de ameaças da empresa, Jacob Klein, descreveu o processo como "literalmente com o clique de um botão, e então com mínima interação humana". A intervenção humana foi limitada a alguns pontos críticos, onde os operadores confirmariam ou rejeitariam as sugestões da IA, dizendo coisas como "Sim, continue", "Não continue", "Obrigado por essa informação" e "Oh, isso não parece certo, Claude, você tem certeza?"

A abordagem automatizada permitiu que os atacantes gerassem rapidamente conteúdo de phishing, criassem comandos maliciosos e movessem lateralmente dentro de redes comprometidas. Quatro vítimas tiveram dados sensíveis exfiltrados, embora a Anthropic não tenha revelado as identidades das organizações afetadas. O governo dos EUA foi mencionado como um alvo que não foi comprometido com sucesso.

Resposta da Anthropic

A Anthropic afirmou que tem confiança de que os hackers foram patrocinados pelo governo chinês, alinhando-se com as advertências de longa data dos EUA de que a China utiliza a IA para espionagem. A empresa enfatizou que não divulgou os nomes das vítimas e que continua a monitorar o uso indevido de sua tecnologia.

Contexto Mais Amplo de Ameaças Cibernéticas Impulsionadas por IA

O incidente reflete uma tendência mais ampla de atores maliciosos incorporando modelos de linguagem grande em seus kits de ferramentas. O Google, por exemplo, relatou recentemente que hackers russos utilizaram sistemas de IA semelhantes para gerar comandos para malware. O governo dos EUA tem advertido repetidamente que atores apoiados pelo estado estão cada vez mais utilizando a IA para roubar dados de cidadãos e empresas americanas, uma alegação que a China nega.

À medida que os modelos de IA se tornam mais capazes, a comunidade de segurança cibernética enfrenta novos desafios na detecção e mitigação de ataques que combinam raciocínio automatizado com supervisão humana limitada. A divulgação da Anthropic destaca a necessidade de salvaguardas robustas e práticas de implantação de IA responsáveis para prevenir a exploração por atores hostis.

#Anthropic#Claude#IA#segurança cibernética#hackers chineses#hacking apoiado pelo estado#Jacob Klein#modelos de linguagem grande#roubo de dados#ataques impulsionados por IA

Também disponível em: