Google Impede Ataque de Dia Zero Dirigido por IA que Visava Ferramenta de Administração de Código Aberto

Google Impede Ataque de Dia Zero Dirigido por IA que Visava Ferramenta de Administração de Código Aberto

Pontos principais

  • O Grupo de Inteligência de Ameaças da Google impediu uma exploração de dia zero impulsionada por IA antes que ela pudesse ser usada em larga escala.
  • A vulnerabilidade visava uma ferramenta de administração de sistema de código aberto amplamente utilizada e poderia ter contornado a autenticação de dois fatores.
  • A Google não divulgou o grupo de hackers, o software ou o modelo de IA envolvido, apenas que não era o Gemini da Google.
  • Grupos ligados à China e à Coreia do Norte estão explorando ferramentas de IA, como o OpenClaw, para ataques semelhantes.
  • Pesquisas recentes destacam ameaças habilitadas por IA em veículos autônomos, reengenharia remota de modelos e acesso não autorizado a modelos.
  • O teste de penetração de IA está emergindo como um método proativo para testar modelos de linguagem contra entradas adversárias.

O Grupo de Inteligência de Ameaças da Google revelou que uma equipe de hackers criminosos usou um modelo de inteligência artificial para localizar uma vulnerabilidade de dia zero em uma plataforma de administração de sistema de código aberto amplamente utilizada. A vulnerabilidade poderia ter contornado a autenticação de dois fatores e permitido uma exploração em massa em várias organizações. A Google interveio, alertou os desenvolvedores do software e ajudou a lançar um patch antes que o ataque pudesse ser lançado.

O Grupo de Inteligência de Ameaças da Google confirmou que uma organização de hackers criminosos utilizou um modelo de inteligência artificial para descobrir uma vulnerabilidade de dia zero em uma ferramenta de administração de sistema web-based de código aberto popular. A falha, se explorada, teria permitido que os atacantes contornassem a autenticação de dois fatores - frequentemente a última barreira que protege as contas corporativas. O grupo pretendia lançar uma campanha de exploração coordenada e em massa, visando várias organizações simultaneamente.

A equipe de segurança da Google detectou a atividade precocemente, notificou os desenvolvedores da ferramenta e facilitou um patch antes que a exploração pudesse ser implantada em larga escala. A empresa se recusou a nomear o grupo de hackers, o software específico ou o modelo de IA utilizado, mas enfatizou que o modelo não era o Gemini da Google.

O incidente marca um ponto de inflexão para o cibercrime, transformando advertências de longa data sobre ataques aprimorados por IA em realidade. A Google disse que grupos ligados à China e à Coreia do Norte mostraram "interesse significativo" em usar ferramentas de IA, como o OpenClaw, para descoberta de vulnerabilidades, sublinhando uma tendência mais ampla de atores afiliados ao Estado adotarem técnicas de IA sofisticadas.

Pesquisadores documentaram ameaças semelhantes impulsionadas por IA em outros setores. Cientistas da Georgia Tech recentemente descobriram o VillainNet, uma porta de acesso oculta que se incorpora à IA de carros autodirigíveis e ativa com uma taxa de sucesso de 99% quando ativada. Uma equipe de pesquisa coreana demonstrou que modelos de IA podem ser reengenhados remotamente usando uma pequena antena que penetra paredes, não exigindo acesso direto ao sistema. Além disso, um grupo de usuários do Discord conseguiu contornar os controles de acesso e alcançar o modelo Mythos restrito da Anthropic por meio de um ambiente de fornecedor terceirizado.

Em resposta a esses riscos emergentes, uma disciplina nascente chamada teste de penetração de IA está ganhando tração. Equipes de segurança estão começando a testar modelos de linguagem com entradas adversárias para medir como eles se comportam em condições hostis. Embora ainda em sua infância, o teste de penetração de IA visa identificar e mitigar as maneiras pelas quais atores mal-intencionados podem armazenar IA gerativa.

A ação rápida da Google impediu o que poderia ter sido uma violação em larga escala, afetando inúmeras empresas. Ao alertar os mantenedores do software e coordenar um patch rápido, a empresa demonstrou a crescente importância da inteligência de ameaças em tempo real em uma era em que a IA pode amplificar tanto as capacidades cibernéticas defensivas quanto ofensivas.

#segurança cibernética#inteligência artificial#vulnerabilidade de dia zero#Inteligência de Ameaças da Google#software de código aberto#autenticação de dois fatores#hacking impulsionado por IA#teste de penetração de IA#Coreia do Norte#China

Também disponível em: