Google Alerta para Ataques em Grande Escala de Extração de Modelos de IA Visando Gemini

Pontos principais
- A Google relata que hackers usam mais de 100.000 prompts para extrair o modelo do Gemini.
- Os ataques são rotulados como "destilação" ou ataques de extração de modelos.
- Os adversários são rastreados até a Coreia do Norte, Rússia e China.
- A ameaça primária visa provedores de serviços de IA e desenvolvedores de modelos, e não os usuários finais.
- A Google alerta que isso pode ser um indicador precoce de tendências de roubo de IA mais amplas.
- A pressão competitiva de empresas de IA internacionais está impulsionando os ataques.
- Recomendações incluem monitoramento mais forte, limites de consulta e marca d'água de saídas de modelo.
O relatório do Threat Tracker da Google revela que hackers estão realizando "ataques de destilação" por meio do envio de mais de 100.000 prompts ao modelo de IA Gemini para roubar sua tecnologia subjacente. As tentativas parecem originar-se de atores na Coreia do Norte, Rússia e China e são classificadas como ataques de extração de modelos, onde adversários sondam um sistema de aprendizado de máquina maduro para replicar suas capacidades.
O Threat Tracker da Google Destaca o Roubo de Modelos de IA
Em um relatório recém-lançado do Threat Tracker, a Google divulgou que hackers estão executando "ataques de destilação" em grande escala visando seu modelo de inteligência artificial Gemini. O relatório detalha um incidente específico no qual mais de 100.000 prompts de IA foram usados para sondar as capacidades do Gemini, com o objetivo de extrair o conhecimento subjacente do modelo e reproduzi-lo em um sistema separado.
Os atacantes parecem estar operando a partir de vários países, incluindo Coreia do Norte, Rússia e China. A Google classifica essas atividades como ataques de extração de modelos, uma técnica na qual um adversário aproveita o acesso legítimo a um modelo de aprendizado de máquina maduro, consultando-o sistematicamente para colher informações que possam ser usadas para treinar um novo modelo. Essa abordagem permite efetivamente que os ladrões clonem o desempenho do modelo original sem comprometer diretamente os dados do usuário.
De acordo com o relatório, o alvo principal desses ataques não é o usuário final, mas sim o ecossistema mais amplo de provedores de serviços e desenvolvedores de IA. A Google enfatiza que, embora a atividade atual não represente uma ameaça imediata para seus clientes, ela levanta preocupações significativas para as empresas que investem pesadamente na construção e no ajuste fino de grandes modelos de linguagem. O roubo de propriedade intelectual poderia permitir que concorrentes lançassem ofertas quase idênticas a uma fração do custo de desenvolvimento.
John Hultquist, analista-chefe do Grupo de Inteligência de Ameaças da Google, descreveu a situação como um "canário na mina de carvão", sugerindo que a Google pode ser uma das primeiras grandes empresas a enfrentar esse tipo de roubo de IA, mas que muitos mais incidentes são prováveis de seguir. O relatório situa esses ataques dentro de um padrão mais amplo de ameaças cibernéticas relacionadas à IA, observando que a guerra sobre modelos avançados intensificou-se em várias frentes.
Desenvolvimentos recentes no campo da IA destacam a pressão competitiva que impulsiona tal roubo. Empresas chinesas, incluindo a ByteDance, introduziram ferramentas de geração de vídeo sofisticadas, enquanto a DeepSeek, outra empresa de IA chinesa, lançou um modelo que rivalizava com as principais tecnologias dos EUA. A OpenAI acusou anteriormente a DeepSeek de treinar seu modelo em tecnologia existente de uma maneira semelhante às táticas descritas no relatório da Google.
As descobertas da Google servem como um alerta para a comunidade de IA sobre o risco emergente de extração de modelos. A empresa insta os desenvolvedores a implementar monitoramento robusto e controles de acesso, e a considerar medidas defensivas, como a marca d'água de saídas de modelo e a limitação do volume de consultas de uma única fonte. À medida que os sistemas de IA se tornam mais integrais a uma ampla gama de aplicações, proteger a propriedade intelectual que os subjaz será essencial para manter um panorama tecnológico competitivo e seguro.