Google Advierte sobre Ataques a Gran Escala de Extracción de Modelos de IA que Apuntan a Gemini

Google Warns of Large-Scale AI Model Extraction Attacks Targeting Gemini

Puntos clave

  • Google informa que los hackers están utilizando más de 100,000 solicitudes para extraer el modelo de Gemini.
  • Los ataques se etiquetan como "destilación" o ataques de extracción de modelos.
  • Los adversarios se rastrean hasta Corea del Norte, Rusia y China.
  • La amenaza primaria apunta a los proveedores de servicios de IA y a los desarrolladores de modelos, no a los usuarios finales.
  • Google advierte que esto puede ser un indicador temprano de tendencias más amplias de robo de IA.
  • La presión competitiva de las empresas de IA internacionales está impulsando los ataques.
  • Las recomendaciones incluyen un monitoreo más fuerte, límites de consultas y marca de agua de salidas.

El informe de Threat Tracker de Google revela que los hackers están realizando "ataques de destilación" inundando el modelo de IA Gemini con más de 100,000 solicitudes para robar su tecnología subyacente. Los intentos parecen originarse de actores en Corea del Norte, Rusia y China y se clasifican como ataques de extracción de modelos, donde los adversarios exploran un sistema de aprendizaje automático maduro para replicar sus capacidades. Aunque Google dice que la actividad no amenaza directamente a los usuarios finales, plantea un riesgo grave para los proveedores de servicios y los desarrolladores de IA cuyos modelos podrían ser copiados y reutilizados. El informe destaca una creciente ola de robo de IA y subraya la necesidad de defensas más fuertes en el panorama de IA en rápida evolución.

El Informe de Threat Tracker de Google Destaca el Robo de Modelos de IA

En un informe de Threat Tracker recientemente lanzado, Google reveló que los hackers están ejecutando "ataques de destilación" a gran escala dirigidos a su modelo de inteligencia artificial Gemini. El informe detalla un incidente específico en el que se utilizaron más de 100,000 solicitudes de IA para explorar las capacidades de Gemini, con el propósito de extraer el conocimiento subyacente del modelo y reproducirlo en un sistema separado.

Los atacantes parecen estar operando desde varios países, incluyendo Corea del Norte, Rusia y China. Google clasifica estas actividades como ataques de extracción de modelos, una técnica donde un adversario aprovecha el acceso legítimo a un modelo de aprendizaje automático maduro, consultándolo sistemáticamente para cosechar información que se puede utilizar para entrenar un nuevo modelo. Este enfoque permite efectivamente a los ladrones clonar el rendimiento del modelo original sin comprometer directamente los datos de los usuarios.

Según el informe, el objetivo principal de estos ataques no es el usuario final, sino más bien el ecosistema más amplio de proveedores de servicios y desarrolladores de IA. Google enfatiza que, aunque la actividad actual no plantea una amenaza inmediata para sus clientes, sí plantea preocupaciones significativas para las empresas que invierten mucho en la construcción y afinación de grandes modelos de lenguaje. El robo de propiedad intelectual podría permitir a los competidores lanzar ofertas casi idénticas a una fracción del costo de desarrollo.

John Hultquist, analista principal del Grupo de Inteligencia de Amenazas de Google, describió la situación como un "canario en la mina de carbón", sugiriendo que Google puede ser una de las primeras empresas importantes en enfrentar este tipo de robo de IA, pero que es probable que sigan muchos más incidentes. El informe sitúa estos ataques dentro de un patrón más amplio de amenazas cibernéticas relacionadas con la IA, observando que la guerra sobre los modelos avanzados se ha intensificado en múltiples frentes.

Los desarrollos recientes en el campo de la IA subrayan la presión competitiva que impulsa este robo. Las empresas chinas, incluyendo ByteDance, han introducido herramientas de generación de video sofisticadas, mientras que DeepSeek, otra empresa de IA china, lanzó un modelo que rivalizaba con las tecnologías líderes de EE. UU. OpenAI había acusado previamente a DeepSeek de entrenar su modelo en tecnología existente de una manera similar a las tácticas descritas en el informe de Google.

Los hallazgos de Google sirven como una advertencia a la comunidad de IA sobre el riesgo emergente de la extracción de modelos. La empresa insta a los desarrolladores a implementar un monitoreo y controles de acceso robustos, y a considerar medidas defensivas como la marca de agua de las salidas del modelo y limitar el volumen de preguntas desde una sola fuente. A medida que los sistemas de IA se vuelven más integrales para una amplia gama de aplicaciones, proteger la propiedad intelectual que los sustenta será esencial para mantener un panorama tecnológico competitivo y seguro.

#inteligencia artificial#seguridad de IA#extracción de modelos#Google#Gemini#seguridad cibernética#inteligencia de amenazas#Corea del Norte#Rusia#China#robo de IA#aprendizaje automático#robo de tecnología

También disponible en: