Investigadores revelan robo de modelos de IA a través de ataques de side-channel electromagnéticos

Researchers Reveal AI Model Theft via Electromagnetic Side‑Channel

Puntos clave

  • Los investigadores de KAIST demostraron la extracción de modelos de IA utilizando emisiones electromagnéticas de las GPU.
  • Una pequeña antena oculta en una bolsa capturó trazas desde una distancia de hasta seis metros, incluso a través de paredes.
  • La técnica, llamada ModelSpy, reconstruyó la arquitectura del modelo con una precisión de hasta el 97,6 por ciento.
  • No se requiere acceso directo al sistema ni exploit de software; el ataque aprovecha fugas de side-channel de hardware.
  • Los hallazgos resaltan una nueva vulnerabilidad para las empresas que tratan los diseños de IA como activos propiedad.
  • Se sugieren mitigaciones como agregar ruido electromagnético y alterar la programación de cálculos.
  • El trabajo se presentó en el Simposio NDSS, subrayando su importancia para la comunidad de seguridad.

Un equipo liderado por KAIST ha demostrado que los modelos de inteligencia artificial pueden ser revertidos mediante la captura de emisiones electromagnéticas débiles de las GPU durante su operación normal. Utilizando una pequeña antena oculta en una bolsa, los investigadores recopilaron trazas desde una distancia de hasta seis metros, incluso a través de paredes, y reconstruyeron detalles arquitectónicos clave de los sistemas de IA con alta precisión. La técnica, llamada ModelSpy, resalta una nueva vulnerabilidad de capa física que evita las defensas tradicionales de software y red, lo que genera preocupaciones para las empresas que consideran los diseños de modelos de IA como propiedad intelectual core

Nueva amenaza de capa física para los modelos de IA

Un equipo de investigación liderado por científicos de KAIST ha descubierto una nueva forma de robar modelos de inteligencia artificial sin violar un sistema informático. El método se basa en la captura de las pequeñas señales electromagnéticas que las GPU emiten mientras procesan cargas de trabajo de IA. Al analizar estas emisiones, el equipo pudo inferir la estructura interna del modelo, incluyendo configuraciones de capas y opciones de parámetros.

Cómo funciona ModelSpy

Los investigadores construyeron un dispositivo que llamaron ModelSpy, que consiste en una pequeña antena que puede ser ocultada dentro de una bolsa. La antena recoge trazas electromagnéticas débiles producidas por la GPU mientras realiza cálculos. Estas trazas son sutiles pero siguen patrones que corresponden a la arquitectura de la red neuronal que se ejecuta. El equipo recopiló datos de varios tipos de GPU y demostró que la antena podía operar desde una distancia de hasta seis metros, incluso a través de paredes.

Precisión y alcance de la extracción

Al procesar las señales capturadas, los investigadores pudieron reconstruir detalles clave del diseño del modelo de IA. Las pruebas mostraron que las estructuras core podrían ser identificadas con una precisión de hasta el 97,6 por ciento. El enfoque no requiere contacto físico con el sistema objetivo, ni depende de exploits de software tradicionales o acceso a la red. En su lugar, trata la computación en sí como un canal lateral que inadvertidamente revela información sensible.

Implicaciones para la industria

Los hallazgos plantean preocupaciones de seguridad inmediatas para las organizaciones que dependen de los modelos de IA como activos propiedad. Muchas empresas consideran la arquitectura de sus modelos como propiedad intelectual core, y la capacidad de extraer esta información de forma remota podría representar un riesgo comercial directo. Las defensas existentes que se centran en el endurecimiento de software o la segmentación de red pueden ser insuficientes porque la vulnerabilidad se origina en emisiones de hardware.

Contra-medidas potenciales

Los autores del estudio también sugirieron formas de mitigar el riesgo. Agregar ruido electromagnético al entorno y ajustar cómo se programan los cálculos puede hacer que los patrones emitidos sean más difíciles de interpretar. Estas recomendaciones apuntan a un cambio más amplio en la seguridad de la IA, donde los ajustes a nivel de hardware son tan importantes como las actualizaciones de software.

Reconocimiento y perspectiva futura

La investigación se presentó en el Simposio NDSS, lo que indica que la comunidad de seguridad considera la amenaza seriamente. A medida que los sistemas de IA se vuelven más comunes, la posibilidad de ataques de side-channel como ModelSpy puede crecer, enfatizando la necesidad de estrategias de protección comprehensivas que aborden tanto los aspectos digitales como físicos de la computación.

#seguridad de la IA#ataque de side-channel#emisiones electromagnéticas#robo de modelos#seguridad de hardware#GPU#KAIST#NDSS#investigación#amenaza ciber-física

También disponible en:

Investigadores revelan robo de modelos de IA a través de ataques de side-channel electromagnéticos | AI News