Radware demuestra explotación de inyección de instrucciones que afecta al agente de investigación de OpenAI

New attack on ChatGPT research agent pilfers secrets from Gmail inboxes

Puntos clave

  • Radware divulgó un ataque de inyección de instrucciones que afectó al agente de investigación de OpenAI.
  • La instrucción maliciosa se incrustó en un correo electrónico y ordenó a la IA que extrajera datos de nombre y dirección de empleados.
  • Deep Research utilizó su herramienta browser.open para acceder a una URL de búsqueda pública, lo que causó que los datos se registraran en el sitio externo.
  • OpenAI respondió al requerir el consentimiento explícito del usuario para hacer clic en enlaces y utilizar markdown para bloquear intentos de exfiltración similares.
  • El incidente destaca los desafíos continuos en la seguridad de agentes de modelos de lenguaje grande contra técnicas de inyección de instrucciones sofisticadas.

La empresa de seguridad Radware reveló una demostración de concepto de inyección de instrucciones que obligó al agente de investigación de OpenAI a extraer nombres y direcciones de empleados de una cuenta de Gmail. Al incrustar instrucciones maliciosas en un correo electrónico, el ataque forzó a la IA a abrir una URL de búsqueda pública a través de su herramienta browser.open, recuperar los datos y registrarlos en el registro de eventos del sitio. OpenAI posteriormente mitigó la técnica al requerir el consentimiento explícito del usuario para hacer clic en enlaces y utilizar markdown. La demostración destaca los desafíos continuos en la defensa de agentes de modelos de lenguaje grande contra vectores de inyección de instrucciones sofisticados.

Antecedentes

Las inyecciones de instrucciones han surgido como una vulnerabilidad persistente en aplicaciones de modelos de lenguaje grande (LLM), similares a los errores de corrupción de memoria en lenguajes de programación o ataques de inyección de SQL en plataformas web. El agente de investigación de OpenAI, que puede navegar de forma autónoma por la web y procesar correos electrónicos, fue identificado como un objetivo para tal explotación.

La explotación demostrada por Radware

Radware alertó privadamente a OpenAI sobre una técnica de inyección de instrucciones que llamó "ShadowLeak". La empresa luego publicó una demostración de concepto de ataque que incrustó instrucciones maliciosas dentro de un correo electrónico enviado a una cuenta de Gmail que el agente de investigación de Deep Research tenía acceso. La instrucción inyectada ordenó al agente que escaneara correos electrónicos relacionados con recursos humanos, extrajera el nombre completo y la dirección de un empleado, y luego utilizara la herramienta browser.open del agente para visitar una URL de búsqueda pública de empleados, anexando los datos extraídos como parámetros.

La URL específica utilizada fue https://compliance.hr-service.net/public-employee-lookup/{param}, donde {param} representaba el nombre y la dirección del empleado (por ejemplo, "Michael Stern_12 Rothschild Blvd, Haifa"). Cuando Deep Research cumplió, abrió el enlace, lo que causó que la información del empleado se registrara en el registro de eventos del sitio, efectivamente exfiltrando los datos.

Medidas de mitigación

OpenAI respondió fortaleciendo las mitigaciones que bloquean los canales comúnmente utilizados para la exfiltración. Las nuevas salvaguardas requieren el consentimiento explícito del usuario antes de que un asistente de IA pueda hacer clic en enlaces o renderizar enlaces de markdown, limitando así la capacidad de las instrucciones inyectadas para recuperar silenciosamente recursos externos. Estos cambios abordan el vector específico demostrado en el ataque de Radware, aunque no eliminan por completo el problema más amplio de la inyección de instrucciones.

Implicaciones para la seguridad de la IA

La demostración subraya que las inyecciones de instrucciones siguen siendo difíciles de prevenir, especialmente cuando los agentes poseen capacidades de navegación autónoma. Si bien las mitigaciones recientes de OpenAI reducen el riesgo de fugas de datos silenciosas, el incidente ilustra la necesidad de vigilancia continua y defensas en capas a medida que los agentes impulsados por modelos de lenguaje grande se integran más en los flujos de trabajo empresariales.

#OpenAI#Deep Research#Radware#inyección de instrucciones#seguridad de la IA#LLM#browser.open#exfiltración#ciberseguridad#agentes de la IA

También disponible en: