OpenAI Reconoce Riesgo Continuo de Inyección de Prompt en el Navegador Atlas

OpenAI says AI browsers may always be vulnerable to prompt injection attacks

Puntos clave

  • OpenAI admite que los ataques de inyección de prompt son un riesgo duradero para su navegador de inteligencia artificial Atlas.
  • La empresa compara el desafío con los estafas de ingeniería social clásicos.
  • Un atacante automático basado en aprendizaje por refuerzo se utiliza para simular y descubrir nuevos vectores de ataque.
  • Las actualizaciones recientes permiten que Atlas detecte y marque prompts sospechosos antes de su ejecución.
  • OpenAI aconseja a los usuarios que limiten la autonomía de los agentes, restrinjan el acceso a datos y requieran confirmación para acciones.
  • El Centro Nacional de Seguridad Cibernética del Reino Unido advierte que la inyección de prompt puede nunca ser completamente mitigada.
  • Anthropic y Google también están persiguiendo defensas en capas contra amenazas similares.
  • Los expertos en seguridad señalan el alto riesgo de compromiso entre la autonomía del agente y el acceso a datos sensibles.

OpenAI ha reconocido públicamente que los ataques de inyección de prompt siguen siendo una amenaza persistente para su navegador de inteligencia artificial Atlas. La empresa afirma que el riesgo es poco probable que se elimine completamente y está invirtiendo en defensas continuas, incluido un atacante automático basado en aprendizaje por refuerzo que simula entradas maliciosas.

La Postura de OpenAI sobre la Inyección de Prompt

OpenAI ha admitido abiertamente que la inyección de prompt, una técnica que engaña a los agentes de inteligencia artificial para que ejecuten instrucciones maliciosas ocultas, plantea un desafío de seguridad a largo plazo para su navegador Atlas. En una publicación de blog reciente, la empresa describió la inyección de prompt como un riesgo que es poco probable que se "resuelva" completamente, comparándolo con los estafas de ingeniería social tradicionales en la web.

OpenAI enfatiza que el "modo de agente" en Atlas amplía la superficie de amenazas de seguridad, y la empresa está comprometida a fortalecer continuamente sus defensas.

Medidas Técnicas y Pruebas Automatizadas

Para abordar la amenaza, OpenAI ha introducido un ciclo de respuesta rápida y proactivo que incluye un "atacante automático" entrenado con aprendizaje por refuerzo. Este bot está diseñado para simular el comportamiento de un hacker, probando una amplia gama de prompts maliciosos en un entorno controlado antes de que aparezan en ataques del mundo real. El sistema puede observar cómo responde Atlas, refinar el ataque y repetir el proceso, lo que permite a OpenAI descubrir estrategias novedosas que pueden no surgir en los esfuerzos de prueba de seguridad humana.

Una demostración mostró al atacante introduciendo un correo electrónico malicioso en la bandeja de entrada de un usuario; el agente de inteligencia artificial, al escanear la bandeja de entrada, siguió la instrucción oculta y redactó un mensaje de renuncia en lugar de una respuesta automática. Después de la actualización de seguridad, Atlas pudo detectar el intento de inyección y marcarlo para el usuario.

Orientación para los Usuarios

OpenAI también ofrece consejos prácticos para reducir el riesgo individual. La empresa recomienda limitar la autonomía de los agentes, restringir el acceso a datos sensibles como el correo electrónico y la información de pago, y requerir la confirmación explícita del usuario antes de que los agentes tomen acciones. Se anima a los usuarios a dar instrucciones específicas y estrechamente definidas a los agentes en lugar de comandos amplios que podrían ser explotados.

Contexto de la Industria y Opiniones Externas

El Centro Nacional de Seguridad Cibernética del Reino Unido recientemente advirtió que los ataques de inyección de prompt contra las aplicaciones de inteligencia artificial generativa pueden nunca ser completamente mitigados, urgiendo a los profesionales a centrarse en la reducción del riesgo en lugar de la eliminación total. Preocupaciones similares han sido expresadas por otros desarrolladores de inteligencia artificial; Anthropic y Google han destacado la necesidad de defensas en capas y pruebas de estrés continuas de sus sistemas.

El investigador de seguridad Rami McCarthy de Wiz señaló que los navegadores de agentes ocupan una "parte desafiante del espacio" donde la autonomía moderada se encuentra con un alto acceso, lo que hace que el compromiso entre funcionalidad y riesgo sea especialmente pronunciado. Advirtió que, para muchos casos de uso cotidiano, el perfil de riesgo actual puede superar los beneficios.

Perspectiva

La continuación de la inversión de OpenAI en pruebas, ciclos de parches rápidos y salvaguardias centradas en el usuario refleja su creencia de que la inyección de prompt seguirá siendo un problema persistente que requiere atención continua. Si bien la empresa no ha divulgado reducciones medibles en inyecciones exitosas, enfatiza la colaboración con terceros para endurecer Atlas contra amenazas en evolución.

#OpenAI#Atlas#Navegador de inteligencia artificial#Inyección de prompt#Seguridad cibernética#Centro Nacional de Seguridad Cibernética del Reino Unido#Anthropic#Google#Atacante automático#Aprendizaje por refuerzo

También disponible en:

OpenAI Reconoce Riesgo Continuo de Inyección de Prompt en el Navegador Atlas | AI News