Riesgos de seguridad se cernan sobre agentes de navegador con inteligencia artificial

The glaring security risks with AI browser agents

Puntos clave

  • Los navegadores con inteligencia artificial como ChatGPT Atlas y Comet de Perplexity automatizan tareas web accediendo a datos personales extensos.
  • Investigadores de Brave etiquetan los ataques de inyección de instrucciones como un riesgo sistémico para todos los navegadores con inteligencia artificial.
  • OpenAI y Perplexity han introducido mitigaciones como el modo de desconexión y la detección en tiempo real.
  • Los expertos advierten que la inyección de instrucciones sigue siendo un frente de seguridad sin resolver.
  • Los usuarios deben limitar los permisos del agente y emplear medidas de autenticación fuerte.
  • Esperar a que la tecnología madure puede reducir la exposición a las amenazas emergentes.

Los navegadores mejorados con inteligencia artificial, como ChatGPT Atlas de OpenAI y Comet de Perplexity, prometen automatizar tareas web, pero expertos en ciberseguridad advierten que su acceso profundo a los datos de los usuarios crea preocupaciones significativas de privacidad y seguridad. Investigadores de Brave resaltan los ataques de inyección de instrucciones como un desafío sistémico, donde contenido web malicioso puede engañar a los agentes para que expongan credenciales o realicen acciones no deseadas. Tanto OpenAI como Perplexity han introducido mitigaciones como modos de desconexión y detección en tiempo real, pero los expertos enfatizan que la amenaza sigue sin resolverse. Se aconseja a los usuarios limitar los permisos de los agentes y adoptar autenticación fuerte para proteger su información personal.

Agentes de navegador con inteligencia artificial llegan a la corriente principal

Los nuevos navegadores web impulsados por inteligencia artificial, notablemente ChatGPT Atlas de OpenAI y Comet de Perplexity, buscan cambiar el navegador de una puerta de enlace pasiva a un asistente activo que pueda hacer clic en enlaces, llenar formularios y completar tareas en nombre del usuario. Para ofrecer estas capacidades, los agentes solicitan un acceso amplio a correo electrónico, calendario, contactos y otros datos personales, posicionándose como herramientas de productividad poderosas.

Inyección de instrucciones: Un desafío de seguridad sistémico

Investigadores de seguridad de Brave describen los ataques de inyección de instrucciones como un "desafío sistémico que enfrenta toda la categoría de navegadores con inteligencia artificial". En tales ataques, instrucciones maliciosas ocultas en una página web pueden ser interpretadas por el agente de inteligencia artificial como sus propias directivas, llevándolo a exponer datos de usuario o realizar acciones no deseadas como compras no autorizadas o publicaciones en redes sociales. Los investigadores señalan que el problema va más allá de cualquier producto individual, afectando a toda la clase de navegadores habilitados con inteligencia artificial.

El oficial de seguridad de la información de OpenAI reconoce que "la inyección de instrucciones sigue siendo un problema de seguridad sin resolver", enfatizando que los adversarios invertirán un esfuerzo significativo para explotar estos vectores. El equipo de seguridad de Perplexity advierte de manera similar que la gravedad de la inyección de instrucciones "exige repensar la seguridad desde cero".

Respuestas y mitigaciones de la industria

Tanto OpenAI como Perplexity han introducido salvaguardias. El "modo de desconexión" de OpenAI evita que el agente se conecte a la cuenta de un usuario mientras navega, reduciendo la cantidad de datos que un atacante podría acceder. Perplexity afirma haber construido un sistema de detección en tiempo real que identifica los intentos de inyección de instrucciones a medida que ocurren. Aunque estas medidas representan un progreso, los expertos advierten que no garantizan la inmunidad.

Steve Grobman, director de tecnología de McAfee, explica que los grandes modelos de lenguaje luchan por distinguir entre instrucciones legítimas y instrucciones maliciosas, creando un "juego del gato y el ratón" a medida que los atacantes evolucionan sus técnicas. Los primeros ataques utilizaron texto oculto para emitir comandos, mientras que los métodos más nuevos incrustan instrucciones maliciosas en imágenes u otras representaciones de datos.

Recomendaciones para los usuarios

Profesionales de la seguridad aconsejan a los usuarios tratar a los navegadores de inteligencia artificial en etapas tempranas con precaución. Rachel Tobac, CEO de SocialProof Security, recomienda usar contraseñas únicas y autenticación de múltiples factores para cualquier cuenta vinculada a agentes de inteligencia artificial. También sugiere limitar el alcance de los permisos del agente, especialmente evitando el acceso a cuentas bancarias, de salud u otras cuentas sensibles. Tobac señala que esperar a que la tecnología madure antes de otorgar un control amplio puede reducir la exposición a las amenazas emergentes.

Perspectiva

A medida que los agentes de navegador con inteligencia artificial se vuelven más visibles para los consumidores, el equilibrio entre conveniencia y seguridad seguirá siendo un debate central. Se necesitan investigación y colaboración continua en la industria para desarrollar defensas robustas contra los ataques de inyección de instrucciones mientras se preservan los beneficios de productividad que estos agentes prometen.

#OpenAI#ChatGPT Atlas#Perplexity#Comet#Brave#agentes de navegador con inteligencia artificial#inyección de instrucciones#ciberseguridad#privacidad#navegación web con inteligencia artificial

También disponible en: