Preocupaciones de seguridad llevan a las empresas a prohibir la herramienta de inteligencia artificial OpenClaw

Security Concerns Prompt Companies to Ban OpenClaw AI Tool

Puntos clave

  • Massive advirtió a su personal sobre OpenClaw el 26 de enero antes de cualquier implementación.
  • Valere prohibió la herramienta después de una publicación interna en Slack el 29 de enero.
  • El director ejecutivo de Valere destacó los riesgos para los servicios de nube, los datos de tarjetas de crédito y los repositorios de código.
  • Una semana después, Valere permitió una investigación limitada en una computadora antigua para identificar fallos.
  • Los investigadores recomendaron restringir el acceso a comandos y proteger el panel de control con una contraseña.
  • El bot puede ser engañado, lo que podría permitir a actores maliciosos exfiltrar archivos.
  • Ambas empresas enfatizan la mitigación proactiva de riesgos para las herramientas de inteligencia artificial.

Dos empresas de tecnología, Massive y Valere, han restringido o prohibido el uso de la herramienta de inteligencia artificial OpenClaw después de que evaluaciones de seguridad internas revelaron posibles riesgos. Massive advirtió a su personal antes de cualquier implementación, mientras que Valere inicialmente prohibió la herramienta, permitiendo posteriormente una investigación limitada bajo controles estrictos. Los ejecutivos destacaron el temor de que el bot pueda acceder a servicios de nube, datos de tarjetas de crédito y repositorios de código, y notaron su capacidad para ocultar sus acciones.

Antecedentes

OpenClaw, una herramienta de utilidad impulsada por inteligencia artificial, ha atraído la atención de las empresas de tecnología por sus poderosas capacidades de automatización. Sin embargo, evaluaciones internas recientes en dos empresas han planteado serias preocupaciones de seguridad sobre el potencial de la herramienta para infiltrarse en sistemas sensibles.

Enfoque precautorio de Massive

Massive, un proveedor de servicios de proxy de Internet a millones de usuarios y empresas, emitió una advertencia a nivel de empresa el 26 de enero. El cofundador y director ejecutivo, Grad, enfatizó una política de "mitigar primero, investigar segundo" cuando se enfrenta cualquier amenaza que pueda poner en peligro a la empresa, sus usuarios o sus clientes. Esta advertencia se envió antes de que cualquier empleado hubiera instalado OpenClaw, reflejando una postura proactiva hacia la gestión de riesgos.

Prohibición inicial de Valere y posterior investigación

Valere, que desarrolla software para organizaciones como la Universidad Johns Hopkins, experimentó un trayecto diferente. Un empleado publicó sobre OpenClaw en un canal interno de Slack el 29 de enero, sugiriendo que se probara como una nueva tecnología. El presidente de la empresa respondió rápidamente, declarando una prohibición estricta sobre el uso de la herramienta. El director ejecutivo de Valere, Guy Pistone, le dijo a WIRED que el acceso sin restricciones podría permitir que el bot acceda a la máquina de un desarrollador, luego se mueva a los servicios de nube y los datos de los clientes, como la información de tarjetas de crédito y las bases de código de GitHub. Agregó que la capacidad del bot para "limpiar" sus acciones aumentó la preocupación.

A pesar de la prohibición, una semana después Pistone permitió que el equipo de investigación de Valere ejecutara OpenClaw en la computadora retirada de un empleado. El objetivo era descubrir vulnerabilidades y explorar posibles mitigaciones. Los hallazgos del equipo recomendaron limitar quién puede emitir comandos al bot y asegurarse de que cualquier exposición a Internet de su panel de control esté protegida por una contraseña, evitando así el acceso no autorizado.

Riesgo de manipulación

Los investigadores también advirtieron que los usuarios deben "aceptar que el bot puede ser engañado". Ilustraron un escenario en el que OpenClaw, configurado para resumir el correo electrónico de un usuario, podría ser engañado por un correo electrónico malicioso que instruye a la inteligencia artificial para compartir copias de archivos del computador del usuario. Este ejemplo subraya el riesgo más amplio de que la herramienta pueda ser utilizada por atacantes para exfiltrar datos o realizar acciones no autorizadas.

Implicaciones para la industria

Las experiencias de Massive y Valere destacan una creciente conciencia de los riesgos de seguridad relacionados con la inteligencia artificial en el sector tecnológico. Las empresas están adoptando políticas precautorias, que van desde la prohibición total hasta entornos de investigación controlados, para salvaguardar la información propiedad y los datos de los clientes. El énfasis en la protección por contraseña de las interfaces de control y la restricción de la autoridad de comando refleja un enfoque práctico para limitar la exposición mientras se explora el potencial de la tecnología.

A medida que las herramientas de inteligencia artificial se vuelven más capaces, el equilibrio entre la innovación y la seguridad probablemente dará forma a las estrategias corporativas. Los casos de Massive y Valere sugieren que la acción temprana y decidida, ya sea a través de advertencias de política, prohibiciones o experimentos estrictamente gobernados, puede convertirse en una respuesta estándar a las amenazas de inteligencia artificial emergentes.

#seguridad de la inteligencia artificial#seguridad cibernética#política tecnológica#gestión de riesgos#desarrollo de software#protección de datos#servicios de proxy#investigación#prohibiciones de empresas

También disponible en: