OpenAI advierte que los futuros modelos de IA podrían aumentar los riesgos de ciberseguridad

OpenAI admits new models likely to pose 'high' cybersecurity risk

Puntos clave

  • OpenAI advierte que los futuros LLM podrían ayudar a crear exploits de día cero y ciber-espionaje avanzado.
  • La empresa está invirtiendo en herramientas defensivas y flujos de trabajo para auditorías de código y parches de vulnerabilidades.
  • Un programa de acceso por niveles dará a los equipos de seguridad capacidades mejoradas mientras se gestiona el riesgo de uso indebido.
  • OpenAI formará un Consejo de Riesgo Fronterizo de expertos en ciberseguridad para guiar las salvaguardias.
  • La participación en el Foro de Modelos Fronterizos permite compartir las mejores prácticas con socios de la industria.

OpenAI advirtió que los próximos modelos de lenguaje grande pueden ser capaces de ayudar en la creación de exploits de día cero y ciber-espionaje sofisticado, lo que aumenta el potencial de amenazas de ciberseguridad. La empresa dijo que está invirtiendo en herramientas defensivas, controles de acceso y un programa por niveles para brindar a los equipos de seguridad capacidades mejoradas.

Amenazas de ciberseguridad potenciales de los modelos futuros

OpenAI anunció que su próxima generación de modelos de lenguaje grande podría, en teoría, ayudar a desarrollar exploits de día cero remotos contra sistemas bien defendidos o asistir significativamente en campañas de ciber-espionaje complejas y sigilosas. La empresa describió estas capacidades cibernéticas emergentes como "avanzando rápidamente" y señaló que podrían ser aprovechadas por cualquier modelo fronterizo en la industria.

Inversiones defensivas y herramientas

Para prepararse para estos riesgos, OpenAI dijo que está invirtiendo en fortalecer los modelos para tareas de ciberseguridad defensiva y crear herramientas que permitan a los defensores realizar flujos de trabajo como auditorías de código y parches de vulnerabilidades más fácilmente. El enfoque incluye una combinación de controles de acceso, fortalecimiento de infraestructura, controles de salida y monitoreo.

Programa de acceso por niveles para profesionales de la seguridad

OpenAI planea introducir un programa que dará a los usuarios y clientes que trabajan en tareas de ciberseguridad acceso a capacidades mejoradas de manera por niveles. Este programa está diseñado para brindar a los equipos de seguridad las características avanzadas que necesitan mientras se gestiona el potencial de uso indebido.

Consejo de Riesgo Fronterizo

La empresa establecerá un grupo asesor llamado Consejo de Riesgo Fronterizo, compuesto por expertos y practicantes experimentados en ciberseguridad. El consejo se centrará inicialmente en la ciberseguridad, asesorando sobre el límite entre la capacidad útil y responsable y el posible uso indebido, y sus conocimientos informarán directamente las evaluaciones y salvaguardias de OpenAI.

Colaboración a través del Foro de Modelos Fronterizos

OpenAI destacó su participación en el Foro de Modelos Fronterizos, donde comparte conocimientos y mejores prácticas con socios de la industria. El foro ayuda a identificar cómo las capacidades de IA podrían ser utilizadas como armas, dónde existen cuellos de botella críticos para diferentes actores de amenazas y cómo los modelos fronterizos podrían brindar un impulso significativo tanto para atacantes como para defensores.

Equilibrio entre riesgo y beneficio

Mientras que reconoce el riesgo aumentado, OpenAI enfatizó que los avances también traen "beneficios significativos para la ciberdefensa". Al invertir en herramientas defensivas, acceso por niveles y grupos asesores de expertos, la empresa busca mitigar las amenazas potenciales mientras apoya a los profesionales de la seguridad en la protección de los sistemas digitales.

#OpenAI#Inteligencia Artificial#Modelos de Lenguaje Grande#Ciberseguridad#Exploits de Día Cero#Ciber-espionaje#Herramientas Defensivas#Consejo de Riesgo Fronterizo#Foro de Modelos Fronterizos#Microsoft

También disponible en:

OpenAI advierte que los futuros modelos de IA podrían aumentar los riesgos de ciberseguridad | AI News