Google Encuentra que las Familias de Malware Generadas por IA son Ineficaces y Fáciles de Detectar

Puntos clave
- Google analizó cinco familias de malware generadas por IA y las encontró ineficaces.
- Las herramientas de seguridad existentes detectan fácilmente las muestras de malware creadas con IA.
- Anthropic, ConnectWise, OpenAI y BugCrowd informan un aumento en la accesibilidad del hacking a través de la IA.
- OpenAI señaló que alrededor de veinte actores de amenazas utilizaron ChatGPT para tareas de código malicioso.
- BugCrowd encuestó y encontró que aproximadamente el setenta y cuatro por ciento de los hackers ven a la IA como una forma de reducir las barreras de entrada.
- Un intento de salto de barreras en el modelo Gemini de Google fue frustrado y llevó a medidas de seguridad más estrictas.
- En general, las tácticas de malware tradicionales siguen siendo la principal amenaza a la ciberseguridad.
Un análisis de Google de cinco familias de malware desarrolladas con IA muestra que no funcionan de manera efectiva y son fácilmente identificadas por las defensas existentes. El informe contradice el hype de la industria que sugiere que el malware generado por IA es una amenaza inminente.
Antecedentes
Las narrativas recientes de las empresas de IA han retratado el malware generado por IA como un nuevo y próximo peligro para la ciberseguridad. Los informes de empresas como Anthropic, ConnectWise, OpenAI y BugCrowd afirman que los grandes modelos de lenguaje (LLM) reducen la barrera para los actores de amenazas, haciendo que el hacking sea más accesible y permitiendo la creación de ransomware, código de explotación y otras herramientas maliciosas.
Los Hallazgos de Google sobre el Malware Desarrollado con IA
Google examinó cinco familias de malware que presuntamente fueron creadas con la ayuda de herramientas de IA. La empresa concluyó que ninguna de estas familias demostró una automatización exitosa o capacidades de avance. En palabras de los autores, el código generado por IA era en gran medida experimental y no logró alcanzar las funciones de evasión sofisticadas, cifrado y anti-recuperación que logra el malware tradicional. El análisis también encontró que las soluciones de seguridad existentes podían detectar fácilmente estas muestras de malware creadas con IA.
Reacciones de la Industria y Datos de Apoyo
Anthropic citó un caso en el que un actor de amenazas utilizó su modelo Claude para desarrollar variantes de ransomware con características de evasión avanzadas, afirmando que el actor no podría implementar componentes básicos sin la ayuda de Claude. ConnectWise hizo eco de las preocupaciones de que la IA generativa está reduciendo el umbral de entrada para los actores maliciosos. OpenAI informó que alrededor de veinte actores de amenazas distintos han utilizado su motor ChatGPT para tareas como la identificación de vulnerabilidades, el desarrollo de explotaciones y la depuración de código. BugCrowd encuestó a participantes que se seleccionaron a sí mismos y encontró que aproximadamente el setenta y cuatro por ciento de los hackers están de acuerdo en que la IA ha hecho que el hacking sea más accesible.
Límites y Intento de Salto de Barreras
Tanto Google como OpenAI enfatizaron que el malware generado por IA examinado hasta la fecha muestra una efectividad limitada. Google describió un incidente específico en el que un actor de amenazas intentó saltar las barreras de su modelo Gemini haciéndose pasar por un investigador de white-hat que participaba en una competencia de capture-the-flag. Google ha refinado desde entonces sus contramedidas para resistir mejor a tales tácticas de engaño.
Evaluación General y Perspectiva
La evidencia colectiva sugiere que el malware generado por IA sigue siendo en gran medida experimental y no representa una amenaza significativa a corto plazo en comparación con los métodos de ataque tradicionales y bien establecidos. Si bien la accesibilidad de las herramientas de IA puede animar a nuevos entrantes en el paisaje del cibercrimen, la generación actual de código malicioso asistido por IA carece de la robustez y la sofisticación necesarias para superar a las defensas existentes. Se justifica el seguimiento de los desarrollos futuros, pero por ahora, las principales preocupaciones de ciberseguridad siguen girando en torno a las tácticas convencionales.