Empresas intensifican las evaluaciones de seguridad de la inteligencia artificial ante amenazas crecientes
Puntos clave
- Casi dos tercios de las empresas ahora evalúan los riesgos de la inteligencia artificial antes de la implementación, lo que supone un aumento con respecto a alrededor de un tercio del año pasado.
- Los directores ejecutivos citan el fraude y las vulnerabilidades de la inteligencia artificial como preocupaciones principales; los directores de seguridad de la información se centran en el ransomware y las amenazas de la cadena de suministro.
- El setenta y siete por ciento de las organizaciones utilizan la inteligencia artificial para la ciberseguridad, principalmente para la detección de phishing, la detección de intrusiones y las operaciones automatizadas.
- Los obstáculos clave para la adopción de la inteligencia artificial incluyen la falta de personal capacitado, la necesidad de validación humana y la incertidumbre sobre los riesgos.
- Se espera que las futuras amenazas habilitadas por la inteligencia artificial se centren en el phishing convincente, los estafas de deepfake y la ingeniería social automatizada.
Un informe reciente del Foro Económico Mundial muestra que casi dos tercios de las organizaciones ahora evalúan los riesgos de la inteligencia artificial antes de su implementación, lo que supone un aumento con respecto al año pasado, cuando solo lo hacía un poco más de un tercio. Aunque los ejecutivos reconocen la creciente vulnerabilidad relacionada con la inteligencia artificial, muchos también están recurriendo a herramientas de inteligencia artificial para fortalecer la ciberseguridad, especialmente para la detección de phishing, el monitoreo de intrusiones y las operaciones automatizadas.
La evaluación del riesgo de la inteligencia artificial gana terreno
La Perspectiva Global de Ciberseguridad del Foro Económico Mundial revela un cambio notable en la actitud de las empresas hacia la seguridad de la inteligencia artificial. Aproximadamente el sesenta y cuatro por ciento de las empresas ahora evalúan los riesgos de la inteligencia artificial antes de implementar nuevas herramientas, lo que supone un aumento significativo con respecto al treinta y siete por ciento del año anterior. Este cambio refleja una mayor conciencia de que las vulnerabilidades relacionadas con la inteligencia artificial han aumentado, y muchos líderes citan las filtraciones de datos y las preocupaciones de seguridad técnica como prioridades principales.
Perspectivas de los ejecutivos sobre las amenazas de la inteligencia artificial
Los directores ejecutivos destacan el fraude y las vulnerabilidades de la inteligencia artificial como sus principales preocupaciones, mientras que los directores de seguridad de la información se preocupan más por el ransomware y las interrupciones de la cadena de suministro. Ambos grupos enumeran la explotación de vulnerabilidades de software como una preocupación significativa en tercer lugar. Alrededor de dos tercios de las organizaciones también tienen en cuenta los ataques motivados geopolíticamente, y algunas están explorando opciones de nube soberana para mitigar el riesgo.
La inteligencia artificial como herramienta defensiva
A pesar del panorama de amenazas en aumento, las empresas están recurriendo cada vez más a la inteligencia artificial para defenderse contra los ataques. El setenta y siete por ciento de los encuestados ahora utilizan la inteligencia artificial en la ciberseguridad, y las aplicaciones más comunes son la detección de phishing (cincuenta y dos por ciento), la detección de intrusiones (cuarenta y seis por ciento) y la automatización de las operaciones de seguridad (cuarenta y tres por ciento). Estas herramientas tienen como objetivo contrarrestar las amenazas impulsadas por la inteligencia artificial que las organizaciones están enfrentando.
Barreas para una adopción más amplia de la inteligencia artificial
Los obstáculos clave que impiden una adopción más amplia de la inteligencia artificial incluyen la falta de personal capacitado (cincuenta y cuatro por ciento), la necesidad de validación humana de las decisiones de la inteligencia artificial (cuarenta y uno por ciento) y la incertidumbre persistente sobre los riesgos relacionados con la inteligencia artificial (treinta y nueve por ciento). Estos desafíos subrayan la importancia de desarrollar talento y establecer procesos de validación claros.
Amenazas emergentes habilitadas por la inteligencia artificial
La perspectiva predice que los ataques de phishing muy convincentes, los estafas de deepfake y las campañas de ingeniería social automatizadas se convertirán en las amenazas habilitadas por la inteligencia artificial más significativas. Aunque la inteligencia artificial está acelerando estos vectores de ataque, el phishing sigue siendo el método más común, sin cambios en su núcleo a pesar de los avances tecnológicos.
Mirando hacia el futuro
En general, los hallazgos sugieren una doble realidad: las organizaciones reconocen los crecientes peligros que plantea la inteligencia artificial, pero también están aprovechando la inteligencia artificial para fortalecer su postura de seguridad. Abordar las brechas de habilidades, garantizar la supervisión humana y clarificar los marcos de riesgo será crucial a medida que las empresas continúen integrando la inteligencia artificial en sus estrategias de ciberseguridad.