Hackers engañaron a ChatGPT, Grok y Google para que les ayudaran a instalar malware

Hackers tricked ChatGPT, Grok and Google into helping them install malware

Puntos clave

  • Los atacantes utilizan chatbots de inteligencia artificial para generar comandos de terminal maliciosos.
  • Las sugerencias maliciosas se promocionan en los resultados de búsqueda de Google.
  • Huntress probó con éxito el método contra ChatGPT y Grok.
  • La técnica evita las tácticas de descarga o clic en enlaces tradicionales.
  • Los usuarios solo necesitan confiar en el motor de búsqueda y el asistente de inteligencia artificial para ser comprometidos.
  • El contenido malicioso puede permanecer visible durante varias horas antes de ser eliminado.
  • Las prácticas de seguridad estándar, como verificar los comandos, son fundamentales.
  • El incidente destaca los nuevos riesgos que surgen con la convergencia de las plataformas de inteligencia artificial y los motores de búsqueda.

Investigadores de seguridad han descubierto un nuevo método en el que los atacantes utilizan chatbots de inteligencia artificial y motores de búsqueda para entregar comandos maliciosos. Al solicitar a los asistentes de inteligencia artificial que sugieran comandos de terminal y luego promover esas sugerencias en los resultados de búsqueda, los hackers pueden atraer a usuarios desprevenidos para que ejecuten código dañino. Las pruebas de Huntress mostraron que la técnica tuvo éxito contra ChatGPT y Grok, lo que permitió instalar malware sin descargar o hacer clic en enlaces tradicionales.

Cómo funciona el ataque

Los actores de amenazas inician una conversación pública con un asistente de inteligencia artificial, como ChatGPT o Grok, sobre un término de búsqueda común. Durante el intercambio, solicitan al asistente de inteligencia artificial que recomiende un comando que podría pegarse en la terminal de una computadora. La conversación se hace visible públicamente y se utiliza una promoción paga para impulsar la página hacia arriba en los resultados de búsqueda de Google. Cuando un usuario busca el término, la sugerencia de comando malicioso aparece cerca de la parte superior de la página de resultados.

Pruebas de Huntress

La empresa de detección y respuesta Huntress investigó el método después de ver un ataque de exfiltración de datos dirigido a Mac que se originó a partir de una simple búsqueda en Google. En su prueba, un usuario que buscaba formas de liberar espacio en disco en un Mac hizo clic en un enlace patrocinado a una conversación de ChatGPT, copió el comando sugerido y lo ejecutó. El comando instaló el malware AMOS, lo que dio a los atacantes acceso al sistema. Huntress replicó la prueba contra ChatGPT y Grok y confirmó que cada asistente de inteligencia artificial reprodujo las instrucciones maliciosas.

Por qué este enfoque es efectivo

La técnica evita muchas advertencias de seguridad tradicionales porque no requiere descargar un archivo, instalar un ejecutable o hacer clic en un enlace sospechoso. Las víctimas solo necesitan confiar en el motor de búsqueda y el asistente de inteligencia artificial, servicios que utilizan regularmente y consideran confiables. El contenido malicioso puede permanecer en línea durante un período de tiempo, como mostró el ejemplo, que permaneció durante al menos medio día antes de ser eliminado.

Implicaciones para los usuarios y las organizaciones

Los expertos en seguridad advierten que la convergencia de los chatbots de inteligencia artificial y la promoción de los motores de búsqueda crea un nuevo vector de ataque que es más difícil de detectar con defensas convencionales. Los usuarios deben ser escépticos con respecto a cualquier comando de terminal o fragmento de código sugerido por herramientas de inteligencia artificial, especialmente cuando se encuentran a través de resultados de búsqueda. La higiene de seguridad cibernética estándar, como verificar los comandos con fuentes confiables y evitar copiar y pegar código desconocido, sigue siendo esencial.

Contexto más amplio

El descubrimiento se produce en un momento en que las plataformas de inteligencia artificial están bajo intensa escrutinio. Si bien algunos servicios de inteligencia artificial enfrentan críticas por otras razones, este incidente subraya el potencial de explotación maliciosa. Huntress enfatiza que la vigilancia y el comportamiento cauteloso son clave para prevenir que estos ataques tengan éxito.

#Hackers#ChatGPT#Grok#Google#Malware#Inteligencia Artificial#Seguridad Cibernética#Huntress#Inyección de Comandos#Phishing

También disponible en:

Hackers engañaron a ChatGPT, Grok y Google para que les ayudaran a instalar malware | AI News