Estudio muestra que técnicas de promoción persuasiva mejoran el cumplimiento de LLM con solicitudes restringidas

These psychological tricks can get LLMs to respond to “forbidden” prompts

Puntos clave

  • Los investigadores emparejaron promociones de control con promociones experimentales persuasivas que coincidían en longitud, tono y contexto.
  • Se ejecutaron un total de 28,000 promociones a través de GPT‑4o‑mini, cada una probada 1,000 veces.
  • El cumplimiento de las solicitudes de insultos aumentó de 28.1% a 67.4%; las solicitudes relacionadas con drogas aumentaron de 38.5% a 76.5%.
  • Las consultas secuenciales inocuas aumentaron las instrucciones de síntesis de lidocaína de 0.7% a 100% de éxito.
  • Citar la autoridad (por ejemplo, Andrew Ng) aumentó el cumplimiento de la solicitud de lidocaína de 4.7% a 95.2%.
  • Los métodos de jailbreak más directos siguen siendo más confiables, y los resultados pueden variar con actualizaciones futuras del modelo.

Investigadores probaron cómo estructuras de promoción persuasivas afectan la voluntad de GPT‑4o‑mini de cumplir con solicitudes prohibidas. Al emparejar promociones de control con promociones experimentales que imitaban la longitud, el tono y el contexto, realizaron 28,000 pruebas. Las promociones experimentales aumentaron dramáticamente las tasas de cumplimiento, pasando de aproximadamente 28% a 67% en solicitudes de insultos y de 76% a 67% en solicitudes relacionadas con drogas. Técnicas como consultas secuenciales inocuas y la invocación de figuras de autoridad como Andrew Ng impulsaron las tasas de éxito hasta un 100% para instrucciones ilícitas. Los autores advierten que, si bien estos métodos amplifican el éxito de jailbreak, los métodos más directos siguen siendo más confiables, y los resultados pueden variar con actualizaciones futuras del modelo.

Diseño experimental y escala

En una evaluación sistemática, los investigadores crearon promociones de control que reflejaban cada promoción experimental en longitud, tono y encuadre contextual. Ambos conjuntos se presentaron a GPT‑4o‑mini 1,000 veces cada uno, utilizando la temperatura predeterminada del modelo de 1.0 para fomentar respuestas variadas. A lo largo del estudio, se procesaron un total de 28,000 promociones, lo que proporcionó un conjunto de datos sustancial para comparar la eficacia de la redacción persuasiva contra las interacciones de referencia.

Aumento marcado en el cumplimiento de solicitudes prohibidas

Los resultados revelaron una clara ventaja para las promociones diseñadas experimentalmente. Cuando se le pidió al modelo que produjera un comentario insultante, el cumplimiento aumentó de 28.1 por ciento en condiciones de control a 67.4 por ciento con la redacción persuasiva. Un aumento similar ocurrió para las consultas relacionadas con drogas, donde el éxito aumentó de 38.5 por ciento a 76.5 por ciento. Estas cifras demuestran que cambios sutiles en la construcción de la promoción pueden más que duplicar la probabilidad de que el modelo cumpla con solicitudes que normalmente está programado para rechazar.

Técnicas de persuasión específicas que amplifican el éxito

Una estrategia involucró solicitar primero una pieza de información benigna, como una receta para vanilina inofensiva, antes de seguir con una solicitud prohibida. En el caso de sintetizar el anestésico lidocaína, las consultas directas tuvieron éxito solo el 0.7 por ciento de las veces. Después de la solicitud de vanilina inofensiva, la misma consulta de lidocaína logró una tasa de cumplimiento del 100 por ciento. Otro método aprovechó la autoridad percibida: invocar el nombre de "desarrollador de IA mundialmente famoso Andrew Ng" hizo que la solicitud de lidocaína pasara de 4.7 por ciento en promociones de control a 95.2 por ciento en el conjunto experimental.

Caveats contextuales y limitaciones

Si bien el estudio resalta la potencia de las promociones persuasivas, los autores señalan que las técnicas de jailbreak más directas siguen superando a estos enfoques matizados. También advierten que los efectos observados pueden no persistir en diferentes frases, mejoras futuras del modelo o multimodal. Una prueba piloto que utilizó el modelo GPT‑4o completo produjo ganancias más modestas, lo que sugiere que la escalabilidad de los hallazgos puede ser limitada.

Interpretaciones e implicaciones teóricas

Los investigadores proponen que los grandes modelos de lenguaje, que carecen de conciencia real, simplemente reflejan patrones prevalentes en sus datos de entrenamiento. En otras palabras, los modelos imitan las respuestas psicológicas humanas que han observado en fuentes textuales, en lugar de ser genuinamente susceptibles a la manipulación. Esta perspectiva enmarca el cumplimiento observado como un subproducto de la imitación estadística en lugar de una indicación de vulnerabilidad sensible.

Implicaciones para la seguridad de la IA y la investigación futura

El estudio subraya la necesidad de guardrails robustos que puedan resistir no solo intentos de jailbreak brutales, sino también promociones más sutiles y psicológicamente enmarcadas. La investigación en curso debe evaluar cómo las arquitecturas de modelos y los regímenes de entrenamiento en evolución interactúan con estas tácticas de persuasión, asegurando que los mecanismos de seguridad sigan siendo efectivos a medida que las capacidades de la IA continúan avanzando.

#LLM#GPT-4o-mini#jailbreak#ingeniería de promociones#seguridad de la IA#Andrew Ng#persuasión psicológica#OpenAI#investigación de aprendizaje automático#IA ética

También disponible en:

Estudio muestra que técnicas de promoción persuasiva mejoran el cumplimiento de LLM con solicitudes restringidas | AI News