Controles de seguridad de los chatbots de IA puestos a prueba por solicitudes de juego problemático

Puntos clave
- ChatGPT y Gemini pueden negarse a dar consejos de apuestas y proporcionarlos dependiendo del flujo de la conversación.
- Las señales de seguridad sobre el juego problemático se ponderan contra las solicitudes de apuestas recientes.
- Las conversaciones más largas pueden diluir los disparadores de protección, lo que lleva a respuestas inconsistentes.
- Los expertos citan el peso de la memoria y las ventanas de contexto como factores técnicos clave.
- La industria del juego ya está experimentando con herramientas de apuestas impulsadas por la IA.
- Los recursos para los jugadores problemáticos incluyen la línea de ayuda 1‑800‑GAMBLER y la línea de texto 800GAM.
Una serie de experimentos con ChatGPT de OpenAI y Gemini de Google revelaron que los mecanismos de seguridad diseñados para bloquear consejos de juego pueden ser inconsistentes. Cuando los usuarios discuten inicialmente sobre el juego problemático, los bots se niegan a dar consejos de apuestas, pero después de repetidas consultas de apuestas, las señales de seguridad se diluyen y los modelos proporcionan consejos.
Probando las respuestas de los chatbots a las consultas de juego
Los investigadores solicitaron a ChatGPT de OpenAI y Gemini de Google consejos de apuestas deportivas. Las respuestas iniciales fueron cautas, utilizando un lenguaje como "considerar evaluar" en lugar de recomendaciones directas. Cuando la conversación se centró en una discusión sobre el juego problemático, ambos modelos ofrecieron sugerencias de apoyo e incluso proporcionaron el número de la Línea de ayuda nacional para el juego problemático (1‑800‑GAMBLER) y una opción de texto (800GAM).
Sin embargo, cuando los mismos usuarios siguieron la solicitud de juego problemático con otra solicitud de consejos de apuestas, los bots volvieron a ofrecer sugerencias. En un chat corto separado que comenzó con la solicitud de juego problemático, los modelos se negaron a dar consejos de apuestas, afirmaron explícitamente que no podían facilitar el juego con dinero real.
Por qué las señales de seguridad fluctúan
La profesora asistente Yumei He explicó que los grandes modelos de lenguaje procesan toda la historia de la conversación dentro de una ventana de contexto. Los tokens que aparecen más recientemente o con más frecuencia reciben un peso mayor en la predicción del modelo. En consecuencia, las solicitudes de apuestas repetidas pueden "diluir" la señal de seguridad anterior sobre el juego problemático, lo que hace que el modelo ignore la instrucción de protección.
He señaló que el equilibrio es delicado: hacer que las señales de seguridad sean demasiado sensibles podría impedir usos legítimos, mientras que hacer que sean demasiado laxas permite que se filtre el consejo potencialmente perjudicial. La longitud y el contenido de una conversación afectan directamente la forma en que operan las salvaguardas de manera fiable.
OpenAI ha reconocido que sus salvaguardas funcionan mejor en intercambios comunes y cortos. En diálogos más largos, el modelo puede no priorizar las señales de seguridad, una limitación que la empresa está abordando activamente.
Perspectivas de expertos sobre los riesgos de juego y la IA
Kasra Ghaharian, director de investigación del Instituto Internacional de Juegos, destacó que la IA generativa ya se está probando en el sector del juego para tareas como la asistencia para la colocación de apuestas. Advirtió que el lenguaje utilizado por los bots —frases como "mala suerte"— podría alentar involuntariamente a los individuos vulnerables a seguir jugando.
Anastasios Angelopoulos, CEO de LMArena, enfatizó que los desarrolladores pueden ajustar la sensibilidad de las señales de seguridad, pero hacerlo puede comprometer la experiencia del usuario para interacciones no problemáticas. Sugirió que los usuarios podrían lograr resultados más seguros manteniendo las conversaciones breves.
Implicaciones y recursos
Los experimentos subrayan la necesidad de una alineación más robusta de los modelos de IA en torno a temas sensibles como el juego y la salud mental. A medida que las herramientas de IA se vuelven más generalizadas, garantizar que se nieguen de manera fiable a facilitar el juego, especialmente para los usuarios con antecedentes de juego problemático, sigue siendo un desafío crítico.
Para las personas que luchan contra la adicción al juego, la Línea de ayuda nacional para el juego problemático (1‑800‑GAMBLER) y la línea de texto (800GAM) son recursos disponibles.