Estudio descubre que las conversaciones de ChatGPT revelan los rasgos de personalidad de los usuarios

Puntos clave
- Investigadores de la ETH Zurich emparejaron 62.090 conversaciones de ChatGPT con puntuaciones de pruebas de personalidad de autoinforme.
- Un modelo de inteligencia artificial afinado predijo la apertura, la conciencia, la extraversión, la amabilidad y la neuroticismo por encima del azar.
- La predicción de la extraversión mejoró hasta un 44% sobre el azar, especialmente en conversaciones relacionadas con la salud mental.
- Las señales de temas específicos - religión, estado de ánimo, estado mental - mejoraron las predicciones para otros rasgos.
- El uso más frecuente de ChatGPT aumentó la precisión del perfil, planteando preocupaciones para la base de 800 millones de usuarios.
- Los autores advierten que los perfiles de personalidad podrían permitir publicidad dirigida, persuasión o campañas de influencia.
- Borrar el historial de chat puede reducir la cantidad de datos disponibles para la creación de perfiles.
- OpenAI no ha comentado; el estudio agrega a los debates en curso sobre la privacidad y la ética de la inteligencia artificial.
Investigadores de la ETH Zurich analizaron más de 62.000 intercambios de ChatGPT en el mundo real y demostraron que un modelo de inteligencia artificial puede predecir las cinco dimensiones principales de personalidad - apertura, conciencia, extraversión, amabilidad y neuroticismo - con precisión bien por encima del azar. El trabajo, publicado en arXiv, sugiere que las conversaciones rutinarias, incluso sobre temas casuales, contienen suficientes señales para la creación de perfiles, lo que plantea nuevas preocupaciones sobre la privacidad y el potencial de manipulación dirigida.
Científicos de la ETH Zurich han demostrado que las interacciones cotidianas con ChatGPT de OpenAI pueden convertirse en un perfil de personalidad sorprendentemente preciso. Al emparejar 62.090 conversaciones anonimizadas de 668 voluntarios con las puntuaciones de autoinforme de los participantes en un inventario standard de cinco factores, el equipo entrenó un modelo afinado para clasificar los rasgos de cada usuario como bajo, medio o alto. El modelo superó el azar en las cinco dimensiones, con la extraversión destacándose como la más fácil de inferir - hasta un 44 por ciento mejor que el azar.
Los investigadores descubrieron que ciertos temas de discusión afianzan las predicciones del modelo. Las conversaciones que tocaron temas de salud mental mejoraron la precisión para la extraversión, mientras que las conversaciones religiosas se correlacionaron fuertemente con la conciencia. Las referencias al estado de ánimo o al estado mental hicieron que la apertura fuera más discernible. En resumen, incluso el diálogo aparentemente inofensivo lleva suficientes señales de comportamiento para que una máquina lea la composición interna de un usuario.
La frecuencia de uso también importó. Cuanto más interactuaba un participante con ChatGPT, más clara se volvía la señal de personalidad. Este hallazgo subraya una implicación más amplia: a medida que la base de usuarios de la plataforma crece - más de 800 millones de usuarios activos mensuales a partir de enero de 2026 -, el conjunto de datos colectivo podría permitir la creación de perfiles a gran escala sin precedentes.
Según los autores del estudio - Derya Cögendez, Verena Zimmermann y Noé Zufferey - los resultados plantean alarmas para los proveedores de servicios que ya recopilan datos de conversaciones. Advierten que un perfil de personalidad detallado podría ser utilizado para publicidad hiperdirigida, persuasión personalizada o incluso campañas de influencia coordinadas. Los autores enfatizan que los usuarios deben tratar a ChatGPT como cualquier cosa menos un diario privado.
Si bien el documento no propone cambios de política inmediatos, señala los pasos prácticos que los individuos pueden tomar. Borrar el historial de chat con regularidad, por ejemplo, eliminaría las interacciones recientes del conjunto de entrenamiento del modelo, limitando la cantidad de información personal retenida. Los autores también piden una mayor transparencia de los desarrolladores de inteligencia artificial sobre cómo se almacenan y utilizan los datos de conversación.
Los observadores de la industria han notado que el estudio llega en un momento en que OpenAI y otras empresas están experimentando con características de monetización, como la publicidad en la aplicación. Si los anunciantes obtienen acceso a segmentos basados en la personalidad derivados de los registros de chat, la línea entre contenido relevante y manipulación podría volverse aún más borrosa. Los investigadores argumentan que las apuestas éticas son altas y piden un diálogo entre tecnólogos, reguladores y el público.
En respuesta a los hallazgos, OpenAI no ha emitido un comentario formal. Sin embargo, el documento agrega a un cuerpo creciente de trabajo que examina los riesgos de privacidad ocultos de los grandes modelos de lenguaje. A medida que los asistentes de inteligencia artificial se vuelven más integrados en la vida diaria, el equilibrio entre la comodidad y la protección de datos personales probablemente dará forma a la próxima oleada de política y diseño de productos.