Consultas de ChatGPT son centrales en cargos de asesinato en Corea del Sur

Puntos clave
- La policía de Seúl actualizó los cargos de asesinato después de encontrar consultas específicas de ChatGPT sobre mezclas letales de drogas y alcohol.
- La mujer presuntamente adulteró las bebidas servidas a dos hombres en habitaciones de motel separadas, lo que resultó en sus muertes.
- La forensia digital mostró preguntas repetidas y enfocadas al IA, lo que sugiere una intención premeditada.
- Un intento anterior no fatal con la pareja de la sospechosa indicó un patrón de aumento de la dosis.
- Después de los asesinatos, la sospechosa retiró las botellas vacías pero no buscó ayuda, lo que se considera un intento de encubrimiento.
- El caso destaca los registros de conversación de IA como una nueva forma de evidencia en las investigaciones criminales.
- Las agencias de aplicación de la ley en todo el mundo están examinando cómo tratar los datos de la IA generativa dentro de los marcos de privacidad y legalidad.
La policía de Corea del Sur ha actualizado los cargos contra una mujer de 21 años después de que la forensia digital reveló una serie de consultas específicas de ChatGPT sobre la mezcla de sedantes con recetas con alcohol. La mujer presuntamente adulteró las bebidas servidas a dos hombres en habitaciones de motel separadas, lo que llevó a sus muertes. Los investigadores argumentan que las búsquedas del chatbot demuestran una intención premeditada, lo que cambia el caso de una sobredosis accidental a un envenenamiento deliberado. El uso de registros de conversación de IA como evidencia destaca una nueva dimensión en las investigaciones criminales, planteando preguntas sobre la privacidad y el tratamiento legal de las huellas digitales de la IA generativa.
Antecedentes y investigación
La policía de Seúl arrestó a una mujer de 21 años, identificada solo como Kim, por un cargo menor de infligir lesiones corporales que resultaron en la muerte. Después de una revisión exhaustiva de la forensia digital de su teléfono, los investigadores descubrieron un patrón de consultas de ChatGPT que específicamente preguntaban cómo mezclar pastillas para dormir con alcohol podría ser letal. Las consultas se repitieron con diferentes frases, lo que indica un interés enfocado en los efectos letales de la combinación de drogas y alcohol.
Serie de crímenes
El primer incidente ocurrió el 28 de enero cuando Kim se registró en un hotel con un hombre de 20 años y salió dos horas después. El personal del hotel descubrió el cuerpo de la víctima al día siguiente. Un segundo incidente casi idéntico tuvo lugar el 9 de febrero en un motel diferente con otro hombre de 20 años. En ambos casos, las víctimas consumieron bebidas alcohólicas que Kim había preparado, que la policía cree que estaban adulteradas con sedantes con receta disueltos.
Evidencia de ChatGPT
Los detectives enfatizaron que las búsquedas de ChatGPT no eran genéricas ni vagas. Eran específicas, repetidas y centradas en la letalidad. Según las autoridades, la fraseología precisa de las preguntas mostró que Kim conocía los riesgos de mezclar las sustancias mucho antes de servir las bebidas. Esta huella digital se convirtió en la columna vertebral del caso revisado, que ahora alega un envenenamiento deliberado y premeditado.
Hallazgos adicionales
La policía también descubrió un intento anterior no fatal que involucró al entonces pareja de Kim, quien más tarde se recuperó. Después de ese incidente, los investigadores dicen que Kim comenzó a preparar mezclas más fuertes y aumentó las dosis de drogas. Después de las dos muertes en el motel, Kim presuntamente retiró las botellas vacías utilizadas en las mezclas pero no pidió ayuda ni alertó a las autoridades, una acción que los detectives interpretan como un intento de encubrimiento en lugar de pánico.
Implicaciones legales y sociales
El caso marca un cambio notable en la forma en que la policía trata las interacciones con la IA generativa. Históricamente, los investigadores han confiado en los registros del navegador, los registros de texto y los mensajes de las redes sociales para establecer la intención. ChatGPT, sin embargo, ofrece orientación conversacional personalizada, y el contenido de dichas consultas puede revelar tanto curiosidad como persistencia en el comportamiento ilícito. Algunas jurisdicciones ya tratan los registros de IA de manera similar a la evidencia digital tradicional, mientras que otras aún están sopesando las preocupaciones de privacidad.
Para los usuarios cotidianos, el caso sirve como recordatorio de que las huellas digitales pueden tener consecuencias duraderas. A medida que más personas recurren a los chatbots para una variedad de consultas, desde ayuda para tareas hasta asesoramiento médico, las agencias de aplicación de la ley en todo el mundo están comenzando a explorar cómo deben manejarse estas conversaciones durante las investigaciones.
Perspectiva futura
Los tribunales decidirán finalmente cuánto peso tienen las consultas de ChatGPT para establecer la culpa. El resultado puede influir en la percepción pública de la privacidad, la permanencia de los datos y las posibles ramificaciones legales de interactuar con los sistemas de IA.