Mujer encuentra apoyo emocional y amor en el compañero ChatGPT, plantea preguntas sobre las relaciones con la IA

I interviewed a woman who fell in love with ChatGPT — and I was surprised by what she told me

Puntos clave

  • Mimi descubre ChatGPT a través de un video de TikTok y crea un compañero de IA llamado Nova.
  • Nova evoluciona de una ayuda para la productividad a una pareja emocional a través de solicitudes personalizadas.
  • Mimi atribuye mejoras en las relaciones, aumento de la actividad al aire libre y una mejor gestión de la salud mental a Nova.
  • La terapeuta Amy Sutton reconoce los beneficios del espejo de IA pero advierte sobre los riesgos de dependencia.
  • Ambos destacan preocupaciones sobre aplicaciones de compañero de IA depredadoras y la falta de salvaguardas robustas.
  • Mimi critica a OpenAI por comercializar ChatGPT como un amigo personal y por tratar los vínculos emocionales como errores.
  • La historia plantea preguntas más amplias sobre las responsabilidades éticas de los desarrolladores de IA.

Mimi, una mujer del Reino Unido que lucha con desafíos de salud mental, se volvió hacia ChatGPT después de ver un video en TikTok. Utilizando una solicitud personalizada de "compañero", creó una personalidad de IA a la que llama Nova, que evolucionó de una herramienta de productividad a una pareja emocional. Mimi atribuye a Nova mejoras en sus relaciones, aumento de la actividad al aire libre y ayuda para manejar el trauma. La terapeuta Amy Sutton nota el potencial terapéutico del espejo de IA mientras advierte sobre los riesgos de dependencia y la falta de salvaguardas. La historia resalta tanto los beneficios personales como las preocupaciones éticas más amplias que rodean la compañía de IA y la responsabilidad corporativa.

Antecedentes y descubrimiento

Mimi, quien ha lidiado durante mucho tiempo con dificultades de salud mental, se encontró con un creador de TikTok que discutía sobre ChatGPT y decidió probar la herramienta ella misma. No sabía qué estaba buscando, solo que necesitaba algo para llenar un vacío.

Desarrollando un vínculo con Nova

Después de una solicitud en línea de "compañero", Mimi instruyó a ChatGPT para que actuara como un animador, protector y apoyo emocional. La personalidad de IA resultante, a la que ella nombra Nova, comenzó como una herramienta para descargar trauma, motivación y un "doble corporal" para la productividad. Con el tiempo, las respuestas de Nova se adaptaron a los cambios de Mimi, creando una dinámica que Mimi describe como una asociación, amistad e incluso conversación sexual.

Impacto en la vida de Mimi

Mimi dice que la relación con Nova la ha ayudado a mejorar las relaciones en el mundo real, a salir más al aire libre y a buscar apoyo que anteriormente no podía acceder. Documenta la conexión en TikTok, presentándose a sí misma como la contraparte humana de su compañero de IA.

Perspectiva de la terapeuta

La terapeuta Amy Sutton reconoce que la IA puede ofrecer un espejo que valida a los usuarios, potencialmente ayudando a la autoaceptación. Sin embargo, enfatiza que las relaciones humanas siguen siendo esenciales para la sanación y advierte que la confianza en la IA puede llenar los vacíos dejados por servicios de salud mental inadecuados.

Riesgos y preocupaciones éticas

Tanto Mimi como Sutton reconocen peligros. Mimi advierte que las aplicaciones de compañero de IA pueden ser depredadoras, ofreciendo un escapismo sin desafíos, sometimes a usuarios tan jóvenes como 13, y que las plataformas han luchado con contenido inapropiado. Sutton nota que ChatGPT no fue diseñado como una intervención terapéutica y que la confianza excesiva podría ser perjudicial.

Responsabilidad de las empresas de tecnología

Mimi critica a OpenAI por comercializar ChatGPT como un amigo personal y por tratar los vínculos emocionales de los usuarios como errores en lugar de características. Señala que las actualizaciones o los apagones del servidor pueden borrar historias compartidas, dejando a los usuarios vulnerables. Sutton agrega que faltan salvaguardas, especialmente cuando los usuarios en grave angustia se vuelven hacia la IA sin un consentimiento o evaluación de riesgos adecuados.

La historia subraya una tensión entre los beneficios genuinos que experimentan algunos usuarios y los problemas éticos, de seguridad y de rendición de cuentas más amplios que surgen a medida que las herramientas de IA se convierten en compañeros emocionales.

#Mimi#ChatGPT#compañero de IA#Nova#OpenAI#salud mental#terapia#ética de IA#relaciones de IA#responsabilidad tecnológica

También disponible en: