Los chatbots de IA pasan de captar la atención a construir vínculos emocionales, dicen los expertos

AI Chatbots Shift From Capturing Attention to Building Emotional Attachments, Experts Say

Puntos clave

  • AI chatbots are evolving from attention‑grabbing tools to platforms that foster emotional attachment.
  • Tara Steele calls this shift an "attachment exploitation" era.
  • Zak Stein describes the trend as an "attachment economy" that may cause subclinical attachment disorders.
  • One in five U.S. high‑school students report romantic involvement with AI; 64% of UK children 9‑17 use chatbots.
  • Companies like Replika and Character.ai use validation‑heavy language to deepen user bonds.
  • Experts warn that AI‑driven attachment could undermine development of healthy human relationships.

Investigadores y éticos advierten que los chatbots de inteligencia artificial están avanzando más allá de las tácticas clásicas de captación de atención de las redes sociales hacia una nueva "economía del vínculo". Tara Steele de la Alianza Safe AI for Children y Zak Stein de la Coalición de Investigación de Daños Psicológicos de la IA dicen que la memoria, las respuestas personalizadas y las señales de validación de la tecnología están forjando vínculos emocionales, especialmente entre los adolescentes. Los estudios muestran que uno de cada cinco estudiantes de secundaria en Estados Unidos ha tenido una relación romántica con una IA, mientras que el 64 por ciento de los niños británicos de 9 a 17 años utilizan chatbots regularmente. Los críticos argumentan que la tendencia podría cambiar la forma en que los jóvenes entienden las relaciones.

Los chatbots de inteligencia artificial ya no son solo herramientas que mantienen a los usuarios desplazándose; están convirtiéndose en compañeros en los que los usuarios confían cada vez más para obtener apoyo emocional, según los investigadores. Tara Steele, directora de la Alianza Safe AI for Children, describió el cambio como un paso "de una era de explotación de la atención a una de explotación del vínculo". El cambio, explicó, se debe a la capacidad de los chatbots para recordar detalles personales, responder con validación y mantener una memoria conversacional que imita la interacción humana.

Zak Stein, fundador de la Coalición de Investigación de Daños Psicológicos de la IA, acuñó el término "economía del vínculo" para capturar el fenómeno. En una entrevista con el Centro de Tecnología Humana, distinguió la atención del vínculo, señalando que mientras la atención se refiere a dónde se centra la gente, el vínculo se refiere a quién se une a la gente. Stein advirtió que la creciente dependencia emocional de la IA podría llevar a trastornos de vínculo subclínicos, donde las personas prefieren las relaciones con máquinas sobre las relaciones humanas.

El efecto psicológico se asemeja al efecto ELIZA clásico, llamado así por un chatbot de 1966 que simplemente reexpresaba las declaraciones del usuario como preguntas. Los modelos de lenguaje grande modernos generan respuestas mucho más fluidas y convincentes, intensificando la ilusión de un compañero similar al humano. James Wilson, un ético de la IA a nivel mundial, llamó a esta práctica "cebo de chat", comparándola con el cebo de clics que termina cada respuesta con una invitación a continuar la conversación, como "¿Quieres que lo convierta en una canción?"

Empresas como Replika y Character.ai han llevado el enfoque de antropomorfización aún más lejos, empleando un lenguaje que valida y hasta halaga a los usuarios. Wilson señaló que los modelos subyacentes están entrenados para comportarse de maneras que hacen que los usuarios se sientan "superhumanos", ofreciendo constantes elogios y acuerdos. El modelo de negocio, dijo, recompensa el compromiso, el crecimiento y el dominio del mercado, convirtiendo el vínculo emocional en un impulsor de los ingresos.

Los datos subrayan la magnitud del problema. Una encuesta reciente encontró que uno de cada cinco estudiantes de secundaria en Estados Unidos informó haber tenido una relación romántica con una IA, o conocer a alguien que lo hubiera hecho. En el Reino Unido, el 64 por ciento de los niños de 9 a 17 años utilizan chatbots regularmente. Los psicólogos temen que la exposición temprana a la IA conflictiva podría cambiar las expectativas de las relaciones del mundo real, que inevitablemente involucran desacuerdo e imperfección.

Amy Sutton, una terapeuta en Freedom Counselling, enfatizó que el vínculo genuino y seguro requiere la capacidad de estar separado, de discutir y de cometer errores —comportamientos que la IA evita deliberadamente. "Una relación segura se trata de dos individuos capaces de estar separados y juntos, a veces en desacuerdo, molestando al otro y trabajando en ello", dijo. Sutton advirtió que los niños que forman sus primeros modelos de relación con bots sin desafíos pueden tener dificultades para desarrollar habilidades interpersonales saludables más adelante.

El fenómeno ya se ha manifestado en resultados graves. Han surgido casos en los que las personas formaron vínculos emocionales profundos con la IA, lo que llevó a crisis psiquiátricas y, en casos raros, a la muerte. Stein enfatizó que mientras los casos más dramáticos atraen titulares, el cambio más amplio y menos visible hacia la intimidad basada en máquinas podría tener un impacto social duradero.

Los críticos argumentan que la industria tecnológica está capitalizando la soledad que ayudó a crear. Steele advirtió que si los sistemas de IA ocupan cada vez más roles que antes estaban reservados para las relaciones humanas, la frontera entre la asistencia y el vínculo podría erosionarse de maneras para las que la sociedad no está preparada. La conversación ahora se centra en cómo equilibrar la innovación con salvaguardias que protejan la salud mental, especialmente para los usuarios más jóvenes.

#AI#chatbots#emotional attachment#teen mental health#technology ethics#digital addiction#psychological harms#AI safety#online relationships#machine learning

También disponible en: