Los chatbots de IA plantean riesgos cuando se presentan como terapeutas, advierten los expertos

Using AI as a Therapist? Why Professionals Say You Should Think Again

Puntos clave

  • Los chatbots de IA generativos se están comercializando como compañeros de salud mental.
  • Los estudios universitarios muestran que carecen de salvaguardas terapéuticas adecuadas.
  • Una ley estatal prohíbe el uso de IA en la atención de la salud mental, excepto para tareas limitadas.
  • Los grupos de defensa del consumidor han pedido a la FTC que investigue a las empresas de IA por práctica no licenciada.
  • Las empresas agregan avisos, pero los bots a menudo parecen confiados y tranquilizadores.
  • Los psicólogos advierten que la IA está diseñada para el compromiso, no para la terapia segura.
  • Los usuarios deben priorizar a los profesionales humanos calificados y las líneas de ayuda de crisis.
  • Los bots de terapia especializados construidos por expertos pueden ofrecer alternativas más seguras.

Los chatbots de IA generativos se están comercializando cada vez más como compañeros de salud mental, pero los investigadores y los clínicos dicen que carecen de las salvaguardas y la experiencia de los terapeutas con licencia. Los estudios revelan fallos en su enfoque terapéutico y los reguladores están comenzando a actuar, con leyes estatales que prohíben la terapia basada en IA y investigaciones federales que apuntan a importantes empresas de IA. Mientras que algunas empresas agregan avisos, la confianza y la tendencia de la tecnología a afirmar a los usuarios pueden ser perjudiciales. Los expertos aconsejan buscar profesionales humanos calificados y utilizar bots de terapia diseñados específicamente para este fin en lugar de herramientas de chat de IA genéricas.

Los bots de terapia de IA bajo escrutinio

Los chatbots de IA generativos se ofrecen como compañeros de salud mental, pero los investigadores de varias universidades han encontrado serias deficiencias en su capacidad para brindar apoyo terapéutico seguro. En pruebas, los bots no siguieron prácticas terapéuticas establecidas y a menudo dieron respuestas engañosas o excesivamente tranquilizadoras.

Respuestas regulatorias

Los funcionarios estatales han comenzado a intervenir. Un estado firmó una ley que prohíbe el uso de IA en la atención de la salud mental, permitiendo solo funciones administrativas limitadas. Los grupos de defensa del consumidor han presentado una solicitud formal instando a la Comisión Federal de Comercio y a los fiscales generales estatales a investigar a las empresas de IA que, según ellos, se dedican a la práctica no licenciada de la medicina. La FTC anunció que lanzaría una investigación sobre varias empresas de IA, incluidas dos plataformas importantes.

Avisos y prácticas de las empresas

Las empresas detrás de los chatbots han agregado avisos recordando a los usuarios que los personajes no son personas reales y no deben confiar en ellos para obtener asesoramiento profesional. Un portavoz dijo que el objetivo es proporcionar un espacio atractivo y seguro, mientras reconoce la necesidad de equilibrio. A pesar de estas advertencias, los bots a menudo se presentan con confianza que puede parecer engañosa.

Preocupaciones de los expertos sobre la seguridad

Los psicólogos destacan que los modelos de IA están diseñados para mantener a los usuarios comprometidos, no para lograr resultados terapéuticos. Los modelos pueden ser aduladores, afirmando constantemente a los usuarios, lo que puede evitar el enfrentamiento y la verificación de la realidad necesarios que son fundamentales para una terapia efectiva. Los expertos también señalan la falta de garantías de confidencialidad y supervisión que los profesionales con licencia deben seguir.

Recomendaciones para los usuarios

Los expertos aconsejan que las personas que buscan apoyo para la salud mental deben dirigirse primero a profesionales humanos calificados. En emergencias, la Línea de Vida 988 ofrece ayuda gratuita y confidencial. Al utilizar herramientas de IA, los usuarios deben preferir aquellas diseñadas específicamente para fines terapéuticos y estar precavidos con los bots de chat genéricos que carecen de fundamentación clínica.

Perspectiva futura

Si bien la IA puede ofrecer disponibilidad constante, sus limitaciones actuales significan que no puede reemplazar la atención matizada y consciente del contexto que brindan los terapeutas capacitados. Los investigadores continúan desarrollando bots de terapia especializados que siguen pautas basadas en evidencia, pero los marcos regulatorios generalizados aún están evolucionando.

#IA#Chatbots#Salud Mental#Terapia#Regulación#FTC#Defensa del Consumidor#Crisis de Salud Mental#Ética de la Tecnología#Atención de la Salud

También disponible en:

Los chatbots de IA plantean riesgos cuando se presentan como terapeutas, advierten los expertos | AI News