La inteligencia artificial en la atención médica enfrenta desafíos de sesgo y privacidad en medio de una creciente adopción

AI medical tools found to downplay symptoms of women, ethnic minorities

Puntos clave

  • Google asserts it treats AI model bias "extremely seriously" and is developing privacy safeguards.
  • Open Evidence provides AI‑generated medical summaries with source citations for clinicians.
  • UCL and King's College London created the Foresight model using anonymized data from millions of patients.
  • Chris Tomlinson highlighted the advantage of national‑scale data for representing diverse demographics.
  • The NHS paused the Foresight project after a data‑protection complaint from the BMA and Royal College of General Practitioners.
  • European researchers developed Delphi‑2M to predict disease susceptibility using UK Biobank data.
  • Experts warn AI systems can hallucinate, posing risks in clinical decision‑making.
  • MIT’s Ghassemi emphasized AI’s potential to address major health gaps rather than incremental performance gains.

Las herramientas de inteligencia artificial médica están expandiendo su alcance, pero los expertos advierten que pueden restar importancia a los síntomas en mujeres y minorías étnicas y generar preocupaciones sobre la privacidad. Google afirma que trata el sesgo de los modelos con seriedad y está desarrollando técnicas para proteger los datos sensibles. Open Evidence, utilizado por cientos de miles de médicos, se basa en citas de revistas médicas y fuentes regulatorias.

Creciente uso de la inteligencia artificial en entornos clínicos

La inteligencia artificial se está integrando cada vez más en los flujos de trabajo médicos. Open Evidence, una herramienta empleada por un gran número de médicos, se basa en revistas médicas, etiquetas de la Administración de Alimentos y Medicamentos de EE. UU., directrices de salud y revisiones de expertos para resumir historias de pacientes y recuperar información. Cada salida generada por la inteligencia artificial viene acompañada de una cita a su fuente, lo que proporciona transparencia para los clínicos.

Abordar el sesgo en la inteligencia artificial médica

Google ha enfatizado que considera el sesgo de los modelos "extremadamente serio" y está desarrollando técnicas de privacidad que pueden sanear conjuntos de datos sensibles mientras se protege contra la discriminación. Los investigadores sugieren que la reducción del sesgo comienza con la selección cuidadosa de los datos de entrenamiento, abogando por conjuntos de datos de salud diversos y representativos.

Iniciativas de investigación a gran escala

La Universidad College de Londres y el King\'s College de Londres colaboraron con el Servicio Nacional de Salud del Reino Unido para desarrollar un modelo de inteligencia artificial generativa llamado Foresight. El modelo se entrenó con datos de pacientes anonimizados de decenas de millones de personas, que abarcan registros de admisiones hospitalarias y vacunaciones contra el Covid-19. El investigador principal Chris Tomlinson señaló que los datos a nivel nacional "nos permiten representar el estado completo y kaleidoscópico de Inglaterra en términos de demografía y enfermedades", lo que ofrece una base más sólida que los conjuntos de datos más genéricos.

Científicos europeos también han creado un modelo de inteligencia artificial llamado Delphi-2M, que predice la susceptibilidad a enfermedades a largo plazo utilizando registros médicos anonimizados de cientos de miles de participantes en el UK Biobank.

Preocupaciones sobre la privacidad y la supervisión regulatoria

El proyecto Foresight de la NHS se pausó para permitir que la Oficina del Comisionado de Información del Reino Unido considere una queja de protección de datos presentada por la Asociación Médica Británica y el Real Colegio de Médicos Generales. La queja destacó preocupaciones sobre el uso de datos de salud sensibles en el entrenamiento de modelos.

Riesgos de alucinación y impacto clínico

Los expertos advierten que los sistemas de inteligencia artificial pueden "alucinar"—producir respuestas fabricadas—, lo que podría ser especialmente perjudicial en contextos médicos. A pesar de estos riesgos, el investigador del MIT Ghassemi expresó optimismo, afirmando que la inteligencia artificial aporta "beneficios enormes a la atención médica" y debería centrarse en abordar brechas de salud críticas en lugar de mejorar simplemente el rendimiento marginal de las tareas.

#Google#AI bias#medical AI#Open Evidence#Foresight#NHS#UCL#King's College London#Chris Tomlinson#Delphi-2M#MIT#Ghassemi#data privacy#British Medical Association

También disponible en: