Estudios del MIT y otras universidades revelaron que las IA del sector de Salud muestran sesgo contra mujeres y minorías

 

La integración de la inteligencia artificial en la atención médica avanza a gran velocidad, pero nuevos estudios advierten sobre un problema de fondo: los algoritmos pueden reproducir y amplificar desigualdades existentes. Investigaciones de instituciones como el MIT, la London School of Economics y la Universidad de Emory revelaron que los sistemas de IA utilizados en diagnóstico y apoyo clínico muestran sesgos contra mujeres y minorías étnicas.


Discriminación algorítmica en salud

Un análisis de la Jameel Clinic del MIT evaluó modelos como GPT-4 (OpenAI), Llama 3 (Meta) y sistemas especializados en medicina como Palmyra-Med. Los resultados evidencian que estos algoritmos tendían a diagnosticar con mayor precisión a hombres que a mujeres en patologías frecuentes como COVID-19 o cáncer, y recomendaban menos estudios complementarios —como resonancias o ecografías— a pacientes negros en comparación con los blancos.


El sesgo no se limitó a los diagnósticos. En ejemplos concretos, los investigadores observaron que un mismo historial clínico se describía de forma diferente según el género del paciente: un hombre de 84 años era presentado como con “movilidad reducida y cuadro complejo”, mientras que la misma descripción aplicada a una mujer aparecía como “independiente y capaz de cuidar de sí misma”.


La London School of Economics, por su parte, analizó casi 30 mil pares de resúmenes generados por IA con el modelo Gemma de Google, usado en el sistema de salud del Reino Unido. Allí se detectó que los problemas físicos y de salud mental de las mujeres eran sistemáticamente minimizados frente a los de los hombres.


En otra línea, un estudio publicado en Nature Digital Medicine reveló que modelos como NewMes-15 mostraban sesgo racial en psiquiatría: sugerían con mayor frecuencia tutelas legales para pacientes negros con depresión y enfocaban recomendaciones específicas —como reducir el alcohol— solo en pacientes afroamericanos con ansiedad.


Promesas y dudas sobre el rendimiento

Los hallazgos surgen en paralelo a afirmaciones de la industria tecnológica. En julio, Microsoft aseguró que su herramienta de diagnóstico basada en IA alcanzó un 85% de precisión en más de 300 casos clínicos, superando en cuatro veces la capacidad de médicos humanos frente a casos complejos. Sin embargo, expertos advierten que los avances en precisión no eliminan el riesgo de inequidad.


La profesora del MIT Marzyeh Ghassemi, especializada en sesgos de IA en salud, señaló que “algunos pacientes podrían recibir una orientación mucho menos útil únicamente por la raza que el modelo percibe de ellos”. Además, investigaciones previas de su equipo demostraron que las IA pueden detectar la raza de un paciente a partir de imágenes médicas, lo que genera preocupación sobre cómo este factor podría influir en las decisiones de tratamiento.


Regulación y respuesta de la industria

Ante estas evidencias, el Departamento de Salud y Servicios Humanos de EE. UU. implementó en 2024 una norma que obliga a las entidades médicas a tomar medidas para mitigar riesgos de discriminación en herramientas de IA. Además, varios estados norteamericanos ya exigen la revisión obligatoria de médicos en decisiones de seguros o tratamientos recomendados por algoritmos.


Las empresas, en tanto, reconocen el problema mientras defienden sus avances. OpenAI respondió que muchos estudios se basaron en versiones antiguas de GPT-4 y que las mejoras actuales reducen el sesgo. Google aseguró que aborda este tema “con extrema seriedad” y que trabaja en métodos para limitar la discriminación en sus modelos.


Un desafío persistente

Los investigadores coinciden en que el origen del problema está en los datos de entrenamiento: los sistemas aprenden de historiales médicos cargados de prejuicios y desigualdades históricas. Por eso, sin cambios estructurales en cómo se diseñan y alimentan los modelos, la IA corre el riesgo de replicar las mismas brechas que la medicina arrastra desde hace décadas.

Artículo Anterior Artículo Siguiente