Sesgo racial en las herramientas de toma de decisiones en la atención médica

El sesgo racial en la atención médica puede manifestarse en lugares inesperados. Un ejemplo: las herramientas de decisión clínica que desempeñan un papel importante en cómo se prueban, diagnostican y tratan los pacientes de hoy.

Estas herramientas contienen algoritmos, o procedimientos paso a paso, generalmente informatizados, para calcular factores como el riesgo de enfermedad cardíaca, la necesidad de una radiografía de tórax y las dosis de medicamentos recetados. La inteligencia artificial puede ser utilizada para analizar registros de salud y sistemas de facturación para crear los conjuntos de datos necesarios.

En apariencia, puede parecer objetivo. Pero estudios han demostrado que el análisis de datos utilizado en estos algoritmos puede estar sesgado de manera crucial contra ciertos grupos raciales y socioeconómicos. Esto puede tener innumerables consecuencias en la cantidad y calidad de la atención médica que reciben estos grupos.

Puntos clave

  • Las herramientas de decisión médica juegan un papel importante en cómo se prueban, diagnostican y tratan los pacientes de hoy.
  • Lamentablemente, los algoritmos en los que estas herramientas se basan pueden estar sesgados.
  • Utilizar datos de gasto médico para evaluar la condición de un paciente puede subestimar la gravedad de las enfermedades en pacientes pobres y minoritarios cuando un menor gasto médico refleja falta de acceso a atención médica, en lugar de menor necesidad.
  • El algoritmo de índice de masa corporal (IMC), utilizado para diagnosticar sobrepeso u obesidad, ha creado un ambiente de vergüenza por el peso y desconfianza entre pacientes y médicos, ya que más mujeres negras que hispanas o blancas son clasificadas como obesas.
  • Ahora se empieza a revisar que los datos de entrada y los resultados no tengan sesgos raciales, étnicos, de ingresos, género o edad, para poder reconocer disparidades y corregir algoritmos.

El sesgo racial afecta a los pacientes más enfermos

En 2019, un estudio sobre un algoritmo ampliamente utilizado por hospitales y aseguradoras en EE. UU. para asignar asistencia adicional en gestión de salud mostró que discriminaba sistemáticamente a las personas negras. La herramienta de decisión era menos propensa a remitir a las personas negras que a las blancas a programas de gestión de atención para necesidades médicas complejas, incluso cuando ambos grupos estaban igualmente enfermos.

La causa principal del sesgo estaba relacionada con la asignación de puntajes de riesgo basada en los costos médicos del año anterior. Se asumía que identificar a los pacientes con mayores costos ayudaría a detectar a quienes tenían mayores necesidades médicas. Sin embargo, muchos pacientes negros tienen menos acceso, menos capacidad de pagar y menos confianza en la atención médica que las personas blancas con la misma enfermedad. En este caso, sus costos médicos más bajos no predicen con precisión su estado de salud.

Los programas de gestión de atención utilizan un enfoque cercano, como llamadas telefónicas, visitas domiciliarias de enfermeros y priorización de citas médicas, para atender las necesidades complejas de los pacientes más graves. Se ha demostrado que mejoran los resultados, reducen visitas a urgencias y hospitalizaciones, y disminuyen los costos médicos. Debido a que estos programas son costosos, se asignan a quienes tienen los puntajes de riesgo más altos. Los métodos de puntuación que discriminan a los pacientes negros más graves pueden ser un factor importante en su mayor riesgo de muerte por muchas enfermedades.

La raza como variable en la enfermedad renal

Los algoritmos pueden tener sesgo sin incluir la raza como variable, pero algunos herramientas deliberadamente usan la raza como criterio. Por ejemplo, la puntuación eGFR, que evalúa la salud renal y se usa para determinar quién necesita un trasplante de riñón.

En un estudio de 1999 que estableció los criterios de puntuación eGFR, los investigadores notaron que las personas negras tenían, en promedio, niveles más altos de creatinina (un subproducto de la descomposición muscular) que las blancas. Los científicos asumieron que estos niveles más altos se debían a mayor masa muscular en los negros. Por ello, ajustaron la puntuación, lo que básicamente significaba que los negros debían tener un puntaje eGFR más bajo que las blancas para ser diagnosticados con enfermedad renal en etapa terminal. Como resultado, los negros debían esperar hasta que su enfermedad renal alcanzara una etapa más severa para calificar para tratamiento.

En 2018, una estudiante de medicina y salud pública de la Universidad de Washington en Seattle observó que las puntuaciones eGFR no eran precisas para diagnosticar la gravedad de la enfermedad renal en pacientes negros. Luchó para eliminar la raza del algoritmo y ganó. En 2020, UW Medicine aceptó que el uso de la raza era una variable ineficaz y no cumplía con el rigor científico en las herramientas de diagnóstico médico.

Importante

En 2021, un grupo de trabajo conjunto de la Fundación Nacional del Riñón y la Sociedad Americana de Nefrología recomendó adoptar una nueva ecuación de creatinina CKD-EPI 2021 para eGFR, que estima la función renal sin usar la raza como variable.

Índice de masa corporal y sesgo racial

Incluso la herramienta médica más simple que no incluye la raza puede reflejar sesgos sociales. El índice de masa corporal (IMC), por ejemplo, se basa en un cálculo que multiplica el peso por la altura. Se usa para identificar pacientes con bajo peso, sobrepeso y obesidad.

En 1985, los Institutos Nacionales de Salud vincularon la definición de obesidad al IMC de una persona, y en 1998, un panel de expertos estableció guías basadas en el IMC que movieron a 29 millones de estadounidenses previamente clasificados como peso normal o solo con sobrepeso a las categorías de sobrepeso y obesidad.

Hoy en día, según los estándares del IMC, la mayoría de las personas negras, hispanas y blancas están en sobrepeso u obesas. Pero un informe de 2021 de los Centros para el Control y la Prevención de Enfermedades (CDC) encontró que el porcentaje de estadounidenses que podrían clasificarse como obesos varía según el grupo racial o étnico.

Según el CDC, la distribución entre adultos en general fue:

  • No hispano negro: 49.9%
  • Hispano: 45.6%
  • No hispano blanco: 41.4%
  • No hispano asiático: 16.1%

Al desglosar a las mujeres adultas clasificadas como obesas, las diferencias parecen aún más significativas:

  • No hispano negro: 57.9%
  • Hispano: 45.7%
  • No hispano blanco: 39.6%
  • No hispano asiático: 14.5%

Etiquetar a grandes porcentajes de poblaciones como con sobrepeso u obesas ha creado un ambiente de vergüenza por el peso y desconfianza entre pacientes y médicos. Las personas con mayor peso se quejan de que los médicos no abordan los problemas o preocupaciones que los llevaron a la consulta. En cambio, los médicos culpan al peso del paciente por sus problemas de salud y promueven la pérdida de peso como solución. Esto contribuye a que muchos pacientes negros e hispanos eviten a los profesionales de la salud y, quizás, pierdan oportunidades de prevenir problemas o detectarlos a tiempo.

Además, cada vez es más claro que estar con sobrepeso u obeso no siempre es un problema de salud. Las tasas de algunas condiciones graves, como enfermedades cardíacas, accidentes cerebrovasculares, diabetes tipo 2 y ciertos tipos de cáncer, son mayores en personas obesas. Pero en ciertas situaciones, como la recuperación tras una cirugía cardíaca, estar con sobrepeso o moderadamente obeso (pero no mórbidamente obeso) se asocia con mejores tasas de supervivencia.

Las nuevas guías sobre obesidad para clínicos canadienses, publicadas en agosto de 2020, enfatizan que los médicos deben dejar de confiar únicamente en el IMC para diagnosticar a los pacientes. Las personas solo deben ser diagnosticadas de obesidad si su peso afecta su salud física o mental, según las nuevas directrices. El tratamiento debe ser integral y no solo centrado en la pérdida de peso. Las guías también señalan que, “las personas con obesidad enfrentan un sesgo y estigma sustanciales, que contribuyen a un aumento de morbilidad y mortalidad independientemente del peso o índice de masa corporal.”

La consideración del IMC de un individuo puede ser reemplazada por otras medidas, como la circunferencia de cintura. Y la obesidad misma puede ser redefinida. En enero de 2025, un grupo de 58 investigadores propuso una nueva definición que cambiaría el enfoque del IMC a la grasa corporal excesiva y su impacto en la salud. El grupo propuso dos categorías de obesidad: preclínica, cuando una persona tiene exceso de grasa pero sus órganos funcionan normalmente, y clínica, cuando demasiado grasa está dañando tejidos y órganos.

Reduciendo el sesgo en las herramientas de decisión

Los algoritmos médicos no son el único tipo de algoritmo que puede estar sesgado. Como señaló un artículo de 2020 en The New England Journal of Medicine, “Este problema no es exclusivo de la medicina. El sistema de justicia penal, por ejemplo, utiliza herramientas de predicción de reincidencia para guiar decisiones sobre montos de fianza y sentencias de prisión.” Los autores dijeron que una herramienta ampliamente utilizada, “aunque no usa la raza per se, emplea muchos factores que se correlacionan con la raza y devuelve puntajes de riesgo más altos para los acusados negros.”

El uso creciente de inteligencia artificial (IA), en particular el aprendizaje automático, también ha planteado preguntas sobre sesgos basados en raza, estatus socioeconómico y otros factores. En salud, el aprendizaje automático a menudo depende de registros electrónicos de salud. Los pacientes pobres y minoritarios pueden recibir atención fragmentada y ser atendidos en múltiples instituciones. Es más probable que sean atendidos en clínicas docentes donde la entrada de datos o el razonamiento clínico puedan ser menos precisos. Además, pueden no tener acceso a portales en línea para pacientes y documentar resultados. Como resultado, los registros de estos pacientes pueden tener datos faltantes o erróneos. Los algoritmos que impulsan el aprendizaje automático pueden terminar excluyendo a pacientes pobres y minoritarios de los conjuntos de datos y de la atención necesaria.

La buena noticia es que la conciencia sobre los sesgos en los algoritmos de salud ha crecido en los últimos años. Se están revisando los datos de entrada y los resultados para detectar sesgos raciales, étnicos, de ingresos, género y edad. Las sociedades médicas especializadas en EE. UU. están reconociendo los daños causados por la medicina basada en la raza y avanzando para eliminar la consideración de la raza en los algoritmos clínicos. Cuando se reconocen disparidades, los algoritmos y conjuntos de datos pueden ser revisados para lograr mayor objetividad.

¿Qué es un algoritmo?

No existe una definición legal o científica estándar para algoritmo, pero el Instituto Nacional de Estándares y Tecnología (NIST) lo define como “Un proceso matemático claramente especificado para el cálculo; un conjunto de reglas que, si se siguen, proporcionarán un resultado prescrito.”

¿Un ejemplo de algoritmo?

En el sentido más amplio, un algoritmo es simplemente un proceso paso a paso para responder una pregunta o lograr un resultado deseado. Por ejemplo, una receta de pastel es una forma de algoritmo. En el mundo financiero, un sistema de comercio automatizado sería un ejemplo.

¿Qué es el aprendizaje automático?

IBM, pionero en el campo, lo define como “el subconjunto de inteligencia artificial (IA) enfocado en algoritmos que pueden ‘aprender’ los patrones de los datos de entrenamiento y, posteriormente, hacer inferencias precisas sobre nuevos datos.”

La conclusión

A pesar de su apariencia de objetividad imparcial, los algoritmos que utilizan los profesionales médicos para tomar ciertas decisiones pueden ser propensos a sesgos basados en raza, clase y otros factores. Por ello, los algoritmos no deben aceptarse ciegamente, sino que deben someterse a un análisis riguroso. Como señaló un artículo de 2021 en MIT Technology Review, “El término ‘algoritmo’, sea como sea definido, no debe ser una excusa para eximir a los humanos que diseñaron y desplegaron cualquier sistema de responsabilidad por las consecuencias de su uso.”

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)