Biais racial dans les outils de prise de décision en soins médicaux

Les biais raciaux dans les soins médicaux peuvent apparaître dans des endroits inattendus. Un exemple : les outils de décision clinique qui jouent un rôle important dans la façon dont les patients d’aujourd’hui sont testés, diagnostiqués et traités.

Ces outils contiennent des algorithmes, ou des procédures étape par étape, généralement informatisés, pour calculer des facteurs tels que le risque de maladie cardiaque, la nécessité d’une radiographie thoracique et les dosages de médicaments sur ordonnance. L’intelligence artificielle peut être utilisée pour analyser les dossiers de santé et les systèmes de facturation afin de créer les ensembles de données nécessaires.

En surface, cela peut sembler objectif. Mais des études ont montré que l’analyse des données utilisée dans ces algorithmes peut être biaisée de manière cruciale contre certains groupes raciaux et socioéconomiques. Cela peut avoir de multiples conséquences en termes de quantité et de qualité des soins de santé que reçoivent ces groupes.

Points clés

  • Les outils de décision médicale jouent un rôle important dans la façon dont les patients d’aujourd’hui sont testés, diagnostiqués et traités.
  • Malheureusement, les algorithmes sur lesquels ces outils se basent peuvent parfois être biaisés.
  • Utiliser les données de dépenses médicales pour évaluer l’état de santé d’une personne peut sous-estimer la gravité des maladies des patients pauvres et minoritaires lorsque des dépenses médicales plus faibles reflètent un manque d’accès aux soins plutôt qu’un moindre besoin.
  • L’algorithme d’indice de masse corporelle (IMC), utilisé pour diagnostiquer les patients en surpoids ou obèses, a créé une atmosphère de stigmatisation du poids et de méfiance entre patients et médecins, car plus de femmes noires que hispaniques ou blanches sont désormais classées comme obèses.
  • La saisie des données et les résultats commencent désormais à être vérifiés pour détecter les biais raciaux, ethniques, liés au revenu, au genre et à l’âge, afin de reconnaître les disparités et de corriger les algorithmes.

Le biais racial affecte les patients les plus malades

En 2019, une étude sur un algorithme largement utilisé par les hôpitaux et assureurs américains pour allouer une assistance supplémentaire en gestion de la santé a montré qu’il discriminait systématiquement contre les personnes noires. L’outil de décision était moins susceptible de référer les personnes noires que les personnes blanches à des programmes de gestion des soins pour des besoins médicaux complexes, alors que les deux groupes raciaux étaient également malades.

La raison sous-jacente de ce biais était liée à l’attribution de scores de risque aux patients en fonction de leurs coûts médicaux de l’année précédente. L’hypothèse était que l’identification des patients avec des coûts plus élevés permettrait d’identifier ceux ayant les plus grands besoins médicaux. Cependant, de nombreux patients noirs ont moins accès aux soins, moins la capacité de payer et moins de confiance dans le système médical que les blancs malades de façon similaire. Dans ce cas, leurs coûts médicaux plus faibles ne prédisaient pas précisément leur état de santé.

Les programmes de gestion des soins utilisent une approche intensive, comme des appels téléphoniques, des visites à domicile par des infirmiers, et la priorité donnée aux rendez-vous chez le médecin pour répondre aux besoins complexes des patients les plus malades. Il a été démontré que ces programmes améliorent les résultats, réduisent les visites aux urgences et les hospitalisations, et diminuent les coûts médicaux. Étant donné que ces programmes sont coûteux, ils sont attribués aux personnes avec les scores de risque les plus élevés. Les techniques de scoring qui discriminent contre les patients noirs les plus malades pour ces soins peuvent être un facteur important de leur risque accru de décès par de nombreuses maladies.

La race comme variable dans la maladie rénale

Les algorithmes peuvent contenir des biais sans inclure la race comme variable, mais certains outils utilisent délibérément la race comme critère. Prenons le score eGFR, qui évalue la santé rénale et est utilisé pour déterminer qui a besoin d’une transplantation rénale.

En 1999, une étude ayant défini les critères du score eGFR a remarqué que les personnes noires avaient, en moyenne, des niveaux plus élevés de créatinine (un sous-produit de la dégradation musculaire) que les personnes blanches. Les chercheurs ont supposé que ces niveaux plus élevés étaient dus à une masse musculaire plus importante chez les noirs. Ils ont donc ajusté le score, ce qui signifiait essentiellement que les personnes noires devaient avoir un score eGFR plus bas que les blancs pour être diagnostiquées en stade terminal de la maladie rénale. En conséquence, les noirs devaient attendre que leur maladie rénale atteigne un stade plus avancé pour pouvoir bénéficier d’un traitement.

En 2018, une étudiante en médecine et en santé publique de l’Université de Washington à Seattle a observé que les scores eGFR n’étaient pas précis pour diagnostiquer la gravité de la maladie rénale chez les patients noirs. Elle a mené une lutte pour faire supprimer la race de l’algorithme et a gagné. En 2020, UW Medicine a reconnu que l’utilisation de la race était une variable inefficace et ne répondait pas aux exigences de rigueur scientifique dans les outils de diagnostic médical.

Important

En 2021, un groupe de travail conjoint de la National Kidney Foundation et de l’American Society of Nephrology a recommandé l’adoption d’une nouvelle formule eGFR CKD EPI de 2021, qui estime la fonction rénale sans utiliser la race comme variable.

L’indice de masse corporelle et le biais racial

Même le plus simple des outils de décision médicale qui n’inclut pas la race peut refléter un biais social. Par exemple, l’indice de masse corporelle (IMC) est basé sur un calcul qui multiplie le poids par la taille. Il sert à identifier les patients en sous-poids, en surpoids ou obèses.

En 1985, les National Institutes of Health ont lié la définition de l’obésité à l’IMC d’un individu, et en 1998, un groupe d’experts a établi des lignes directrices basées sur l’IMC qui ont fait passer 29 millions d’Américains auparavant classés comme poids normal ou juste en surpoids dans les catégories surpoids et obésité.

Aujourd’hui, selon les normes de l’IMC, la majorité des personnes noires, hispaniques et blanches sont en surpoids ou obèses. Mais un rapport de 2021 des Centers for Disease Control and Prevention (CDC) a révélé que le pourcentage d’Américains pouvant être classés comme obèses varie selon la race ou l’origine ethnique.

Selon le CDC, la répartition chez les adultes en général était :

  • Non-hispaniques noires : 49,9 %
  • Hispaniques : 45,6 %
  • Non-hispaniques blanches : 41,4 %
  • Non-hispaniques asiatiques : 16,1 %

En isolant les femmes adultes classées comme obèses, les différences semblent encore plus importantes :

  • Non-hispaniques noires : 57,9 %
  • Hispaniques : 45,7 %
  • Non-hispaniques blanches : 39,6 %
  • Non-hispaniques asiatiques : 14,5 %

Classer une si grande partie de la population comme en surpoids ou obèse a créé une atmosphère de stigmatisation du poids et de méfiance entre patients et médecins. Les personnes en surpoids se plaignent que les médecins ne traitent pas leurs problèmes de santé ou leurs préoccupations lors des examens. Au lieu de cela, les médecins blâment le poids du patient pour ses problèmes de santé et prônent la perte de poids comme solution. Cela contribue à ce que de nombreux patients noirs et hispaniques évitent les professionnels de santé, manquant ainsi des opportunités de prévention ou de détection précoce.

De plus, il devient de plus en plus évident que le fait d’être en surpoids ou obèse n’est pas toujours un problème de santé. Le taux de certaines maladies graves, comme les maladies cardiaques, les AVC, le diabète de type 2 et certains cancers, est plus élevé chez les personnes obèses. Mais dans certaines situations, comme la récupération après une chirurgie cardiaque, être en surpoids ou modérément obèse (mais pas en obésité morbide) est associé à de meilleurs taux de survie.

Les nouvelles lignes directrices canadiennes sur l’obésité, publiées en août 2020, soulignent que les médecins doivent cesser de se baser uniquement sur l’IMC pour diagnostiquer les patients. Selon ces nouvelles recommandations, une personne doit être considérée comme obèse uniquement si son poids affecte sa santé physique ou mentale. Le traitement doit être holistique et ne pas se limiter à la perte de poids. Les lignes directrices précisent également que « les personnes vivant avec l’obésité font face à des biais et à une stigmatisation importants, qui contribuent à une morbidité et une mortalité accrues, indépendamment du poids ou de l’indice de masse corporelle. »

La prise en compte de l’IMC d’un individu pourrait être remplacée par d’autres mesures, comme le tour de taille. Et l’obésité elle-même pourrait être redéfinie. En janvier 2025, un groupe de 58 chercheurs a proposé une nouvelle définition qui déplacerait l’accent du IMC vers l’excès de graisse corporelle et ses effets sur la santé. Le groupe a proposé deux catégories d’obésité : préclinique, lorsque la personne a un excès de graisse mais que ses organes fonctionnent normalement, et clinique, lorsque trop de graisse nuit aux tissus et aux organes.

Réduire les biais dans les outils de décision

Les algorithmes médicaux ne sont pas le seul type d’algorithme susceptible d’être biaisé. Comme le soulignait un article de 2020 dans The New England Journal of Medicine, « ce problème n’est pas propre à la médecine. Le système de justice pénale, par exemple, utilise des outils de prédiction de récidive pour orienter les décisions concernant le montant de la caution et les peines de prison. » Les auteurs ont indiqué qu’un outil largement utilisé, « tout en ne utilisant pas la race en soi, utilise de nombreux facteurs qui y sont corrélés et renvoie des scores de risque plus élevés pour les accusés noirs. »

L’utilisation croissante de l’intelligence artificielle (IA), en particulier l’apprentissage automatique, a également soulevé des questions sur les biais liés à la race, au statut socioéconomique et à d’autres facteurs. En santé, l’apprentissage automatique s’appuie souvent sur des dossiers de santé électroniques. Les patients pauvres et minoritaires peuvent recevoir des soins fragmentés et être vus dans plusieurs établissements. Ils sont plus susceptibles d’être pris en charge dans des cliniques d’enseignement où la saisie des données ou le raisonnement clinique peuvent être moins précis. Et ils peuvent ne pas avoir accès aux portails en ligne pour les patients et documenter leurs résultats. En conséquence, les dossiers de ces patients peuvent contenir des données manquantes ou erronées. Les algorithmes qui alimentent l’apprentissage automatique peuvent ainsi exclure ces patients pauvres et minoritaires des ensembles de données et des soins nécessaires.

La bonne nouvelle, c’est que la conscience des biais dans les algorithmes de santé a augmenté ces dernières années. La saisie des données et les résultats sont vérifiés pour détecter les biais raciaux, ethniques, liés au revenu, au genre et à l’âge. Les sociétés de spécialités médicales aux États-Unis reconnaissent les dommages causés par la médecine basée sur la race et s’efforcent de mettre fin à la prise en compte de la race dans les algorithmes cliniques. Lorsqu’on détecte des disparités, les algorithmes et les ensembles de données peuvent être révisés pour une meilleure objectivité.

Qu’est-ce qu’un algorithme ?

Il n’existe pas de définition légale ou scientifique standard pour un algorithme, mais le National Institute for Standards and Technology le décrit comme « un processus mathématique clairement spécifié pour le calcul ; un ensemble de règles qui, si elles sont suivies, donneront un résultat prescrit. »

Un exemple d’algorithme

Dans le sens le plus large, un algorithme est simplement un processus étape par étape pour répondre à une question ou atteindre un résultat souhaité. Par exemple, une recette de gâteau est une forme d’algorithme. Dans le monde de la finance, un système de trading automatisé en serait un exemple.

Qu’est-ce que l’apprentissage automatique ?

IBM, pionnier dans le domaine, définit l’apprentissage automatique comme « la sous-catégorie de l’intelligence artificielle (IA) axée sur des algorithmes capables d’« apprendre » les motifs des données d’entraînement et, par la suite, de faire des inférences précises sur de nouvelles données. »

En résumé

Malgré leur apparence d’objectivité impartiale, les algorithmes que les professionnels de la santé utilisent pour prendre certaines décisions peuvent être sujets à des biais liés à la race, à la classe sociale et à d’autres facteurs. C’est pourquoi, les algorithmes ne peuvent pas simplement être acceptés sans critique, mais doivent faire l’objet d’une analyse rigoureuse. Comme le soulignait un article de 2021 dans MIT Technology Review, « le terme ‘algorithme’, quelle que soit sa définition, ne devrait pas être une excuse pour exonérer les humains qui ont conçu et déployé un système de la responsabilité des conséquences de son utilisation. »

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)