Better Investing Tips

Biais raciaux dans les outils d'aide à la décision en matière de soins médicaux

click fraud protection

Les préjugés raciaux dans les soins médicaux peuvent apparaître dans des endroits inattendus. Par exemple: Considérez les outils de décision clinique qui jouent un rôle important dans la façon dont les patients d'aujourd'hui sont testés, diagnostiqués et traités.

Ces outils contiennent des algorithmes, ou des procédures étape par étape, généralement informatisées, pour calculer des facteurs tels que le risque de maladie cardiaque, la nécessité d'une radiographie pulmonaire et la posologie des médicaments sur ordonnance. L'intelligence artificielle peut être utilisée pour parcourir les dossiers de santé et les systèmes de facturation afin de créer les ensembles de données nécessaires.

À première vue, ces facteurs semblent tous très objectifs. Mais des études récentes ont montré que l'analyse des données utilisée dans ces algorithmes peut être biaisée de manière cruciale contre certains groupes raciaux et socio-économiques. Cela peut avoir une myriade de conséquences en termes de quantité et de qualité des soins de santé que les personnes de ces groupes reçoivent.

Points clés à retenir

  • Les outils de décision médicale qui reposent sur des algorithmes qui peuvent parfois être biaisés jouent un rôle important dans la façon dont les patients d'aujourd'hui sont testés, diagnostiqués et traités.
  • L'utilisation des données sur les dépenses médicales pour évaluer l'état de santé d'une personne peut mal évaluer la gravité des pauvres et des minorités les maladies des patients lorsque la baisse des dépenses médicales reflète un manque d'accès aux soins médicaux plutôt qu'un manque de besoin.
  • L'algorithme de l'indice de masse corporelle (IMC) utilisé pour diagnostiquer les patients en surpoids ou obèses a créé une atmosphère de la honte du poids et la méfiance entre les patients et les médecins, car plus de femmes noires que de femmes hispaniques et blanches sont désormais classées comme en surpoids.
  • La saisie des données et les résultats commencent maintenant à être vérifiés pour les biais raciaux, ethniques, de revenu, de sexe et d'âge afin que les disparités puissent être reconnues et les algorithmes corrigés.

Les préjugés raciaux affectent les patients les plus malades

En 2019, une étude d'un algorithme largement utilisé par les hôpitaux et les assureurs américains pour allouer une aide supplémentaire à la gestion de la santé s'est avérée systématiquement discriminatoire à l'égard des Noirs.L'outil de décision était moins susceptible de référer les Noirs que les Blancs à des programmes de gestion des soins pour des besoins médicaux complexes lorsque les deux groupes raciaux étaient également malades.

La raison sous-jacente du biais était liée à l'attribution par l'algorithme de scores de risque aux patients en fonction de leurs frais médicaux de l'année précédente. L'hypothèse était que l'identification des patients ayant des coûts plus élevés permettrait d'identifier ceux ayant les besoins médicaux les plus élevés. Cependant, de nombreux patients noirs ont moins accès, moins de capacité à payer et moins de confiance dans les soins médicaux que les blancs qui sont tout aussi malades. Dans ce cas, leurs frais médicaux inférieurs ne permettaient pas de prédire avec précision leur état de santé.

Les programmes de gestion des soins utilisent une approche hautement ciblée, comme les appels téléphoniques, les visites à domicile d'infirmières et la priorisation des rendez-vous chez le médecin pour répondre aux besoins complexes des patients les plus malades. Il a été démontré que les programmes améliorent les résultats, diminuent les visites aux urgences et les hospitalisations et diminuent les coûts médicaux. Parce que les programmes eux-mêmes sont coûteux, ils sont attribués aux personnes ayant les scores de risque les plus élevés. Les techniques de notation qui discriminent les patients noirs les plus malades pour ces soins peuvent être un facteur important dans leur risque accru de décès dû à de nombreuses maladies.

La race comme variable dans les maladies rénales

Les algorithmes peuvent contenir des biais sans inclure la race comme variable, mais certains outils utilisent délibérément la race comme critère. Prenez le score eGFR, qui évalue la santé des reins et est utilisé pour déterminer qui a besoin d'une greffe de rein. Dans une étude de 1999 qui a défini les critères de score eGFR, les chercheurs ont remarqué que les Noirs avaient, en moyenne, des niveaux plus élevés de créatinine (un sous-produit de la dégradation musculaire) que les Blancs. Les scientifiques ont supposé que les niveaux plus élevés étaient dus à une masse musculaire plus élevée chez les Noirs. Ils ont donc ajusté le score, ce qui signifiait essentiellement que les Noirs devaient avoir un score eGFR inférieur à celui des Blancs pour être diagnostiqués avec une insuffisance rénale terminale. En conséquence, les Noirs ont dû attendre que leur maladie rénale atteigne un stade plus sévère pour pouvoir bénéficier d'un traitement.

Récemment, un étudiant en médecine et en santé publique à la faculté de médecine de l'Université de Washington à Seattle a observé que les scores eGFR n'étaient pas précis pour diagnostiquer la gravité de la maladie rénale chez les Noirs les patients. Elle s'est battue pour que la race soit supprimée de l'algorithme et a gagné. UW Medicine a convenu que l'utilisation de la race était une variable inefficace et ne répondait pas à la rigueur scientifique des outils de diagnostic médical.

La National Kidney Foundation et l'American Society of Nephrology ont formé un groupe de travail conjoint pour enquêter sur l'utilisation de la race dans l'eGFR et prévoir de faire une première recommandation sur son utilisation avant la fin de 2020.

Indice de masse corporelle et biais

Même l'outil de décision médicale le plus simple qui n'inclut pas la race peut refléter des préjugés sociaux. L'indice de masse corporelle (IMC), par exemple, est basé sur un calcul qui multiplie le poids par la taille. Il est utilisé pour identifier les patients en insuffisance pondérale, en surpoids et obèses.

En 1985, les National Institutes of Health ont lié la définition de l'obésité à l'IMC d'un individu, et en 1998, un groupe d'experts a mis en place des lignes directrices basé sur l'IMC qui a déplacé 29 millions d'Américains qui avaient été précédemment classés comme poids normal ou simplement en surpoids vers le surpoids et l'obésité catégories. Selon les normes de l'IMC, la majorité des Noirs, des Hispaniques et des Blancs sont maintenant en surpoids ou obèses. Les pourcentages d'obésité de 2018 sont à peu près égaux pour les hommes noirs, hispaniques et blancs (allant de 31,2 % à 34,2 %). Mais les pourcentages de femmes étiquetées obèses par l'IMC sont : 

  • 44.2%-Le noir
  • 35.4%-Hispanique
  • 28.7%-Blanche

Une atmosphère d'humiliation et de méfiance

Marquer des pourcentages aussi importants de populations comme étant en surpoids ou obèses a créé une atmosphère d'humiliation et de méfiance entre les patients et les médecins. Les personnes de poids plus élevé se plaignent que les médecins ne traitent pas les problèmes de santé ou les préoccupations qui les ont amenés à un examen. Au lieu de cela, les médecins blâment le poids du patient pour ses problèmes de santé et préconisent la perte de poids comme solution. Cela contribue à ce que les patients noirs et hispaniques évitent les professionnels de la santé et donc ratent peut-être des opportunités de prévenir les problèmes ou de les détecter tôt.

De plus, il devient de plus en plus clair qu'être en surpoids ou obèse n'est pas toujours un problème de santé. Les taux de certaines affections graves, telles que l'hospitalisation pour COVID-19, l'hypertension artérielle, les maladies cardiaques, les accidents vasculaires cérébraux, le diabète de type 2 et d'autres maladies, sont plus élevés chez les personnes obèses.  Mais pour d'autres conditions, telles que la guérison d'une blessure grave, d'un cancer et d'une chirurgie cardiaque, les personnes ayant un poids plus élevé ont de meilleurs taux de survie.  

Nouvelles lignes directrices canadiennes améliorées

En fait, de nouvelles lignes directrices sur l'obésité pour les cliniciens canadiens, publiées en août 2020, soulignent que les médecins devraient cesser de se fier uniquement à l'IMC pour diagnostiquer les patients. Selon les nouvelles directives, les personnes ne devraient être diagnostiquées obèses que si leur poids corporel affecte leur santé physique ou leur bien-être mental. Le traitement doit être holistique et ne pas cibler uniquement la perte de poids. Les lignes directrices notent également que: « Les personnes atteintes d'obésité sont confrontées à des préjugés et à une stigmatisation importants, qui contribuent à une augmentation de la morbidité et de la mortalité indépendamment du poids ou de l'indice de masse corporelle. »

Réduire les biais dans les outils de décision

Les algorithmes médicaux ne sont pas le seul type d'algorithme qui peut être biaisé. En 2018, par exemple, Amazon a cessé d'utiliser un outil de recrutement qui montrait des préjugés contre les femmes. L'outil, qui a analysé 10 ans de données d'embauche au cours d'une période où Amazon avait principalement embauché des hommes, avait utilisé cette histoire pour s'apprendre à préférer les candidats masculins.

Dans le domaine de la santé, l'apprentissage automatique repose souvent sur les dossiers de santé électroniques. Les patients pauvres et minoritaires peuvent recevoir des soins fracturés et être vus dans plusieurs établissements. Ils sont plus susceptibles d'être vus dans les cliniques d'enseignement où la saisie des données ou le raisonnement clinique peuvent être moins précis. Et les patients peuvent ne pas être en mesure d'accéder aux portails de patients en ligne et de documenter les résultats. Par conséquent, les dossiers de ces patients peuvent contenir des données manquantes ou erronées. Les algorithmes qui pilotent l'apprentissage automatique peuvent donc finir par exclure les patients pauvres et minoritaires des ensembles de données et des soins nécessaires.

La bonne nouvelle est que la prise de conscience des biais dans les algorithmes de soins de santé a augmenté au cours des dernières années. L'entrée des données et les résultats sont vérifiés pour les biais raciaux, ethniques, de revenu, de sexe et d'âge. Lorsque des disparités sont reconnues, les algorithmes et les ensembles de données peuvent être révisés vers une meilleure objectivité.

Quelle est la différence entre Helicopter Money et QE ?

Les banques centrales du monde entier luttaient parfois pour stimuler la croissance économique a...

Lire la suite

Définition de l'institution de dépôt minoritaire (MDI)

Qu'est-ce qu'une institution de dépôt minoritaire (MDI)? L'institution de dépôt minoritaire (MD...

Lire la suite

Le prix Nobel Joseph Stiglitz sur les inégalités de revenus après COVID-19

Le prix Nobel Joseph Stiglitz sur les inégalités de revenus après COVID-19

La destruction économique provoquée par la pandémie mondiale de COVID-19 a amené de nombreuses c...

Lire la suite

stories ig