Better Investing Tips

Rassenvoreingenommenheit in Entscheidungshilfen für die medizinische Versorgung

click fraud protection

Rassische Voreingenommenheit in der medizinischen Versorgung kann an einigen unerwarteten Stellen auftauchen. Zum Beispiel: Betrachten Sie die klinischen Entscheidungsinstrumente, die eine wichtige Rolle dabei spielen, wie Patienten heute getestet, diagnostiziert und behandelt werden.

Diese Tools enthalten Algorithmen oder Schritt-für-Schritt-Verfahren, die normalerweise computerisiert sind, um Faktoren wie das Risiko von Herzerkrankungen, die Notwendigkeit einer Röntgenaufnahme des Brustkorbs und die Dosierung verschreibungspflichtiger Medikamente zu berechnen. Künstliche Intelligenz kann verwendet werden, um Gesundheitsakten und Abrechnungssysteme zu durchsuchen, um die erforderlichen Datensätze zu erstellen.

Oberflächlich betrachtet klingen diese Faktoren allesamt sehr objektiv. Jüngste Studien haben jedoch gezeigt, dass die in diesen Algorithmen verwendete Datenanalyse in entscheidender Weise gegen bestimmte rassische und sozioökonomische Gruppen verzerrt sein kann. Dies kann unzählige Auswirkungen auf den Umfang und die Qualität der Gesundheitsversorgung haben, die Menschen in diesen Gruppen erhalten.

Die zentralen Thesen

  • Medizinische Entscheidungswerkzeuge, die auf Algorithmen beruhen, die manchmal verzerrt sein können, spielen eine große Rolle bei der Art und Weise, wie Patienten heute getestet, diagnostiziert und behandelt werden.
  • Die Verwendung von Daten zu medizinischen Ausgaben zur Bewertung des Gesundheitszustands einer Person kann den Schweregrad von Armen und Minderheiten falsch einschätzen Erkrankungen der Patienten, wenn niedrigere medizinische Ausgaben eher auf mangelnden Zugang zu medizinischer Versorgung als auf fehlende brauchen.
  • Der Body-Mass-Index (BMI)-Algorithmus, der verwendet wird, um Patienten als übergewichtig oder fettleibig zu diagnostizieren, hat eine Atmosphäre von Gewichtsbeschämung und Misstrauen zwischen Patienten und Ärzten, da jetzt mehr schwarze Frauen als hispanische und weiße Frauen kategorisiert werden als Übergewicht.
  • Dateneingabe und -ergebnisse werden nun auf rassische, ethnische, Einkommens-, Geschlechts- und Altersverzerrungen überprüft, damit Disparitäten erkannt und Algorithmen korrigiert werden können.

Rassische Voreingenommenheit betrifft die kränksten Patienten

Im Jahr 2019 zeigte eine Studie über einen Algorithmus, der von US-amerikanischen Krankenhäusern und Versicherern häufig verwendet wird, um zusätzliche Unterstützung im Gesundheitsmanagement zuzuweisen, systematisch schwarze Menschen zu diskriminieren.Das Entscheidungsinstrument war weniger wahrscheinlich, dass Schwarze als Weiße an Pflegeprogramme für komplexe medizinische Bedürfnisse verwiesen wurden, wenn beide ethnischen Gruppen gleichermaßen krank waren.

Der zugrunde liegende Grund für den Bias war mit der Zuweisung von Risikoscores durch den Algorithmus an Patienten auf der Grundlage der medizinischen Kosten des Vorjahres verbunden. Die Annahme war, dass die Identifizierung von Patienten mit höheren Kosten diejenigen mit dem höchsten medizinischen Bedarf identifizieren würde. Viele schwarze Patienten haben jedoch weniger Zugang zu medizinischer Versorgung, weniger Zahlungsfähigkeit und weniger Vertrauen in die medizinische Versorgung als weiße Menschen, die gleich krank sind. In diesem Fall sagten ihre niedrigeren medizinischen Kosten ihren Gesundheitszustand nicht genau voraus.

Care-Management-Programme verwenden einen hautnahen Ansatz, wie Telefonanrufe, Hausbesuche durch Krankenschwestern und Priorisierung von Arztterminen, um die komplexen Bedürfnisse der kränksten Patienten zu erfüllen. Es hat sich gezeigt, dass die Programme die Ergebnisse verbessern, Notaufnahmen und Krankenhausaufenthalte reduzieren und die medizinischen Kosten senken. Da die Programme selbst teuer sind, werden sie Personen mit den höchsten Risikowerten zugewiesen. Scoring-Techniken, die die kränksten schwarzen Patienten für diese Behandlung diskriminieren, können ein wichtiger Faktor für ihr erhöhtes Sterberisiko bei vielen Krankheiten sein.

Rasse als Variable bei Nierenerkrankungen

Algorithmen können Verzerrungen enthalten, ohne Rasse als Variable einzubeziehen, aber einige Tools verwenden bewusst Rasse als Kriterium. Nehmen Sie den eGFR-Score, der die Nierengesundheit bewertet und verwendet wird, um zu bestimmen, wer eine Nierentransplantation benötigt. In einer Studie aus dem Jahr 1999, die die eGFR-Score-Kriterien festlegte, stellten Forscher fest, dass Schwarze im Durchschnitt höhere Kreatininwerte (ein Nebenprodukt des Muskelabbaus) aufwiesen als Weiße. Die Wissenschaftler nahmen an, dass die höheren Werte auf die höhere Muskelmasse bei Schwarzen zurückzuführen waren. Sie passten daher das Scoring an, was im Wesentlichen bedeutete, dass Schwarze einen niedrigeren eGFR-Score aufweisen müssen als Weiße, um eine Nierenerkrankung im Endstadium zu diagnostizieren. Infolgedessen mussten Schwarze warten, bis ihre Nierenerkrankung ein schwereres Stadium erreicht hatte, um sich für eine Behandlung zu qualifizieren.

Kürzlich Student der Medizin und öffentlichen Gesundheit an der University of Washington School of Medicine in Seattle beobachtete, dass die eGFR-Werte für die Diagnose der Schwere der Nierenerkrankung bei Schwarzen nicht genau waren Patienten. Sie kämpfte dafür, dass das Rennen aus dem Algorithmus entfernt wurde, und gewann. UW Medicine stimmte zu, dass die Verwendung der Rasse eine ineffektive Variable sei und nicht der wissenschaftlichen Strenge in medizinischen Diagnoseinstrumenten entspreche.

Die National Kidney Foundation und die American Society of Nephrology haben eine gemeinsame Task Force gebildet, um den Einsatz von Rasse in der eGFR untersuchen und planen, vor dem Ende eine erste Empfehlung zu seiner Verwendung abzugeben von 2020.

Body-Mass-Index und -Bias

Selbst das einfachste medizinische Entscheidungsinstrument, das die Rasse nicht einbezieht, kann soziale Vorurteile widerspiegeln. Der Body-Mass-Index (BMI) beispielsweise basiert auf einer Berechnung, bei der Gewicht mit Körpergröße multipliziert wird. Es wird verwendet, um untergewichtige, übergewichtige und adipöse Patienten zu identifizieren.

1985 verbanden die National Institutes of Health die Definition von Fettleibigkeit mit dem BMI einer Person, und 1998 legte ein Expertengremium Richtlinien fest basierend auf dem BMI, der 29 Millionen Amerikaner, die zuvor als normalgewichtig oder einfach übergewichtig eingestuft wurden, in die Kategorie übergewichtig und fettleibig bewegte Kategorien. Nach BMI-Standards ist die Mehrheit der Schwarzen, Hispanics und Weißen heute übergewichtig oder fettleibig. Die Prozentsätze für Fettleibigkeit im Jahr 2018 sind für schwarze, hispanische und weiße Männer ungefähr gleich (zwischen 31,2 und 34,2 %). Aber die Prozentsätze der Frauen, die vom BMI als fettleibig eingestuft werden, sind: 

  • 44.2%-Schwarz
  • 35.4%—Hispanisch
  • 28.7%-Weiß

Eine Atmosphäre von Weight-Shaming und Misstrauen

Das Abstempeln eines so großen Prozentsatzes der Bevölkerung als übergewichtig oder fettleibig hat eine Atmosphäre der Gewichtsbeschämung und des Misstrauens zwischen Patienten und Ärzten geschaffen. Menschen mit höherem Gewicht beschweren sich, dass Ärzte die gesundheitlichen Probleme oder Bedenken, die sie zu einer Untersuchung brachten, nicht ansprechen. Stattdessen machen Ärzte das Gewicht des Patienten für seine Gesundheitsprobleme verantwortlich und drängen auf Gewichtsverlust als Lösung. Dies trägt dazu bei, dass schwarze und hispanische Patienten medizinisches Fachpersonal meiden und somit möglicherweise Möglichkeiten verpassen, Probleme zu vermeiden oder sie frühzeitig zu erkennen.

Darüber hinaus wird immer deutlicher, dass Übergewicht oder Fettleibigkeit nicht immer ein gesundheitliches Problem darstellen. Die Raten für einige schwerwiegende Erkrankungen wie Krankenhausaufenthalte wegen COVID-19, Bluthochdruck, Herzerkrankungen, Schlaganfall, Typ-2-Diabetes und andere Krankheiten sind bei fettleibigen Personen höher.  Aber bei anderen Erkrankungen – wie der Genesung von schweren Verletzungen, Krebs und Herzoperationen – haben Menschen mit höherem Gewicht bessere Überlebensraten.  

Neue, verbesserte kanadische Richtlinien

Tatsächlich betonen neue Adipositas-Leitlinien für kanadische Kliniker, die im August 2020 veröffentlicht wurden, dass Ärzte sich bei der Diagnose von Patienten nicht mehr allein auf den BMI verlassen sollten. Nach den neuen Richtlinien sollten Menschen nur dann als fettleibig diagnostiziert werden, wenn ihr Körpergewicht ihre körperliche Gesundheit oder ihr psychisches Wohlbefinden beeinträchtigt. Die Behandlung sollte ganzheitlich sein und nicht nur auf die Gewichtsabnahme abzielen. In den Leitlinien heißt es außerdem: „Menschen, die mit Adipositas leben, sind mit erheblichen Vorurteilen und Stigmatisierungen konfrontiert, die unabhängig von Gewicht oder Body-Mass-Index zu einer erhöhten Morbidität und Mortalität beitragen.“

Reduzierung von Verzerrungen in Entscheidungstools

Medizinische Algorithmen sind nicht die einzige Art von Algorithmus, die verzerrt sein kann. Im Jahr 2018 stellte Amazon beispielsweise die Verwendung eines Rekrutierungstools ein, das Vorurteile gegenüber Frauen zeigte. Das Tool, das 10-jährige Einstellungsdaten zu einer Zeit analysierte, in der Amazon hauptsächlich Männer eingestellt hatte, hatte diese Geschichte genutzt, um sich selbst beizubringen, männliche Kandidaten zu bevorzugen.

Im Gesundheitswesen basiert maschinelles Lernen häufig auf elektronischen Patientenakten. Arme und Minderheitenpatienten können gebrochene Versorgung erhalten und in mehreren Einrichtungen untersucht werden. Sie werden eher in Lehrkliniken gesehen, in denen die Dateneingabe oder das klinische Denken möglicherweise weniger genau ist. Und Patienten können möglicherweise nicht auf Online-Patientenportale zugreifen und Ergebnisse dokumentieren. Infolgedessen können die Aufzeichnungen dieser Patienten fehlende oder fehlerhafte Daten enthalten. Die Algorithmen, die das maschinelle Lernen vorantreiben, können daher arme und Minderheitenpatienten aus den Datensätzen und der benötigten Versorgung ausschließen.

Die gute Nachricht ist, dass das Bewusstsein für Verzerrungen bei Gesundheitsalgorithmen in den letzten Jahren gewachsen ist. Die Dateneingabe und -ergebnisse werden auf rassische, ethnische, Einkommens-, Geschlechts- und Altersverzerrungen überprüft. Wenn Disparitäten erkannt werden, können die Algorithmen und Datensätze in Richtung einer besseren Objektivität überarbeitet werden.

Definition der Vergebung von Studentendarlehen

Was ist die Vergebung von Studentendarlehen? Der Erlass von Studentendarlehen ist eine Befreiun...

Weiterlesen

Was macht die EU supranational?

Was bedeutet supranational? Eine supranationale Organisation ist eine multinationale Gewerkscha...

Weiterlesen

Baby Boomer Definition: Jahre & Datumsbereich

Was ist ein Babyboomer? "Babyboomer" ist ein Begriff, der verwendet wird, um eine Person zu bes...

Weiterlesen

stories ig