Better Investing Tips

Racemæssig skævhed i beslutningsværktøjer til medicinsk pleje

click fraud protection

Racemæssig bias i lægehjælp kan vise sig nogle uventede steder. For eksempel: Overvej de kliniske beslutningsværktøjer, der spiller en vigtig rolle i, hvordan nutidens patienter testes, diagnosticeres og behandles.

Disse værktøjer indeholder algoritmer eller trin-for-trin procedurer, normalt edb, til beregning af faktorer som risiko for hjertesygdomme, behovet for en røntgenstråle og dosering af receptpligtig medicin. Kunstig intelligens kan bruges til at skure sundhedsjournaler og faktureringssystemer for at oprette de nødvendige datasæt.

På overfladen lyder disse faktorer alle meget objektive. Men nyere undersøgelser har vist, at dataanalysen, der bruges i disse algoritmer, kan være forudindtaget på afgørende måder mod visse racemæssige og socioøkonomiske grupper. Dette kan have utallige konsekvenser med hensyn til mængden og kvaliteten af ​​sundhedsydelser, som mennesker i disse grupper modtager.

Vigtige takeaways

  • Medicinske beslutningsværktøjer, der er afhængige af algoritmer, der undertiden kan være forudindtaget, spiller en stor rolle i, hvordan nutidens patienter testes, diagnosticeres og behandles.
  • Brug af data om medicinske udgifter til at bedømme en persons medicinske tilstand kan fejlvurdere sværhedsgraden af ​​fattige og mindretal patienters sygdomme, når lavere medicinudgifter afspejler mangel på adgang til lægehjælp frem for mangel på brug for.
  • Body mass index (BMI) -algoritmen, der bruges til at diagnosticere patienter som overvægtige eller fede, har skabt en atmosfære af vægtskam og mistillid mellem patienter og læger, da flere sorte kvinder end latinamerikanske og hvide kvinder nu er kategoriseret som overvægtig.
  • Datainput og resultater begynder nu at blive kontrolleret for racemæssig, etnisk, indkomst-, køn- og aldersforstyrrelse, så forskelle kan genkendes og algoritmer korrigeres.

Racemæssig bias påvirker de sygeste patienter

I 2019 viste en undersøgelse af en algoritme, der i vid udstrækning blev brugt af amerikanske hospitaler og forsikringsselskaber til at tildele ekstra bistand til sundhedsstyring, systematisk at diskriminere sorte mennesker.Beslutningsværktøjet var mindre tilbøjelig til at henvise sorte mennesker end hvide til plejeforvaltningsprogrammer for komplekse medicinske behov, når begge racegrupper var lige syge.

Den underliggende årsag til bias var knyttet til algoritmens tildeling af risikoscorer til patienter baseret på deres tidligere års medicinske omkostninger. Antagelsen var, at identifikation af patienter med højere omkostninger ville identificere dem med de højeste medicinske behov. Imidlertid har mange sorte patienter mindre adgang til, mindre betalingsevne og mindre tillid til lægehjælp end hvide, der er lige syge. I dette tilfælde forudsagde deres lavere medicinske omkostninger ikke nøjagtigt deres helbredstilstand.

Plejehåndteringsprogrammer bruger en high-touch tilgang, såsom telefonopkald, hjemmebesøg af sygeplejersker og prioritering af lægeudnævnelser for at imødekomme de syge patienters komplekse behov. Det har vist sig, at programmerne forbedrer resultater, reducerer skadestuebesøg og hospitalsindlæggelser og reducerer medicinske omkostninger. Fordi programmerne i sig selv er dyre, tildeles de personer med de højeste risikoscores. Scoringsteknikker, der diskriminerer de sygeste sorte patienter for denne pleje, kan være en væsentlig faktor i deres øgede risiko for død af mange sygdomme.

Race som en variabel i nyresygdom

Algoritmer kan indeholde bias uden at inkludere race som en variabel, men nogle værktøjer bruger bevidst race som et kriterium. Tag eGFR -score, som vurderer nyresundheden og bruges til at bestemme, hvem der har brug for en nyretransplantation. I en undersøgelse fra 1999, der satte kriterierne for eGFR -score, bemærkede forskere, at sorte mennesker i gennemsnit havde højere kreatininniveauer (et biprodukt af muskelnedbrydning) end hvide mennesker havde. Forskerne antog, at de højere niveauer skyldtes højere muskelmasse hos sorte. De justerede derfor scoringen, hvilket i det væsentlige betød, at sorte mennesker skal have en lavere eGFR-score end hvide for at få diagnosen nyresygdom i slutstadiet. Som følge heraf har sorte måttet vente, indtil deres nyresygdom nåede et mere alvorligt stadium for at kvalificere sig til behandling.

For nylig studerede medicin og folkesundhed ved University of Washington School of Medicine i Seattle observerede, at eGFR -scoringer ikke var nøjagtige til at diagnosticere sværhedsgraden af ​​nyresygdom patienter. Hun kæmpede for at få race fjernet fra algoritmen og vandt. UW Medicine var enig i, at brugen af ​​race var en ineffektiv variabel og ikke opfyldte videnskabelig stringens inden for medicinske diagnostiske værktøjer.

National Kidney Foundation og American Society of Nephrology har dannet en fælles taskforce til undersøge brugen af ​​race i eGFR og planlægge at komme med en indledende anbefaling om dens anvendelse inden slutningen af 2020.

Body Mass Index og Bias

Selv det enkleste medicinske beslutningsværktøj, der ikke inkluderer race, kan afspejle social skævhed. Body mass index (BMI) er for eksempel baseret på en beregning, der multiplicerer vægten med højden. Det bruges til at identificere undervægtige, overvægtige og fede patienter.

I 1985 knyttede National Institutes of Health definitionen af ​​fedme til en persons BMI, og i 1998 indførte et ekspertpanel retningslinjer baseret på BMI, der flyttede 29 millioner amerikanere, der tidligere var blevet klassificeret som normalvægtige eller bare overvægtige, til overvægtige og fede Kategorier.Efter BMI -standarder er størstedelen af ​​sorte, latinamerikanere og hvide mennesker nu overvægtige eller fede. 2018 -procenterne for fedme er nogenlunde ens for sorte, latinamerikanske og hvide mænd (fra 31,2% til 34,2%). Men procentdelen af ​​kvinder, der er mærket overvægtige af BMI, er: 

  • 44.2%-Sort
  • 35.4%- Spansk
  • 28.7%-Hvid

En atmosfære af vægtskam og mistillid

Branding af så store procentdele af befolkningerne som overvægtige eller fede har skabt en atmosfære af vægtskam og mistillid mellem patienter og læger. Mennesker med større vægt klager over, at læger ikke tager fat på de sundhedsproblemer eller bekymringer, der bragte dem til kontrol. I stedet bebrejder læger patientens vægt for deres helbredsproblemer og skubber vægttab som løsningen. Dette bidrager til, at sorte og spanske patienter undgår sundhedsplejersker og dermed måske mangler muligheder for at forhindre problemer eller fange dem tidligt.

Desuden bliver det stadig mere klart, at overvægt eller overvægt ikke altid er et sundhedsproblem. Priser for nogle alvorlige tilstande, såsom hospitalsindlæggelse for COVID-19, forhøjet blodtryk, hjertesygdomme, slagtilfælde, type 2-diabetes og andre sygdomme, er højere blandt dem, der er overvægtige.  Men for andre tilstande - såsom genopretning efter alvorlig skade, kræft og hjertekirurgi - har mennesker med højere vægt bedre overlevelsesrater.  

Nye, forbedrede canadiske retningslinjer

Faktisk understreger nye retningslinjer for fedme for canadiske klinikere, der blev offentliggjort i august 2020, at læger bør stoppe med at stole på BMI alene ved diagnosticering af patienter. Mennesker bør kun diagnosticeres som overvægtige, hvis deres kropsvægt påvirker deres fysiske sundhed eller mentale velbefindende, ifølge de nye retningslinjer. Behandlingen bør være holistisk og ikke udelukkende målrettet vægttab. Retningslinjerne bemærker også, at: "Mennesker, der lever med fedme, står over for betydelig bias og stigmatisering, som bidrager til øget sygelighed og dødelighed uafhængigt af vægt eller kropsmasseindeks."

Reducering af bias i beslutningsværktøjer

Medicinske algoritmer er ikke den eneste type algoritme, der kan være forudindtaget. I 2018 stoppede Amazon for eksempel med at bruge et rekrutteringsværktøj, der viste partiskhed mod kvinder. Værktøjet, der analyserede 10 års ansættelsesdata i en periode, hvor Amazon overvejende havde ansat mænd, havde brugt denne historie til at lære sig selv at foretrække mandlige kandidater.

I sundhedsvæsenet er maskinlæring ofte afhængig af elektroniske sundhedsjournaler. Fattige og minoritetspatienter kan få brudt pleje og ses på flere institutioner. De er mere tilbøjelige til at blive set i undervisningsklinikker, hvor datainput eller klinisk begrundelse kan være mindre præcis. Og patienter har muligvis ikke adgang til online patientportaler og dokumenterer resultater. Som et resultat kan disse patienters optegnelser have manglende eller fejlagtige data. De algoritmer, der driver maskinlæring, kan således ende med at udelukke fattige og minoritetspatienter fra datasættene og den nødvendige pleje.

Den gode nyhed er, at bevidstheden om fordomme i sundhedsalgoritmer er vokset i de sidste par år. Datainput og resultater kontrolleres for racemæssig, etnisk, indkomst-, køn- og aldersforstyrrelse. Når forskelle genkendes, kan algoritmerne og datasættene revideres mod bedre objektivitet.

Karakteristika ved monopolistiske markeder

Hvad er et monopolistisk marked? Et monopolistisk marked er en teoretisk betingelse, der beskri...

Læs mere

Metropolitan Statistical Area (MSA) Definition

Hvad er et metropolitisk statistisk område (MSA)? Metropolitan statistiske områder (MSA) er afg...

Læs mere

Hvordan multiplikatorer påvirker økonomi

Hvad er en multiplikator? I økonomi refererer en multiplikator stort set til en økonomisk fakto...

Læs mere

stories ig