Better Investing Tips

Viés racial nas ferramentas de tomada de decisão no atendimento médico

click fraud protection

O preconceito racial no atendimento médico pode aparecer em alguns lugares inesperados. Por exemplo: Considere as ferramentas de decisão clínica que desempenham um papel importante em como os pacientes de hoje são testados, diagnosticados e tratados.

Essas ferramentas contêm algoritmos, ou procedimentos passo a passo, geralmente computadorizados, para calcular fatores como risco de doenças cardíacas, necessidade de radiografia de tórax e dosagem de medicamentos prescritos. A inteligência artificial pode ser usada para vasculhar registros de saúde e sistemas de faturamento para criar os conjuntos de dados necessários.

Superficialmente, todos esses fatores parecem muito objetivos. Mas estudos recentes mostraram que a análise de dados usada nesses algoritmos pode ser enviesada de maneiras cruciais contra certos grupos raciais e socioeconômicos. Isso pode ter inúmeras consequências em termos da quantidade e qualidade dos cuidados de saúde que as pessoas nesses grupos recebem.

Principais vantagens

  • Ferramentas de decisão médica que dependem de algoritmos que às vezes podem ser tendenciosos desempenham um grande papel na forma como os pacientes de hoje são testados, diagnosticados e tratados.
  • Usar dados de gastos médicos para avaliar a condição médica de uma pessoa pode julgar mal a gravidade dos pobres e da minoria doenças dos pacientes quando os menores gastos médicos refletem uma falta de acesso a cuidados médicos, em vez de uma falta de precisar.
  • O algoritmo do índice de massa corporal (IMC) usado para diagnosticar pacientes com sobrepeso ou obesidade criou uma atmosfera de vergonha de peso e desconfiança entre pacientes e médicos, já que mais mulheres negras do que hispânicas e brancas agora são categorizadas como excesso de peso.
  • A entrada de dados e os resultados estão agora começando a ser verificados quanto ao preconceito racial, étnico, de renda, gênero e idade para que as disparidades possam ser reconhecidas e os algoritmos corrigidos.

O preconceito racial afeta os pacientes mais doentes

Em 2019, um estudo de um algoritmo amplamente usado por hospitais e seguradoras dos EUA para alocar assistência extra de gestão de saúde demonstrou discriminar sistematicamente os negros.A ferramenta de decisão tinha menos probabilidade de encaminhar negros do que brancos para programas de gerenciamento de cuidados para necessidades médicas complexas quando ambos os grupos raciais estavam igualmente doentes.

A razão subjacente para o viés estava ligada à atribuição do algoritmo de pontuações de risco aos pacientes com base nos custos médicos do ano anterior. O pressuposto era que identificar pacientes com custos mais elevados identificaria aqueles com as maiores necessidades médicas. No entanto, muitos pacientes negros têm menos acesso, menos capacidade de pagar e menos confiança em cuidados médicos do que pessoas brancas que estão igualmente doentes. Neste caso, seus custos médicos mais baixos não previram com precisão seu estado de saúde.

Os programas de gerenciamento de cuidados usam uma abordagem de alto contato, como telefonemas, visitas domiciliares de enfermeiras e priorizando consultas médicas para atender às necessidades complexas dos pacientes mais enfermos. Os programas mostraram melhorar os resultados, diminuir as visitas ao pronto-socorro e as hospitalizações, e diminuir os custos médicos. Como os próprios programas são caros, eles são atribuídos às pessoas com as pontuações de risco mais altas. As técnicas de pontuação que discriminam os pacientes negros mais enfermos para esse cuidado podem ser um fator significativo no aumento do risco de morte por muitas doenças.

Raça como uma variável na doença renal

Os algoritmos podem conter viés sem incluir a raça como uma variável, mas algumas ferramentas usam a raça deliberadamente como um critério. Pegue a pontuação eGFR, que avalia a saúde renal e é usada para determinar quem precisa de um transplante renal. Em um estudo de 1999 que definiu os critérios de pontuação da eTFG, os pesquisadores notaram que os negros tinham, em média, níveis mais altos de creatinina (um subproduto da quebra muscular) do que os brancos. Os cientistas presumiram que os níveis mais altos eram devidos à maior massa muscular em negros. Eles, portanto, ajustaram a pontuação, o que essencialmente significava que os negros devem ter uma pontuação de eTFG mais baixa do que os brancos para serem diagnosticados com doença renal em estágio final. Como consequência, os negros tiveram que esperar até que sua doença renal atingisse um estágio mais grave para se qualificarem para o tratamento.

Recentemente, um estudante de medicina e saúde pública na Escola de Medicina da Universidade de Washington em Seattle observou que os escores de eGFR não eram precisos para diagnosticar a gravidade da doença renal em negros pacientes. Ela lutou para que a raça fosse removida do algoritmo e venceu. A UW Medicine concordou que o uso da raça era uma variável ineficaz e não atendia ao rigor científico nas ferramentas de diagnóstico médico.

A National Kidney Foundation e a American Society of Nephrology formaram uma força-tarefa conjunta para investigar o uso de raça em eGFR e planejar fazer uma recomendação inicial sobre seu uso antes do final de 2020.

Índice de massa corporal e preconceito

Mesmo a ferramenta de decisão médica mais simples, que não inclui raça, pode refletir o preconceito social. O índice de massa corporal (IMC), por exemplo, é baseado em um cálculo que multiplica o peso pela altura. É usado para identificar pacientes com baixo peso, sobrepeso e obesos.

Em 1985, o National Institutes of Health vinculou a definição de obesidade ao IMC de um indivíduo e, em 1998, um painel de especialistas implementou diretrizes com base no IMC que moveu 29 milhões de americanos que haviam sido anteriormente classificados como de peso normal ou apenas acima do peso para o grupo com sobrepeso e obesidade categorias.Pelos padrões do IMC, a maioria dos negros, hispânicos e brancos agora está com sobrepeso ou obesidade. As porcentagens de obesidade de 2018 são quase iguais para homens negros, hispânicos e brancos (variando de 31,2% a 34,2%). Mas as porcentagens de mulheres rotuladas como obesas pelo IMC são: 

  • 44.2%-Preto
  • 35.4%-Hispânico
  • 28.7%-Branco

Uma atmosfera de constrangimento e desconfiança

Classificar essas grandes porcentagens de populações como obesas ou com sobrepeso criou uma atmosfera de vergonha do peso e desconfiança entre pacientes e médicos. Pessoas com peso alto reclamam que os médicos não tratam dos problemas de saúde ou preocupações que os trouxeram para um check-up. Em vez disso, os médicos culpam o peso do paciente por seus problemas de saúde e consideram a perda de peso a solução. Isso contribui para que pacientes negros e hispânicos evitem os profissionais de saúde e, assim, talvez percam oportunidades de prevenir problemas ou detectá-los precocemente.

Além disso, está se tornando cada vez mais claro que o sobrepeso ou obesidade nem sempre é um problema de saúde. As taxas de algumas condições graves, como hospitalização por COVID-19, hipertensão, doenças cardíacas, derrame, diabetes tipo 2 e outras doenças, são mais altas entre os obesos.  Mas para outras condições - como recuperação de lesões graves, câncer e cirurgia cardíaca - pessoas com peso mais alto têm melhores taxas de sobrevivência.  

Diretrizes canadenses novas e aprimoradas

Na verdade, novas diretrizes de obesidade para médicos canadenses, publicadas em agosto de 2020, enfatizam que os médicos devem parar de confiar apenas no IMC para diagnosticar os pacientes. As pessoas devem ser diagnosticadas como obesas apenas se seu peso corporal afetar sua saúde física ou mental, de acordo com as novas diretrizes. O tratamento deve ser holístico e não ter como objetivo apenas a perda de peso. As diretrizes também observam que: “Pessoas que vivem com obesidade enfrentam preconceitos e estigmas substanciais, que contribuem para o aumento da morbidade e mortalidade independentemente do peso ou índice de massa corporal.”

Reduzindo o preconceito nas ferramentas de decisão

Os algoritmos médicos não são o único tipo de algoritmo que pode ser tendencioso. Em 2018, por exemplo, a Amazon parou de usar uma ferramenta de recrutamento que mostrava preconceito contra as mulheres. A ferramenta, que analisou 10 anos de dados de contratação durante um período em que a Amazon havia contratado predominantemente homens, usou essa história para se ensinar a preferir candidatos do sexo masculino.

Na área da saúde, o aprendizado de máquina geralmente depende de registros eletrônicos de saúde. Pacientes pobres e minoritários podem receber tratamento para fraturas e ser vistos em várias instituições. Eles são mais prováveis ​​de serem vistos em clínicas de ensino, onde a entrada de dados ou o raciocínio clínico podem ser menos precisos. E os pacientes podem não conseguir acessar portais de pacientes online e documentar resultados. Como resultado, os registros desses pacientes podem conter dados ausentes ou incorretos. Os algoritmos que impulsionam o aprendizado de máquina podem, assim, acabar excluindo pacientes pobres e minoritários dos conjuntos de dados e dos cuidados necessários.

A boa notícia é que a consciência dos vieses nos algoritmos de saúde cresceu nos últimos anos. A entrada de dados e os resultados estão sendo verificados quanto ao preconceito racial, étnico, de renda, gênero e idade. Quando as disparidades são reconhecidas, os algoritmos e conjuntos de dados podem ser revisados ​​para uma melhor objetividade.

Para onde vai o dinheiro da campanha após as eleições?

Depois que uma campanha política acaba, os voluntários vão embora, as impressoras são desligadas...

Consulte Mais informação

Dez principais contribuintes para a campanha de Clinton

Há muito dinheiro na política e Hillary Clinton conseguiu arrecadar uma quantia notável durante ...

Consulte Mais informação

Como a quebra imobiliária de 2008 afetou o sonho americano

Qual é a ligação entre a casa própria e o sonho americano? Em muitos aspectos, o sonho american...

Consulte Mais informação

stories ig