Preconceito racial nas ferramentas de tomada de decisão em cuidados médicos

O viés racial nos cuidados médicos pode manifestar-se em lugares inesperados. Um exemplo: as ferramentas de decisão clínica que desempenham um papel importante na forma como os pacientes de hoje são testados, diagnosticados e tratados.

Estas ferramentas contêm algoritmos, ou procedimentos passo a passo, geralmente computadorizados, para calcular fatores como risco de doenças cardíacas, necessidade de radiografia de tórax e dosagens de medicamentos prescritos. A inteligência artificial pode ser usada para vasculhar registros de saúde e sistemas de faturação para criar os conjuntos de dados necessários.

À primeira vista, pode parecer objetivo. Mas estudos têm mostrado que a análise de dados usada nesses algoritmos pode ser tendenciosa de formas cruciais contra certos grupos raciais e socioeconómicos. Isso pode ter inúmeras consequências em termos da quantidade e qualidade dos cuidados de saúde que esses grupos recebem.

Principais Conclusões

  • As ferramentas de decisão médica desempenham um grande papel na forma como os pacientes de hoje são testados, diagnosticados e tratados.
  • Infelizmente, os algoritmos em que essas ferramentas se baseiam podem, por vezes, ser tendenciosos.
  • Usar dados de gastos médicos para avaliar a condição de saúde de uma pessoa pode subestimar a gravidade das doenças de pacientes pobres e minoritários, quando gastos mais baixos refletem falta de acesso a cuidados médicos, e não menor necessidade.
  • O algoritmo de índice de massa corporal (IMC), usado para diagnosticar pacientes como com excesso de peso ou obesos, criou um ambiente de vergonha pelo peso e desconfiança entre pacientes e médicos, já que mais mulheres negras do que hispânicas ou brancas são agora categorizadas como obesas.
  • Os dados de entrada e os resultados estão agora começando a ser verificados quanto a viés racial, étnico, de renda, de género e de idade, para que as disparidades possam ser reconhecidas e os algoritmos corrigidos.

O Viés Racial Afeta os Pacientes Mais Doentes

Em 2019, um estudo de um algoritmo amplamente utilizado por hospitais e seguradoras nos EUA para alocar assistência adicional na gestão de saúde mostrou discriminar sistematicamente contra pessoas negras. A ferramenta de decisão tinha menos probabilidade de encaminhar pessoas negras do que brancas para programas de gestão de cuidados para necessidades médicas complexas, mesmo quando ambos os grupos raciais estavam igualmente doentes.

A razão subjacente ao viés estava relacionada à atribuição de pontuações de risco aos pacientes com base nos custos médicos do ano anterior. A suposição era que identificar pacientes com custos mais elevados ajudaria a identificar aqueles com maiores necessidades médicas. No entanto, muitos pacientes negros têm menos acesso, menor capacidade de pagar e menos confiança nos cuidados médicos do que pessoas brancas igualmente doentes. Nesse caso, seus custos médicos mais baixos não previam com precisão seu estado de saúde.

Os programas de gestão de cuidados usam uma abordagem de contato intensivo, como chamadas telefónicas, visitas domiciliares por enfermeiros e priorização de consultas médicas, para atender às necessidades complexas dos pacientes mais graves. Esses programas demonstraram melhorar os resultados, reduzir visitas à emergência e hospitalizações, e diminuir custos médicos. Como os próprios programas são caros, são destinados às pessoas com as pontuações de risco mais altas. Técnicas de pontuação que discriminam os pacientes negros mais doentes podem ser um fator importante no aumento do risco de morte por várias doenças.

Raça como Variável na Doença Renal

Algoritmos podem conter viés sem incluir a raça como variável, mas algumas ferramentas usam deliberadamente a raça como critério. Tome-se o escore eGFR, que avalia a saúde renal e é usado para determinar quem precisa de um transplante de rim.

Num estudo de 1999 que estabeleceu os critérios do escore eGFR, os pesquisadores notaram que as pessoas negras tinham, em média, níveis mais altos de creatinina (um subproduto da quebra muscular) do que as brancas. Os cientistas presumiram que esses níveis mais altos eram devido à maior massa muscular dos negros. Assim, ajustaram a pontuação, o que significava que os negros precisariam ter uma pontuação eGFR mais baixa do que as brancas para serem diagnosticados com doença renal terminal. Como consequência, os negros tinham que esperar até que sua doença renal atingisse um estágio mais grave para serem elegíveis ao tratamento.

Em 2018, uma estudante de medicina e saúde pública da Universidade de Washington, em Seattle, observou que as pontuações eGFR não eram precisas para diagnosticar a gravidade da doença renal em pacientes negros. Ela lutou para remover a raça do algoritmo e conseguiu. Em 2020, a UW Medicine concordou que o uso da raça era uma variável ineficaz e não atendia ao rigor científico necessário em ferramentas de diagnóstico médico.

Importante

Em 2021, um grupo de trabalho conjunto da Fundação Nacional do Rim e da Sociedade Americana de Nefrologia recomendou a adoção de uma nova equação de creatinina CKD-EPI 2021 para o escore eGFR, que estima a função renal sem usar a raça como variável.

Índice de Massa Corporal e Viés Racial

Mesmo a ferramenta de decisão médica mais simples, que não inclui raça, pode refletir preconceitos sociais. O índice de massa corporal (IMC), por exemplo, baseia-se numa fórmula que multiplica peso por altura. É usado para identificar pacientes com peso abaixo, acima ou obeso.

Em 1985, os Institutos Nacionais de Saúde associaram a definição de obesidade ao IMC de um indivíduo, e em 1998, um painel de especialistas estabeleceu diretrizes baseadas no IMC que moveram 29 milhões de americanos anteriormente classificados como peso normal ou apenas com sobrepeso para as categorias de sobrepeso e obesidade.

Hoje, segundo os padrões de IMC, a maioria das pessoas negras, hispânicas e brancas é considerada com excesso de peso ou obesa. Mas um relatório de 2021 dos Centros de Controle e Prevenção de Doenças (CDC) revelou que a percentagem de americanos classificados como obesos varia conforme o grupo racial ou étnico.

Segundo o CDC, a divisão entre adultos em geral foi:

  • Não-Hispânicos Negros: 49,9%
  • Hispânicos: 45,6%
  • Não-Hispânicos Brancos: 41,4%
  • Não-Hispânicos Asiáticos: 16,1%

Ao separar mulheres adultas classificadas como obesas, as diferenças parecem ainda mais acentuadas:

  • Não-Hispânicas Negras: 57,9%
  • Hispânicas: 45,7%
  • Não-Hispânicas Brancas: 39,6%
  • Não-Hispânicas Asiáticas: 14,5%

Classificar tamanhas porcentagens da população como com excesso de peso ou obesas criou um ambiente de vergonha pelo peso e desconfiança entre pacientes e médicos. Pessoas com peso maior reclamam que os médicos não abordam os problemas de saúde ou preocupações que as levaram ao consultório. Em vez disso, os médicos culpam o peso do paciente pelos problemas de saúde e promovem a perda de peso como solução. Isso faz com que muitos pacientes negros e hispânicos evitem profissionais de saúde, perdendo talvez oportunidades de prevenir problemas ou detectá-los precocemente.

Além disso, está cada vez mais claro que estar acima do peso ou obeso nem sempre é um problema de saúde. Taxas de condições graves, como doenças cardíacas, AVC, diabetes tipo 2 e certos tipos de câncer, são mais elevadas entre os obesos. Mas, em certas situações, como recuperação após cirurgia cardíaca, estar com excesso de peso ou moderadamente obeso (mas não mórbido) está associado a taxas de sobrevivência melhores.

Novas diretrizes de obesidade para clínicos canadenses, publicadas em agosto de 2020, enfatizam que os médicos devem deixar de confiar apenas no IMC para diagnosticar pacientes. As pessoas devem ser consideradas obesas somente se o peso corporal afetar sua saúde física ou bem-estar mental, segundo as novas diretrizes. O tratamento deve ser holístico e não focado apenas na perda de peso. As diretrizes também observam que, “Pessoas com obesidade enfrentam preconceito e estigma substanciais, que contribuem para maior morbidade e mortalidade, independentemente do peso ou IMC.”

A consideração do IMC de um indivíduo pode ser substituída por outras medidas, como a circunferência da cintura. E a própria obesidade pode ser redefinida. Em janeiro de 2025, um grupo de 58 pesquisadores propôs uma nova definição que mudaria o foco do IMC para o excesso de gordura corporal e seu efeito na saúde. O grupo propôs duas categorias de obesidade: pré-clínica, quando há excesso de gordura, mas os órgãos funcionam normalmente, e clínica, quando o excesso de gordura prejudica tecidos e órgãos.

Reduzindo o Viés nas Ferramentas de Decisão

Os algoritmos médicos não são o único tipo de algoritmo que pode ser tendencioso. Como observou um artigo de 2020 na The New England Journal of Medicine, “Este problema não é exclusivo da medicina. O sistema de justiça criminal, por exemplo, usa ferramentas de previsão de reincidência para orientar decisões sobre valores de fiança e sentenças de prisão.” Os autores disseram que uma ferramenta amplamente usada, “embora não use raça per se, usa muitos fatores que se correlacionam com raça e retorna pontuações de risco mais altas para réus negros.”

O uso crescente de inteligência artificial (IA)—especialmente aprendizado de máquina—também levantou questões sobre viés baseado em raça, condição socioeconómica e outros fatores. Na saúde, o aprendizado de máquina frequentemente depende de registros eletrônicos de saúde. Pacientes pobres e minoritários podem receber cuidados fragmentados e serem atendidos em várias instituições. Têm maior probabilidade de serem atendidos em clínicas de ensino, onde a entrada de dados ou o raciocínio clínico podem ser menos precisos. E podem não conseguir acessar portais de pacientes online ou documentar resultados. Como resultado, os registros desses pacientes podem conter dados ausentes ou incorretos. Os algoritmos que impulsionam o aprendizado de máquina podem acabar excluindo esses grupos do conjunto de dados e do cuidado necessário.

A boa notícia é que a conscientização sobre os vieses nos algoritmos de saúde cresceu nos últimos anos. Os dados de entrada e os resultados estão sendo verificados quanto a viés racial, étnico, de renda, de género e de idade. Sociedades de especialidades médicas nos EUA estão reconhecendo os danos causados pela medicina baseada na raça e avançando para eliminar a consideração da raça nos algoritmos clínicos. Quando as disparidades são reconhecidas, os algoritmos e conjuntos de dados podem ser revisados para maior objetividade.

O que é um Algoritmo?

Não há uma definição legal ou científica padrão para algoritmo, mas o Instituto Nacional de Padrões e Tecnologia (NIST) refere-se a ele como “um processo matemático claramente especificado para cálculo; um conjunto de regras que, se seguidas, fornecerá um resultado prescrito.”

Um Exemplo de Algoritmo

No sentido mais amplo, um algoritmo é simplesmente um processo passo a passo para responder a uma questão ou alcançar um resultado desejado. Assim, por exemplo, uma receita de bolo é uma forma de algoritmo. No mundo das finanças, um sistema de negociação automatizado seria um exemplo.

O que é Aprendizado de Máquina?

A IBM, pioneira na área, define aprendizado de máquina como “a subárea da inteligência artificial (IA) focada em algoritmos que podem ‘aprender’ os padrões dos dados de treinamento e, subsequentemente, fazer inferências precisas sobre novos dados.”

Conclusão

Apesar de parecerem objetivos e imparciais, os algoritmos que profissionais de saúde usam para tomar certas decisões podem ser tendenciosos por fatores raciais, de classe e outros. Por isso, os algoritmos não podem ser simplesmente aceitos sem questionamento, devendo passar por análises rigorosas. Como observou um artigo de 2021 na MIT Technology Review, “O termo ‘algoritmo’, independentemente de sua definição, não deve ser uma desculpa para isentar os humanos que criaram e implementaram qualquer sistema de responsabilidade pelos resultados de seu uso.”

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)