Preconceitos nos Registros Eletrônicos de Saúde e IA
Analisando como os preconceitos nos prontuários eletrônicos afetam os resultados da saúde.
― 11 min ler
Índice
Nos Estados Unidos, uma lei foi aprovada em 2009 pra incentivar o uso de prontuários eletrônicos de saúde (EHRs) na saúde. Esses registros criaram uma quantidade enorme de dados dos pacientes, permitindo que os prestadores de saúde melhorassem a forma como cuidam dos pacientes. Por exemplo, só em 2020, cerca de 2,31 exabytes de novos dados foram gerados na área da saúde. Pra lidar com esses dados de forma eficiente e apoiar a tomada de decisões, a saúde tá cada vez mais usando inteligência artificial (IA). A IA analisa os dados coletados nas unidades médicas, principalmente dos EHRs, que incluem o histórico médico do paciente e informações essenciais de saúde. Os EHRs contêm uma riqueza de dados, como demografia, medicamentos, sinais vitais e resultados de exames.
A IA pode trazer várias vantagens, como prever riscos de doenças mais cedo, identificar padrões de dados que não são óbvios pra observadores humanos e sugerir opções de tratamento personalizadas. Isso é especialmente útil quando tem muitos pacientes e não tem prestadores de saúde suficientes pra dar a atenção que eles precisam. Por exemplo, a IA mostrou a capacidade de detectar riscos de demência mais precisamente do que especialistas humanos e pode melhorar as previsões sobre o risco de doenças voltarem após a alta do hospital. A IA também pode classificar lesões de pele melhor do que profissionais humanos, ajudando a diagnosticar condições em lugares onde não tem especialistas suficientes.
No entanto, a eficácia da IA depende muito da qualidade e precisão dos dados que ela analisa. Se os dados tiverem Preconceitos, a IA pode produzir resultados distorcidos, o que pode levar a um tratamento injusto. Os preconceitos nos EHRs podem resultar de vários fatores, como a forma como os dados são coletados, analisados ou usados. Por exemplo, se certos grupos de pessoas estão sub-representados nos dados médicos, as soluções de IA podem não funcionar bem pra esses grupos.
Esse artigo tem como objetivo explorar as fontes de preconceito presentes nos prontuários eletrônicos de saúde e esclarecer como esses preconceitos podem influenciar os resultados na saúde. Ele vai discutir os tipos comuns de preconceitos, como eles surgem e as sérias implicações que têm no cuidado dos pacientes.
O Que São Preconceitos em EHR?
Os preconceitos em EHR são erros sistemáticos ou preconceitos que podem distorcer a entrega de cuidados de saúde e a tomada de decisões. Esses preconceitos podem ocorrer durante a coleta de dados, entrada de dados ou interpretação de dados. Eles podem vir tanto de preconceitos inconscientes dos profissionais de saúde quanto dos algoritmos que processam os dados.
Fontes de Preconceito
- Preconceito Induzido por Ensaios Clínicos
Os ensaios clínicos são essenciais pra testar novos tratamentos e medicamentos. No entanto, muitos ensaios clínicos não incluem um grupo diversificado de participantes. Isso pode levar a um preconceito conhecido como preconceito de seleção, onde os resultados do ensaio não refletem com precisão a população mais ampla. Por exemplo, se um ensaio tem principalmente participantes brancos, as descobertas podem não ser aplicáveis a outros grupos raciais ou étnicos. Essa sub-representação pode fazer com que os sistemas de IA desenvolvidos a partir desses dados limitados priorizem as necessidades de grupos mais bem representados, levando a resultados de saúde piores para populações sub-representadas.
- Dados Faltando e de Baixa Qualidade
Os EHRs podem ter lacunas de informação, seja por causa de erros na entrada de dados, registros incompletos dos pacientes ou pacientes que não compartilham todas as informações com os profissionais de saúde. Dados faltantes ou mal registrados podem introduzir erros na entrega de cuidados de saúde. Por exemplo, se o histórico médico essencial estiver faltando, isso pode levar a diagnósticos ou planos de tratamento errados. Além disso, se certos grupos têm menos probabilidade de ter informações de saúde completas registradas, as previsões da IA com base nesses dados podem ser distorcidas.
- Preconceitos Implícitos dos Profissionais de Saúde
Os profissionais de saúde também podem ter preconceitos implícitos-suposições inconscientes sobre os pacientes com base em atributos como raça, gênero ou status socioeconômico. Esses preconceitos podem levar a um tratamento desigual. Por exemplo, um profissional pode ignorar sintomas em um paciente de um grupo minoritário devido a estereótipos, levando a diagnósticos errados ou atrasos no tratamento. Quando os prestadores de saúde inserem suas observações e julgamentos nos EHRs, esses preconceitos implícitos podem se tornar parte dos dados que a IA usa pra tomar decisões futuras.
- Preconceitos de Encaminhamento e Admissão
Preconceitos também podem ocorrer na forma como os pacientes são encaminhados pra cuidados ou tratamento adicionais. Se um grupo específico de pessoas tem menos probabilidade de receber encaminhamentos pra cuidados especializados, pode acabar perdendo tratamentos necessários. Isso pode ser devido a problemas sistêmicos, como preconceitos dos prestadores de saúde ou fatores socioeconômicos que influenciam o acesso ao cuidado. Como resultado, os resultados de saúde dos pacientes podem variar com base em sua origem ou características, perpetuando ainda mais discrepâncias na saúde.
- Disparidades em Diagnóstico e Prognóstico
Preconceitos também podem ser vistos em como diferentes grupos recebem diagnósticos e recomendações de tratamento. Por exemplo, certas doenças podem ser diagnosticadas mais cedo em um grupo demográfico em comparação a outro, contribuindo pra disparidades nos tratamentos e taxas de sobrevivência. Se a IA é treinada com dados que refletem essas disparidades, pode reforçar desigualdades existentes ao fazer previsões influenciadas por práticas de diagnóstico tendenciosas.
- Preconceitos de Máquinas Médicas e Algoritmos
A IA e os dispositivos médicos também podem introduzir preconceitos. Se os algoritmos que alimentam essas ferramentas são baseados em dados incompletos ou tendenciosos, podem produzir resultados distorcidos. Por exemplo, um dispositivo que mede pressão arterial pode não funcionar com precisão pra indivíduos de diferentes origens étnicas se foi testado principalmente em um grupo demográfico específico. Isso pode levar a avaliações incorretas e decisões de tratamento.
Implicações dos Preconceitos em EHRs
A presença desses preconceitos tem consequências sérias pra saúde. As soluções de IA construídas com dados tendenciosos podem levar a diagnósticos errados, planos de tratamento inadequados e, em última análise, resultados de saúde piores pra certos grupos. Por exemplo, se os sistemas de IA recomendam recursos com base em dados falhos, podem priorizar cuidados pra demografias super-representadas enquanto negligenciam as sub-representadas.
Exemplos dos Impactos do Preconceito
- Classificação Errada de Doenças
Uma das consequências mais diretas dos dados tendenciosos é a classificação errada de doenças. Se certos grupos populacionais estão sub-representados nos dados, os sistemas de IA podem classificar incorretamente os riscos de doenças, levando a recomendações de tratamento inadequadas. Por exemplo, um sistema que atribui em excesso risco de doença a um grupo específico pode levar a exames ou tratamentos desnecessários, enquanto aqueles em grupos sub-representados podem não receber o cuidado que realmente precisam.
- Alocação de Recursos Mal Informada
Os preconceitos podem afetar como os recursos são alocados dentro dos sistemas de saúde. Se os sistemas de IA favorecem uma demografia específica com base em dados tendenciosos, isso pode resultar na distribuição desigual de serviços de saúde. Por exemplo, se um modelo reflete principalmente as necessidades de pacientes brancos e abastados, pode desviar atenção e recursos de minorias raciais ou indivíduos economicamente desfavorecidos.
- Aumento das Desigualdades em Saúde
Quando preconceitos nos dados dos EHR levam a um tratamento desigual ou diagnósticos perdidos, isso contribui pra aumentar as desigualdades em saúde entre diferentes grupos populacionais. Essas disparidades podem ser particularmente pronunciadas em comunidades marginalizadas que já enfrentam barreiras de acesso à saúde.
- Perda de Confiança nos Sistemas de Saúde
Quando os pacientes estão cientes dos preconceitos na saúde, isso pode levar a uma perda de confiança nos sistemas e profissionais médicos. Se os pacientes acham que não estão sendo tratados de forma justa ou que suas necessidades únicas não são compreendidas, podem ser menos propensos a procurar cuidados ou a seguir conselhos médicos. Isso pode agravar ainda mais os problemas de saúde dentro dessas comunidades.
Abordando Preconceitos em EHRs
Reconhecer e abordar os preconceitos nos EHRs é crucial pra uma saúde equitativa. Aqui estão algumas estratégias e recomendações:
- Aumentar a Diversidade nos Ensaios Clínicos
Pra minimizar o preconceito induzido por ensaios clínicos, é essencial recrutar um grupo de participantes mais diversificado. Isso garante que os achados dos ensaios clínicos sejam aplicáveis a uma população mais ampla e que os sistemas de IA desenvolvidos a partir desses dados sejam mais representativos.
- Melhorar as Práticas de Coleta de Dados
Os prestadores de saúde devem focar em melhorar a precisão e a completude dos EHRs. Isso inclui implementar protocolos padronizados pra entrada de dados e garantir que todas as informações relevantes dos pacientes sejam registradas. Além disso, os sistemas de saúde devem priorizar auditorias regulares pra identificar e corrigir deficiências de dados.
- Educar os Profissionais de Saúde sobre Preconceitos Implícitos
Aumentar a conscientização sobre preconceitos implícitos entre os profissionais de saúde é fundamental. Programas de treinamento podem ajudar os prestadores a reconhecer seus próprios preconceitos e incentivar práticas que promovam um tratamento justo de todos os pacientes.
- Implementar Práticas Justas de Encaminhamento
Políticas devem ser estabelecidas pra garantir que todos os pacientes tenham acesso igual a encaminhamentos e cuidados especializados. Isso pode exigir a auditoria das práticas existentes e o tratamento de quaisquer discrepâncias na forma como diferentes grupos são atendidos.
- Aumentar a Transparência nos Algoritmos de IA
Os sistemas de IA devem ser projetados e monitorados com transparência em mente. Os desenvolvedores devem garantir que os modelos de IA sejam regularmente avaliados quanto a preconceitos e que quaisquer preconceitos detectados sejam abordados rapidamente.
- Utilizar Conjuntos de Dados Diversificados pra Treinamento de IA
Ao treinar sistemas de IA, é vital incorporar conjuntos de dados diversificados que reflitam uma variedade de demografias. Isso ajuda a reduzir a probabilidade de preconceito e garante que os modelos de IA possam funcionar com precisão em diferentes grupos populacionais.
Conclusão
Em conclusão, os preconceitos nos prontuários eletrônicos de saúde são uma barreira significativa pra uma saúde equitativa. Abordar esses preconceitos é fundamental pra melhorar os resultados de saúde e garantir que todos os pacientes recebam um tratamento justo. Ao reconhecer as várias fontes de preconceito e implementar estratégias pra mitigá-los, o sistema de saúde pode melhor aproveitar o potencial da IA pra melhorar o cuidado aos pacientes e promover a equidade em saúde.
Conforme a saúde continua a evoluir com a tecnologia, é essencial permanecer vigilante em relação aos dados que sustentam esses avanços. Garantir que os preconceitos não persistam em nossos sistemas ajudará a criar um ambiente de saúde mais justo pra todos, levando, em última análise, a melhores resultados de saúde e um sistema de saúde mais eficaz.
As implicações do preconceito na saúde são profundas. Abordar esses desafios requer um esforço colaborativo de prestadores de saúde, pesquisadores e formuladores de políticas pra cultivar um sistema de saúde mais equitativo pra todos. Através de avaliação e adaptação contínuas, a indústria pode trabalhar em direção a um futuro onde a IA melhore, em vez de prejudique, a qualidade do cuidado oferecido a cada paciente.
Título: Inherent Bias in Electronic Health Records: A Scoping Review of Sources of Bias
Resumo: 11.1 ObjectivesBiases inherent in electronic health records (EHRs), and therefore in medical artificial intelligence (AI) models may significantly exacerbate health inequities and challenge the adoption of ethical and responsible AI in healthcare. Biases arise from multiple sources, some of which are not as documented in the literature. Biases are encoded in how the data has been collected and labeled, by implicit and unconscious biases of clinicians, or by the tools used for data processing. These biases and their encoding in healthcare records undermine the reliability of such data and bias clinical judgments and medical outcomes. Moreover, when healthcare records are used to build data-driven solutions, the biases are further exacerbated, resulting in systems that perpetuate biases and induce healthcare disparities. This literature scoping review aims to categorize the main sources of biases inherent in EHRs. 1.2 MethodsWe queried PubMed and Web of Science on January 19th, 2023, for peer-reviewed sources in English, published between 2016 and 2023, using the PRISMA approach to stepwise scoping of the literature. To select the papers that empirically analyze bias in EHR, from the initial yield of 430 papers, 27 duplicates were removed, and 403 studies were screened for eligibility. 196 articles were removed after the title and abstract screening, and 96 articles were excluded after the full-text review resulting in a final selection of 116 articles. 1.3 ResultsSystematic categorizations of diverse sources of bias are scarce in the literature, while the effects of separate studies are often convoluted and methodologically contestable. Our categorization of published empirical evidence identified the six main sources of bias: a) bias arising from past clinical trials; b) data-related biases arising from missing, incomplete information or poor labeling of data; human-related bias induced by c) implicit clinician bias, d) referral and admission bias; e) diagnosis or risk disparities bias and finally, (f) biases in machinery and algorithms. 1.4 ConclusionsMachine learning and data-driven solutions can potentially transform healthcare delivery, but not without limitations. The core inputs in the systems (data and human factors) currently contain several sources of bias that are poorly documented and analyzed for remedies. The current evidence heavily focuses on data-related biases, while other sources are less often analyzed or anecdotal. However, these different sources of biases add to one another exponentially. Therefore, to understand the issues holistically we need to explore these diverse sources of bias. While racial biases in EHR have been often documented, other sources of biases have been less frequently investigated and documented (e.g. gender-related biases, sexual orientation discrimination, socially induced biases, and implicit, often unconscious, human-related cognitive biases). Moreover, some existing studies lack causal evidence, illustrating the different prevalences of disease across groups, which does not per se prove the causality. Our review shows that data-, human- and machine biases are prevalent in healthcare and they significantly impact healthcare outcomes and judgments and exacerbate disparities and differential treatment. Understanding how diverse biases affect AI systems and recommendations is critical. We suggest that researchers and medical personnel should develop safeguards and adopt data-driven solutions with a "bias-in-mind" approach. More empirical evidence is needed to tease out the effects of different sources of bias on health outcomes. CCS Concepts* Computing methodologies [->] Machine learning; Machine learning approaches; * Applied computing [->] Health care information systems; Health informatics; * Social and professional topics [->] Personal health records; Medical records. ACM Reference FormatOriel Perets, Emanuela Stagno, Eyal Ben Yehuda, Megan McNichol, Leo Anthony Celi, Nadav Rappoport, and Matilda Dorotic. 2024. Inherent Bias in Electronic Health Records: A Scoping Review of Sources of Bias. 1, 1 (April 2024), 24 pages. https://doi.org/XXXXXXX.XXXXXXX
Autores: Oriel Perets, E. Stango, E. Ben Yehuda, M. C. McNichol, L. A. Celi, N. Rappoport, M. Dorotic
Última atualização: 2024-04-12 00:00:00
Idioma: English
Fonte URL: https://www.medrxiv.org/content/10.1101/2024.04.09.24305594
Fonte PDF: https://www.medrxiv.org/content/10.1101/2024.04.09.24305594.full.pdf
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao medrxiv pela utilização da sua interoperabilidade de acesso aberto.