Simple Science

Scienza all'avanguardia spiegata semplicemente

# Scienze della salute# Informatica sanitaria

Pregiudizi nella Cartella Clinica Elettronica e nell'IA

Esaminare come i pregiudizi nelle cartelle cliniche elettroniche influenzino i risultati sanitari.

― 9 leggere min


I pregiudizi negli EHRI pregiudizi negli EHRinfluenzano i risultatisanitarisugli esiti dei pazienti.elettronici influisce sul trattamento eIl bias nei registri sanitari
Indice

Negli Stati Uniti, nel 2009 è stata approvata una legge per promuovere l'uso delle cartelle cliniche elettroniche (CCE) nella sanità. Queste cartelle hanno generato un'enorme quantità di dati sui pazienti, permettendo ai fornitori di assistenza sanitaria di migliorare il modo in cui curano i pazienti. Ad esempio, solo nel 2020 sono stati generati circa 2,31 exabyte di nuovi dati nel settore sanitario. Per gestire questi dati in modo efficace e supportare il processo decisionale, la sanità sta sempre più utilizzando l'intelligenza artificiale (IA). L'IA analizza i dati raccolti nelle strutture mediche, principalmente dalle CCE, che includono la storia medica di un paziente e informazioni essenziali per la salute. Le CCE contengono una vasta gamma di dati, come demografia, farmaci, segni vitali e risultati di esami di laboratorio.

L'IA può offrire molti vantaggi, come prevedere i rischi di malattia precocemente, identificare schemi nei dati che non sono evidenti agli osservatori umani e suggerire opzioni di trattamento personalizzate. Questo è particolarmente utile quando ci sono molti pazienti e non ci sono abbastanza fornitori di assistenza sanitaria per dare loro l'attenzione di cui hanno bisogno. Ad esempio, l'IA ha dimostrato di poter rilevare i rischi di demenza con maggiore accuratezza rispetto agli esperti umani e può migliorare le previsioni sul rischio di recidiva della malattia dopo la dimissione dall'ospedale. L'IA può anche classificare le lesioni cutanee meglio dei professionisti umani, aiutando a diagnosticare condizioni in luoghi dove non ci sono abbastanza specialisti.

Tuttavia, l'efficacia dell'IA dipende molto dalla qualità e dall'accuratezza dei dati che analizza. Se i dati contengono Pregiudizi, l'IA potrebbe produrre risultati distorti, portando a trattamenti ingiusti. I pregiudizi nelle CCE possono derivare da vari fattori, come il modo in cui vengono raccolti, analizzati o utilizzati i dati. Ad esempio, se alcuni gruppi di persone sono sottorappresentati nei dati medici, le soluzioni IA potrebbero non funzionare bene per quei gruppi.

Questo articolo ha lo scopo di esplorare le fonti di pregiudizio insite nelle cartelle cliniche elettroniche e di far luce su come questi pregiudizi possano influenzare gli esiti sanitari. Verranno discussi i tipi comuni di pregiudizi, come sorgono e le gravi implicazioni che hanno sulla cura dei pazienti.

Cosa Sono i Pregiudizi nelle CCE?

I pregiudizi nelle CCE sono errori o pregiudizi sistematici che possono distorcere la fornitura di assistenza sanitaria e il processo decisionale. I pregiudizi possono verificarsi durante la raccolta dei dati, l'inserimento dei dati o l'interpretazione dei dati. Possono derivare sia da pregiudizi inconsci dei professionisti sanitari che dagli algoritmi che elaborano i dati.

Fonti di Pregiudizio

  1. Pregiudizio Indotto da Studi Clinici

Gli studi clinici sono essenziali per testare nuovi trattamenti e farmaci. Tuttavia, molti studi clinici non includono un gruppo di partecipanti diversificato. Questo può portare a un pregiudizio noto come pregiudizio di selezione, in cui i risultati dello studio non riflettono accuratamente la popolazione più ampia. Ad esempio, se uno studio ha principalmente partecipanti bianchi, i risultati potrebbero non essere applicabili ad altri gruppi razziali o etnici. Questa sottorappresentazione può far sì che i sistemi IA sviluppati da questi dati limitati diano priorità ai bisogni dei gruppi meglio rappresentati, portando a risultati di salute peggiori per le popolazioni sottorappresentate.

  1. Dati Mancanti e di Scarsa Qualità

Le CCE possono avere lacune nelle informazioni, sia a causa di errori nell’inserimento dei dati, record pazienti incompleti o pazienti che non condividono informazioni complete con i professionisti sanitari. Dati mancanti o registrati in modo errato possono introdurre errori nella fornitura di assistenza sanitaria. Ad esempio, se manca una storia medica essenziale, potrebbe portare a diagnosi errate o piani di trattamento sbagliati. Inoltre, se alcuni gruppi hanno meno probabilità di avere informazioni sanitarie complete registrate, le previsioni dell'IA basate su questi dati potrebbero essere distorte.

  1. Pregiudizi Impliciti dei Fornitori di Assistenza Sanitaria

I professionisti sanitari possono anche avere pregiudizi impliciti: assunzioni inconsce sui pazienti basate su attributi come razza, genere o stato socioeconomico. Questi pregiudizi possono portare a trattamenti diseguali. Ad esempio, un fornitore potrebbe trascurare sintomi in un paziente di un gruppo minoritario a causa di stereotipi, portando a diagnosi errate o ritardi nel trattamento. Quando i fornitori di assistenza sanitaria inseriscono le loro osservazioni e giudizi nelle CCE, quei pregiudizi impliciti possono diventare parte dei dati che l'IA utilizza per prendere decisioni future.

  1. Pregiudizi di Rinvio e Ammissione

I pregiudizi possono anche verificarsi nel modo in cui i pazienti vengono indirizzati per cure o trattamenti aggiuntivi. Se un gruppo specifico di persone ha meno probabilità di ricevere rinvii per cure specialistiche, potrebbe perder lo accesso ai trattamenti necessari. Questo può essere dovuto a problemi sistemici, come pregiudizi dei fornitori o fattori socioeconomici che influenzano l'accesso alle cure. Di conseguenza, gli esiti di salute dei pazienti possono differire in base al loro background o caratteristiche, perpetuando ulteriormente le discrepanze nella sanità.

  1. Disparità nella Diagnosi e Prognosi

I pregiudizi possono anche manifestarsi nel modo in cui diversi gruppi ricevono diagnosi e raccomandazioni di trattamento. Ad esempio, alcune malattie possono essere diagnosticate prima in un gruppo demografico rispetto a un altro, contribuendo a disparità nei tassi di trattamento e sopravvivenza. Se l'IA viene addestrata con dati che riflettono queste disparità, potrebbe rinforzare le disuguaglianze esistenti facendo previsioni influenzate da pratiche diagnostiche parziali.

  1. Pregiudizi nei Dispositivi Medici e Algoritmi

L'IA e i dispositivi medici possono anche introdurre pregiudizi. Se gli algoritmi che alimentano questi strumenti sono basati su dati incompleti o distorti, possono produrre risultati distorti. Ad esempio, un dispositivo che misura la pressione sanguigna potrebbe non funzionare accuratamente per individui con background etnici diversi se è stato testato principalmente su un gruppo demografico specifico. Questo può portare a valutazioni errate e decisioni di trattamento.

Implicazioni dei Pregiudizi nelle CCE

La presenza di questi pregiudizi ha gravi conseguenze per la sanità. Le soluzioni IA costruite su dati pregiudicati possono portare a diagnosi errate, piani di trattamento inadeguati e, in ultima analisi, a risultati di salute peggiori per determinati gruppi. Ad esempio, se i sistemi IA raccomandano risorse basate su dati errati, potrebbero dare priorità all'assistenza per demografie sovrarappresentate trascurando quelle sottorappresentate.

Esempi di Impatti dei Pregiudizi

  1. Misclassificazione delle Malattie

Una delle conseguenze più dirette dei dati pregiudicati è la misclassificazione delle malattie. Se alcuni gruppi di popolazione sono sottorappresentati nei dati, i sistemi IA potrebbero classificare erroneamente i rischi di malattia, portando a raccomandazioni di trattamento inappropriate. Ad esempio, un sistema che assegna eccessivamente il rischio di malattia a un particolare gruppo potrebbe portare a test o trattamenti non necessari, mentre quelli nei gruppi sottorappresentati potrebbero non ricevere le cure di cui hanno effettivamente bisogno.

  1. Allocazione Errata delle Risorse

I pregiudizi possono influenzare il modo in cui le risorse vengono allocate all'interno dei sistemi sanitari. Se i sistemi IA favoriscono una demografia specifica basata su dati distorti, questo può comportare una distribuzione disuguale dei servizi sanitari. Ad esempio, se un modello riflette principalmente le esigenze di pazienti bianchi benestanti, potrebbe deviare attenzione e risorse lontano da minoranze razziali o individui economicamente svantaggiati.

  1. Aumento delle Disparità Sanitarie

Quando i pregiudizi nei dati CCE portano a trattamenti disuguali o diagnosi mancate, questo contribuisce a ampliare le disparità sanitarie tra diversi gruppi di popolazione. Queste disparità possono essere particolarmente pronunciate per le comunità emarginate che già affrontano barriere all'accesso alle cure.

  1. Perdita di Fiducia nei Sistemi Sanitari

Quando i pazienti sono consapevoli dei pregiudizi nella sanità, ciò può portare a una perdita di fiducia nei sistemi e nei professionisti medici. Se i pazienti sentono di non essere trattati equamente o che le loro esigenze uniche non sono comprese, potrebbero essere meno propensi a cercare assistenza o a seguire i consigli medici. Questo può aggravare ulteriormente i problemi di salute all'interno di queste comunità.

Affrontare i Pregiudizi nelle CCE

Riconoscere e affrontare i pregiudizi nelle CCE è cruciale per una sanità equa. Ecco alcune strategie e raccomandazioni:

  1. Aumentare la Diversità negli Studi Clinici

Per minimizzare il pregiudizio indotto dagli studi clinici, è essenziale reclutare un gruppo di partecipanti più diversificato. Questo garantisce che i risultati degli studi clinici siano applicabili a una popolazione più ampia e che i sistemi IA sviluppati da questi dati siano più rappresentativi.

  1. Migliorare le Pratiche di Raccolta Dati

I fornitori di assistenza sanitaria dovrebbero concentrarsi sul miglioramento dell'accuratezza e della completezza delle CCE. Questo include l'implementazione di protocolli standardizzati per l'inserimento dei dati e garantire che tutte le informazioni pertinenti sui pazienti vengano catturate. Inoltre, i sistemi sanitari dovrebbero dare priorità a audit regolari per identificare e correggere le carenze nei dati.

  1. Educare i Fornitori di Assistenza Sanitaria sui Pregiudizi Impliciti

Aumentare la consapevolezza sui pregiudizi impliciti tra i professionisti sanitari è fondamentale. I programmi di formazione possono aiutare i fornitori a riconoscere i propri pregiudizi e incoraggiare pratiche che promuovono un trattamento equo per tutti i pazienti.

  1. Implementare Pratiche di Rinvio Giuste

Dovrebbero essere messe in atto politiche per garantire che tutti i pazienti abbiano accesso equo ai rinvii e alle cure specialistiche. Questo potrebbe richiedere di esaminare le pratiche esistenti e affrontare eventuali discrepanze nel modo in cui vengono trattati i diversi gruppi.

  1. Migliorare la Trasparenza negli Algoritmi IA

I sistemi IA dovrebbero essere progettati e monitorati tenendo presente la trasparenza. Gli sviluppatori dovrebbero garantire che i modelli IA siano regolarmente valutati per possibili pregiudizi e che eventuali pregiudizi rilevati vengano affrontati rapidamente.

  1. Utilizzare Set di Dati Diversificati per l'Addestramento dell'IA

Quando si addestrano i sistemi IA, è fondamentale incorporare set di dati diversificati che riflettano una varietà di demografie. Questo aiuta a ridurre la probabilità di pregiudizi e garantisce che i modelli IA possano funzionare in modo accurato tra diversi gruppi di popolazione.

Conclusione

In conclusione, i pregiudizi nelle cartelle cliniche elettroniche rappresentano un ostacolo significativo per una sanità equa. Affrontare questi pregiudizi è fondamentale per migliorare gli esiti di salute e garantire che tutti i pazienti ricevano un trattamento equo. Riconoscendo le varie fonti di pregiudizio e implementando strategie per mitigarli, il sistema sanitario può meglio sfruttare il potenziale dell'IA per migliorare la cura dei pazienti e promuovere l'equità nella salute.

Man mano che la sanità continua a evolversi con la tecnologia, è essenziale rimanere vigili sui dati che sottendono a questi progressi. Garantire che i pregiudizi non persistano nei nostri sistemi contribuirà a creare un ambiente sanitario più giusto per tutti gli individui, portando infine a migliori esiti di salute e a un sistema sanitario più efficace.


Le implicazioni dei pregiudizi nella sanità sono profonde. Affrontare queste sfide richiede uno sforzo collaborativo da parte di fornitori di assistenza sanitaria, ricercatori e decisori per coltivare un sistema sanitario più equo per tutti. Attraverso una continua valutazione e adattamento, l'industria può lavorare verso un futuro in cui l'IA migliori, piuttosto che ostacoli, la qualità dell'assistenza fornita a ogni paziente.

Fonte originale

Titolo: Inherent Bias in Electronic Health Records: A Scoping Review of Sources of Bias

Estratto: 11.1 ObjectivesBiases inherent in electronic health records (EHRs), and therefore in medical artificial intelligence (AI) models may significantly exacerbate health inequities and challenge the adoption of ethical and responsible AI in healthcare. Biases arise from multiple sources, some of which are not as documented in the literature. Biases are encoded in how the data has been collected and labeled, by implicit and unconscious biases of clinicians, or by the tools used for data processing. These biases and their encoding in healthcare records undermine the reliability of such data and bias clinical judgments and medical outcomes. Moreover, when healthcare records are used to build data-driven solutions, the biases are further exacerbated, resulting in systems that perpetuate biases and induce healthcare disparities. This literature scoping review aims to categorize the main sources of biases inherent in EHRs. 1.2 MethodsWe queried PubMed and Web of Science on January 19th, 2023, for peer-reviewed sources in English, published between 2016 and 2023, using the PRISMA approach to stepwise scoping of the literature. To select the papers that empirically analyze bias in EHR, from the initial yield of 430 papers, 27 duplicates were removed, and 403 studies were screened for eligibility. 196 articles were removed after the title and abstract screening, and 96 articles were excluded after the full-text review resulting in a final selection of 116 articles. 1.3 ResultsSystematic categorizations of diverse sources of bias are scarce in the literature, while the effects of separate studies are often convoluted and methodologically contestable. Our categorization of published empirical evidence identified the six main sources of bias: a) bias arising from past clinical trials; b) data-related biases arising from missing, incomplete information or poor labeling of data; human-related bias induced by c) implicit clinician bias, d) referral and admission bias; e) diagnosis or risk disparities bias and finally, (f) biases in machinery and algorithms. 1.4 ConclusionsMachine learning and data-driven solutions can potentially transform healthcare delivery, but not without limitations. The core inputs in the systems (data and human factors) currently contain several sources of bias that are poorly documented and analyzed for remedies. The current evidence heavily focuses on data-related biases, while other sources are less often analyzed or anecdotal. However, these different sources of biases add to one another exponentially. Therefore, to understand the issues holistically we need to explore these diverse sources of bias. While racial biases in EHR have been often documented, other sources of biases have been less frequently investigated and documented (e.g. gender-related biases, sexual orientation discrimination, socially induced biases, and implicit, often unconscious, human-related cognitive biases). Moreover, some existing studies lack causal evidence, illustrating the different prevalences of disease across groups, which does not per se prove the causality. Our review shows that data-, human- and machine biases are prevalent in healthcare and they significantly impact healthcare outcomes and judgments and exacerbate disparities and differential treatment. Understanding how diverse biases affect AI systems and recommendations is critical. We suggest that researchers and medical personnel should develop safeguards and adopt data-driven solutions with a "bias-in-mind" approach. More empirical evidence is needed to tease out the effects of different sources of bias on health outcomes. CCS Concepts* Computing methodologies [->] Machine learning; Machine learning approaches; * Applied computing [->] Health care information systems; Health informatics; * Social and professional topics [->] Personal health records; Medical records. ACM Reference FormatOriel Perets, Emanuela Stagno, Eyal Ben Yehuda, Megan McNichol, Leo Anthony Celi, Nadav Rappoport, and Matilda Dorotic. 2024. Inherent Bias in Electronic Health Records: A Scoping Review of Sources of Bias. 1, 1 (April 2024), 24 pages. https://doi.org/XXXXXXX.XXXXXXX

Autori: Oriel Perets, E. Stango, E. Ben Yehuda, M. C. McNichol, L. A. Celi, N. Rappoport, M. Dorotic

Ultimo aggiornamento: 2024-04-12 00:00:00

Lingua: English

URL di origine: https://www.medrxiv.org/content/10.1101/2024.04.09.24305594

Fonte PDF: https://www.medrxiv.org/content/10.1101/2024.04.09.24305594.full.pdf

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia medrxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili