Voreingenommenheiten in elektronischen Gesundheitsakten und KI
Untersuchung, wie Vorurteile in elektronischen Gesundheitsakten die Gesundheitsergebnisse beeinflussen.
― 9 min Lesedauer
Inhaltsverzeichnis
In den USA wurde 2009 ein Gesetz verabschiedet, um die Verwendung elektronischer Gesundheitsakten (EHRs) im Gesundheitswesen zu fördern. Diese Aufzeichnungen haben eine riesige Menge an Patientendaten erzeugt, die es Gesundheitsdienstleistern ermöglichen, die Patientenversorgung zu verbessern. Allein im Jahr 2020 wurden etwa 2,31 Exabyte an neuen Daten im Gesundheitswesen generiert. Um mit diesen Daten effizient umzugehen und die Entscheidungsfindung zu unterstützen, setzt das Gesundheitswesen zunehmend auf Künstliche Intelligenz (KI). KI analysiert Daten, die in medizinischen Einrichtungen gesammelt werden, hauptsächlich aus EHRs, die die medizinische Vorgeschichte und wichtige Gesundheitsinformationen eines Patienten enthalten. EHRs sind vollgepackt mit Daten wie Demografie, Medikamente, Vitalzeichen und Laborergebnisse.
KI kann viele Vorteile bieten, wie z.B. das frühzeitige Vorhersehen von Krankheitsrisiken, das Erkennen von Datentrends, die für menschliche Beobachter nicht offensichtlich sind, und das Vorschlagen von personalisierten Behandlungsoptionen. Das ist besonders nützlich, wenn viele Patienten da sind und nicht genug Gesundheitsdienstleister, um ihnen die nötige Aufmerksamkeit zu schenken. Zum Beispiel hat KI gezeigt, dass sie Demenzrisiken genauer erkennen kann als menschliche Experten und die Vorhersagen über das Risiko, dass eine Krankheit nach dem Krankenhausaufenthalt zurückkehrt, verbessern kann. KI kann auch Hautveränderungen besser klassifizieren als menschliche Fachleute, was bei der Diagnose von Krankheiten in Regionen hilft, wo nicht genug Spezialisten verfügbar sind.
Allerdings hängt die Wirksamkeit von KI stark von der Qualität und Genauigkeit der Daten ab, die sie analysiert. Wenn die Daten Vorurteile enthalten, kann die KI verzerrte Ergebnisse liefern, was zu unfairer Behandlung führen kann. Vorurteile in EHRs können aus verschiedenen Faktoren resultieren, wie z.B. wie die Daten gesammelt, analysiert oder verwendet werden. Wenn bestimmte Bevölkerungsgruppen in den medizinischen Daten unterrepräsentiert sind, funktionieren KI-Lösungen möglicherweise nicht gut für diese Gruppen.
Dieser Artikel zielt darauf ab, die Quellen von Vorurteilen, die in elektronischen Gesundheitsakten innewohnen, zu erkunden und aufzuzeigen, wie diese Vorurteile die Ergebnisse im Gesundheitswesen beeinflussen können. Es wird über häufige Arten von Vorurteilen, wie sie entstehen und welche gravierenden Auswirkungen sie auf die Patientenversorgung haben, diskutiert.
Was sind EHR-Vorurteile?
EHR-Vorurteile sind systematische Fehler oder Vorurteile, die die Gesundheitsversorgung und Entscheidungsfindung verzerren können. Vorurteile können während der Datensammlung, der Dateneingabe oder der Dateninterpretation auftreten. Sie können sowohl aus unbewussten Vorurteilen von Gesundheitsdienstleistern als auch aus den Algorithmen, die die Daten verarbeiten, resultieren.
Quellen von Vorurteilen
- Durch klinische Studien bedingte Vorurteile
Klinische Studien sind wichtig, um neue Behandlungen und Medikamente zu testen. Viele klinische Studien schliessen jedoch keine vielfältige Gruppe von Teilnehmern ein. Das kann zu einem Vorurteil führen, das als Auswahlvorurteil bekannt ist, bei dem die Ergebnisse der Studie nicht die breitere Bevölkerung widerspiegeln. Wenn zum Beispiel eine Studie hauptsächlich Teilnehmer weisser Hautfarbe hat, sind die Ergebnisse möglicherweise nicht auf andere Rassen oder ethnische Gruppen anwendbar. Diese Unterrepräsentation kann dazu führen, dass KI-Systeme, die aus diesen begrenzten Daten entwickelt wurden, die Bedürfnisse besser repräsentierter Gruppen priorisieren, was zu schlechteren Gesundheitsergebnissen für unterrepräsentierte Bevölkerungsgruppen führt.
- Fehlende und Daten von schlechter Qualität
EHRs können Informationslücken aufweisen, sei es aufgrund von Fehlern bei der Dateneingabe, unvollständigen Patientenakten oder weil Patienten nicht vollständige Informationen mit Gesundheitsdienstleistern teilen. Fehlende oder schlecht erfasste Daten können Fehler in der Gesundheitsversorgung verursachen. Wenn beispielsweise wichtige medizinische Informationen fehlen, kann dies zu falschen Diagnosen oder Behandlungsplänen führen. Wenn bestimmte Gruppen weniger wahrscheinlich vollständige Gesundheitsinformationen erhalten, können KI-Vorhersagen basierend auf diesen Daten verzerrt sein.
- Unbewusste Vorurteile von Gesundheitsdienstleistern
Gesundheitsdienstleister können auch unbewusste Vorurteile haben – unbewusste Annahmen über Patienten basierend auf Eigenschaften wie Rasse, Geschlecht oder sozialer Status. Diese Vorurteile können zu ungleicher Behandlung führen. Wenn ein Anbieter beispielsweise Symptome bei einem Patienten aus einer Minderheitengruppe aufgrund von Stereotypen ignoriert, kann das zu Fehldiagnosen oder Verzögerungen bei der Behandlung führen. Wenn Gesundheitsdienstleister ihre Beobachtungen und Urteile in EHRs eingeben, können diese unbewussten Vorurteile Teil der Daten werden, die die KI für zukünftige Entscheidungen nutzt.
- Überweisungs- und Aufnahmevorurteile
Vorurteile können auch in der Art und Weise auftreten, wie Patienten für zusätzliche Pflege oder Behandlung überwiesen werden. Wenn eine bestimmte Gruppe von Menschen weniger wahrscheinlich Überweisungen für Spezialistenpflege erhält, könnten sie notwendige Behandlungen verpassen. Dies kann auf systemische Probleme zurückzuführen sein, wie z.B. Vorurteile von Anbietern oder sozioökonomische Faktoren, die den Zugang zur Versorgung beeinflussen. Infolgedessen können die Gesundheitsergebnisse von Patienten je nach ihrem Hintergrund oder ihren Merkmalen unterschiedlich sein, was die Ungleichheiten im Gesundheitswesen weiter verstärken kann.
- Ungleichheiten bei Diagnose und Prognose
Vorurteile können auch darin gesehen werden, wie verschiedene Gruppen Diagnosen und Behandlungsempfehlungen erhalten. Bestimmte Krankheiten könnten in einer demografischen Gruppe früher diagnostiziert werden als in einer anderen, was zu Ungleichheiten bei Behandlung und Überlebensraten beiträgt. Wenn KI auf Daten trainiert wird, die diese Ungleichheiten widerspiegeln, könnte sie bestehende Ungleichheiten verstärken, indem sie Vorhersagen trifft, die von voreingenommenen Diagnosepraktiken beeinflusst werden.
- Vorurteile durch medizinische Geräte und Algorithmen
KI und medizinische Geräte können ebenfalls Vorurteile einführen. Wenn die Algorithmen, die diese Tools antreiben, auf unvollständigen oder voreingenommenen Daten basieren, können sie verzerrte Ergebnisse liefern. Ein Gerät, das den Blutdruck misst, könnte beispielsweise für Menschen mit unterschiedlichen ethnischen Hintergründen nicht genau arbeiten, wenn es hauptsächlich an einer bestimmten demografischen Gruppe getestet wurde. Das kann zu falschen Bewertungen und Behandlungsentscheidungen führen.
Auswirkungen von Vorurteilen in EHRs
Das Vorhandensein dieser Vorurteile hat schwerwiegende Folgen für die Gesundheitsversorgung. KI-Lösungen, die auf voreingenommenen Daten basieren, können zu Fehldiagnosen, unzureichenden Behandlungsplänen und letztendlich zu schlechteren Gesundheitsergebnissen für bestimmte Gruppen führen. Wenn KI-Systeme Ressourcen basierend auf fehlerhaften Daten empfehlen, könnten sie die Versorgung für überrepräsentierte Demografien priorisieren, während sie unterrepräsentierte Gruppen vernachlässigen.
Beispiele für Auswirkungen von Vorurteilen
- Fehldiagnose von Krankheiten
Eine der direktesten Folgen von voreingenommenen Daten ist die Fehldiagnose von Krankheiten. Wenn bestimmte Bevölkerungsgruppen in den Daten unterrepräsentiert sind, können KI-Systeme Krankheitsrisiken falsch klassifizieren, was zu unangemessenen Behandlungsempfehlungen führt. Ein System, das einer bestimmten Gruppe ein überhöhtes Krankheitsrisiko zuordnet, könnte zu unnötigen Tests oder Behandlungen führen, während unterrepräsentierte Gruppen möglicherweise nicht die Versorgung erhalten, die sie tatsächlich benötigen.
- Fehlgeleitete Ressourcenallokation
Vorurteile können auch beeinflussen, wie Ressourcen im Gesundheitswesen verteilt werden. Wenn KI-Systeme eine bestimmte demografische Gruppe basierend auf voreingenommenen Daten bevorzugen, kann das zu einer ungleichen Verteilung von Gesundheitsdienstleistungen führen. Wenn ein Modell hauptsächlich die Bedürfnisse wohlhabender weisser Patienten widerspiegelt, könnte es Aufmerksamkeit und Ressourcen von rassischen Minderheiten oder wirtschaftlich benachteiligten Personen ablenken.
- Zunahme gesundheitlicher Ungleichheiten
Wenn Vorurteile in EHR-Daten zu ungleicher Behandlung oder verpassten Diagnosen führen, trägt das zur Verbreiterung der gesundheitlichen Ungleichheiten unter verschiedenen Bevölkerungsgruppen bei. Diese Ungleichheiten können besonders ausgeprägt bei marginalisierten Gemeinschaften sein, die bereits mit Barrieren bei der Gesundheitsversorgung konfrontiert sind.
- Vertrauensverlust in das Gesundheitssystem
Wenn Patienten sich der Vorurteile im Gesundheitswesen bewusst sind, kann das zu einem Vertrauensverlust in medizinische Systeme und Fachleute führen. Wenn Patienten das Gefühl haben, nicht fair behandelt zu werden oder dass ihre individuellen Bedürfnisse nicht verstanden werden, sind sie möglicherweise weniger geneigt, Hilfe in Anspruch zu nehmen oder medizinischen Rat zu befolgen. Das kann die gesundheitlichen Probleme innerhalb dieser Gemeinschaften weiter verschärfen.
Angehen von Vorurteilen in EHRs
Das Erkennen und Angehen von Vorurteilen in EHRs ist entscheidend für eine gerechte Gesundheitsversorgung. Hier sind einige Strategien und Empfehlungen:
- Diversität in klinischen Studien erhöhen
Um klinische Studien-bedingte Vorurteile zu minimieren, ist es wichtig, eine vielfältigere Gruppe von Teilnehmern zu rekrutieren. Das stellt sicher, dass die Ergebnisse klinischer Studien auf eine breitere Bevölkerung anwendbar sind und dass die aus diesen Daten entwickelten KI-Systeme repräsentativer sind.
- Datenpraktiken verbessern
Gesundheitsdienstleister sollten sich darauf konzentrieren, die Genauigkeit und Vollständigkeit von EHRs zu verbessern. Dazu gehört die Implementierung standardisierter Protokolle für die Dateneingabe und die Sicherstellung, dass alle relevanten Patienteninformationen erfasst werden. Darüber hinaus sollten Gesundheitssysteme regelmässige Audits priorisieren, um Datenmängel zu identifizieren und zu beheben.
- Gesundheitsdienstleister über unbewusste Vorurteile aufklären
Das Bewusstsein über unbewusste Vorurteile unter Gesundheitsfachleuten zu schärfen, ist entscheidend. Schulungsprogramme können Anbietern helfen, ihre eigenen Vorurteile zu erkennen und Praktiken zu fördern, die eine faire Behandlung aller Patienten unterstützen.
- Gerechte Überweisungspraktiken implementieren
Es sollten Richtlinien eingeführt werden, um sicherzustellen, dass alle Patienten gleichen Zugang zu Überweisungen und Spezialistenpflege haben. Dies kann erfordern, bestehende Praktiken zu überprüfen und eventuelle Diskrepanzen in der Behandlung verschiedener Gruppen zu beheben.
- Transparenz bei KI-Algorithmen erhöhen
KI-Systeme sollten mit Augenmerk auf Transparenz entwickelt und überwacht werden. Entwickler sollten sicherstellen, dass KI-Modelle regelmässig auf Vorurteile geprüft werden und dass entdeckte Vorurteile umgehend angegangen werden.
- Vielfältige Datensätze für das KI-Training nutzen
Beim Trainieren von KI-Systemen ist es wichtig, vielfältige Datensätze zu verwenden, die eine Vielzahl von Demografien widerspiegeln. Das hilft, die Wahrscheinlichkeit von Vorurteilen zu verringern und sicherzustellen, dass die KI-Modelle genau across verschiedenen Bevölkerungsgruppen funktionieren können.
Fazit
Zusammenfassend sind Vorurteile in elektronischen Gesundheitsakten eine erhebliche Barriere für gerechte Gesundheitsversorgung. Diese Vorurteile anzugehen ist entscheidend für die Verbesserung der Gesundheitsergebnisse und dafür, dass alle Patienten fair behandelt werden. Indem man die verschiedenen Quellen von Vorurteilen erkennt und Strategien umsetzt, um sie zu mildern, kann das Gesundheitssystem das Potenzial von KI besser nutzen, um die Patientenversorgung zu verbessern und die Gesundheitsgerechtigkeit zu fördern.
Während sich das Gesundheitswesen weiter mit Technologie entwickelt, ist es entscheidend, wachsam über die Daten zu bleiben, die diese Fortschritte untermauern. Sicherzustellen, dass Vorurteile nicht in unseren Systemen bestehen bleiben, wird helfen, ein gerechteres Gesundheitsumfeld für alle Menschen zu schaffen, was letztendlich zu besseren Gesundheitsergebnissen und einem effektiveren Gesundheitssystem führt.
Die Auswirkungen von Vorurteilen im Gesundheitswesen sind tiefgreifend. Diese Herausforderungen anzugehen erfordert eine gemeinsame Anstrengung von Gesundheitsdienstleistern, Forschern und politischen Entscheidungsträgern, um ein gerechteres Gesundheitssystem für alle zu schaffen. Durch kontinuierliche Evaluation und Anpassung kann die Branche auf eine Zukunft hinarbeiten, in der KI die Qualität der Versorgung für jeden Patienten verbessert, anstatt sie zu behindern.
Titel: Inherent Bias in Electronic Health Records: A Scoping Review of Sources of Bias
Zusammenfassung: 11.1 ObjectivesBiases inherent in electronic health records (EHRs), and therefore in medical artificial intelligence (AI) models may significantly exacerbate health inequities and challenge the adoption of ethical and responsible AI in healthcare. Biases arise from multiple sources, some of which are not as documented in the literature. Biases are encoded in how the data has been collected and labeled, by implicit and unconscious biases of clinicians, or by the tools used for data processing. These biases and their encoding in healthcare records undermine the reliability of such data and bias clinical judgments and medical outcomes. Moreover, when healthcare records are used to build data-driven solutions, the biases are further exacerbated, resulting in systems that perpetuate biases and induce healthcare disparities. This literature scoping review aims to categorize the main sources of biases inherent in EHRs. 1.2 MethodsWe queried PubMed and Web of Science on January 19th, 2023, for peer-reviewed sources in English, published between 2016 and 2023, using the PRISMA approach to stepwise scoping of the literature. To select the papers that empirically analyze bias in EHR, from the initial yield of 430 papers, 27 duplicates were removed, and 403 studies were screened for eligibility. 196 articles were removed after the title and abstract screening, and 96 articles were excluded after the full-text review resulting in a final selection of 116 articles. 1.3 ResultsSystematic categorizations of diverse sources of bias are scarce in the literature, while the effects of separate studies are often convoluted and methodologically contestable. Our categorization of published empirical evidence identified the six main sources of bias: a) bias arising from past clinical trials; b) data-related biases arising from missing, incomplete information or poor labeling of data; human-related bias induced by c) implicit clinician bias, d) referral and admission bias; e) diagnosis or risk disparities bias and finally, (f) biases in machinery and algorithms. 1.4 ConclusionsMachine learning and data-driven solutions can potentially transform healthcare delivery, but not without limitations. The core inputs in the systems (data and human factors) currently contain several sources of bias that are poorly documented and analyzed for remedies. The current evidence heavily focuses on data-related biases, while other sources are less often analyzed or anecdotal. However, these different sources of biases add to one another exponentially. Therefore, to understand the issues holistically we need to explore these diverse sources of bias. While racial biases in EHR have been often documented, other sources of biases have been less frequently investigated and documented (e.g. gender-related biases, sexual orientation discrimination, socially induced biases, and implicit, often unconscious, human-related cognitive biases). Moreover, some existing studies lack causal evidence, illustrating the different prevalences of disease across groups, which does not per se prove the causality. Our review shows that data-, human- and machine biases are prevalent in healthcare and they significantly impact healthcare outcomes and judgments and exacerbate disparities and differential treatment. Understanding how diverse biases affect AI systems and recommendations is critical. We suggest that researchers and medical personnel should develop safeguards and adopt data-driven solutions with a "bias-in-mind" approach. More empirical evidence is needed to tease out the effects of different sources of bias on health outcomes. CCS Concepts* Computing methodologies [->] Machine learning; Machine learning approaches; * Applied computing [->] Health care information systems; Health informatics; * Social and professional topics [->] Personal health records; Medical records. ACM Reference FormatOriel Perets, Emanuela Stagno, Eyal Ben Yehuda, Megan McNichol, Leo Anthony Celi, Nadav Rappoport, and Matilda Dorotic. 2024. Inherent Bias in Electronic Health Records: A Scoping Review of Sources of Bias. 1, 1 (April 2024), 24 pages. https://doi.org/XXXXXXX.XXXXXXX
Autoren: Oriel Perets, E. Stango, E. Ben Yehuda, M. C. McNichol, L. A. Celi, N. Rappoport, M. Dorotic
Letzte Aktualisierung: 2024-04-12 00:00:00
Sprache: English
Quell-URL: https://www.medrxiv.org/content/10.1101/2024.04.09.24305594
Quell-PDF: https://www.medrxiv.org/content/10.1101/2024.04.09.24305594.full.pdf
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an medrxiv für die Nutzung seiner Open-Access-Interoperabilität.