Biais dans les dossiers de santé électroniques et l'IA
Examiner comment les biais dans les DSE affectent les résultats de santé.
― 12 min lire
Table des matières
Aux États-Unis, une loi a été adoptée en 2009 pour encourager l'utilisation des dossiers de santé électroniques (DSE) dans les soins de santé. Ces dossiers ont créé une masse énorme de données sur les patients, permettant aux prestataires de soins d'améliorer la façon dont ils s'occupent des patients. Par exemple, en 2020 seulement, environ 2,31 exaoctets de nouvelles données ont été générés dans le secteur de la santé. Pour gérer ces données efficacement et soutenir la prise de décision, le secteur de la santé utilise de plus en plus l'intelligence artificielle (IA). L'IA analyse les données collectées dans les établissements médicaux, principalement à partir des DSE, qui incluent l'historique médical d'un patient et des informations essentielles sur les soins de santé. Les DSE contiennent une mine de données, comme la démographie, les médicaments, les signes vitaux et les résultats de laboratoire.
L'IA peut fournir de nombreux avantages, comme prédire tôt les risques de maladies, identifier des modèles de données qui ne sont pas évidents pour les observateurs humains, et suggérer des options de traitement personnalisées. C'est particulièrement utile quand il y a beaucoup de patients et pas assez de prestataires de soins pour leur accorder l'attention nécessaire. Par exemple, l'IA a montré qu'elle pouvait détecter les risques de démence plus précisément que des experts humains et peut améliorer les prévisions sur le risque que la maladie revienne après la sortie de l'hôpital. L'IA peut aussi mieux classifier les lésions cutanées que des professionnels, aidant ainsi à diagnostiquer des conditions dans des endroits où il n'y a pas assez de spécialistes.
Cependant, l'efficacité de l'IA repose beaucoup sur la qualité et la précision des données qu'elle analyse. Si les données contiennent des Biais, l'IA peut produire des résultats biaisés, ce qui peut mener à des traitements injustes. Les biais dans les DSE peuvent résulter de divers facteurs, comme la manière dont les données sont collectées, analysées ou utilisées. Par exemple, si certains groupes de personnes sont sous-représentés dans les données médicales, les solutions d'IA peuvent ne pas bien fonctionner pour ces groupes.
Cet article vise à explorer les sources de biais inhérents aux dossiers de santé électroniques et à éclairer comment ces biais peuvent influencer les résultats des soins de santé. Il discutera des types de biais courants, de la façon dont ils apparaissent, et des implications sérieuses qu'ils ont sur les soins aux patients.
Qu'est-ce que les biais dans les DSE ?
Les biais dans les DSE sont des erreurs systémiques ou des préjugés qui peuvent déformer la prestation des soins de santé et la prise de décision. Les biais peuvent se produire pendant la collecte de données, la saisie de données ou l'interprétation des données. Ils peuvent stemmer à la fois des biais inconscients détenus par les professionnels de la santé et des algorithmes qui traitent les données.
Sources de biais
- Biais induit par les essais cliniques
Les essais cliniques sont essentiels pour tester de nouveaux traitements et médicaments. Cependant, beaucoup d'essais cliniques n'incluent pas un groupe diversifié de participants. Cela peut conduire à un biais connu sous le nom de biais de sélection, où les résultats de l'essai ne reflètent pas avec précision la population plus large. Par exemple, si un essai a principalement des participants blancs, les résultats peuvent ne pas être applicables à d'autres groupes raciaux ou ethniques. Cette sous-représentation peut entraîner des systèmes d'IA développés à partir de ces données limitées qui priorisent les besoins des groupes mieux représentés, conduisant à de moins bons résultats de santé pour les populations sous-représentées.
- Données manquantes et de mauvaise qualité
Les DSE peuvent avoir des lacunes dans les informations, que ce soit à cause d'erreurs de saisie, de dossiers patients incomplets ou de patients ne partageant pas toutes les informations avec les professionnels de santé. Des données manquantes ou mal enregistrées peuvent introduire des erreurs dans la prestation des soins de santé. Par exemple, si des antécédents médicaux essentiels sont manquants, cela peut conduire à de faux diagnostics ou plans de traitement. De plus, si certains groupes sont moins susceptibles d'avoir des informations de santé complètes enregistrées, les prévisions de l'IA basées sur ces données peuvent être biaisées.
- Biais implicites des prestataires de soins
Les professionnels de la santé peuvent également avoir des biais implicites : des suppositions inconscientes sur les patients basées sur des attributs tels que la race, le sexe ou le statut socio-économique. Ces biais peuvent conduire à un traitement inégal. Par exemple, un prestataire pourrait ignorer des symptômes chez un patient d'un groupe minoritaire à cause de stéréotypes, conduisant à un faux diagnostic ou un retard dans le traitement. Lorsque les prestataires de soins saisissent leurs observations et jugements dans les DSE, ces biais implicites peuvent devenir une partie des données que l'IA utilise pour prendre des décisions futures.
- Biais d'orientation et d'admission
Des biais peuvent également se produire dans la façon dont les patients sont orientés pour des soins ou traitements supplémentaires. Si un groupe spécifique de personnes est moins susceptible de recevoir des orientations pour des soins spécialisés, elles peuvent passer à côté de traitements nécessaires. Cela peut être dû à des problèmes systémiques, tels que des biais des prestataires ou des facteurs socio-économiques qui influencent l'accès aux soins. En conséquence, les résultats de santé des patients peuvent varier en fonction de leurs antécédents ou caractéristiques, perpétuant ainsi encore plus les disparités dans les soins de santé.
- Disparités dans le diagnostic et le pronostic
Les biais peuvent également être vus dans la façon dont différents groupes reçoivent des diagnostics et des recommandations de traitement. Par exemple, certaines maladies peuvent être diagnostiquées plus tôt dans un groupe démographique par rapport à un autre, contribuant à des disparités dans le traitement et les taux de survie. Si l'IA est formée sur des données qui reflètent ces disparités, elle pourrait renforcer les inégalités existantes en faisant des prévisions influencées par des pratiques diagnostiques biaisées.
- Biais des machines médicales et des algorithmes
L'IA et les dispositifs médicaux peuvent également introduire des biais. Si les algorithmes qui alimentent ces outils sont basés sur des données incomplètes ou biaisées, ils peuvent produire des résultats déformés. Par exemple, un appareil qui mesure la pression artérielle peut ne pas fonctionner avec précision pour des individus d'origines ethniques différentes s'il a été principalement testé sur un groupe démographique spécifique. Cela peut conduire à des évaluations incorrectes et à des décisions de traitement erronées.
Implications des biais dans les DSE
La présence de ces biais a de sérieuses conséquences pour les soins de santé. Les solutions d'IA basées sur des données biaisées peuvent conduire à de faux diagnostics, des plans de traitement inadéquats, et finalement à de moins bons résultats de santé pour certains groupes. Par exemple, si les systèmes d'IA recommandent des ressources basées sur des données défectueuses, ils peuvent privilégier les soins pour des démographies sur-représentées tout en négligeant celles sous-représentées.
Exemples des impacts des biais
- Mauvaise classification des maladies
Une des conséquences les plus directes des données biaisées est la mauvaise classification des maladies. Si certains groupes de populations sont sous-représentés dans les données, les systèmes d'IA peuvent classer incorrectement les risques de maladie, menant à des recommandations de traitement inappropriées. Par exemple, un système qui attribue de manière excessive des risques de maladie à un groupe particulier pourrait entraîner des tests ou traitements inutiles, tandis que ceux des groupes sous-représentés pourraient ne pas recevoir les soins dont ils ont réellement besoin.
- Allocation de ressources mal informée
Les biais peuvent affecter la façon dont les ressources sont réparties dans les systèmes de santé. Si les systèmes d'IA favorisent un groupe démographique spécifique basé sur des données biaisées, cela peut aboutir à une distribution inégale des services de santé. Par exemple, si un modèle reflète principalement les besoins de patients blancs et aisés, il pourrait détourner l'attention et des ressources des minorités raciales ou des individus économiquement défavorisés.
- Augmentation des disparités en matière de santé
Lorsque les biais dans les données des DSE conduisent à un traitement inégal ou à des diagnostics manqués, cela contribue à élargir les disparités de santé entre différents groupes de population. Ces disparités peuvent être particulièrement prononcées pour les communautés marginalisées qui peuvent déjà faire face à des barrières d'accès aux soins de santé.
- Perte de confiance dans les systèmes de santé
Lorsque les patients prennent conscience des biais dans les soins de santé, cela peut entraîner une perte de confiance dans les systèmes et les professionnels médicaux. Si les patients estiment qu'ils ne sont pas traités équitablement ou que leurs besoins uniques ne sont pas compris, ils peuvent être moins susceptibles de chercher des soins ou de suivre des conseils médicaux. Cela peut aggraver encore les problèmes de santé au sein de ces communautés.
Aborder les biais dans les DSE
Reconnaître et aborder les biais dans les DSE est crucial pour des soins de santé équitables. Voici quelques stratégies et recommandations :
- Augmenter la diversité dans les essais cliniques
Pour minimiser le biais induit par les essais cliniques, il est essentiel de recruter un groupe de participants plus diversifié. Cela garantit que les résultats des essais cliniques sont applicables à une population plus large et que les systèmes d'IA développés à partir de ces données sont plus représentatifs.
- Améliorer les pratiques de collecte de données
Les prestataires de soins de santé devraient se concentrer sur l'amélioration de l'exactitude et de l'exhaustivité des DSE. Cela inclut la mise en œuvre de protocoles normalisés pour la saisie de données et la garantie que toutes les informations pertinentes sur les patients sont capturées. De plus, les systèmes de santé devraient prioriser les audits réguliers pour identifier et corriger les déficiences de données.
- Éduquer les prestataires de soins sur les biais implicites
Sensibiliser les professionnels de santé aux biais implicites est critique. Des programmes de formation peuvent aider les prestataires à reconnaître leurs propres biais et à encourager des pratiques qui favorisent un traitement équitable de tous les patients.
- Mettre en œuvre des pratiques d'orientation équitables
Des politiques doivent être mises en place pour garantir que tous les patients aient un accès égal aux orientations et aux soins spécialisés. Cela peut nécessiter d'auditer les pratiques existantes et de corriger toute disparité dans la façon dont différents groupes sont traités.
- Améliorer la transparence des algorithmes d'IA
Les systèmes d'IA devraient être conçus et surveillés avec transparence en tête. Les développeurs devraient s'assurer que les modèles d'IA sont régulièrement évalués pour détecter des biais et que tout biais détecté est traité rapidement.
- Utiliser des ensembles de données diversifiés pour la formation de l'IA
Lors de la formation des systèmes d'IA, il est vital d'incorporer des ensembles de données diversifiés qui reflètent une variété de démographies. Cela aide à réduire la probabilité de biais et garantit que les modèles d'IA peuvent fonctionner précisément à travers différents groupes de population.
Conclusion
En conclusion, les biais dans les dossiers de santé électroniques sont un obstacle significatif à des soins de santé équitables. Aborder ces biais est crucial pour améliorer les résultats de santé et veiller à ce que tous les patients reçoivent un traitement équitable. En reconnaissant les différentes sources de biais et en mettant en œuvre des stratégies pour les atténuer, le système de santé peut mieux tirer parti du potentiel de l'IA pour améliorer les soins aux patients et promouvoir l'équité en santé.
À mesure que les soins de santé continuent d'évoluer avec la technologie, il est essentiel de rester vigilant quant aux données qui sous-tendent ces avancées. S'assurer que les biais ne persistent pas dans nos systèmes aidera à créer un environnement de soins de santé plus juste pour tous, menant finalement à de meilleurs résultats de santé et à un système de santé plus efficace.
Les implications des biais dans les soins de santé sont profondes. S'attaquer à ces défis nécessite un effort collaboratif des prestataires de soins, des chercheurs et des décideurs pour cultiver un système de santé plus équitable pour tous. Grâce à une évaluation et une adaptation continues, l'industrie peut travailler vers un avenir où l'IA améliore, plutôt que freine, la qualité des soins offerts à chaque patient.
Titre: Inherent Bias in Electronic Health Records: A Scoping Review of Sources of Bias
Résumé: 11.1 ObjectivesBiases inherent in electronic health records (EHRs), and therefore in medical artificial intelligence (AI) models may significantly exacerbate health inequities and challenge the adoption of ethical and responsible AI in healthcare. Biases arise from multiple sources, some of which are not as documented in the literature. Biases are encoded in how the data has been collected and labeled, by implicit and unconscious biases of clinicians, or by the tools used for data processing. These biases and their encoding in healthcare records undermine the reliability of such data and bias clinical judgments and medical outcomes. Moreover, when healthcare records are used to build data-driven solutions, the biases are further exacerbated, resulting in systems that perpetuate biases and induce healthcare disparities. This literature scoping review aims to categorize the main sources of biases inherent in EHRs. 1.2 MethodsWe queried PubMed and Web of Science on January 19th, 2023, for peer-reviewed sources in English, published between 2016 and 2023, using the PRISMA approach to stepwise scoping of the literature. To select the papers that empirically analyze bias in EHR, from the initial yield of 430 papers, 27 duplicates were removed, and 403 studies were screened for eligibility. 196 articles were removed after the title and abstract screening, and 96 articles were excluded after the full-text review resulting in a final selection of 116 articles. 1.3 ResultsSystematic categorizations of diverse sources of bias are scarce in the literature, while the effects of separate studies are often convoluted and methodologically contestable. Our categorization of published empirical evidence identified the six main sources of bias: a) bias arising from past clinical trials; b) data-related biases arising from missing, incomplete information or poor labeling of data; human-related bias induced by c) implicit clinician bias, d) referral and admission bias; e) diagnosis or risk disparities bias and finally, (f) biases in machinery and algorithms. 1.4 ConclusionsMachine learning and data-driven solutions can potentially transform healthcare delivery, but not without limitations. The core inputs in the systems (data and human factors) currently contain several sources of bias that are poorly documented and analyzed for remedies. The current evidence heavily focuses on data-related biases, while other sources are less often analyzed or anecdotal. However, these different sources of biases add to one another exponentially. Therefore, to understand the issues holistically we need to explore these diverse sources of bias. While racial biases in EHR have been often documented, other sources of biases have been less frequently investigated and documented (e.g. gender-related biases, sexual orientation discrimination, socially induced biases, and implicit, often unconscious, human-related cognitive biases). Moreover, some existing studies lack causal evidence, illustrating the different prevalences of disease across groups, which does not per se prove the causality. Our review shows that data-, human- and machine biases are prevalent in healthcare and they significantly impact healthcare outcomes and judgments and exacerbate disparities and differential treatment. Understanding how diverse biases affect AI systems and recommendations is critical. We suggest that researchers and medical personnel should develop safeguards and adopt data-driven solutions with a "bias-in-mind" approach. More empirical evidence is needed to tease out the effects of different sources of bias on health outcomes. CCS Concepts* Computing methodologies [->] Machine learning; Machine learning approaches; * Applied computing [->] Health care information systems; Health informatics; * Social and professional topics [->] Personal health records; Medical records. ACM Reference FormatOriel Perets, Emanuela Stagno, Eyal Ben Yehuda, Megan McNichol, Leo Anthony Celi, Nadav Rappoport, and Matilda Dorotic. 2024. Inherent Bias in Electronic Health Records: A Scoping Review of Sources of Bias. 1, 1 (April 2024), 24 pages. https://doi.org/XXXXXXX.XXXXXXX
Auteurs: Oriel Perets, E. Stango, E. Ben Yehuda, M. C. McNichol, L. A. Celi, N. Rappoport, M. Dorotic
Dernière mise à jour: 2024-04-12 00:00:00
Langue: English
Source URL: https://www.medrxiv.org/content/10.1101/2024.04.09.24305594
Source PDF: https://www.medrxiv.org/content/10.1101/2024.04.09.24305594.full.pdf
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à medrxiv pour l'utilisation de son interopérabilité en libre accès.