Comparer les expériences des médecins avec les systèmes EHR
Une étude examine les réponses de trois enquêtes sur l'utilisation des DME par les médecins.
― 8 min lire
Table des matières
L'enquête nationale sur les dossiers de santé électroniques (NEHRS) a commencé en 2012 pour collecter des données sur l'utilisation des dossiers de santé électroniques (DSE) par les médecins aux États-Unis. Cette enquête est super importante parce qu'elle aide les chercheurs et les décideurs à voir comment l'utilisation des DSE influence les pratiques de soins. Récemment, elle s'est aussi concentrée sur la capacité des médecins à partager des infos santé entre eux grâce aux systèmes DSE. Ce partage, qu'on appelle Interopérabilité, est crucial pour améliorer les soins aux patients, car cela permet aux médecins d'accéder à des infos santé importantes provenant de différentes sources.
Même si le NEHRS fournit des infos précieuses, il n’a pas été comparé statistiquement à d'autres sources sur l'utilisation des DSE par les médecins. Les enquêtes dans le domaine de la santé peuvent être compliquées à réaliser, et les taux de réponse sont souvent bas, ce qui peut entraîner un biais dans les résultats. Ces dernières années, le NEHRS a eu des taux de réponse aussi bas que 25%. Ce faible taux soulève des questions sur la fiabilité des informations fournies. On ne sait pas si de telles limites sont réelles ou juste théoriques.
Objectif de l'étude
Cette étude vise à comparer les réponses de trois enquêtes différentes, qui rassemblent toutes des infos sur les médecins utilisant les DSE. Les enquêtes sont :
- Le NEHRS de 2021
- Le questionnaire de certification continue (CCQ) de 2022 de l'American Board of Family Medicine (ABFM)
- L'enquête UCSF sur la santé numérique des médecins, aussi de 2022
En comparant ces enquêtes, on peut identifier des patterns et des écarts qui pourraient aider à améliorer la collecte de données sur les DSE et l'interopérabilité à l'avenir. Ces infos sont essentielles pour les politiques cherchant à améliorer les systèmes DSE et les soins aux patients.
Aperçu des enquêtes
L'enquête NEHRS sélectionne des médecins au hasard parmi des associations professionnelles, envoyant des lettres de recrutement par mail et par email. Les répondants doivent travailler dans les soins aux patients, ne pas être des employés fédéraux, et avoir moins de 85 ans. L’échantillon comprend diverses spécialités médicales, mais pour cette analyse, seuls les médecins de soins primaires utilisant les DSE sont inclus.
Le CCQ est une enquête obligatoire que plus de 102 000 médecins de famille doivent remplir chaque année depuis 2017. Les médecins répondent à des questions sur les politiques des DSE dans le cadre de leur processus de certification. Cette enquête a un taux de réponse de 100 % parce qu'elle est obligatoire pour la certification.
L'enquête UCSF est plus récente et vise à comprendre comment la technologie est utilisée dans les milieux cliniques. Ils ont utilisé un échantillonnage aléatoire pour sélectionner 90 000 médecins et ont envoyé plusieurs rappels pour assurer la participation. Seuls les médecins de soins primaires utilisant les DSE ont été inclus dans cette analyse.
Comparaison des enquêtes
Taux de réponse
Le CCQ avait le taux de réponse le plus élevé parmi les trois enquêtes, avec 100 % des répondants éligibles pour inclusion. En revanche, le NEHRS avait un taux de réponse de seulement 18,2 %, tandis que l’UCSF avait un taux beaucoup plus bas de 3,6 %. Ces différences mettent en évidence les défis d'engagement des professionnels de santé à compléter les enquêtes.
Démographie des répondants
Les caractéristiques démographiques des médecins répondant à chaque enquête variaient. Les répondants du CCQ étaient généralement plus jeunes, avec un nombre significatif âgé de 35 à 44 ans. La représentation des sexes était à peu près égale dans toutes les enquêtes, mais l'enquête UCSF avait légèrement plus de répondantes féminines.
Le cadre dans lequel les médecins travaillent différait aussi. Le NEHRS avait une plus grande proportion de répondants issus de pratiques privées, tandis que le CCQ avait beaucoup de répondants venant de systèmes de santé. L'enquête UCSF avait un nombre notable de répondants travaillant dans des centres de santé académiques.
Plateformes DSE utilisées
Différentes plateformes DSE étaient utilisées par les répondants des enquêtes. Epic était la plus courante dans toutes les enquêtes, mais Cerner était la deuxième plus courante dans l’enquête UCSF, tandis qu'eClinical Works était utilisé davantage dans le NEHRS et le CCQ. La satisfaction à l'égard des DSE variait aussi, avec un pourcentage plus élevé de répondants NEHRS exprimant leur satisfaction par rapport aux autres.
Utilisation des DSE et interopérabilité
Les répondants ont rapporté des différences dans leurs expériences concernant la documentation et l'interopérabilité. Les participants du CCQ passaient plus de temps après le travail à documenter que ceux des autres enquêtes. Ils estimaient aussi que leur expérience de documentation des soins était plus facile par rapport aux répondants du NEHRS et de l'UCSF.
En examinant l'interopérabilité, les répondants du CCQ et du NEHRS rapportaient un meilleur accès à des informations de santé externes dans leurs DSE que ceux de l'enquête UCSF. Cependant, la manière dont les questions étaient formulées rendait les comparaisons directes difficiles entre les enquêtes.
Comparaisons stratifiées entre les enquêtes
Pour voir si les différences dans les réponses étaient dues à la composition des répondants, une analyse stratifiée a été effectuée. Cette analyse a montré que les différences persistaient à travers divers groupes dans les enquêtes. Par exemple, les répondants plus jeunes et plus âgés du CCQ rapportaient un meilleur accès aux informations intégrées que ceux de l’enquête UCSF.
Conclusions communes
Malgré les différences dans les réponses, les trois enquêtes ont montré que les médecins n'étaient généralement pas satisfaits de leurs systèmes DSE. Un nombre significatif de médecins a rapporté passer beaucoup de temps après le travail à documenter les soins aux patients. De plus, beaucoup de médecins ont indiqué qu'ils avaient rarement accès aux informations de santé en dehors de leurs cliniques principales.
Les enquêtes ont aussi révélé que les utilisateurs d'Epic étaient plus satisfaits de leurs DSE par rapport à d'autres plateformes. De plus, les médecins travaillant dans des pratiques privées ont signalé avoir moins accès à des informations sur les patients externes.
Implications pour les décideurs
Les résultats de cette étude soulignent la nécessité d'améliorer les méthodes de collecte de données. Les différences entre les réponses des enquêtes suggèrent que des sources uniques de données pourraient ne pas représenter fidèlement la population globale des médecins. Les décideurs devraient envisager de combiner les données provenant de diverses enquêtes, y compris les certifications obligatoires, pour obtenir une image plus claire de l'utilisation des DSE et de l'interopérabilité.
Utiliser des données provenant d'organismes de certification comme l'ABFM pourrait améliorer la compréhension des systèmes DSE. Comme ces organismes collectent des informations dans le cadre de la re-certification, les données pourraient être plus fiables et représentatives.
Limitations
Il y avait plusieurs limites à cette étude. Les différences dans les questions et les options de réponse entre les enquêtes rendaient certaines comparaisons difficiles. De plus, le CCQ n'incluait que des médecins de famille, ce qui pourrait impacter la généralisabilité des résultats.
Conclusion
Cette étude a comparé trois enquêtes importantes sur les expériences des médecins avec les DSE et l’interopérabilité. Bien que les résultats montrent certaines tendances communes, des différences significatives dans les réponses soulignent la complexité de l'évaluation de l'utilisation des DSE et son impact sur les soins de santé. Ces insights seront précieux pour les décideurs cherchant à améliorer les systèmes de santé numérique et à faciliter le partage des données entre les prestataires de soins. Des recherches futures devraient explorer les expériences d'autres spécialités médicales pour élargir la compréhension.
Titre: Comparative Analysis of Three Surveys on Primary Care Providers' Experiences with Interoperability and Electronic Health Records
Résumé: ObjectiveThis study compared primary care physicians self-reported experiences with Electronic Health Records (EHR) interoperability, as reported across three surveys: the 2022 Continuous Certification Questionnaire (CCQ) from the American Board of Family Medicine, the 2022 University of California San Franciscos (UCSF) Physician Health IT Survey, and the 2021 National Electronic Health Records Survey (NEHRS). Materials and MethodsWe used descriptive analyses to identify differences between survey pairs. To account for weighting in NEHRS and UCSF, we assessed the significance of differences using the Rao-Scott corrected chi-square test. ResultsCCQ received 3,991 responses, UCSF received 1,375 from primary care physicians, and NEHRS received 858 responses from primary care physicians. Response rates were 100%, 3.6%, and 18.2%, respectively. Substantial and largely statistically significant differences in response were detected across the three surveys. For instance, 22.2% of CCQ respondents said it was very easy to document care in their EHR, compared to 15.2% in NEHRS, and 14.8% in the UCSF survey. Approximately one-third of respondents across surveys said documenting care in their EHR was somewhat or very difficult. The surveys captured different respondent types with CCQ respondents trending younger, and NEHRS respondents more likely to be in private practice. DiscussionAll surveys pointed to room for improvement in EHR usability and interoperability. The differences observed, likely driven by differences in survey methodology and response bias, were likely substantial enough to impact policy decisions. ConclusionDiversified data sources, such as those from specialty boards, may aid in capturing physicians experiences with EHRs and interoperability.
Auteurs: Nathaniel Hendrix, N. Maisel, J. Everson, V. Patel, A. Bazemore, L. Rotenstein, A. J. Holmgren, A. H. Krist, J. Adler-Milstein, R. L. Phillips
Dernière mise à jour: 2024-01-03 00:00:00
Langue: English
Source URL: https://www.medrxiv.org/content/10.1101/2024.01.02.24300713
Source PDF: https://www.medrxiv.org/content/10.1101/2024.01.02.24300713.full.pdf
Licence: https://creativecommons.org/publicdomain/zero/1.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à medrxiv pour l'utilisation de son interopérabilité en libre accès.