Comparer les ECR et les preuves du monde réel
Une étude examine les différences entre les ECR et les preuves du monde réel.
― 7 min lire
Table des matières
Les Preuves du monde réel (RWE) font référence à des infos sur les effets des produits médicaux collectées à partir de données de la vie réelle. Ces données viennent de plusieurs sources liées à la santé des patients, surtout des pratiques cliniques courantes comme les dossiers de santé électroniques et les réclamations d'assurance. Récemment, il y a eu un intérêt croissant pour utiliser les RWE afin d'aider à prendre des décisions cliniques et à établir des politiques de santé. Cependant, certaines personnes se demandent combien cette preuve est fiable comparée aux essais cliniques traditionnels connus sous le nom d'essais contrôlés randomisés (RCTs).
Les préoccupations surgissent quand les RCTs et les études de base de données sont vues comme des options opposées plutôt que comme des moyens différents de recueillir des infos utiles sur les effets des médicaments. Certaines études ont montré que les résultats des RCT et des études de bases de données s'accordent souvent, et que des études de bases de données bien conçues peuvent mener à des conclusions solides. D'autres soutiennent que les différences dans les résultats soulignent des défauts dans les études de bases de données.
Étude RCT-DUPLICATE
Un effort important pour comparer les RCTs et les études de bases de données s'appelle RCT-DUPLICATE. Cette initiative visait à répliquer plus de 30 essais en utilisant des études de bases de données conçues pour suivre de près les conceptions originales des RCT. Cependant, comme les données utilisées provenaient de pratiques cliniques régulières et n’étaient pas spécifiquement collectées pour la recherche, certains aspects des essais n'ont pas pu être alignés exactement. Les différences peuvent être résumées dans quelques domaines clés : comment les résultats sont mesurés, les caractéristiques démographiques des patients impliqués, comment les traitements sont appliqués dans la réalité, et l'absence de groupes placebo dans la pratique quotidienne.
Nous avons étudié les différences identifiées dans le RCT-DUPLICATE pour comprendre comment ces problèmes de conception affectent les variations des résultats entre les RCTs et les études de bases de données. Nous avons examiné si ces différences pouvaient aider à réduire les incohérences observées entre les RCTs et les études du monde réel dans notre analyse.
Aperçu de la méthodologie
L'étude RCT-DUPLICATE a soigneusement choisi 32 essais liés aux décisions d'approbation des médicaments qui pouvaient probablement être répliqués avec des données de réclamations. Ces essais sélectionnés incluaient différents types d'études testant différentes stratégies de traitement, et ils ont commencé avec trois principales sources de données. L'objectif était de mimer de près les RCTs dans les limites des données du monde réel disponibles.
L'analyse des données s'est concentrée sur des essais dont les résultats pouvaient être exprimés en Ratios de risque. Les essais montrant un niveau élevé de variation entre les bases de données ont été exclus de l'analyse.
Différences d'émulation enregistrées
Au cours de l'étude RCT-DUPLICATE, les chercheurs ont suivi des différences spécifiques dans les conceptions des essais. Ils ont noté des différences dans la distribution de l'âge et du sexe sous forme de valeurs numériques, reflétant comment ces facteurs variaient entre les RCT et les études de bases de données. Ils ont également enregistré des différences catégorielles dans la conception et les ont résumées en une mesure composite binaire pour indiquer si une paire d'études était considérée comme une "émulation proche".
Une étude était labellisée comme une émulation proche si elle avait un bon alignement dans les mesures de comparaison et les résultats tout en évitant certains problèmes de conception comme le démarrage des suivis à l'hôpital ou l'inclusion de répondeurs au traitement pendant une période d'ajustement.
Analyse statistique
Pour l'analyse statistique, des méthodes spécifiques ont été utilisées pour s'assurer que les données des RCTs et des études RWE étaient normalement distribuées. Des transformations logarithmiques ont été appliquées aux ratios de risque, et des différences standardisées ont été calculées pour comparer les résultats des études RCT et RWE.
La variabilité entre les études a été évaluée à l'aide d'une approche statistique qui identifie les différences plus précisément. En appliquant un modèle de régression linéaire basé sur les différences observées, les chercheurs pouvaient estimer l'hétérogénéité entre les paires d'études. Si certaines caractéristiques de conception étaient incluses dans ce modèle, il était possible d'expliquer une partie des variations observées.
Observations de l'analyse
L'analyse des résultats a révélé comment les deux types d'études se comparaient. Les estimations des RCT et les estimations agrégées des études de bases de données ne s'alignaient pas toujours parfaitement. Bien que de nombreuses estimations RWE agrégées soient inférieures à celles des RCTs, certaines étaient même plus élevées. Ce comportement contraste avec les résultats de projets de réplication plus grands, où généralement, les effets mesurés dans les études de réplication sont plus faibles que dans les études originales.
La distribution des différences observées a indiqué que lorsque l'émulation était catégorisée comme proche, cela entraînait généralement des différences plus petites dans les résultats. Cependant, des différences significatives restaient pour celles qui n'étaient pas catégorisées comme Émulations proches.
Principales conclusions sur les différences d'émulation
Les résultats ont indiqué trois caractéristiques principales liées aux variations des estimations d'effet : des effets de traitement retardés, l'arrêt de la thérapie d'entretien pendant l'essai, et le début du traitement à l'hôpital. Ces facteurs expliquaient une grande partie des différences observées entre les RCTs et les études RWE.
Fait intéressant, l'absence de comparateurs placebo n'a pas contribué de manière significative à la variabilité observée, contrairement à ce qu'on aurait pu s'y attendre.
Limites de l'étude
Les chercheurs ont reconnu plusieurs limites dans leurs résultats. L'analyse a utilisé une petite taille d'échantillon de seulement 29 paires d'études, entraînant un nombre restreint de caractéristiques pouvant être incluses. De plus, les essais inclus ont été choisis selon des critères spécifiques qui pourraient ne pas représenter tous les domaines cliniques. Cela signifie que les résultats peuvent ne pas être largement applicables à diverses situations.
Conclusion
Cette étude montre qu'une grande partie des différences observées entre les RCTs et les études de preuves du monde réel peut être attribuée à des problèmes d'émulation de conception. De plus, elle souligne comment des méthodes statistiques comme la méta-régression peuvent aider à fournir une image plus claire de ces variations.
Être conscient de ces différences est essentiel pour les cliniciens et les chercheurs lorsqu'ils interprètent les résultats des deux types d'études. L'objectif ultime est de prendre des décisions cliniques et politiques éclairées qui profitent aux soins des patients basés sur des preuves solides.
Titre: Design differences explain variation in results between randomized trials and their non-randomized emulations
Résumé: ObjectivesWhile randomized controlled trials (RCTs) are considered a standard for evidence on the efficacy of medical treatments, non-randomized real-world evidence (RWE) studies using data from health insurance claims or electronic health records can provide important complementary evidence. The use of RWE to inform decision-making has been questioned because of concerns regarding confounding in non-randomized studies and the use of secondary data. RCT-DUPLICATE was a demonstration project that emulated the design of 32 RCTs with non-randomized RWE studies. We sought to explore how emulation differences relate to variation in results between the RCT-RWE study pairs. MethodsWe include all RCT-RWE study pairs from RCT-DUPLICATE where the measure of effect was a hazard ratio and use exploratory meta-regression methods to explain differences and variation in the effect sizes between the results from the RCT and the RWE study. The considered explanatory variables are related to design and population differences. ResultsMost of the observed variation in effect estimates between RCT-RWE study pairs in this sample could be explained by three emulation differences in the meta-regression model: (i) in-hospital start of treatment (not observed in claims data), (ii) discontinuation of certain baseline therapies at randomization (not part of clinical practice), (iii) delayed onset of drug effects (missed by short medication persistence in clinical practice). ConclusionsThis analysis suggests that a substantial proportion of the observed variation between results from RCTs and RWE studies can be attributed to design emulation differences. What is already known on this topicReal-world evidence (RWE) studies can complement randomized controlled trials (RCT) by providing insights on the effectiveness of a medical treatment in clinical practice. Concerns about confounding have limited the use of RWE studies in clinical practice and policy decisions. What this study addsA large share of the observed variation in results between RCT-RWE study pairs could be explained by design emulation differences.
Auteurs: Rachel Heyard, L. Held, S. Schneeweiss, S. Wang
Dernière mise à jour: 2023-07-13 00:00:00
Langue: English
Source URL: https://www.medrxiv.org/content/10.1101/2023.07.13.23292601
Source PDF: https://www.medrxiv.org/content/10.1101/2023.07.13.23292601.full.pdf
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à medrxiv pour l'utilisation de son interopérabilité en libre accès.