Sci Simple

New Science Research Articles Everyday

# Ciencias de la Salud # Sistemas sanitarios y mejora de la calidad

Evaluando la confianza en las revisiones sistemáticas

Una mirada a la confiabilidad de las revisiones sistemáticas en la investigación.

Jack Wilkinson, Calvin Heal, Georgios A Antoniou, Ella Flemyng, Love Ahnström, Alessandra Alteri, Alison Avenell, Timothy Hugh Barker, David N Borg, Nicholas JL Brown, Rob Buhmann, Jose A Calvache, Rickard Carlsson, Lesley-Anne Carter, Aidan G Cashin, Sarah Cotterill, Kenneth Färnqvist, Michael C Ferraro, Steph Grohmann, Lyle C Gurrin, Jill A Hayden, Kylie E Hunter, Natalie Hyltse, Lukas Jung, Ashma Krishan, Silvy Laporte, Toby J Lasserson, David RT Laursen, Sarah Lensen, Wentao Li, Tianjing Li, Jianping Liu, Clara Locher, Zewen Lu, Andreas Lundh, Antonia Marsden, Gideon Meyerowitz-Katz, Ben W Mol, Zachary Munn, Florian Naudet, David Nunan, Neil E O’Connell, Natasha Olsson, Lisa Parker, Eleftheria Patetsini, Barbara Redman, Sarah Rhodes, Rachel Richardson, Martin Ringsten, Ewelina Rogozińska, Anna Lene Seidler, Kyle Sheldrick, Katie Stocking, Emma Sydenham, Hugh Thomas, Sofia Tsokani, Constant Vinatier, Colby J Vorland, Rui Wang, Bassel H Al Wattar, Florencia Weber, Stephanie Weibel, Madelon van Wely, Chang Xu, Lisa Bero, Jamie J Kirkham

― 6 minilectura


Problemas de confianza en Problemas de confianza en la investigación estudios de ensayos clínicos. Investigando la fiabilidad de los
Tabla de contenidos

Las Revisiones Sistemáticas son como un trabajo de detectives para los investigadores. Reúnen todos los estudios sobre un tema específico para ver qué dice la evidencia. Piensa en ello como comparar notas después de un gran proyecto en grupo para ver si todos estaban en la misma sintonía. En estas revisiones, los investigadores prefieren incluir ensayos controlados aleatorizados (ECA), que son estudios donde a la gente se le asigna diferentes tratamientos al azar, para asegurar la imparcialidad.

La Importancia de la Validez

Para que una revisión sistemática sea confiable, debe incluir ECA que sean válidos. La validez significa que el estudio mide con precisión lo que dice que mide. Imagina que compraste una balanza fancy para pesarte, pero está rota y te dice que pesas 100 libras menos de lo que realmente pesas. ¡No es válido! Los investigadores usan herramientas llamadas herramientas de Riesgo de Sesgo para evaluar si los estudios que incluyen son honestos y confiables.

La Confianza Ya No Es lo Normal

Sin embargo, las cosas han cambiado. Investigaciones recientes sobre ECA han levantado cejas. Algunos estudios que lograron entrar en revistas pueden no estar contando toda la historia. Es como descubrir que tu compañero de proyecto en grupo copió en secreto su parte de una página aleatoria en lugar de hacer su propio trabajo. Cuando esto pasa, estudios falsos pueden terminar guiando la atención a los pacientes, y eso es un problema.

¿Qué Son los Estudios Problemáticos?

Cochrane, una organización bien conocida en el mundo de la investigación, define "estudios problemáticos" como aquellos con dudas importantes sobre su Confiabilidad. Esto puede deberse a que alguien hizo trampa, o simplemente cometió errores significativos durante el estudio. Han decidido que los estudios con problemas serios no deberían entrar en revisiones sistemáticas. Esto lleva a la gran pregunta: ¿cómo averiguamos si un estudio es confiable o problemático?

Desarrollando una Nueva Herramienta: INSPECT-SR

Para abordar este problema, los investigadores están trabajando en una nueva herramienta llamada INSPECT-SR (INveStigando ProblEmatic Clinical Trials in Systematic Reviews). El objetivo es crear una lista de verificación que ayude a los revisores a determinar si los ECA son confiables. Han hecho una larga lista de posibles revisiones, pero probarlas llevará un tiempo.

El Estudio de Investigación

En un proyecto para desarrollar esta herramienta, los investigadores aplicaron 72 revisiones diferentes a los ECA tomados de 50 Revisiones de Cochrane. Querían ver cuán prácticas eran estas revisiones y qué impacto tenían en los resultados de las revisiones. Este aspecto era esencial porque si las revisiones son demasiado complicadas o tardan demasiado, los revisores no querrán usarlas.

¿Quién Hizo la Revisión?

El grupo de trabajo de INSPECT-SR incluyó una mezcla de expertos en investigación. Invitaron a varios revisores para ayudar a evaluar los estudios. Estos revisores no necesitaban tener calificaciones especiales en integridad de investigación, porque la idea era ver cómo los revisores comunes manejarían las revisiones.

Seleccionando Revisiones y Ensayos

Para seleccionar las Revisiones de Cochrane, los investigadores buscaron las publicadas recientemente que cumplieran ciertos criterios. Evitaron revisiones donde los evaluadores tuvieran alguna conexión para asegurar la imparcialidad. También querían centrarse en revisiones que incluyeran ECA adecuadas para análisis.

Extrayendo Datos y Evaluación de Confiabilidad

Se dio a los revisores un formulario para llenar mientras examinaban los estudios. Miraron cosas como si los resultados eran claros y si los autores de los estudios eran confiables. Usaron software disponible que podría ayudar con algunas revisiones, pero no había requisito de usar un programa en particular.

¿Cómo Fueron las Revisiones?

Durante este proceso, los evaluadores echaron un buen vistazo a cada ECA y les dieron puntuaciones basadas en las revisiones. Tuvieron que evaluar cosas como si los datos del estudio se compartieron públicamente o si todos los autores contribuyeron por igual. Después de evaluar, registraron si tenían preocupaciones sobre la confiabilidad de cada estudio.

Resultados del Proceso de Revisión

Después de revisar 95 ECA de las 50 Revisiones de Cochrane, los evaluadores encontraron que una cantidad significativa de estudios levantó algún nivel de preocupación. Mientras que la mayoría de los estudios no tuvieron problemas graves, alrededor del 25% tenía alguna preocupación, y cerca del 6% levantó serias banderas.

Viabilidad de las Revisiones

A lo largo de la evaluación, algunas revisiones se consideraron poco prácticas. Por ejemplo, rastrear si un investigador había copiado trabajo de otros o si había informado correctamente sus hallazgos era complicado. Requirió más esfuerzo de lo que valía, mostrando que hay que encontrar un equilibrio entre exhaustividad y practicidad.

Identificando Estudios Problemáticos

Las revisiones tenían como objetivo resaltar estudios problemáticos, que a menudo fallaban en áreas como el registro previo de ensayos (el proceso de informar a la gente que el estudio está en marcha) y compartir datos. Muchos ECA no estaban registrados previamente, lo que levantó preocupaciones sobre su autenticidad.

La Necesidad de Cautela

Aunque los hallazgos puedan sonar alarmantes, es importante tener en cuenta que el diseño del estudio tenía limitaciones. Los revisores solo miraron meta-análisis con un pequeño número de ensayos, lo que podría inflar el número de revisiones que terminaron sin estudios utilizables después de aplicar las revisiones.

Mirando Hacia Adelante: Desarrollo de INSPECT-SR

Los resultados de este estudio ayudarán a dar forma a la herramienta final INSPECT-SR. Los investigadores están interesados en crear una herramienta práctica con revisiones útiles que los revisores sistemáticos puedan usar sin sentirse abrumados.

Conclusión

En general, el estudio revela que revisar la confiabilidad de los ECA es esencial. Sugiere que los estudios problemáticos no son tan raros como uno podría pensar, y los métodos actuales pueden no captar todos los problemas. En la era de la información, mantener nuestra investigación confiable es tan importante como asegurarnos de que nuestras listas de compras no incluyan rollos de pizza cuando estamos a dieta. El camino a seguir implica refinar las revisiones, obtener comentarios y crear una herramienta que pueda ser utilizada prácticamente en la investigación diaria.

El Futuro de la Confiabilidad en la Investigación

Esto marca el comienzo de una nueva era donde la honestidad y la confiabilidad de los estudios serán analizadas más de cerca. A medida que los investigadores continúan trabajando en mejorar las revisiones sistemáticas, es como pulir una manzana brillante—puede llevar algo de esfuerzo, pero resulta en algo en lo que todos pueden confiar. ¿Y quién no quiere morder una manzana confiable?

Estemos atentos a lo que sigue en el mundo de la investigación y cómo estas nuevas herramientas ayudarán a mantener a la comunidad científica responsable. Después de todo, cuando se trata de salud y medicina, todos queremos asegurarnos de que estamos obteniendo el verdadero negocio.

Fuente original

Título: Assessing the feasibility and impact of clinical trial trustworthiness checks via an application to Cochrane Reviews: Stage 2 of the INSPECT-SR project

Resumen: BackgroundThe aim of the INSPECT-SR project is to develop a tool to identify problematic RCTs in systematic reviews. In Stage 1 of the project, a list of potential trustworthiness checks was created. The checks on this list must be evaluated to determine which should be included in the INSPECT-SR tool. MethodsWe attempted to apply 72 trustworthiness checks to RCTs in 50 Cochrane Reviews. For each, we recorded whether the check was passed, failed or possibly failed, or whether it was not feasible to complete the check. Following application of the checks, we recorded whether we had concerns about the authenticity of each RCT. We repeated each meta-analysis after removing RCTs flagged by each check, and again after removing RCTs where we had concerns about authenticity, to estimate the impact of trustworthiness assessment. Trustworthiness assessments were compared to Risk of Bias and GRADE assessments in the reviews. Results95 RCTs were assessed. Following application of the checks, assessors had some or serious concerns about the authenticity of 25% and 6% of the RCTs, respectively. Removing RCTs with either some or serious concerns resulted in 22% of meta-analyses having no remaining RCTs. However, many checks proved difficult to understand or implement, which may have led to unwarranted scepticism in some instances. Furthermore, we restricted assessment to meta-analyses with no more than 5 RCTs, which will distort the impact on results. No relationship was identified between trustworthiness assessment and Risk of Bias or GRADE. ConclusionsThis study supports the case for routine trustworthiness assessment in systematic reviews, as problematic studies do not appear to be flagged by Risk of Bias assessment. The study produced evidence on the feasibility and impact of trustworthiness checks. These results will be used, in conjunction with those from a subsequent Delphi process, to determine which checks should be included in the INSPECT-SR tool. Plain language summarySystematic reviews collate evidence from randomised controlled trials (RCTs) to find out whether health interventions are safe and effective. However, it is now recognised that the findings of some RCTs are not genuine, and some of these studies appear to have been fabricated. Various checks for these "problematic" RCTs have been proposed, but it is necessary to evaluate these checks to find out which are useful and which are feasible. We applied a comprehensive list of "trustworthiness checks" to 95 RCTs in 50 systematic reviews to learn more about them, and to see how often performing the checks would lead us to classify RCTs as being potentially inauthentic. We found that applying the checks led to concerns about the authenticity of around 1 in 3 RCTs. However, we found that many of the checks were difficult to perform and could have been misinterpreted. This might have led us to be overly sceptical in some cases. The findings from this study will be used, alongside other evidence, to decide which of these checks should be performed routinely to try to identify problematic RCTs, to stop them from being mistaken for genuine studies and potentially being used to inform healthcare decisions. What is newO_LIAn extensive list of potential checks for assessing study trustworthiness was assessed via an application to 95 randomised controlled trials (RCTs) in 50 Cochrane Reviews. C_LIO_LIFollowing application of the checks, assessors had concerns about the authenticity of 32% of the RCTs. C_LIO_LIIf these RCTs were excluded, 22% of meta-analyses would have no remaining RCTs. C_LIO_LIHowever, the study showed that some checks were frequently infeasible, and others could be easily misunderstood or misinterpreted. C_LIO_LIThe study restricted assessment to meta-analyses including five or fewer RCTs, which might distort the impact of applying the checks. C_LI

Autores: Jack Wilkinson, Calvin Heal, Georgios A Antoniou, Ella Flemyng, Love Ahnström, Alessandra Alteri, Alison Avenell, Timothy Hugh Barker, David N Borg, Nicholas JL Brown, Rob Buhmann, Jose A Calvache, Rickard Carlsson, Lesley-Anne Carter, Aidan G Cashin, Sarah Cotterill, Kenneth Färnqvist, Michael C Ferraro, Steph Grohmann, Lyle C Gurrin, Jill A Hayden, Kylie E Hunter, Natalie Hyltse, Lukas Jung, Ashma Krishan, Silvy Laporte, Toby J Lasserson, David RT Laursen, Sarah Lensen, Wentao Li, Tianjing Li, Jianping Liu, Clara Locher, Zewen Lu, Andreas Lundh, Antonia Marsden, Gideon Meyerowitz-Katz, Ben W Mol, Zachary Munn, Florian Naudet, David Nunan, Neil E O’Connell, Natasha Olsson, Lisa Parker, Eleftheria Patetsini, Barbara Redman, Sarah Rhodes, Rachel Richardson, Martin Ringsten, Ewelina Rogozińska, Anna Lene Seidler, Kyle Sheldrick, Katie Stocking, Emma Sydenham, Hugh Thomas, Sofia Tsokani, Constant Vinatier, Colby J Vorland, Rui Wang, Bassel H Al Wattar, Florencia Weber, Stephanie Weibel, Madelon van Wely, Chang Xu, Lisa Bero, Jamie J Kirkham

Última actualización: 2024-12-20 00:00:00

Idioma: English

Fuente URL: https://www.medrxiv.org/content/10.1101/2024.11.25.24316905

Fuente PDF: https://www.medrxiv.org/content/10.1101/2024.11.25.24316905.full.pdf

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a medrxiv por el uso de su interoperabilidad de acceso abierto.

Artículos similares