システマティックレビューにおける信頼性の評価
研究における系統的レビューの信頼性を探る。
Jack Wilkinson, Calvin Heal, Georgios A Antoniou, Ella Flemyng, Love Ahnström, Alessandra Alteri, Alison Avenell, Timothy Hugh Barker, David N Borg, Nicholas JL Brown, Rob Buhmann, Jose A Calvache, Rickard Carlsson, Lesley-Anne Carter, Aidan G Cashin, Sarah Cotterill, Kenneth Färnqvist, Michael C Ferraro, Steph Grohmann, Lyle C Gurrin, Jill A Hayden, Kylie E Hunter, Natalie Hyltse, Lukas Jung, Ashma Krishan, Silvy Laporte, Toby J Lasserson, David RT Laursen, Sarah Lensen, Wentao Li, Tianjing Li, Jianping Liu, Clara Locher, Zewen Lu, Andreas Lundh, Antonia Marsden, Gideon Meyerowitz-Katz, Ben W Mol, Zachary Munn, Florian Naudet, David Nunan, Neil E O’Connell, Natasha Olsson, Lisa Parker, Eleftheria Patetsini, Barbara Redman, Sarah Rhodes, Rachel Richardson, Martin Ringsten, Ewelina Rogozińska, Anna Lene Seidler, Kyle Sheldrick, Katie Stocking, Emma Sydenham, Hugh Thomas, Sofia Tsokani, Constant Vinatier, Colby J Vorland, Rui Wang, Bassel H Al Wattar, Florencia Weber, Stephanie Weibel, Madelon van Wely, Chang Xu, Lisa Bero, Jamie J Kirkham
― 1 分で読む
目次
系統的レビューは、研究者にとっての探偵仕事みたいなもんだ。特定のトピックに関する全ての研究を集めて、証拠が何を言ってるかを確認するんだ。大きなグループプロジェクトの後にみんなのノートを比較するみたいな感じだね。このレビューでは、研究者はランダム化比較試験(RCT)を含めるのが好きで、これは人々が運で異なる治療に割り当てられる研究なんだ。公平さを確保するためだよ。
妥当性の重要性
系統的レビューが信頼できるためには、有効なRCTを含める必要があるんだ。有効性っていうのは、その研究が主張していることを正確に測定しているかってこと。例えば、高級スケールを買ったけど壊れてて、実際より100ポンド軽い数字が出るみたいな。不正確!研究者は、含める研究が正直で信頼できるかを評価するために「バイアスリスクツール」っていうツールを使ってるんだ。
信頼はもはやデフォルトじゃない
でも、状況は変わった。最近のRCTに関する調査が疑問を呼んでる。一部の研究は、ジャーナルに載るけど、全体のストーリーを語ってないかもしれない。これは、グループプロジェクトのパートナーが実は自分の仕事をせずに、ランダムなウェブサイトからコピーしてたって気づくようなもんだ。こうなると、偽の研究が患者ケアを導くことになっちゃって、それは問題だね。
問題のある研究って何?
研究界で有名なコクランが「問題のある研究」を信頼性に大きな疑問があるものと定義してる。これは誰かが不正をしたり、研究中に重大なミスをしたりすることが原因かもしれない。彼らは、深刻な問題を抱えた研究は系統的レビューに入れるべきじゃないって決めた。このことから大きな疑問が生まれる:どうやって研究が信頼できるか問題があるかを判断するの?
新しいツールの開発:INSPECT-SR
この問題に取り組むために、研究者たちはINSPECT-SR(系統的レビューにおける問題のある臨床試験の調査)の新しいツールを作ってる。目標は、レビューアがRCTが信頼できるか判断できるチェックリストを作成すること。彼らは潜在的なチェックの長いリストを作ったけど、テストには時間がかかるだろうね。
研究のスタディ
このツールを開発するプロジェクトでは、研究者たちは50のコクランレビューから取ったRCTに72の異なるチェックを適用した。これらのチェックがどれくらい実用的で、レビューの結果にどんな影響を与えたかを見たかったんだ。この点は重要で、チェックが複雑すぎたり時間がかかりすぎたりすると、レビューアは使いたがらないからね。
誰がチェックしたの?
INSPECT-SRの作業グループには、研究の専門家が混ざってた。彼らはいくつかのレビューアに研究を評価する手助けを頼んだんだ。このレビューアには特別な研究の信頼性に関する資格は必要なくて、普通のレビューアがチェックにどう対処するかを見たかったから。
レビューと試験の選定
コクランレビューを選ぶために、研究者たちは最近出版された特定の基準を満たすものを探した。公平さを確保するために、アセッサーが関わっているレビューは避けた。分析に適したRCTを含むレビューに焦点を当てたかったんだ。
データ抽出と信頼性評価
レビューアには、研究を調べる際に記入するフォームが渡された。結果が明確かどうかや、研究の著者が信頼できるかどうかを見たんだ。いくつかのチェックに役立つソフトウェアを使ってもよかったけど、特定のプログラムを使う必要はなかった。
レビューの結果はどうだった?
このプロセス中に、アセッサーたちは各RCTをよく見て、チェックに基づいてスコアをつけた。研究のデータが公開されているかや、全著者が平等に貢献したかどうかを評価する必要があった。評価後、各研究の信頼性について懸念があるかを記録した。
チェックプロセスの結果
50のコクランレビューから95のRCTを見た後、アセッサーたちはかなりの数の研究に懸念があることを見つけた。ほとんどの研究には大きな問題はなかったけど、約25%には何らかの懸念があり、約6%は深刻な警告が出た。
チェックの実現可能性
評価中、いくつかのチェックは実用的でないと見なされた。例えば、研究者が他の人の作業をコピーしたかどうかを追跡したり、自分の発見を正しく報告したか確認したりするのは難しかった。これには努力がかかりすぎて、徹底さと実用性のバランスを取る必要があるってことを示してる。
問題のある研究の特定
チェックは、問題のある研究を強調することを目的としていて、これは試験の事前登録(研究が行われることを知らせるプロセス)やデータ共有の面で不足しがちなんだ。多くのRCTは事前に登録されていないから、その信頼性に懸念が生まれる。
注意が必要
調査結果は驚くべきかもしれないけど、研究デザインには限界があることを忘れないで。レビューアは少数の試験を含むメタアナリシスだけを見てたから、チェックを適用した後に使える研究が全くないレビューの数が増えたかもしれない。
今後:INSPECT-SRの開発
この研究の結果は最終的なINSPECT-SRツールの形を決める手助けになる。研究者たちは、系統的レビューアが圧倒されずに使える実用的なツールを作りたいと考えてる。
結論
全体的に、この研究はRCTの信頼性をチェックすることが重要だって示してる。問題のある研究は、思っているほど珍しくないかもしれなくて、現在の方法では全ての問題を見逃す可能性があるってことだ。情報の時代では、私たちの研究が信頼できることを保つのは、ダイエット中にピザロールが入ってないか確認するのと同じくらい重要だよ。未来には、チェックを洗練させて、フィードバックを得て、日常の研究で実際に使えるツールを作る道が待ってる。
研究の信頼性の未来
これは、研究の誠実さと信頼性がもっと注意深く scrutinized される新しい時代の始まりだね。研究者たちは系統的レビューをより良くするために努力を続けていて、それはピカピカのリンゴを磨くようなもんだ-ちょっと努力が要るけど、みんなが信頼できるものが得られる。信頼できるリンゴをかじりたくない人なんていないよね。
これからの研究の世界で何が起こるか、そしてこれらの新しいツールが科学コミュニティの責任をどう保つかに注目していこう。健康や医療のことに関しては、みんなが本当に頼れるものを得たいと思ってるからね!
タイトル: Assessing the feasibility and impact of clinical trial trustworthiness checks via an application to Cochrane Reviews: Stage 2 of the INSPECT-SR project
概要: BackgroundThe aim of the INSPECT-SR project is to develop a tool to identify problematic RCTs in systematic reviews. In Stage 1 of the project, a list of potential trustworthiness checks was created. The checks on this list must be evaluated to determine which should be included in the INSPECT-SR tool. MethodsWe attempted to apply 72 trustworthiness checks to RCTs in 50 Cochrane Reviews. For each, we recorded whether the check was passed, failed or possibly failed, or whether it was not feasible to complete the check. Following application of the checks, we recorded whether we had concerns about the authenticity of each RCT. We repeated each meta-analysis after removing RCTs flagged by each check, and again after removing RCTs where we had concerns about authenticity, to estimate the impact of trustworthiness assessment. Trustworthiness assessments were compared to Risk of Bias and GRADE assessments in the reviews. Results95 RCTs were assessed. Following application of the checks, assessors had some or serious concerns about the authenticity of 25% and 6% of the RCTs, respectively. Removing RCTs with either some or serious concerns resulted in 22% of meta-analyses having no remaining RCTs. However, many checks proved difficult to understand or implement, which may have led to unwarranted scepticism in some instances. Furthermore, we restricted assessment to meta-analyses with no more than 5 RCTs, which will distort the impact on results. No relationship was identified between trustworthiness assessment and Risk of Bias or GRADE. ConclusionsThis study supports the case for routine trustworthiness assessment in systematic reviews, as problematic studies do not appear to be flagged by Risk of Bias assessment. The study produced evidence on the feasibility and impact of trustworthiness checks. These results will be used, in conjunction with those from a subsequent Delphi process, to determine which checks should be included in the INSPECT-SR tool. Plain language summarySystematic reviews collate evidence from randomised controlled trials (RCTs) to find out whether health interventions are safe and effective. However, it is now recognised that the findings of some RCTs are not genuine, and some of these studies appear to have been fabricated. Various checks for these "problematic" RCTs have been proposed, but it is necessary to evaluate these checks to find out which are useful and which are feasible. We applied a comprehensive list of "trustworthiness checks" to 95 RCTs in 50 systematic reviews to learn more about them, and to see how often performing the checks would lead us to classify RCTs as being potentially inauthentic. We found that applying the checks led to concerns about the authenticity of around 1 in 3 RCTs. However, we found that many of the checks were difficult to perform and could have been misinterpreted. This might have led us to be overly sceptical in some cases. The findings from this study will be used, alongside other evidence, to decide which of these checks should be performed routinely to try to identify problematic RCTs, to stop them from being mistaken for genuine studies and potentially being used to inform healthcare decisions. What is newO_LIAn extensive list of potential checks for assessing study trustworthiness was assessed via an application to 95 randomised controlled trials (RCTs) in 50 Cochrane Reviews. C_LIO_LIFollowing application of the checks, assessors had concerns about the authenticity of 32% of the RCTs. C_LIO_LIIf these RCTs were excluded, 22% of meta-analyses would have no remaining RCTs. C_LIO_LIHowever, the study showed that some checks were frequently infeasible, and others could be easily misunderstood or misinterpreted. C_LIO_LIThe study restricted assessment to meta-analyses including five or fewer RCTs, which might distort the impact of applying the checks. C_LI
著者: Jack Wilkinson, Calvin Heal, Georgios A Antoniou, Ella Flemyng, Love Ahnström, Alessandra Alteri, Alison Avenell, Timothy Hugh Barker, David N Borg, Nicholas JL Brown, Rob Buhmann, Jose A Calvache, Rickard Carlsson, Lesley-Anne Carter, Aidan G Cashin, Sarah Cotterill, Kenneth Färnqvist, Michael C Ferraro, Steph Grohmann, Lyle C Gurrin, Jill A Hayden, Kylie E Hunter, Natalie Hyltse, Lukas Jung, Ashma Krishan, Silvy Laporte, Toby J Lasserson, David RT Laursen, Sarah Lensen, Wentao Li, Tianjing Li, Jianping Liu, Clara Locher, Zewen Lu, Andreas Lundh, Antonia Marsden, Gideon Meyerowitz-Katz, Ben W Mol, Zachary Munn, Florian Naudet, David Nunan, Neil E O’Connell, Natasha Olsson, Lisa Parker, Eleftheria Patetsini, Barbara Redman, Sarah Rhodes, Rachel Richardson, Martin Ringsten, Ewelina Rogozińska, Anna Lene Seidler, Kyle Sheldrick, Katie Stocking, Emma Sydenham, Hugh Thomas, Sofia Tsokani, Constant Vinatier, Colby J Vorland, Rui Wang, Bassel H Al Wattar, Florencia Weber, Stephanie Weibel, Madelon van Wely, Chang Xu, Lisa Bero, Jamie J Kirkham
最終更新: Dec 20, 2024
言語: English
ソースURL: https://www.medrxiv.org/content/10.1101/2024.11.25.24316905
ソースPDF: https://www.medrxiv.org/content/10.1101/2024.11.25.24316905.full.pdf
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。