Simple Science

最先端の科学をわかりやすく解説

# 健康科学 # 医学教育

システマティックレビューを生きるチャレンジ

更新された臨床試験データベースの必要性についての考察。

Kim Boesen, Lars G Hemkens, Perrine Janiaud, Julian Hirt

― 1 分で読む


生きているレビューの挑戦に 生きているレビューの挑戦に 直面する ベースが必要だね。 試験データを管理するために、最新のデータ
目次

ここ数十年で、臨床試験やレビューの数が急増してるよね。これって、医者や研究者が追いつこうとすると、常に情報を得るためにフルタイムで働かなきゃいけなくなるってことだよ。まるで火事のホースから水を飲もうとしてるみたいで、情報が速すぎて全部を把握するのが難しい。普通のレビューを終わらせるのも時間がかかるし、データベースを探して、研究タイトルを選別して、研究自体を評価して、関連データを引っ張り出すのにたくさんの時間が必要になる。結果として、それらのレビューが発表される頃にはすでに古くなってるかもしれないし、時には誤解を招くこともあるかもしれない。

このデータの洪水に対処するために、レビューのプロセスを効率化する新しいツールが出てきたんだ。これらのツールは、テキストマイニングや機械学習みたいなハイテクを使って研究から情報を見つけて集めるんだ。もしコーヒーも作ってくれたらいいのに!

リビングシステマティックレビューの登場

最近注目されている革新的なアイデアの一つが「リビングシステマティックレビュー」だよ。生前意思表示とは混同しないでね。このタイプのレビューは継続的にアップデートされる予定なんだ。目的は通常の遅延を避けて、重要な新しい発見が見落とされないようにすること。でも、何が「リビングレビュー」として認められるのかについてはまだ議論があるんだ。理論上は素晴らしいけど、実際にはちょっと曖昧な部分があるよ。

最初のリビングレビューの試みは、コクラン共同計画が2017年に立ち上げたもので、不運なことにそれ以降一度も更新されていなくて、みんな「リビング」とは何かが気になってる状態なんだ。そこにCOVID-19パンデミックがきて、情報の急増に対応するためのプロジェクトが次々と立ち上がったんだ。みんなが急にパーティーを開くことに決めたけど、アップデートを呼ぶのを忘れちゃったみたいな感じだね!

より良いデータ管理の必要性

リビングレビューが機能するためには、臨床試験のデータが機械が簡単に読めるフォーマットで利用可能である必要があるんだ。つまり、一貫した方法で構造化する方法を見つけなきゃいけない。無作為化比較試験(RCT)のデータを集約するシステムの夢は25年以上前からあったけど、今のところその夢は実現していない。

こうしたシステムの最初のアイデアの一つがグローバルトライアルバンクで、試験を登録するだけでなく、コンピューターが処理できる方法で結果を報告する予定だった。でも、結局は立ち上がらなかったんだ。ただし、2004年に国際医学雑誌編集委員会がすべての臨床試験を公開前に登録する必要があると決めたことで、動きが出始めた。2007年にはClinicalTrials.govに概要結果を提出することが義務づけられ、2012年には欧州連合の臨床試験登録にも同様のことが求められた。

一部の研究者は、臨床試験データは本当に標準フォーマットであるべきだと主張していて、これは薬剤申請に使われる共通技術文書フォーマットのようなものだよ。他の人たちは、システマティックレビューのようなものは、散在する出版物からデータを引っ張る従来の方法の代わりに、主に臨床試験の登録に依存するべきだと考えてる。目標はプロセスを迅速かつ包括的にすることなんだ。

でも、これだけ改善されても、現在のリビングプロジェクトが高度な技術を使って、臨床試験データを整理されたデータベースにスムーズに流し込むことができるかどうかはまだ不明なんだ。だから、今あるものを詳しく見て、これらのデータベースが何をできるのか、どう改善できるのかを調べることにしたんだ。

どうやって進めたか

まず、スコーピングレビューを実施したよ。たくさんの障害にぶつかると予想してたから、特定の計画に従ったりレビューを登録したりはしなかった。その代わりに、体系的レビューのための確立されたガイドラインに基づいて成果を報告したんだ。

含まれる基準

私たちは、ランダム化比較試験からデータを引き出している、継続的に更新されていて公にアクセスできるデータベースに注目したよ。情報をどう取得するかに関係なく、特定の分野、例えばCOVID-19に焦点を当てたデータベースに興味があった。言語、リリース日、用途は評価の要素にはしなかった。

ただし、関連するデータベースがない従来のリビングシステマティックレビューは含めなかったよ。

正しい情報を見つける

私たちの検索戦略は2つの主要なステップに分かれていた。最初のステップは「コールドサーチ」で、さまざまなリソースを探してキーワードや参考文献を特定した。これが後のより体系的な検索を構築する手助けになったんだ。

2つ目のステップでは、「living」、「library」、RCTや臨床研究のような研究デザイン用語を含む検索戦略を設計した。PubMedやEmbaseを検索して、結果を整理し、見つけた情報をふるい分けるためにスクリーニングツールを使ったよ。

発見したこと

私たちはこれらのデータベースの7つの特徴を詳しく見たよ:

  1. アクセスモデル: ユーザーはどのようにデータベースにアクセスできるの?誰でも開放されているのか、特別な許可が必要なのか、それともその両方のミックスなのか?

  2. データベース構造: データベースは何で構築されているの?シンプルなスプレッドシートそれとももっと複雑なもの?

  3. 入力ソース: データはどこから来るの?発表された研究、試験登録、どちら?

  4. 取得方法: 試験はどのようにデータベースに追加されるの?手動、自動化、コミュニティからの寄付?

  5. データ抽出: 情報はどのように試験から引き出されるの?手動、完全自動、またはその両方のミックス?

  6. 試験の提示: データベースは試験についてどんな情報を提供するの?基本的なメタデータから詳細な結果やリスク評価まで様々。

  7. エクスポートオプション: ユーザーはどのようにデータをダウンロードまたは再利用できるの?すぐに利用可能なのか、オンラインでしか見られないのか、全く利用できないのか?

結果

私たちの検索の結果、継続的に更新されるデータベースを14件発見した。うち7件はCOVID-19に関連していた。COVIDデータベースは主にデータの発見と抽出のために半自動化された方法を使用していたのに対し、非COVIDデータベースは従来の手動方式に依存していた。

ほとんどのデータベースは基本的なメタデータを提供していたけど、詳細な試験情報や試験の質の評価を提供していたのはほんの一部だった。また面白いことに、個々の参加者データを共有できると述べているデータベースは一つだけだった。

大きな視点

私たちのレビューは、特定のトピックに焦点を当てた継続的に更新されるデータベースがあまりないことを明らかにしているよ。現存する選択肢の多くは、古いシステマティックレビューから借りた方法や技術に依存していて、遅くて扱いにくいんだ。

主な懸念は、発表された臨床試験から有用なデータを抽出するのが大きな課題であり、多くの情報が構造化されていない出版物に埋もれていること。残念ながら、私たちが調査したプラットフォームのどれもこの問題を完全に解決できていない。アクセスしやすく使いやすい構造化データセットが切実に求められているよ。

現在の登録が不十分な理由

トピック特化型データベースを作成する際に臨床試験登録を利用するのが難しい理由はいくつかある:

  1. 標準化の欠如: 異なる試験登録はデータのフォーマットや構造が異なるから、情報をまとまりのある形にまとめるのが難しい。

  2. エラー率: 経験から、登録にデータが入力される際に多くのエラーがあると疑っている。このため、情報が使えるまでに多くの「データクリーニング」が必要になる。

  3. エクスポートの制限: すべての登録が簡単なデータエクスポートを許可しているわけではないから、研究者が情報を集めるときにストレスが生じることもある。

可能な解決策

TrialStreamerというツールには可能性があるかもしれない。特にターゲットを絞っているわけではないけど、大量の臨床試験を集めて重要な情報に注釈を付けている。このツールは高レベルの研究には役立つかもしれないけど、より詳細な臨床アプリケーションには、もう少しきめ細やかな試験の説明が必要だ。

ウェルカムトラストは最近、リビングエビデンスプロジェクトのためにより良いインフラを開発するための資金を提供することを約束して、一筋の希望の光を与えたよ。彼らは何かを掴んでいるかもしれない!

私たちのレビューの限界

私たちのスコーピングレビューには限界がある。最初に特定の方法論を設定しなかったので、貴重なデータソースを見逃したかもしれない。また、「ステルス」な商業ソリューションがたくさん存在すると思われるが、私たちはそれにアクセスできなかったことも認識している。

一つの公の商業ソリューションはLiveSLRというもので、注釈付きライブラリと研究を探して評価するためのワークフローを結合している。ただし、こうした商業プラットフォームについての詳細は入手しづらいことが多い。

未来に向けて

結論として、このレビューは臨床試験における継続的に更新されるデータベースの切実なニーズを浮き彫りにしている。既存のシステムは多くの場合、迅速に新しい試験やレビューを生産することに対応できない従来の手動方式に依存している。

私たちがジャーナルの出版物からデータを抽出するという課題に直面している今、グローバルトライアルバンクのような古いアイデアを再考する時が来ているかもしれない。もし、単に記事を出版するのではなく、臨床試験データのための完全にデジタルで機械読み取り可能なシステムを持つことができれば、証拠の合成の進化する世界に追いつくことができるかもしれない。

結局、アップデートを追いかけるのをやめて、コーヒーを一杯飲むほうがいいよね!

オリジナルソース

タイトル: Publicly available continuously updated topic specific databases of randomised clinical trials: A scoping review

概要: Conducting systematic reviews of clinical trials is arduous and resource consuming. One potential solution is to design databases that are continuously and automatically populated with clinical trial data from harmonised and structured datasets. We aimed to map publicly available, continuously updated, topic-specific databases of randomised clinical trials (RCTs). We systematically searched PubMed, Embase, the preprint servers medRxiv, ArXiv, and Open Science Framework, and Google. We described seven features (access model, database architecture, data input sources, retrieval methods, data extraction methods, trial presentation, and export options) and narratively summarised the results. We did not register a protocol for this review. We identified 14 continuously updated clinical trial databases, seven related to COVID-19 (first active in 2020) and seven non-COVID databases (first active in 2009). All databases, except one, were publicly funded and accessible without restrictions. They mainly employed methods similar to those from static article-based systematic reviews and retrieved data from journal publications and trial registries. The COVID-19 databases and some non-COVID databases implemented semi-automated features of data import, which combined automated and manual data curation, whereas the non-COVID databases mainly relied on manual workflows. Most reported information was metadata, such as author names, years of publication, and link to publication or trial registry. Two databases included trial appraisal information (risk of bias assessments). Six databases reported aggregate group level results, but only one database provided individual participant data on request. We identified few continuously updated trial databases, and existing initiatives mainly employ methods known from static article -based reviews. The main limitation to create truly live evidence synthesis is the access and import of machine-readable and harmonised clinical trial data.

著者: Kim Boesen, Lars G Hemkens, Perrine Janiaud, Julian Hirt

最終更新: 2024-11-18 00:00:00

言語: English

ソースURL: https://www.medrxiv.org/content/10.1101/2024.11.18.24317477

ソースPDF: https://www.medrxiv.org/content/10.1101/2024.11.18.24317477.full.pdf

ライセンス: https://creativecommons.org/licenses/by-nc/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。

類似の記事