がん患者における自動体組成分析
新しいツールでCTスキャンを使った体成分評価が速くなるよ。
― 1 分で読む
体組成の評価は、特に癌研究でヘルスケアの中で一般的になってきてるよ。腹部のCTスキャンを使うことで、医者は体の中のさまざまな組織を測定できるんだ。注目すべきポイントは、3番目の腰椎(L3)の周りのエリア。ここを見て、その人の身長を考慮することで、医療提供者はその人の骨格筋、内臓脂肪、皮下脂肪の量を推定できる。これは、特に癌患者の寿命を予測するのに重要な情報なんだ。研究によると、筋肉量が少なく脂肪も少ないと、短い生存率に関連してるみたい。
人それぞれ体組成は違うから、年齢、性別、人種、体型などの要素がこの違いに影響してる。この違いは病気に関連してないけど、病気の患者の体組成理解を複雑にしちゃう。だから、研究者はこれらの違いを考慮するために、大きなグループからデータを集める必要があるんだ。
CTスキャンを見て手動で体の部分を測るのは遅いし、技術が必要だから、自動化された方法が必要だよ。深層学習ニューラルネットワーク(DLNN)がこのタスクを助けて、画像データを有用な部分に分けるセグメンテーションを自動化できるんだ。
でも、信頼できるDLNNを開発するのは簡単じゃないよ。CTスキャンは、患者の位置や画像の質、個々の解剖学的な違いなど、いろいろな理由で変わるんだ。研究によると、多くの深層学習方法を開発している研究は小さな患者グループを使っていて、信頼性が制限されることがあるみたい。DLNNがうまく機能するためには、さまざまなCTスキャナーや設定からの多様なデータでトレーニングされる必要があるんだ。
以前の研究では、特定の患者グループのデータでDLNNがテストされたけど、位置や画像の質の違いが課題になった。それでもDLNNはうまく機能したよ。今は、病院で実用的に使えるDLNNの質を確保するために、もっと広範で多様な検証が必要なんだ。
最近の研究では、腹部手術が必要な3187人以上の患者から情報を集めたよ。これらの患者は32の異なる医療センターから来てた。データは倫理的な承認を得て収集され、参加者のプライバシーが守られた。対象は、さまざまな病院からの大腸癌、卵巣癌、膵臓癌の患者のCTスキャンだったんだ。
研究者たちは、DLNNをテストするために2,535枚のCT画像の別のグループも持ってた。このグループには大腸癌または膵臓癌と診断された患者が含まれてた。画像は均一に収集され、適切な倫理ガイドラインに従って確保されたんだ。
画像を分析するために、標準化されたプロセスが守られた。研究者たちは、特定の組織密度の範囲に基づいて一貫したセグメンテーションを行うソフトウェアを使ったよ。これで、筋肉と脂肪の測定が正確で、人間の専門家との比較が信頼できるものになったんだ。
DLNNは、医療画像セグメンテーションによく使われるU-Netアーキテクチャに基づいてる。研究者たちは、扱っているCT画像の寸法に合わせていくつかの変更を加えたよ。また、DLNNは段階的に作動するように設計された。最初のステップは、スキャンの腹部を特定して、腕や他の医療機器などの不要な部分を除外することだった。2番目のステップは、腹部内の筋肉と脂肪を特定すること。
DLNNのトレーニング中、モデルがデータから効果的に学べるように画像が調整されてた。バランスの取れたデータセットを維持するための技術が使われ、バイアスを避けるためにトレーニングが慎重に行われたよ。
DLNNのパフォーマンスは、トレーニングデータの質と使用される方法のおかげで大幅に改善された。モデルは画像をすばやく処理できて、1つのCTスキャンの分析を約2秒で完了できた。一方、訓練を受けた臨床研究者は同じタスクを数分かかることがあるんだ。この効率性は、多くの患者を評価する際に大幅な時間を節約できるよ。
DLNNの結果を人間の専門家による手動測定と比較したところ、合意は一般的に高かった。使用された指標は、DLNNが人間のアノテーターが達成した結果と非常に似た結果を出したことを示してて、体組成分析の信頼できるツールになれることを示してるんだ。
研究者たちは、DLNNの結果が時間とともにどれだけ一貫しているかも見たよ。再スキャンからの測定は安定していて、ツールが同じ患者の体組成の変化をさまざまな時間間隔で効果的に追跡できることを示してた。
この研究は臨床実践にとって重要な意味を持ってる。体組成評価のために自動化されたツールを使うことで、医療提供者は特に癌治療において患者の健康に関する迅速な洞察を得られるんだ。これにより、筋肉量が少ないか治療中に体組成が変化しているリスクの高い患者を特定する手助けができる。
さらに、この研究で開発された自動セグメンテーションツールは、医療提供者が膨大な量のデータを収集することを可能にするかもしれない。このデータは研究や、さまざまな癌を効果的に管理するための臨床ガイドラインを開発するのに重要になるんだ。また、個々の患者のニーズに基づいて、より正確な治療計画を作成するのにも役立つだろう。
今後の課題は、自動化された体組成分析を日常の臨床実践に統合することだよ。開発されたツールは既存のシステムと簡単に連携できるように設計されている。実施されれば、病院での体組成評価の方法が変わるかもしれなくて、患者の理解や治療が向上するだろう。
このツールは、研究者が時間をかけずに大規模な患者グループを研究する道も開くんだ。この大規模データセットを扱う能力によって、発見がより包括的で幅広い患者に適用可能になるかもしれない。
結論として、自動化された体組成分析は癌ケアや研究を改善する可能性を秘めているんだ。CTスキャンを迅速かつ信頼性高く分析できることで、リスク評価、治療決定、患者のモニタリングが向上するだろう。分野が進展するにつれて、こうしたツールは臨床環境での体組成の理解と管理の方法を革命的に変えるかもしれなくて、最終的には患者の結果を改善することにつながるだろう。
タイトル: Validation of a deep learning model for automatic segmentation of skeletal muscle and adipose tissue on L3 abdominal CT images
概要: BackgroundBody composition assessment using abdominal computed tomography (CT) images is increasingly applied in clinical and translational research. Manual segmentation of body compartments on L3 CT images is time-consuming and requires significant expertise. Robust high-throughput automated segmentation is key to assess large patient cohorts and ultimately, to support implementation into routine clinical practice. By training a deep learning neural network (DLNN) with several large trial cohorts and performing external validation on a large independent cohort, we aim to demonstrate the robust performance of our automatic body composition segmentation tool for future use in patients. MethodsL3 CT images and expert-drawn segmentations of skeletal muscle, visceral adipose tissue, and subcutaneous adipose tissue of patients undergoing abdominal surgery were pooled (n = 3,187) to train a DLNN. The trained DLNN was then externally validated in a cohort with L3 CT images of patients with abdominal cancer (n = 2,535). Geometric agreement between automatic and manual segmentations was evaluated by computing two-dimensional Dice Similarity (DS). Agreement between manual and automatic annotations were quantitatively evaluated in the test set using Lins Concordance Correlation Coefficient (CCC) and Bland-Altmans Limits of Agreement (LoA). ResultsThe DLNN showed rapid improvement within the first 10,000 training steps and stopped improving after 38,000 steps. There was a strong concordance between automatic and manual segmentations with median DS for skeletal muscle, visceral adipose tissue, and subcutaneous adipose tissue of 0.97 (interquartile range, IQR: 0.95-0.98), 0.98 (IQR: 0.95-0.98), and 0.95 (IQR: 0.92-0.97), respectively. Concordance correlations were excellent: skeletal muscle 0.964 (0.959-0.968), visceral adipose tissue 0.998 (0.998-0.998), and subcutaneous adipose tissue 0.992 (0.991-0.993). Bland-Altman metrics (relative to approximate median values in parentheses) indicated only small and clinically insignificant systematic offsets : 0.23 HU (0.5%), 1.26 cm2.m-2 (2.8%), -1.02 cm2.m-2 (1.7%), and 3.24 cm2.m-2 (4.6%) for skeletal muscle average radiodensity, skeletal muscle index, visceral adipose tissue index, and subcutaneous adipose tissue index, respectively. Assuming the decision thresholds by Martin et al. for sarcopenia and low muscle radiation attenuation, results for sensitivity (0.99 and 0.98 respectively), specificity (0.87 and 0.98 respectively), and overall accuracy (0.93) were all excellent. ConclusionWe developed and validated a deep learning model for automated analysis of body composition of patients with cancer. Due to the design of the DLNN, it can be easily implemented in various clinical infrastructures and used by other research groups to assess cancer patient cohorts or develop new models in other fields.
著者: David P.J. van Dijk, L. F. Volmer, R. Brecheisen, R. D. Dolan, A. S. Bryce, D. K. Chang, D. C. McMillan, J. H. M. B. Stoot, M. A. West, S. S. Rensen, A. Dekker, L. Y. Wee, S. W. M. Olde Damink, Body Composition Collaborative
最終更新: 2024-01-22 00:00:00
言語: English
ソースURL: https://www.medrxiv.org/content/10.1101/2023.04.23.23288981
ソースPDF: https://www.medrxiv.org/content/10.1101/2023.04.23.23288981.full.pdf
ライセンス: https://creativecommons.org/licenses/by-nc/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。