Simple Science

最先端の科学をわかりやすく解説

# 電気工学・システム科学# 画像・映像処理# コンピュータビジョンとパターン認識# 機械学習

孤立性肺結節の診断の進展

医療画像と臨床データを組み合わせてSPNの分類を改善する。

― 1 分で読む


SPN診断の新しい方法SPN診断の新しい方法節の分類が良くなるよ。データタイプを組み合わせると、孤立性肺結
目次

孤立性肺結節SPN)は、良性か悪性かで心配の種になることがある。どの結節が危険かを特定するのは、効果的な治療や患者の不安を減らすために重要だ。今のところ、良性と悪性のSPNを見分ける方法はあまり正確じゃなくて、余計なストレスやコスト、健康問題を引き起こすことがある。

最近の深層学習の進展、特に胸部CTスキャンのような医療画像を使ったものが、SPNの分類に役立つかもしれないけど、画像だけに頼るのは患者の他の重要な情報を考慮していない。電子健康記録(EHR)など、異なるデータを組み合わせれば、SPNの分類の信頼性が向上するかもしれない。

課題

SPN診断の改善での一番の課題は、さまざまな医療データが異なるタイミングで集められ、一貫性がないこと。たとえば、画像データは患者の健康記録とは異なるタイミングで取得されることが多く、一緒に分析するのが難しい。この不一致は、SPNを分類するための予測モデルの効果に影響を与えるかもしれない。

現在のアプローチ

研究によると、画像データと臨床情報を一緒に使うと、単一のデータタイプだけを使ったモデルよりも良い結果が出るらしい。でも、ほとんどの既存の戦略は伝統的な健康記録の扱い方に注力していて、さまざまなソースからのデータを組み合わせる可能性を活かしていない。

過去の方法の中には、データを時間で平均化したり、似た観察をグループ化したりして分析を簡略化しようとしたものもあるけど、これだと患者の健康の変化の複雑さを捉える能力が限られる。

私たちのアプローチ

この問題を解決するために、私たちのアプローチはEHRからの縦断的な臨床データと繰り返しの画像データを統合してSPNを分類する。トランスフォーマーベースのモデルを使うことで、画像情報と臨床情報を同時に効果的に調べることができる。

データ変換

まず、多種多様な健康記録、薬、検査データを含む大規模な臨床データセットから始めた。これらの記録を静的なタイムポイントとして扱うのではなく、患者の健康の進行を表す縦断的な曲線に変換した。これによって、各患者の履歴をより明確に把握できるようになった。

次に、独立成分分析(ICA)を使ってデータの重要なパターンを特定した。これらのパターン、つまり臨床サインは、SPNに関連する可能性のある根底にある健康問題についての洞察を提供する助けになる。

医療画像の活用

臨床データに加えて、胸部CTスキャンからの画像データも集めた。画像と縦断的な臨床データを組み合わせることで、モデルはより豊富な情報から学習する。これによって、どちらか一方のデータだけでは明らかでない関連性を見つけられるようになる。

時間距離スケーリング

時間はSPNの診断において重要な役割を果たす。最近の情報は通常、古いデータよりも関連性が高い。私たちのモデルは、集めたデータのタイミングを考慮するために時間距離スケーリングの方法を使って設計した。つまり、モデルは新しい観察をより重視しつつ、古い情報も考慮に入れて分類プロセスを改善する。

私たちの方法の結果

私たちは、画像や臨床データのみに依存した他のいくつかの方法に対してモデルをテストした。私たちの発見は、私たちのアプローチがこれらの方法よりも大幅に優れていることを示した。たとえば、難易度の高いSPNのセットで評価したところ、私たちのモデルはAUCスコア0.824を達成し、以前の最良方法の0.752を上回った。これは、私たちのモデルがSPNを正確に分類する能力が高いことを示している。

再分類分析

評価の重要な側面は、私たちのモデルがSPNを持つ患者のリスクレベルをどれだけうまくカテゴライズできるかを見ることだった。患者を予測確率に基づいて低、中、高リスクのカテゴリーに分けた。私たちのモデルは、他の既存の方法と比べて患者を正しく再分類するのに効果的だった。

コントロール対象については、私たちのモデルは他の方法が認識できなかった多くのケースを正しく特定し再分類した。このリスクのある状況をより正確に分類できる能力は、臨床上の意思決定や患者の結果を改善することにつながる。

議論

全体的に、私たちの研究は、医療画像と解釈可能な臨床サインを統合することでSPN分類が大幅に向上することを示している。既存の技術に対する大幅な改善は、医療データ分析において包括的なアプローチをとることに大きな可能性があることを示唆している。

私たちの方法は promising だけど、これらのモデルが臨床現場で実際に使用できるように正しくキャリブレーションされていることが重要だ。私たちが使用したモデルは、医師が難しいと感じるデータで評価されていて、これがその効果をさらに裏付けている。

結論

複数のデータタイプを組み合わせることで、孤立性肺結節のような複雑な医療ケースの解釈が大幅に向上する。現代の機械学習技術を活用することで、画像データと臨床データを統合したより正確な診断ツールを作れる。これがより良い医療結果や患者の不安の軽減、SPNの管理全体の改善につながる可能性がある。

将来の方向性

今後は、包括的な縦断的マルチモーダルデータセットを取得することが課題として残っている。私たちの研究はこの制約を克服するための一歩で、今後この分野でのさらなる研究を期待している。さまざまなデータソースを組み合わせることで、より良い医療意思決定を行い、患者ケアを改善できる道が開ける。

画像と健康記録を統合する方法が進化するにつれて、予測モデルのさらなる進展が期待できる。これは、患者の健康の広範なコンテキストを考慮に入れたより洗練された戦略につながり、最終的には臨床医の意思決定を支えることになる。

オリジナルソース

タイトル: Longitudinal Multimodal Transformer Integrating Imaging and Latent Clinical Signatures From Routine EHRs for Pulmonary Nodule Classification

概要: The accuracy of predictive models for solitary pulmonary nodule (SPN) diagnosis can be greatly increased by incorporating repeat imaging and medical context, such as electronic health records (EHRs). However, clinically routine modalities such as imaging and diagnostic codes can be asynchronous and irregularly sampled over different time scales which are obstacles to longitudinal multimodal learning. In this work, we propose a transformer-based multimodal strategy to integrate repeat imaging with longitudinal clinical signatures from routinely collected EHRs for SPN classification. We perform unsupervised disentanglement of latent clinical signatures and leverage time-distance scaled self-attention to jointly learn from clinical signatures expressions and chest computed tomography (CT) scans. Our classifier is pretrained on 2,668 scans from a public dataset and 1,149 subjects with longitudinal chest CTs, billing codes, medications, and laboratory tests from EHRs of our home institution. Evaluation on 227 subjects with challenging SPNs revealed a significant AUC improvement over a longitudinal multimodal baseline (0.824 vs 0.752 AUC), as well as improvements over a single cross-section multimodal scenario (0.809 AUC) and a longitudinal imaging-only scenario (0.741 AUC). This work demonstrates significant advantages with a novel approach for co-learning longitudinal imaging and non-imaging phenotypes with transformers. Code available at https://github.com/MASILab/lmsignatures.

著者: Thomas Z. Li, John M. Still, Kaiwen Xu, Ho Hin Lee, Leon Y. Cai, Aravind R. Krishnan, Riqiang Gao, Mirza S. Khan, Sanja Antic, Michael Kammer, Kim L. Sandler, Fabien Maldonado, Bennett A. Landman, Thomas A. Lasko

最終更新: 2023-06-29 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2304.02836

ソースPDF: https://arxiv.org/pdf/2304.02836

ライセンス: https://creativecommons.org/licenses/by-nc-sa/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事