Simple Science

最先端の科学をわかりやすく解説

# 健康科学# 医療情報学

医療画像におけるAIの役割

AIの進歩で医療画像が改善されて、より良い医療の決定ができるようになったよ。

― 1 分で読む


AIの医療画像への影響AIの医療画像への影響を探る。AIが医療画像診断の実践を向上させる役割
目次

人工知能(AI)は医学の分野、特に放射線医学の医療画像において大きな進展を遂げてるんだ。医療提供者の日常業務にAIがどうフィットするか、そして提供される情報に基づいてどんなふうにより良い決定を下せるかが注目されてる。

医療画像におけるAIデバイスの理解

AIが医療画像でどのように使われているかを知るために、研究者たちはFDAから医療画像分析のためにクリアランスを受けたデバイスに関する情報を集めたんだ。これらのデバイスはコンピュータ支援検出(CAD)システムと呼ばれていて、医療画像の解釈を手助けすることを目的としている。これによって医師が病気や状態を特定するのが楽になるんだ。

研究者たちは、2016年1月から2023年10月の間に104個のユニークなAI搭載CADデバイスに対して140のクリアランスがあったことを発見した。一部のデバイスは時間が経つにつれて複数のクリアランスを受け取っている。AIデバイスは、臨床の設定での使い方に基づいて5つのカテゴリーに分類された。

AIデバイスのカテゴリー

  1. CADt(コンピュータ支援トリアージ): これらのデバイスは、臨床医の即時注意を必要とするケースをフラグまたはハイライトするためのもの。問題が画像のどこにあるかの詳細は示さず、シンプルにケースがフラグされているかどうかの「はい」か「いいえ」を示す。

  2. CADe(コンピュータ支援検出): このタイプのデバイスは、画像内の特定の病変を見つけるのを助ける。潜在的な問題の場所を示すために、画像にマークやオーバーレイを追加する。

  3. CADx(コンピュータ支援診断): これらのデバイスは病状を診断するのを助けるが、病変を直接マークすることはしない。特定の病状の可能性を示すスコアやカテゴリを提供することがある。

  4. CADe/x(コンピュータ支援検出と診断): これらのデバイスは、検出と診断の両方をサポートする。臨床医が病変を特定する手助けをし、診断を下すための追加情報を提供する。

  5. CADa(コンピュータ支援自律): これは新たに登場したカテゴリーで、デバイスが臨床医のレビューなしに検査を解釈する。現在、このタイプを利用する特定のアプリケーションは1つだけだ。

AIデバイスタイプの分布

研究者たちが各カテゴリーのAIデバイスの数を調べたところ、CADtが59%で最も多く、多くの商品がレビューのためにケースをフラグすることに特化していることがわかった。次に多かったのはCADeで、19%を占めている。分布は調べている病気によっても異なった。例えば、乳癌と頭蓋内出血(ICH)は、それぞれ14個の商品があった。

アウトプットの重要性

医療画像において、AIデバイスのアウトプットは2つの重要な目的を持っている。まず、病気の存在を示すような主要な予測を提供すること。次に、その予測をサポートする情報を提供すること。例えば、AIデバイスがCTスキャンで出血の兆候があると予測し、問題の位置を指摘することがある。

研究者たちは、異なるAIデバイスから提供されるアウトプットの特徴において重要な違いがあることを発見した。彼らは予測を3つのタイプに分類した:

  1. バイナリ予測: ケースがフラグされているか疑わしいかのシンプルな「はい」か「いいえ」を示す。

  2. カテゴリカル予測: 疑わしさのレベルを示す可能性がある分類を提供する、例えば低、中、高など。

  3. スコアベースの予測: 特定の状態の可能性を反映する1から10の間の数値スコアを提供する。

ほとんどのデバイスはバイナリ予測を提供していて、主にCADtとCADe製品によって駆動されている。

AIの説明可能性

医療におけるAI使用の重要な側面は説明可能性で、AIがどのように結論に達したかを明確にすることを意味する。これは臨床医とAIシステム間の信頼を築くために不可欠だ。研究者たちはAI製品が提供する説明可能性のタイプを分類した。多くのデバイスが説明可能性を提供していない一方で、いくつかはさまざまな方法を使用していた:

  • ローカリゼーションベースの説明: AIが問題があると思っている画像内の場所を示す、箱や熱マップを使用することが多い。

  • エグザンプラーベースの説明: 予測をサポートするためにトレーニングデータからの類似ケースを参照することがある。

  • カウンタファクチュアル説明: まだ一般的ではないが、このアプローチは画像をわずかに変更して、AIの予測にどのように影響するかを示す。

  • 定量的特徴: 特定された問題についてのサイズや形状などの数値的または記述的情報を提供する。

見つかった最も一般的な説明可能性のタイプはローカリゼーションだった。

AIの臨床統合

AI技術が臨床環境により統合されるにつれて、医療専門家の仕事とAIのサポートをどのようにうまく融合させるかを考えることが重要だ。AIが情報を提示する方法のわずかな違いが、臨床結果に大きな違いをもたらす可能性がある。

CAD製品のさまざまなタイプ、それぞれの強みと制限を理解することは、これらのツールを使用しようとする医療提供者にとって重要だ。例えば、CADt製品は緊急案件の待機時間を短縮し、結果を改善する上で有望な結果を示しているが、限界もある。FDAは最近、これらのデバイスは診断的ではなく、病気を完全に排除できないことを強調した。

結論

医療画像におけるAIは新しいわけではないが、その状況は常に変化している。FDAによってクリアランスが下りたAIデバイスのレビューは、AIシステムと医療提供者の間の明確な理解とコミュニケーションの必要性を強調している。AIツールの特徴や能力を知ることが、臨床医がより良い選択をするのに役立つ。AIの予測を説明する今後の発展、例えばカウンタファクチュアルや言語ベースの方法は、臨床環境でのこれらのシステムの効果を高める期待が持てる。

AIが医療専門家とどのように協力して機能するかについての徹底的な研究を促すことで、医療実践への安全で成功した統合へとつながるだろう。最終的には、これが患者ケアを改善し、より信頼性が高く効率的な診断と治療の選択肢を通じて健康結果を向上させることになる。

オリジナルソース

タイトル: The clinician-AI interface: intended use and explainability in FDA-cleared AI devices for medical image interpretation

概要: As applications of AI in medicine continue to expand, there is an increasing focus on integration into clinical practice. An underappreciated aspect of clinical translation is where the AI fits into the clinical workflow, and in turn, the outputs generated by the AI to facilitate clinician interaction in this workflow. For instance, in the canonical use case of AI for medical image interpretation, the AI could prioritize cases before clinician review or even autonomously interpret the images without clinician review. A related aspect is explainability - does the AI generate outputs to help explain its predictions to clinicians? While many clinical AI workflows and explainability techniques have been proposed, a summative assessment of the current scope in clinical practice is lacking. Here, we evaluate the current state of FDA-cleared AI devices for medical image interpretation assistance in terms of intended clinical use, outputs generated, and types of explainability offered. We create a curated database focused on these aspects of the clinician-AI interface, where we find a high frequency of "triage" devices, notable variability in output characteristics across products, and often limited explainability of AI predictions. Altogether, we aim to increase transparency of the current landscape of the clinician-AI interface and highlight the need to rigorously assess which strategies ultimately lead to the best clinical outcomes.

著者: William Lotter, S. L. McNamara, P. H. Yi

最終更新: 2023-11-29 00:00:00

言語: English

ソースURL: https://www.medrxiv.org/content/10.1101/2023.11.28.23299132

ソースPDF: https://www.medrxiv.org/content/10.1101/2023.11.28.23299132.full.pdf

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。

著者たちからもっと読む

類似の記事