Simple Science

最先端の科学をわかりやすく解説

# 健康科学# 医療情報学

子宮頸がん検診のAIの進歩

新しいAIツールが子宮頸がんの診断とスクリーニングの精度に期待が持てる。

― 1 分で読む


子宮頸がん検診におけるAI子宮頸がん検診におけるAIの進展ング方法を改善する。AIツールが子宮頸がんの診断とスクリーニ
目次

人工知能(AI)が医療分野で一般的になってきてて、特に病気の診断に使われてるよね。最近、AIシステムは特定のタスクで医者並みのパフォーマンスを示してるけど、研究室から実際の医療現場に移行するのは遅れてる。クリニックでAIを活用するには、信頼性があって、手ごろな価格で、既存の病院のルーチンにスムーズに統合できる必要があるんだ。結果も医者にとって関連性があって、必要な医療タスクに合ってないとダメだよね。

多くの既存のAIモデルには大きな課題があるんだ。しばしば、これらのモデルは現実のアプリケーションでの効果を制限するように設計されてる。主な問題は、モデルが異なる患者集団や様々な設定に適用されると、一貫した結果を提供するのが難しいってこと。

モデルのロバスト性の重要性

医療分野でのAIについて話すとき、モデルのロバスト性はめっちゃ重要だよ。この用語は2つの基本的な特性を指してる:

  1. 再現性 これは、AIモデルが同じ条件下で同じ患者にほぼ同じ結果を出すべきって意味。
  2. 一般化能力: これは、モデルが異なる状況やトレーニングデータとは違うデータでもうまく機能する能力。

残念ながら、多くのAIモデルはトレーニングデータに特化していて、新しいタイプのデータにはうまく適応しないんだ。これには主に2つの理由がある:

  1. トレーニングデータが多様性に乏しい-例えば、異なる集団やデータ収集に使われるデバイス。
  2. 新しいデータに適応するための特定の技術が不足してる。

モデルがトレーニングデータに過度に依存しているかどうかを評価するには、異なる特性を持つデータセットでテストする必要がある。これは多様な患者集団や環境を含む医療シナリオでAIモデルを使用する際には不可欠だよ。

子宮頸がんとその課題

子宮頸がんは世界的に大きな健康問題なんだ。がん関連の死亡原因として4番目に多く、ほとんどのケースは低所得国で発生してる。ヒトパピローマウイルス(HPV)が子宮頸がんの原因だと分かってるけど、特にリソースが限られた地域で病気をコントロールするのは難しい。

子宮頸がんを予防するために、HPVワクチン接種が主な戦略だよ。すでにリスクがある人には、世界保健機関がHPVの検査を推奨してる。低所得の環境で一般的に使用されるスクリーニング方法は、酢酸による視覚検査(VIA)。でも、専門家による視覚評価はしばしば不正確で一貫性がないことが示されてる。これは、子宮頸がんの患者をスクリーニングするためのより正確で手ごろな方法が必要っていうことを示してるんだ。

自動視覚評価(AVE)の開発

より良いスクリーニングツールの必要性に応えるために、研究者たちは自動視覚評価(AVE)というモデルを開発したんだ。このモデルは、子宮頸部の画像を「正常」「不明確」(グレーゾーンとも呼ばれる)「前がん/がん」(まとめて「前がん+」)の3つのカテゴリーに分類できる。

このモデルを作るために、いろんな機関やデバイス、集団からの画像を含む大規模なデータセットを使って包括的なアプローチを取った。この多様なデータセットは、AIモデルが様々な状況で効果的に機能するためには重要なんだ。

AVEのパフォーマンス評価

今回の仕事では、AVEモデルが異なる外部データセットに適用されたときにどれだけ適応できるかに焦点を当ててる。特に再現性と分類性能の2つの側面に興味があるんだ。この特性をテストすることは、モデルが新しい場所や異なるデバイスでも正しく機能するかを確認するために重要だよ。

具体的には、外部データセットを通じてデバイスの違いがAVEのパフォーマンスにどのように影響するかを見たんだ。例えば、新しいスマートフォンで撮影された画像を、トレーニング中に見た画像と比較して、モデルがどれだけうまく分類できるかを理解しようとしたんだ。

主な発見

私たちの研究から2つの重要な発見があった:

  1. デバイス vs. 地理: モデルのパフォーマンスは、地理的な違いよりも使用されるデバイスのタイプにもっと影響される。このことは、AVEモデルが以前に遭遇したデバイスを使用した場合、全く新しいデバイスよりも状態を識別するのが得意であることを示してる。

  2. 再トレーニングの利点: AVEモデルの性能は、新しいデバイスの画像を再トレーニングプロセスに含めることで向上することができる。この再トレーニングは、モデルの分類能力を向上させるけど、常に一定の限界までなんだ。

  3. 再現性: AVEモデルは、使用するテストデータセットに関係なく、信頼できる予測を一貫して出す。これは、医者がモデルの結果を信頼できるようにするために重要なんだ。

材料と方法

AVEの能力を探るために、最初のモデルが「SEED」という多様なデータセットを使って構築された先行研究を参照した。このデータセットには、さまざまな機関やデバイスから収集された画像が含まれてた。

その後、サムスンGalaxy J8スマートフォンで撮影された画像を含む新しいデータセット「EXT」を使ってAVEモデルをテストした。この画像は、世界銀行によって低中所得国と分類された複数の国から収集されたんだ。

テストに使う前に、これらの画像が分析に必要な基準を満たすように最初に処理したよ。

データ分析

データを効果的に分析するために、いくつかの要因を考慮した:

  1. ポータビリティ分析: モデルが異なるデバイスや地理的設定にどれだけ適応できるかを調べた。これは、デバイスや場所によって分類パフォーマンスがどのように変わるかを徹底的に見直す必要があった。

  2. モデルのテスト: SEEDデータセットとEXTデータセットの両方のAVモデルの性能を測るためにいくつかのテストを行った。これらの評価は、モデルがどこで優れていて、どこで改善が必要かを理解するのに役立った。

ポータビリティ分析の結果

私たちの分析から、AVEモデルのパフォーマンスは地理的な違いよりもイメージデバイスの違いにもっと影響を受けることがわかった。同じデバイスでトレーニングした画像を使用した場合、モデルは異なるデバイスの画像でテストしたときよりもかなり優れた性能を示した。

異なるデバイスで最初はモデルが苦戦したけど、新しいデバイスの画像を使って再トレーニングすると、性能が大幅に向上することがわかった。外部データセットからのデータをトレーニングセットに少しずつ追加することで、モデルが画像をうまく分類できるようになったんだ。

再現性と分類性能

ポータビリティを調べるだけでなく、AVEモデルの予測の再現性にも注目した。結果の一貫性は、どんな診断ツールにとっても重要だよ。私たちのモデルは、同じ個人からの異なる画像で複数回テストしたときも安定した結果を出したんだ。

また、モデルが画像をそれぞれのカテゴリーにどれだけ正確に分類したかも評価した。AVEモデルは「正常」「不明確」「前がん+」のカテゴリーを区別するのに大きな可能性を示してる。

結論

この研究は、医療分野で信頼できるAIシステムを開発する重要性を示してる。AVEモデルはAIツールが臨床用途に適応できることが可能だって証明してるし、異なるデバイスや集団に適用されても効果的に条件を分類できる。AIが一貫した結果を提供し、効果的に状態を分類できることを確保することで、これらのツールが医療従事者の情報に基づく意思決定を支援するのに役立つんだ。

今後、さまざまな設定や集団に対してこれらのモデルを最適化する方法を探り続けることが重要だよ。将来的な研究は、異なるデバイスでのAVEのパフォーマンスを向上させ、臨床現場での展開を強化することに焦点を当てる予定なんだ。そうすることで、AIが医療に良い影響を与え、世界中の患者の結果を改善できるようにすることができるんだ。

オリジナルソース

タイトル: Assessing generalizability of an AI-based visual test for cervical cancer screening

概要: A number of challenges hinder artificial intelligence (AI) models from effective clinical translation. Foremost among these challenges are: (1) reproducibility or repeatability, which is defined as the ability of a model to make consistent predictions on repeat images from the same patient taken under identical conditions; (2) the presence of clinical uncertainty or the equivocal nature of certain pathologies, which needs to be acknowledged in order to effectively, accurately and meaningfully separate true normal from true disease cases; and (3) lack of portability or generalizability, which leads AI model performance to differ across axes of data heterogeneity. We recently investigated the development of an AI pipeline on digital images of the cervix, utilizing a multi-heterogeneous dataset ("SEED") of 9,462 women (17,013 images) and a multi-stage model selection and optimization approach, to generate a diagnostic classifier able to classify images of the cervix into "normal", "indeterminate" and "precancer/cancer" (denoted as "precancer+") categories. In this work, we investigated the performance of this multiclass classifier on external data ("EXT") not utilized in training and internal validation, to assess the portability of the classifier when moving to new settings. We assessed both the repeatability and classification performance of our classifier across the two axes of heterogeneity present in our dataset: image capture device and geography, utilizing both out-of-the-box inference and retraining with "EXT". Our results indicate strong repeatability of our multiclass model utilizing Monte-Carlo (MC) dropout, which carries over well to "EXT" (95% limit of agreement range = 0.2 - 0.4) even in the absence of retraining, as well as strong classification performance of our model on "EXT" that is achieved with retraining (% extreme misclassifications = 4.0% for n = 26 "EXT" individuals added to "SEED" in a 2n normal : 2n indeterminate : n precancer+ ratio), and incremental improvement of performance following retraining with images from additional individuals. We additionally find that device-level heterogeneity affects our model performance more than geography-level heterogeneity. Our work supports both (1) the development of comprehensively designed AI pipelines, with design strategies incorporating multiclass ground truth and MC dropout, on multi-heterogeneous data that are specifically optimized to improve repeatability, accuracy, and risk stratification; and (2) the need for optimized retraining approaches that address data heterogeneity (e.g., when moving to a new device) to facilitate effective use of AI models in new settings. AUTHOR SUMMARYArtificial intelligence (AI) model robustness has emerged as a pressing issue, particularly in medicine, where model deployment requires rigorous standards of approval. In the context of this work, model robustness refers to both the reproducibility of model predictions across repeat images, as well as the portability of model performance to external data. Real world clinical data is often heterogeneous across multiple axes, with distribution shifts in one or more of these axes often being the norm. Current deep learning (DL) models for cervical cancer and in other domains exhibit poor repeatability and overfitting, and frequently fail when evaluated on external data. As recently as March 2023, the FDA issued a draft guidance on effective implementation of AI/DL models, proposing the need for adapting models to data distribution shifts. To surmount known concerns, we conducted a thorough investigation of the generalizability of a deep learning model for cervical cancer screening, utilizing the distribution shifts present in our large, multi-heterogenous dataset. We highlight optimized strategies to adapt an AI-based clinical test, which in our case was a cervical cancer screening triage test, to external data from a new setting. Given the severe clinical burden of cervical cancer, and the fact that existing screening approaches, such as visual inspection with acetic acid (VIA), are unreliable, inaccurate, and invasive, there is a critical need for an automated, AI-based pipeline that can more consistently evaluate cervical lesions in a minimally invasive fashion. Our work represents one of the first efforts at generating and externally validating a cervical cancer diagnostic classifier that is reliable, consistent, accurate, and clinically translatable, in order to triage women into appropriate risk categories.

著者: Syed Rakin Ahmed, D. Egemen, B. Befano, A. C. Rodriguez, J. Jeronimo, K. Desai, C. Teran, K. Alfaro, J. Fokom-Domgue, K. Charoenkwan, C. Mungo, R. Luckett, R. Saidu, T. Raiol, A. Ribeiro, J. C. Gage, S. de Sanjose, J. Kalpathy-Cramer, M. Schiffman

最終更新: 2023-09-27 00:00:00

言語: English

ソースURL: https://www.medrxiv.org/content/10.1101/2023.09.26.23295263

ソースPDF: https://www.medrxiv.org/content/10.1101/2023.09.26.23295263.full.pdf

ライセンス: https://creativecommons.org/publicdomain/zero/1.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。

著者たちからもっと読む

類似の記事