Simple Science

最先端の科学をわかりやすく解説

# 健康科学 # リウマチ学

関節リウマチの画像診断におけるAIの進展

人工画像を使ったAIトレーニングが医療画像の精度を向上させる。

Jun Fukae, Y. Amasaki, Y. Fujieda, Y. Sone, K. Katagishi, T. Horie, T. Kamishima, T. Atsumi

― 1 分で読む


AIが関節炎の画像診断を向 AIが関節炎の画像診断を向 上させる させる。 人工画像は、関節炎の医療画像の精度を向上
目次

最近、人工知能(AI)が画像認識の分野で大きく進化したんだ。医療画像の分野もその恩恵を受けていて、AIは病気を特定するために画像を分析できるようになった。この能力は、さまざまな臨床画像を使ってAIシステムを訓練することで得られたんだけど、患者のプライバシーの懸念から、こうした画像を集めるのは簡単じゃない。

リウマチ性関節炎に焦点を当てる

リウマチ性関節炎(RA)は関節に影響を与える病気で、超音波検査は関節炎の重症度を評価するための重要なツールだ。ヨーロッパリウマチ学会は、関節の炎症を測るための滑膜血管性の評価スコアリングシステムを設けている。このスコアリングシステムを使うことで、医者は患者の病状がどのくらい深刻かを判断できる。複数の人間の評価者がこのスコアに合意することはできるけど、経験を積むためには特定の臨床トレーニングが必要なんだ。

でも、AIはこうしたパターンを短時間で学べるんだ。私たちのアイデアは、リアルな臨床画像に頼らず、人工的な画像を使ってAIを訓練することだった。これにより、実際の患者画像にはないプライバシーの問題を回避できるから、作成が容易になるんだ。

畳み込みニューラルネットワークを理解する

私たちの研究で使った技術は畳み込みニューラルネットワーク(CNN)と呼ばれるもので、画像認識のために設計されたAIモデルの一種だ。私たちはこのプロジェクトにVGG-16という有名なCNNを利用したんだ。VGG-16には画像を処理するレイヤーがあって、さまざまな特徴を認識できる。まず、大規模な画像データベースでトレーニングされたVGG-16のバージョンを使い、さらに自分たちの人工画像を使ってモデルを訓練したんだ。

VGG-16を私たちの特定のニーズに合わせるために、構造を少し変更した。モデルの最後のいくつかのレイヤーを削除し、私たちの4段階スコアリングシステムに適した新しいレイヤーを追加した。これにより、AIはより良く学ぶことができ、過剰適合に関するリスクを減らすのにも役立つんだ。

人工的なトレーニングデータの作成

関節の異常な滑膜血管性を示す17枚の基本的な超音波画像を作成したよ。これらの画像は、イラストレーションソフトを使ってリウマチ専門医が描いたものだ。基本画像は異なる程度の血管性を示すようデザインされていて、870枚の人工画像を作成するために変更を加えたんだ。

各画像には、関節組織、骨の表面、血管画像を表す異なるレイヤーが含まれている。モデルが学ぶには十分にリアルな画像になるように、物体を移動させたり、画像内の要素のサイズを変更したりする修正を加えた。専門家も画像が定められたスコアリングルールに従っていることを確認したよ。

AIモデルのテスト

訓練したモデルのパフォーマンスを評価するために、実際にRA患者から撮影された画像を使った。これらの画像は病院から収集され、専門の評価者が同じスコアリングシステムを使って評価した。評価者の評価に基づいて一貫したスコアが得られた画像を集めて、AIモデルのテストに使用したんだ。

当初、モデルは一部の画像を正確に分類するのに苦労していた。このことに気づいた後、モデルが誤って分類した画像のケースに焦点を当てた。これらの誤分類された例に基づいて追加の人工画像を作成し、モデルをより良く訓練することを目指した。これにより、AIがスコアを正しく認識・分類する精度を向上させる狙いがあったんだ。

初期モデルの結果

最初の人工画像セットでAIモデルを訓練した後、実際の超音波画像に対してテストを行った。結果は、いくつかの期待できるものと混合したものだった。モデルは一部の血管性のグレードを区別するのにはそこそこうまくいったけど、グレード1の画像にはかなり苦戦した。混乱行列を使って、モデルがどのくらい異なるグレードを誤分類したかを視覚化したんだ。

改善に向けて、誤分類された例に基づいて追加のトレーニング画像を作成した。このことは、AIのパフォーマンスをさらに向上させるためにトレーニングデータを適応させる重要性を浮き彫りにした。

AIモデルの改善

誤分類を分析した後、元のデータに新しい人工画像を加えてAIモデルを再訓練した。そして再度パフォーマンスを評価した。結果は明らかな改善を示し、特にグレード1の画像の分類において精度が向上した。この精度の向上は、追加データが有益であったことを示している。

トレーニングデータがデータ漏洩などの問題を引き起こしていないことを確認するために、さらなるチェックを行った。データを部分に分けてより徹底的なテストを行うために五重交差検証と呼ばれる方法を使用した。

最終結果とパフォーマンス評価

これらのトレーニングとテストを経て、励みになる結果にたどり着いた。私たちの第二のモデルの全体的な精度は初期テストに比べて大幅に高かった。AIは正しいグレードに画像を分類する能力を向上させた。第二モデルの混乱行列は、人工画像を追加する戦略が効果的であったことを示している。

それでも、研究にはまだ制限があることを認識していた。たとえば、グレード3の画像の数が少なく、人工画像のバラエティを増やすことが有益だろう。人工画像はトレーニングには役立ったが、リアルな画像に比べて詳細が少なかったため、モデルの反応に影響があったかもしれない。

結論と今後の研究

私たちの研究は、デジタルイラストを通じて作成された人工画像を使用することが、医療画像のためにAIモデルを訓練する効果的な方法になりうることを示した。結果は、リアルな画像と人工画像の両方で訓練されたAIモデルが、分類パフォーマンスを向上させる可能性を示唆している。このアプローチは超音波画像だけでなく、他の医療画像にも適用できるかもしれない。

人間の臨床医とAIの協力は、両方の分野に利益をもたらす可能性がある。AI技術を活用することで、医者は新しい洞察を得られるかもしれないし、AIシステムは医療画像のパターンをより良く識別できるようになるかもしれない。今後は、この方法の一般的な適用性を検証し、さまざまな医療分野での利用を拡大することに焦点を当てるべきだ。

要するに、人工画像の使用は、医療目的でのAI訓練のアプローチを変える可能性があり、プライバシーの懸念に対処しながら、より簡単で、迅速で、効率的なものにするかもしれないんだ。

オリジナルソース

タイトル: Pre-trained convolutional neural network with transfer learning by artificial illustrated images classify power Doppler ultrasound images of rheumatoid arthritis joints

概要: ObjectivesTo study the classification performance of a pre-trained convolutional neural network (CNN) with transfer learning by artificial images of the joint ultrasonography in rheumatoid arthritis (RA). MethodsWe focused on abnormal synovial vascularity and created 870 artificial ultrasound joint images based on the European League Against Rheumatism/Outcome Measure in Rheumatology scoring system. One CNN, the Visual Geometry Group (VGG)-16 was trained with transfer learning using the 870 artificial images for initial training and the original plus five additional images for second training. Actual joint ultrasound images obtained from patients with RA were used for testing our models. ResultsWe obtained 156 actual ultrasound joint images from 74 patients with RA. Our initial model showed moderate classification performance, but grade 1 was especially low (area under curve (AUC) 0.59). In our second model, grade 1 showed improvement (AUC 0.73). ConclusionsThis study was a novel attempt at using artificial joint images for training VGG-16. We concluded that artificial images were useful for training VGG-16. Use of artificial images might improve CNN training efficiency and allow development of the applications not only for ultrasound images but also other medical imaging modalities. KEY MESSAGESO_ST_ABSWHAT IS ALREADY KNOWN ON THIS TOPICC_ST_ABSThe application of artificial intelligence to rheumatology imaging has been actively studied. Previous studies have reported the application of convolutional neural network (CNN)-based scoring of synovial vascularity in ultrasound images of the hand of rheumatoid arthritis. The training process for medical artificial intelligence requires a large number of real-world clinical images, but collecting these images poses various challenges, including ethical concerns, and demands considerable effort. WHAT THIS STUDY ADDSIn our new approach, we used artificially drawn ultrasound images as training data for artificial intelligence. Using these images, we trained a CNN and investigated the models ability to classify actual clinical images. Our model demonstrated moderate classification performance on real clinical images and showed good agreement with human raters. HOW THIS STUDY MIGHT AFFECT RESEARCH, PRACTICE OR POLICYOur novel approach of using artificial images for training artificial intelligence has the potential to be applied in medical imaging fields that face difficulties in collecting real clinical images.

著者: Jun Fukae, Y. Amasaki, Y. Fujieda, Y. Sone, K. Katagishi, T. Horie, T. Kamishima, T. Atsumi

最終更新: 2024-10-24 00:00:00

言語: English

ソースURL: https://www.medrxiv.org/content/10.1101/2024.08.30.24312848

ソースPDF: https://www.medrxiv.org/content/10.1101/2024.08.30.24312848.full.pdf

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。

類似の記事

コンピュータビジョンとパターン認識 動画に対する脳の反応を解読するための言語モデルの活用

この研究は、言語モデルが動画視聴中のfMRIからの脳信号をどう解釈できるかを明らかにしてるよ。

Ruizhe Zheng, Lichao Sun

― 1 分で読む