オルガネラの位置をラベルなしで予測する技術の進展
新しいモデルが透過光顕微鏡での細胞小器官の予測精度を向上させる。
― 1 分で読む
最近、人工知能(AI)がバイオイメージングの分野でかなり変化をもたらしてるよ。具体的には、画像の分類、セグメンテーション、復元の仕方が変わったんだ。特に重要な応用エリアは、細胞の特定の部分、つまりオルガネラの位置を予測すること。これは透過光顕微鏡(TL顕微鏡)を使って行われるんだけど、蛍光顕微鏡とは違って、特別な染色液がいらないから安くて準備も簡単なんだ。細胞へのダメージも減るし、ラベルなしでオルガネラの位置を予測することで、細胞全体の機能についてもっと学べるようになるよ。
ラベルフリー予測
ラベルなしでオルガネラの位置を予測する方法は「ラベルフリー予測」と呼ばれてる。この技術によって、蛍光顕微鏡の制限を超えることができるんだけど、実際の生物学研究での使用は精度の問題から限られてるんだ。
最近の研究で、これらの予測の精度を評価するには、従来の画像品質の測定だけでは不十分だってわかったんだ。今のところ、ラベルフリー技術を評価するための基準は確立されてないけど、「Light My Cells」チャレンジがこの分野での評価方法を改善するためのベンチマーク画像を導入したんだ。
データ概要
チャレンジのデータセットは約57,000枚の画像で構成されていて、そのうち4,600枚がオルガネラのグラウンドトゥルースとなる蛍光画像なんだ。ほとんどの画像はトレーニング用に使われてて、少しが最終テスト用に残されてる。画像は異なる生物学的研究から来てるから、質や種類がバラバラだよ。それぞれのTL画像は対応する蛍光画像とペアになってて、核、ミトコンドリア、チューブリン、アクチンの4つのオルガネラのうちの1つを示してる。
TL画像は3D画像のシリーズからのスライスで、蛍光画像は最適なスライスが選ばれて、役に立つ情報を提供するようになってる。このセッティングによって、研究者たちはラベルフリー予測モデルがさまざまなタイプの画像に適用された時の性能を評価できるんだ。
手法の概要
私たちのアプローチは、「Bag-of-Experts」モデルを作ることで、どんなTL画像からでもオルガネラの位置を予測することだよ。これには主に3つのステップがある。データのクリーニング、各オルガネラ用の個別モデルのトレーニング、そしてこれらのモデルを単一のシステムに統合すること。
データクリーニング
トレーニングデータを準備するために、まず高品質を確保するためにデータをクリーニングしたよ。CleanVisionっていうツールを使って、自動で品質チェックを行い、情報量が少なかったり、ぼやけてる画像を探したんだ。このプロセスの後、最も低得点の画像を手動でチェックして残りの問題を特定したよ。合計で、元の画像の約77%を残してさらなる使用に回した。
個別モデルのトレーニング
データセットには4つの異なるオルガネラが含まれてるから、4つの個別タスクを設定した。それぞれのタスクに対して、さまざまなモデルタイプとトレーニング戦略を試してみたよ。これには、標準的な畳み込みニューラルネットワーク、トランスフォーマーモデル、モデルのファインチューニングの異なるアプローチが含まれていた。こうして、テスト中のパフォーマンスに基づいて各オルガネラに最適なモデルを選べたんだ。
Bag-of-Expertsの統合
最終モデルはすべての個別エキスパートを「Bag-of-Experts」に統合してる。各エキスパートは特定のオルガネラタイプの予測を専門としてる。予測フェーズでは、入力画像の特性に基づいて関連するエキスパートが選ばれるんだ。
実装の詳細
私たちのBag-of-Expertsモデルは主に2種類のエキスパートから成り立ってる:UNetとUNETR。UNetはよく知られた畳み込みネットワークで、UNETRは機能抽出能力を強化するトランスフォーマーに基づいた異なる構造を持ってる。各エキスパートの設定を調整してパフォーマンスを最適化したよ。
データ処理
CNNベースとトランスフォーマーベースのモデルのために2つの異なるデータ処理方法を定義した。CNNメソッドでは、画像を標準化してパッチを抽出したよ。モデルのロバスト性を向上させるために増強技術も適用した。トランスフォーマーメソッドでは、画像を特定のフォーマットに変換してリサイズし、同様に増強を施した。
トレーニング中は、モデルタイプによって画像が正しく処理されるようにして、全体的なパフォーマンスを改善するのに役立ったんだ。
プリトレーニング戦略
研究によれば、モデルのプリトレーニングがタスクのパフォーマンスを大幅に向上させるってわかってる。私たちの研究では、よく知られたMAEっていう方法を使ってUNETRモデルのトランスフォーマー部分をプリトレーニングした。この方法は、トレーニング中に画像の一部をマスクすることで、モデルが入力画像からより良く学べるようにするんだ。プリトレーニングのステップによって、予測タスクに役立つ重要な特徴を把握できるようになるよ。
学習戦略
CNNモデルに関しては、特定の損失関数とオプティマイザーを使用してゼロからトレーニングした。最大5000エポックのトレーニングを設定して、オーバーフィッティングを避けるために早期停止も行った。トランスフォーマーメソッドでも、ファインチューニングの前にモデルをプリトレーニングしたよ。学習率は前の推奨に基づいて慎重に調整して、最適な結果を確保したんだ。
モデルのパフォーマンス評価
私たちはBag-of-Expertsモデルを、全体的な類似性やテクスチャ特徴を評価するいくつかの指標に基づいて評価した。プリトレーニングされたUNETRモデルの予測は、クラシックなUNetモデルの予測よりも常に良い結果を示したよ。特に、ミトコンドリアの予測は最高の類似性スコアを示したし、核の予測は最高の相関を持ってた。
私たちのアプローチの一般化可能性も評価したんだ。すべての画像のバリエーションでトレーニングされたモデルは、特定のモダリティでトレーニングされたモデルよりも同じかそれ以上の性能を発揮した。この結果は、さまざまなイメージング技術や設定における私たちの手法のロバスト性を強調してるよ。
プリトレーニングの重要性
MAEプリトレーニングがモデルパフォーマンスに与える影響を分析するために、追加の研究も行った。結果は、MAEのプリトレーニングを省くと精度が著しく低下することを示した特にチューブリンのオルガネラについて。それは、多様な画像タイプから効果的に学ぶためのモデルの能力を向上させるためのプリトレーニングの重要性を強調してるんだ。
結論
私たちの方法にはいくつかの限界があるよ。たとえば、1つのモデルを使ってすべての4つのオルガネラタイプを予測することはできないってことだ。これは今後の研究で改善したい分野だし、また、トレーニング画像のクラス不均衡の問題には対処してないから、あまり一般的でないオルガネラの予測に影響を与えるかもしれない。
要するに、私たちはTL顕微鏡画像におけるオルガネラの位置のラベルフリー予測に関連する課題を調査して、さまざまなイメージング条件に適応できるモデルを提案したんだ。Bag-of-Experts戦略を採用して、プリトレーニング技術を使うことで、異なるオルガネラタイプや画像モダリティ間での予測の精度と信頼性を向上させることができた。私たちの発見は、このアプローチが細胞生物学の研究を強化するための貴重なツールになり得ることを示しているよ。
タイトル: 2D Label-free Prediction of Multiple Organelles Across Different Transmitted-light Microscopy Images with Bag-of-Experts
概要: Label-free prediction has emerged as a significant application of artificial intelligence (AI) in the field of bioimaging, which aims to predict the localization of specific organelles directly from readily-accessible transmitted-light images, thereby alleviating the need for acquiring fluorescent images. Despite the existence of numerous research, in practice, the high variability in imaging conditions, modalities, and resolutions poses a challenge to the final prediction. In this study, we propose a "Bag-of-Experts" strategy, targeting at different organelles, with self-supervised pre-training. The comprehensive experimentation showcases that our model is agnostic to the transmitted-light image modalities and the imaging conditions, to certain extent, indicating considerable generalizability. The code is released at: https://github.com/MMV-Lab/LightMyCells
著者: Jianxu Chen, Y. Zhou, S. Zhao, J. Sonneck
最終更新: 2024-05-24 00:00:00
言語: English
ソースURL: https://www.biorxiv.org/content/10.1101/2024.05.24.595656
ソースPDF: https://www.biorxiv.org/content/10.1101/2024.05.24.595656.full.pdf
ライセンス: https://creativecommons.org/licenses/by-nc/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた biorxiv に感謝します。