Fortschritte in der label-freien Vorhersage von Organellenstandorten
Ein neues Modell verbessert die Vorhersagegenauigkeit für Organellen in der Durchlichtmikroskopie.
― 6 min Lesedauer
Inhaltsverzeichnis
In den letzten Jahren hat künstliche Intelligenz (KI) im Bereich der Bioimaging grosse Veränderungen bewirkt. Diese Veränderungen betreffen, wie Bilder klassifiziert, segmentiert und wiederhergestellt werden. Ein wichtiger Anwendungsbereich ist die Vorhersage, wo bestimmte Teile von Zellen, die Organellen genannt werden, lokalisiert sind, und zwar mit einer Art von Mikroskopie, die als Durchlichtmikroskopie (TL) bekannt ist. Im Gegensatz zur Fluoreszenzmikroskopie, die spezielle Farbstoffe benötigt, um die Organellen sichtbar zu machen, ist TL-Mikroskopie günstiger und einfacher vorzubereiten. Ausserdem verringert sie die Schädigung von Zellen während der Bildaufnahme. Die Vorhersage von Organell-Standorten ohne Labels hilft uns, mehr über die Funktionsweise von Zellen als Ganzes zu lernen.
Label-freie Vorhersage
Die Methode zur Vorhersage von Organell-Standorten ohne fluoreszierende Labels wird als "label-freie Vorhersage" bezeichnet. Diese Technik erlaubt es Wissenschaftlern, über die Grenzen der Fluoreszenzmikroskopie hinauszugehen, die nur eine begrenzte Anzahl von Organellen gleichzeitig zeigen kann. Obwohl die label-freie Vorhersage vielversprechend ist, war ihre Anwendung in der biologischen Forschung aufgrund von Genauigkeitsproblemen eingeschränkt.
Neueste Studien haben gezeigt, dass die Bewertung der Genauigkeit dieser Vorhersagen mehr als herkömmliche Bildqualitätsmessungen erfordert, die oft nicht für spezifische Anwendungen geeignet sind. Momentan gibt es keinen etablierten Standard zur Bewertung label-freier Techniken. Allerdings hat die Herausforderung "Light My Cells" eine Reihe von Benchmark-Bildern eingeführt, um die Bewertungspraktiken in diesem Bereich zu verbessern.
Datenübersicht
Das Datenset für die Herausforderung besteht aus etwa 57.000 Bildern, von denen 4.600 fluoreszierende Bilder sind, die als Ground Truth für Organellen dienen. Die meisten dieser Bilder werden für das Training verwendet, ein kleinerer Teil ist für den abschliessenden Test reserviert. Die Bilder stammen aus verschiedenen biologischen Studien und können daher in Qualität und Typ variieren. Jedes TL-Bild ist mit dem entsprechenden fluoreszierenden Bild gekoppelt, das eines von vier Organellen zeigt: Zellkern, Mitochondrien, Tubulin und Aktin.
TL-Bilder können Einzelansichten aus einer Reihe von 3D-Bildern sein, während fluoreszierende Bilder als die beste mögliche Ansicht ausgewählt werden, um sicherzustellen, dass sie nützliche Informationen liefern. Dieses Setup ermöglicht es Forschern, zu bewerten, wie gut die label-freien Vorhersagemodelle bei verschiedenen Bildtypen funktionieren.
Methodenübersicht
Unser Ansatz besteht darin, ein "Bag-of-Experts"-Modell zu erstellen, das die Standorte von Organellen aus jedem gegebenen TL-Bild vorhersagt, egal ob es sich um Hellfeld-, Phasen-Kontrast- oder unterschiedliche Interferenzkontrast (DIC)-Bilder handelt. Der Prozess umfasst drei Hauptschritte: die Datenbereinigung, das Training einzelner Modelle für jedes Organell und das Kombinieren dieser Modelle zu einem einzigen System.
Datenbereinigung
Um die Trainingsdaten vorzubereiten, haben wir sie zuerst gereinigt, um hohe Qualität sicherzustellen. Wir verwendeten ein Tool namens CleanVision für einen automatischen Qualitätstest und suchten nach Problemen wie niedrigem Informationsgehalt oder verschwommenen Bildern. Nach diesem Prozess haben wir manuell die Bilder überprüft, die die niedrigsten Bewertungen hatten, um verbleibende Probleme zu identifizieren. Insgesamt haben wir etwa 77 % der ursprünglichen Bilder für die weitere Verwendung beibehalten.
Training einzelner Modelle
Da das Datenset vier verschiedene Organellen enthält, haben wir vier einzelne Aufgaben eingerichtet. Für jede Aufgabe haben wir mit verschiedenen Modelltypen und Trainingsstrategien experimentiert. Dazu gehörten die Verwendung von Standard-Convolutional Neural Networks, Transformator-Modellen und unterschiedlichen Ansätzen zur Feinabstimmung der Modelle. So konnten wir das beste Modell für jedes Organell basierend auf seiner Leistung während des Testens auswählen.
Integration des Bag-of-Experts
Das endgültige Modell kombiniert alle einzelnen Experten in ein "Bag-of-Experts". Jeder Experte ist darauf spezialisiert, einen bestimmten Organellentyp vorherzusagen. Während der Vorhersagephase wird der relevante Experte basierend auf den Eigenschaften des Eingabebildes ausgewählt.
Implementierungsdetails
Unser Bag-of-Experts-Modell besteht hauptsächlich aus zwei Arten von Experten: UNet und UNETR. UNet ist ein bekanntes Convolutional Network, während UNETR eine andere Struktur verwendet, die auf Transformatoren basiert und die Fähigkeit des Modells zur Merkmalsextraktion verbessert. Wir haben die Einstellungen jedes Experten angepasst, um die Leistung zu optimieren.
Datenverarbeitung
Wir haben zwei verschiedene Datenverarbeitungsmethoden für die CNN-basierten und die transformatorbasierten Modelle definiert. Für die CNN-Methoden haben wir die Bilder standardisiert und Patches extrahiert. Ausserdem haben wir Augmentationstechniken angewendet, um die Robustheit des Modells zu verbessern. Für Transformatoren wurden die Bilder in ein bestimmtes Format umgewandelt, skaliert und ebenfalls augmentiert.
Während des Trainings haben wir sichergestellt, dass die Bilder je nach Modelltyp korrekt verarbeitet wurden, was die Gesamtleistung verbesserte.
Vortrainingsstrategien
Forschung hat gezeigt, dass das Vortraining von Modellen die Leistung bei Aufgaben erheblich verbessern kann. In unserer Studie haben wir den Transformatorenteil des UNETR-Modells mit einer bekannten Methode namens MAE vortrainiert, die dem Modell hilft, besser aus den Eingabebildern zu lernen, indem Teile davon während des Trainings maskiert werden. Dieser Vortrainingsschritt ermöglicht es dem Modell, wesentliche Merkmale zu erfassen, die für die Vorhersageaufgaben vorteilhaft sind.
Lernstrategien
Für die CNN-Modelle haben wir sie von Grund auf mit einer spezifischen Verlustfunktion und einem Optimierer trainiert. Es wurde ein Maximum von 5000 Trainings-Epochen festgelegt, zusammen mit einer frühen Stoppregel, um Überanpassung zu vermeiden. Auch die Transformatorenmethoden wurden vor dem Fein-Tuning vortrainiert. Die Lernraten wurden sorgfältig angepasst, basierend auf früheren Empfehlungen, um optimale Ergebnisse zu gewährleisten.
Bewertung der Modellleistung
Wir haben unser Bag-of-Experts-Modell basierend auf mehreren Metriken bewertet, die sowohl die allgemeine Ähnlichkeit als auch die Texturmerkmale bewerten. Wir haben festgestellt, dass die Vorhersagen des vortrainierten UNETR-Modells durchweg besser waren als die des klassischen UNet-Modells. Insbesondere die Vorhersage für Mitochondrien zeigte den höchsten Ähnlichkeitswert, während die Vorhersagen für den Zellkern die beste Korrelation hatten.
Auch die Generalisierbarkeit unseres Ansatzes wurde untersucht. Modelle, die mit allen Varianten von Bildern trainiert wurden, schnitten ähnlich oder sogar besser ab als solche, die auf spezifische Modalitäten trainiert wurden. Dieses Ergebnis unterstreicht die Robustheit unserer Methode über verschiedene Bildgebungstechniken und -einstellungen hinweg.
Bedeutung des Vortrainings
Wir haben zusätzliche Studien durchgeführt, um die Auswirkungen des MAE-Vortrainings auf die Modellleistung zu analysieren. Die Ergebnisse zeigten, dass das Weglassen des MAE-Vortrainings die Genauigkeit erheblich reduzierte, insbesondere für das Tubulin-Organell. Diese Erkenntnis unterstreicht die Bedeutung des Vortrainings zur Verbesserung der Lernfähigkeit des Modells bei verschiedenen Bildtypen.
Fazit
Unsere Methode hat einige Einschränkungen. Zum Beispiel können wir nicht alle vier Organellentypen mit nur einem Modell vorhersagen. Dies ist ein Bereich, den wir in zukünftigen Forschungen verbessern möchten. Ausserdem haben wir das Problem der Klassenungleichgewichte in den Trainingsbildern nicht angesprochen, was die Vorhersagen für weniger häufige Organellen beeinträchtigen könnte.
Zusammenfassend haben wir die Herausforderungen untersucht, die mit label-freien Vorhersagen der Organellstandorte in TL-Mikroskopie-Bildern verbunden sind, und ein Modell vorgeschlagen, das flexibel genug ist, um verschiedene Bildgebungsbedingungen zu berücksichtigen. Durch die Anwendung einer Bag-of-Experts-Strategie und einer Vortrainingstechnik konnten wir die Genauigkeit und Zuverlässigkeit der Vorhersagen über verschiedene Organellentypen und Bildmodalitäten hinweg verbessern. Unsere Ergebnisse deuten darauf hin, dass dieser Ansatz ein wertvolles Werkzeug zur Verbesserung der Forschung in der Zellbiologie sein kann.
Titel: 2D Label-free Prediction of Multiple Organelles Across Different Transmitted-light Microscopy Images with Bag-of-Experts
Zusammenfassung: Label-free prediction has emerged as a significant application of artificial intelligence (AI) in the field of bioimaging, which aims to predict the localization of specific organelles directly from readily-accessible transmitted-light images, thereby alleviating the need for acquiring fluorescent images. Despite the existence of numerous research, in practice, the high variability in imaging conditions, modalities, and resolutions poses a challenge to the final prediction. In this study, we propose a "Bag-of-Experts" strategy, targeting at different organelles, with self-supervised pre-training. The comprehensive experimentation showcases that our model is agnostic to the transmitted-light image modalities and the imaging conditions, to certain extent, indicating considerable generalizability. The code is released at: https://github.com/MMV-Lab/LightMyCells
Autoren: Jianxu Chen, Y. Zhou, S. Zhao, J. Sonneck
Letzte Aktualisierung: 2024-05-24 00:00:00
Sprache: English
Quell-URL: https://www.biorxiv.org/content/10.1101/2024.05.24.595656
Quell-PDF: https://www.biorxiv.org/content/10.1101/2024.05.24.595656.full.pdf
Lizenz: https://creativecommons.org/licenses/by-nc/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an biorxiv für die Nutzung seiner Open-Access-Interoperabilität.