Avancées dans les techniques d'imagerie cellulaire 3D
De nouveaux outils améliorent l'identification des cellules dans les images 3D.
Mackenzie W. Mathis, C. Achard, T. Kousi, M. Frey, M. Vidal, Y. Paychere, C. Hofmann, A. Iqbal, S. B. Hausmann, S. Pages
― 7 min lire
Table des matières
- Défis dans l'analyse de gros ensembles de données
- Méthodes actuelles et leurs limitations
- Exploration de l'apprentissage non supervisé
- Introduction de nouveaux ensembles de données et outils
- Performance des nouveaux modèles
- Insights sur l'utilisation de WNet3D
- Le nouveau plugin Napari
- Résumé de CellSeg3D
- Source originale
- Liens de référence
Les améliorations récentes en imagerie 3D changent notre façon de voir les cellules et les tissus. De nouvelles méthodes comme la microscopie à lumière sheet nous permettent de regarder des échantillons biologiques en détail sans les endommager. Cette technique aide à capturer des images 3D claires de gros échantillons, comme un cerveau de souris entier, sans avoir besoin de le trancher.
Défis dans l'analyse de gros ensembles de données
Ces nouvelles techniques d'imagerie nous donnent plein d'infos, mais analyser ces gros ensembles de données 3D, c'est galère. La taille et la diversité des échantillons peuvent compliquer l'obtention de résultats précis. Une tâche clé est de séparer les cellules individuelles, ce qui est super important pour compter les cellules et examiner leurs formes.
Pour ça, les chercheurs utilisent des méthodes avancées appelées Apprentissage profond, qui consistent à entraîner des ordinateurs à faire ces tâches. Beaucoup d'études ont testé des méthodes qui améliorent la séparation et l'identification des cellules. Ces méthodes impliquent souvent de traiter d'abord les images en 2D, puis de construire un modèle 3D à partir de ces images.
Méthodes actuelles et leurs limitations
En général, les chercheurs commencent par identifier les cellules dans des images plates. Parfois, ils affinent encore leurs résultats pour distinguer les cellules individuelles avant de tout reconstruire en une vue 3D. Même si cette approche fonctionne, elle peut parfois louper des structures détaillées ou avoir du mal avec des formes complexes.
Cependant, former des modèles avec beaucoup de données étiquetées par des humains s'est avéré utile. Grâce aux efforts de la communauté, de nombreux ensembles de données 2D étiquetés sont maintenant disponibles. Malgré cette aide, les données 3D étiquetées sont encore rares, principalement parce que créer de tels ensembles de données prend beaucoup de temps. Ça l'est surtout avec l'imagerie de cerveau entier, où même les bases de données ouvertes n'ont pas les données 3D nécessaires.
Exploration de l'apprentissage non supervisé
Une autre approche prometteuse est l'utilisation de l'apprentissage non supervisé. Cette méthode permet aux ordinateurs d'apprendre sans avoir besoin de données étiquetées spécifiques. Plusieurs études ont exploré comment les techniques non supervisées peuvent aider à reconnaître les structures cellulaires et améliorer l'exactitude de l'identification. Cependant, ces méthodes impliquent souvent des configurations complexes qui peuvent être difficiles à entraîner et ne pas offrir de résultats fiables pour certains types de données.
Introduction de nouveaux ensembles de données et outils
Pour répondre à ces défis, les chercheurs ont créé de nouveaux ensembles de données 3D et des outils pour identifier les cellules directement dans les images 3D. Ce nouveau système aide à conserver des détails importants sur la structure des cellules tout en évitant les erreurs qui peuvent survenir avec d'autres méthodes.
Ces chercheurs comparent leurs nouveaux outils avec des modèles populaires existants utilisés pour la segmentation cellulaire et montrent que leur approche est aussi performante, voire meilleure, dans certains cas. Ils démontrent également que leur Modèle auto-supervisé, qui ne nécessite pas de données étiquetées, peut être aussi efficace que les méthodes traditionnelles, surtout quand il y a peu de données d'entraînement disponibles.
Performance des nouveaux modèles
Les nouvelles méthodes impliquent de créer un ensemble de données annoté par des humains en utilisant un système d'imagerie à lumière sheet. En utilisant des données de cerveau entier de souris, ils ont pu étiqueter 2 632 neurones en 3D. À partir de ça, ils ont formé deux modèles différents pour la segmentation 3D directe.
Après avoir comparé ces modèles avec des outils connus, ils ont trouvé que leurs méthodes produisaient des résultats similaires ou meilleurs sur des données non vues. Notamment, leur nouveau modèle auto-supervisé, appelé WNet3D, peut atteindre des résultats presque aussi bons que les meilleures méthodes traditionnelles même quand il est entraîné sur moins de données.
En examinant la performance de divers modèles, ils constatent des différences significatives. Leur modèle auto-supervisé montre des améliorations de performance considérables par rapport aux méthodes par défaut utilisées par d'autres outils. Cependant, il produit des résultats similaires aux meilleurs modèles conventionnels, ce qui suggère que cette approche peut rivaliser avec les techniques existantes.
Insights sur l'utilisation de WNet3D
WNet3D, qui se base sur la luminosité pour trouver des objets, n'arrive pas toujours à faire la différence entre vraies cellules et artefacts. Pour y remédier, les chercheurs peuvent appliquer des règles de filtrage pour trier les signaux trompeurs ou utiliser WNet3D pour créer des étiquettes afin d'entraîner un modèle supervisé plus approprié. Cet entraînement peut permettre de différencier entre les vraies cellules et les artefacts indésirables.
Les chercheurs montrent également qu'il est possible d'entraîner un nouveau modèle en utilisant des étiquettes générées à partir de WNet3D. Leurs résultats indiquent que cette nouvelle méthode est presque aussi efficace que les modèles entièrement supervisés nécessitant des étiquettes humaines.
Le nouveau plugin Napari
Pour rendre ces nouveaux modèles et outils plus accessibles, ils ont développé un nouveau plugin napari. Ce plugin supporte à la fois le modèle WNet3D pré-entraîné et offre la possibilité de l'entraîner avec d'autres modèles. Les utilisateurs peuvent aussi bénéficier de divers outils pour étiqueter et affiner les résultats.
Le modèle WNet3D pré-entraîné peut être utilisé sur différents types de données, ce qui signifie qu'il peut s'adapter à divers échantillons, même s'ils sont différents des données originales sur lesquelles il a été formé. Cette flexibilité permet son application dans des études plus spécifiques, comme l'analyse de tissus avec des colorations plus complexes.
Résumé de CellSeg3D
Pour résumer, le nouvel ensemble d'outils CellSeg3D soutient la segmentation cellulaire haute performance en 3D. Cet outil améliore non seulement la façon dont les cellules sont identifiées, mais rend aussi le processus plus facile pour les chercheurs. Le plugin inclut des ressources pour des approches supervisées et auto-supervisées et aide à la fois à l'entraînement et à l'analyse des données avec un minimum d'effort.
De plus, les chercheurs ont rendu leur nouvel ensemble de données 3D disponible pour les autres. Cet ensemble est conçu pour évaluer et améliorer les algorithmes de segmentation cellulaire 3D, en particulier ceux utilisant des techniques d'imagerie avancées. Rendre ces ressources open-source encourage la collaboration et fait avancer le domaine.
Ainsi, la combinaison de nouvelles techniques d'imagerie, d'algorithmes avancés et d'outils conviviaux est prête à améliorer la façon dont les chercheurs visualisent et comprennent les structures cellulaires à l'avenir. Le développement continu dans ce domaine promet d'apporter de nouvelles perspectives et d'enrichir notre compréhension des systèmes biologiques.
Source originale
Titre: CellSeg3D: self-supervised 3D cellsegmentation for fluorescence microscopy
Résumé: Understanding the complex three-dimensional structure of cells is crucial across many disciplines in biology and especially in neuroscience. Here, we introduce a set of models including a 3D transformer (SwinUNetR) and a novel 3D self-supervised learning method (WNet3D) designed to address the inherent complexity of generating 3D ground truth data and quantifying nuclei in 3D volumes. We developed a Python package called CellSeg3D that provides access to these models in Jupyter Notebooks and in a napari GUI plugin. Recognizing the scarcity of high-quality 3D ground truth data, we created a fully human-annotated mesoSPIM dataset to advance evaluation and benchmarking in the field. To assess model performance, we benchmarked our approach across four diverse datasets: the newly developed mesoSPIM dataset, a 3D platynereis-ISH-Nuclei confocal dataset, a separate 3D platynereis-Nuclei light-sheet dataset, and a challenging and densely packed Mouse-Skull-Nuclei confocal dataset. We demonstrate that our self-supervised model, WNet3D - trained without any ground truth labels - achieve performance on par with state-of-the-art supervised methods, paving the way for broader applications in label-scarce biological contexts.
Auteurs: Mackenzie W. Mathis, C. Achard, T. Kousi, M. Frey, M. Vidal, Y. Paychere, C. Hofmann, A. Iqbal, S. B. Hausmann, S. Pages
Dernière mise à jour: 2024-12-22 00:00:00
Langue: English
Source URL: https://www.biorxiv.org/content/10.1101/2024.05.17.594691
Source PDF: https://www.biorxiv.org/content/10.1101/2024.05.17.594691.full.pdf
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à biorxiv pour l'utilisation de son interopérabilité en libre accès.