Verbesserung der medizinischen Bildsegmentierung mit begrenzten Daten
Eine neue Methode verbessert die Segmentierung medizinischer Bilder mithilfe von semi-supervised Lernen.
― 5 min Lesedauer
Inhaltsverzeichnis
Die Medizinische Bildsegmentierung ist ein wichtiger Schritt zur Diagnose von Krankheiten und zur Planung von Behandlungen. Allerdings kann es echt schwierig sein, genug gelabelte Daten für diese Aufgabe zu bekommen, da das Sammeln dieser Bilder teuer und zeitaufwändig ist. Da unlabeled Daten oft leichter verfügbar sind, hat sich das semi-supervised Learning (SSL) als Methode etabliert, die sowohl mit begrenzten gelabelten Daten als auch mit einer grösseren Anzahl unglabelter Bilder arbeitet.
SSL-Methoden konzentrieren sich normalerweise darauf, die reichlich vorhandenen ungelabelten Bilder zu nutzen, um das Lernen zu verbessern, nachdem sie einige grundlegende Informationen aus den begrenzten gelabelten Daten verstanden haben. Viele bestehende Methoden schaffen es jedoch oft nicht, effektiv aus den begrenzten gelabelten Daten zu lernen. Um das anzugehen, bieten neueste Fortschritte in der Verwendung von allgemeinen Segmentierungsmodellen, wie dem Segment Anything Model (SAM), eine potenzielle Lösung, indem sie weniger gelabelte Daten verwenden, um sich an neue Aufgaben anzupassen.
Überblick über das Segment Anything Model (SAM)
Das Segment Anything Model ist ein kraftvolles Werkzeug, das sich in verschiedenen Aufgaben als sehr anpassungsfähig erwiesen hat. Es lernt aus grossen, natürlichen Datensätzen und kann somit sein Wissen auf neue Aufgaben mit nur einer kleinen Menge an zusätzlichen gelabelten Daten übertragen. Viele Ansätze, die SAM für die medizinische Bildsegmentierung nutzen, konzentrieren sich jedoch hauptsächlich darauf, es voll mit reichlich gelabelten Daten zu trainieren. Das ist nicht die beste Nutzung seiner Fähigkeiten, besonders wenn die Menge an gelabelten Daten begrenzt ist.
Einige neuere Versuche haben versucht, SAM im semi-supervised Kontext zu verwenden, aber oft wird SAM als separates Element behandelt, um Pseudo-Labels für medizinische Bilder zu generieren. Das kann zu Leistungsproblemen führen, da es Unterschiede zwischen natürlichen und medizinischen Bildern gibt.
Vorgeschlagene Methode
Um die Nutzung von SAM für die medizinische Bildsegmentierung mit begrenzten gelabelten Daten zu verbessern, schlagen wir eine neue Methode vor, die wir Cross Prompting Consistency with Segment Anything Model (CPC-SAM) nennen. Unser Ansatz nutzt das einzigartige Prompt-Design von SAM und schafft ein System, in dem zwei Zweige interagieren, um das Lernen zu leiten. So lernt es effizient sowohl aus den begrenzten gelabelten Daten als auch aus der grossen Menge unglabelter Daten.
Cross Prompting Strategie
Der Kern unserer Methode liegt in der Cross Prompting Strategie, die zwei Zweige des Modells umfasst. Jeder Zweig generiert basierend auf seinen Ausgaben Eingabeaufforderungen für den anderen. Die Grundidee ist, dass wenn ein Zweig eine Ausgabe ohne Eingabeaufforderungen liefert, der zweite Zweig diese Ausgabe nutzen kann, um Eingabeaufforderungen zu erstellen, die den ersten Zweig leiten. Dieses bidirektionale Prompting ermöglicht effektiveres Lernen.
Da ungelabelte Daten jedoch zu rauschhaften Eingabeaufforderungen führen können, brauchen wir einen Weg, um sicherzustellen, dass die Ausgaben trotzdem zuverlässig bleiben. Um das anzugehen, haben wir eine Regularisierungsstrategie für die Konsistenz der Eingabeaufforderungen integriert. Das bedeutet, dass wir sicherstellen wollen, dass die Ausgaben von SAM konsistent bleiben, selbst wenn wir unterschiedliche Eingabeaufforderungen verwenden, um die Empfindlichkeit von SAM zu minimieren.
Experimentelle Bewertung
Um unsere Methode zu validieren, haben wir CPC-SAM an zwei öffentlichen medizinischen Bilddatensätzen getestet: einem für Brustkrebs und einem anderen für Herzstrukturen. Wir haben herausgefunden, dass unser Ansatz besser abschnitt als aktuelle state-of-the-art semi-supervised Methoden und signifikante Verbesserungen in der Segmentierungsgenauigkeit erreichte.
Datensatzdetails
- Datensatz für Brustkrebs: Dieser Datensatz besteht aus Ultraschallbildern, die zur Identifizierung von gutartigen und bösartigen Tumoren verwendet werden.
- Datensatz für Herzstrukturen: Dieser Datensatz enthält MRT-Aufnahmen des Herzens, die sich auf verschiedene Bereiche konzentrieren, die genau segmentiert werden müssen.
In unseren Tests haben wir nur eine kleine Anzahl gelabelter Bilder verwendet und stark auf die ungelabelten Bilder zurückgegriffen, um zu zeigen, wie gut unsere Methode sogar mit wenig anfänglicher Information arbeiten kann.
Ergebnisse
Die Ergebnisse zeigten, dass unsere Methode über 9 % Verbesserung im Dice-Koeffizienten bei der Brustkrebssegmentierungsaufgabe erzielte und auch eine überlegene Leistung beim Herzdatensatz zeigte. Das bestätigt, dass CPC-SAM effektiv ungelabelte Daten nutzen kann, um den Lernprozess zu verbessern.
Vorteile der vorgeschlagenen Methode
Die Hauptstärken unseres Ansatzes lassen sich wie folgt zusammenfassen:
Effektive Nutzung begrenzter gelabelter Daten: Durch die Nutzung der Fähigkeiten von SAM können wir gute Lernergebnisse mit nur einem kleinen anfänglichen gelabelten Datensatz erzielen.
Bidirektionales Lernen: Die Cross Prompting Strategie ermöglicht es dem Modell, sein Verständnis kontinuierlich zu verfeinern, indem es Ausgaben aus beiden Zweigen nutzt, um sich gegenseitig zu informieren.
Stabilität durch Regularisierung: Die Regularisierung der Konsistenz der Eingabeaufforderungen hilft sicherzustellen, dass die Ausgaben zuverlässig bleiben und die potenziellen Störungen durch die ungelabelten Daten Eingabeaufforderungen angegangen werden.
Robuste Leistung: Unsere Methode zeigt konsistente Verbesserungen im Vergleich zu verschiedenen bestehenden Methoden, besonders wenn gelabelte Daten rar sind.
Fazit und Ausblick
Zusammenfassend lässt sich sagen, dass unser vorgeschlagenes CPC-SAM-Rahmenwerk effektiv die Kluft zwischen der Verwendung begrenzter gelabelter Daten und reichlich vorhandenen ungelabelten Daten in medizinischen Bildsegmentierungsaufgaben überbrückt. Es zeigt, dass mit den richtigen Strategien auch kleine gelabelte Datensätze zu robusten Modellen führen können, die gut bei komplexen Aufgaben funktionieren.
In Zukunft planen wir, zusätzliche Strategien zu erkunden, um Eingabeaufforderungen auszuwählen, die zu noch zuverlässigeren Ausgaben führen. Wir wollen auch untersuchen, wie andere Arten von Eingabeaufforderungen oder unterschiedlichen Modalitäten die Segmentierungsergebnisse weiter verbessern können. Unsere laufende Forschung wird weiterhin darauf abzielen, das Semi-supervised Lernen im Bereich der medizinischen Bildgebung effizienter und effektiver zu gestalten.
Titel: Cross Prompting Consistency with Segment Anything Model for Semi-supervised Medical Image Segmentation
Zusammenfassung: Semi-supervised learning (SSL) has achieved notable progress in medical image segmentation. To achieve effective SSL, a model needs to be able to efficiently learn from limited labeled data and effectively exploiting knowledge from abundant unlabeled data. Recent developments in visual foundation models, such as the Segment Anything Model (SAM), have demonstrated remarkable adaptability with improved sample efficiency. To harness the power of foundation models for application in SSL, we propose a cross prompting consistency method with segment anything model (CPC-SAM) for semi-supervised medical image segmentation. Our method employs SAM's unique prompt design and innovates a cross-prompting strategy within a dual-branch framework to automatically generate prompts and supervisions across two decoder branches, enabling effectively learning from both scarce labeled and valuable unlabeled data. We further design a novel prompt consistency regularization, to reduce the prompt position sensitivity and to enhance the output invariance under different prompts. We validate our method on two medical image segmentation tasks. The extensive experiments with different labeled-data ratios and modalities demonstrate the superiority of our proposed method over the state-of-the-art SSL methods, with more than 9% Dice improvement on the breast cancer segmentation task.
Autoren: Juzheng Miao, Cheng Chen, Keli Zhang, Jie Chuai, Quanzheng Li, Pheng-Ann Heng
Letzte Aktualisierung: 2024-07-07 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2407.05416
Quell-PDF: https://arxiv.org/pdf/2407.05416
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.