Fortschritte bei der Bildsuche von Brustkrebs
Ein neues Modell verbessert die Bildabrufung für die Diagnose von Brusthistopathologie.
― 10 min Lesedauer
Inhaltsverzeichnis
- Neuer Ansatz für Bildabruf
- Bedeutung der frühen Erkennung
- Herausforderungen in der Histopathologie
- Anwendungen von CBIR in der Medizin
- Spezialisiertes medizinisches Bildabruf
- Herausforderungen beim Abrufen von Histopathologie-Bildern
- Variationale Graph-Autoencoder
- Implementierung des neuen Modells
- Bewertung des Modells
- Hintergrundmethoden im medizinischen Bildabruf
- Historischer Kontext des medizinischen Bildabrufs
- Bildvorverarbeitung und Merkmals-Extraktion
- Leistungsbewertung im Vergleich zu anderen Modellen
- Konstruktion von Graphen für den Bildabruf
- Architektur des vorgeschlagenen Modells
- Trainingsprozess
- Testen des Modells
- Bewertungsmetriken
- Experimentelle Einrichtung
- Ergebnisauswertung
- Vergleich mit GNN-Modellen
- Visuelle Analyse der Modellausgabe
- Erkenntnisse aus den Einbettungsvektoren
- Fazit
- Zukunftsperspektiven
- Danksagungen
- Originalquelle
- Referenz Links
Brustkrebs ist ein grosses Gesundheitsproblem, das viele Frauen weltweit betrifft. Es ist wichtig, diese Krankheit frühzeitig zu erkennen und zu behandeln, um die Auswirkungen zu verringern. Eine der wichtigsten Methoden zur Diagnose von Brustkrebs ist die Histopathologie, bei der Gewebeproben unter einem Mikroskop untersucht werden. Allerdings erfordert dieser Prozess erfahrene Fachleute, die krebsartiges Gewebe genau identifizieren und den Krebs einstufen können. Die Automatisierung von Bildabrufsystemen könnte Pathologen helfen, krebsartiges Gewebe schneller und effizienter zu finden. Aber ein genaues System zum Abrufen histopathologischer Bilder zu erstellen, ist schwierig wegen der grossen Vielfalt an Gewebe- und Zellmustern.
Neuer Ansatz für Bildabruf
Dieser Artikel stellt ein neues Modell namens aufmerksamkeitsbasiertes adversarial reguliertes variationales Graph-Autoencoder-Modell vor, um Brusthistopathologie-Bilder abzurufen. Wir haben auch eine Technik namens Kontrastives Lernen verwendet, um die Extraktion von Merkmalen aus den Bildern zu verbessern. Wir haben unser Modell an zwei öffentlich verfügbaren Datenbanken von Brustkrebs-Histologiebildern getestet und festgestellt, dass es sehr gut abgeschnitten hat. Unser Modell erzielte Durchschnittswerte von 96,5 % für einen Datensatz und 94,7 % für einen anderen, was seine Effektivität beim Abrufen relevanter Bilder zeigt.
Bedeutung der frühen Erkennung
Brustkrebs stellt ein ernstes Gesundheitsrisiko für Frauen dar und trägt weltweit erheblich zu den Sterblichkeitsraten bei. Es ist der am häufigsten diagnostizierte Krebs bei Frauen und macht einen grossen Teil der Krebserkrankungen aus. Obwohl die Sterblichkeitsrate im Laufe der Jahre gesunken ist, bleibt Brustkrebs eine der häufigsten Ursachen für krebsbedingte Todesfälle. Zum Beispiel zeigten Statistiken aus 2018, dass Brustkrebs für 15 % aller krebsbedingten Todesfälle verantwortlich war, mit einem Anstieg neuer Fälle um 24 % weltweit. Frühe Erkennung und zeitgerechte Behandlung verbessern die Ergebnisse für die Patienten erheblich. Diese Dringlichkeit hat zur Entwicklung von computergestützten Diagnosesystemen geführt, die histologische Bilder zur Verbesserung der Brustkrebsdiagnose nutzen.
Herausforderungen in der Histopathologie
Obwohl technologische Fortschritte die Diagnose unterstützen können, erfordert die Analyse histologischer Bilder normalerweise erhebliche personelle Ressourcen und Expertise. Pathologen müssen möglicherweise auf umfangreiche Datenbanken zurückgreifen, um Ähnlichkeiten in komplizierten Fällen zu identifizieren, was helfen kann, diagnostische Fehler zu verringern. Inhaltbasierter Bildabruf (CBIR) ist ein Ansatz, der versucht, visuell ähnliche Bilder in einer Datenbank basierend auf deren Inhalt zu finden, anstatt sich ausschliesslich auf Annotationen zu verlassen.
Anwendungen von CBIR in der Medizin
CBIR kann in medizinischen Einrichtungen von Vorteil sein. Zum Beispiel kann es Pathologen helfen, Gewebeschnitte zu vergleichen, um die diagnostische Genauigkeit zu erhöhen, indem sie nach ähnlichen Bildern in beschrifteten Datenbanken suchen. Diese Methode findet auch Anwendungen über das Gesundheitswesen hinaus, wie im Einzelhandel, bei der Kunstwerterkennung und mehr. Frühere CBIR-Systeme benötigten oft beschriftete Daten, die spezifisch für jede Anwendung waren, was die Implementierung erschwerte. Auch die Interpretation von "Ähnlichkeit" variiert je nach Kontext. Zwei histologische Bilder können basierend auf verschiedenen Faktoren wie Gewebetyp, Krebsart oder Färbetechniken als ähnlich betrachtet werden.
Spezialisiertes medizinisches Bildabruf
Inhaltbasierter medizinischer Bildabruf (CBMIR) ist eine Art von CBIR, die sich speziell auf medizinische Bilder konzentriert. Er wurde in Bereichen wie Radiologie und Histologie angewendet. CBMIR für histologische Bilder hilft nicht nur bei der Einstufung neuer Gewebeproben, sondern auch bei der Analyse von Mustern aus früheren Fällen. CBMIR hat Vorteile gegenüber traditionellen Klassifizierungsmethoden. Statt Bilder zu kennzeichnen, ruft es die ähnlichsten Bilder zu einer Anfrage ab und bietet zusätzliche klinische Daten oder Diagnoseberichte. Dieser Prozess hilft Pathologen, verschiedene Gewebemuster besser zu verstehen und die Variabilität der Ergebnisse zu verringern. Darüber hinaus ermöglicht CBMIR Pathologen, Entscheidungen basierend auf den abgerufenen Informationen zu treffen, anstatt sich ausschliesslich auf KI-Algorithmen zu verlassen.
Herausforderungen beim Abrufen von Histopathologie-Bildern
Das Abrufen von Bildern in der Histopathologie steht aufgrund der Vielfalt an Gewebe- und Zellmustern vor erheblichen Herausforderungen. Verschiedene halbautomatische und automatische Methoden wurden vorgeschlagen, um dieses Problem zu bewältigen. In letzter Zeit haben Graphen-neurale Netzwerke (GNNs) Aufmerksamkeit als vielversprechender Ansatz gewonnen. Da Bilder in einem Rasterformat dargestellt werden können, können GNNs von den Fortschritten in konvolutionalen neuronalen Netzwerken (CNNs) profitieren. Viele Modelle, die graph-convolutional networks (GCNNs) verwenden, wurden für verschiedene Computer Vision-Aufgaben, einschliesslich Bildabruf, entwickelt. In GCNNs werden Bilder als Knoten in einem Graphen behandelt, wobei Merkmale mithilfe von vortrainierten CNNs extrahiert werden. Allerdings werden CNNs typischerweise an natürlichen Bildern trainiert, was für medizinische Daten nicht optimal sein könnte.
Variationale Graph-Autoencoder
Einige GCNN-Modelle, wie variational graph autoencoders (VGAEs), können auch für unüberwachte Lernaufgaben verwendet werden. VGAEs unterscheiden sich von standard Graph-Autoencodern, indem sie eine probabilistische Kodierungsfunktion verwenden, um eine Verteilung über mögliche latente Repräsentationen zu erstellen, anstatt feste Vektoren zu erzeugen. Die Leistung kann weiter verbessert werden, indem Techniken wie Adversariales Training oder Aufmerksamkeitsmechanismen hinzugefügt werden.
Implementierung des neuen Modells
In dieser Studie haben wir den aufmerksamkeitsbasierten adversarial regulierten variationalen Graph-Autoencoder (A-ARVGAE) speziell für Aufgaben des Brusthistopathologie-Bildabrufs angepasst und implementiert. Im Gegensatz zu früheren Studien, die sich auf generische CNN-Modelle zur Merkmals-Extraktion verlassen haben, haben wir eine speziell entwickelte Methode zur Merkmals-Extraktion namens cluster-gesteuertes kontrastives Lernen verwendet, um die Leistung zu steigern.
Bewertung des Modells
Um die Effektivität unseres Modells zu bewerten, haben wir es an zwei Brustkrebs-Histopathologiedatensätzen getestet: BreakHis und BACH. Wir erzielten beeindruckende Leistungen im Vergleich zu anderen fortgeschrittenen Modellen. Unsere wichtigsten Beiträge umfassen die Integration von Aufmerksamkeitsmechanismen und adversarial Training in ein hochmodernes GNN-Modell, das für den Bildabruf von Brustkrebs-Histopathologie optimiert ist. Wir haben auch Vergleiche mit verschiedenen Basislinienmodellen angestellt, um die Vorteile unseres Ansatzes hervorzuheben.
Hintergrundmethoden im medizinischen Bildabruf
In diesem Abschnitt überprüfen wir bestehende Methoden, die für den medizinischen Bildabruf und das Lernen von Graphdarstellungen in der Histopathologie verwendet werden, und zeigen deren Relevanz für unsere Forschung.
Historischer Kontext des medizinischen Bildabrufs
In der Vergangenheit wurden verschiedene Techniken für den medizinischen Bildabruf vorgeschlagen. Frühe Systeme beruhten auf textbasierten Methoden, die Expertenannotation und die Auswahl von Schlüsselwörtern erforderten, was sie zeitaufwändig und oft ineffektiv machte. Im Gegensatz dazu verwenden CBMIR-Modelle den Inhalt der Bilder für den Abruf, ohne Labels zu benötigen. Traditionelle CBMIR-Rahmenwerke umfassen normalerweise Vorverarbeitung, Merkmals-Extraktion und Ähnlichkeitsmessung, wobei einige Ansätze versuchen, die Beziehung zwischen extrahierten Merkmalen und der semantischen Bedeutung der Bilder zu klären.
Bildvorverarbeitung und Merkmals-Extraktion
Häufige Vorverarbeitungsmethoden sind Rauschreduzierung, Kontrastverbesserung und Normalisierung. Traditionelle Merkmals-Extraktion basierte auf handgefertigten Techniken zur Charakterisierung von Bildern basierend auf Farbe, Textur und Struktur. Jüngste Fortschritte im Deep Learning ermöglichen die automatische Hochgrad-Merkmals-Extraktion, was es zu einer beliebten Wahl für Bildverarbeitungsaufgaben macht. Zahlreiche vortrainierte Deep-Learning-Modelle, wie VGG19 und ResNet, wurden für medizinische Bildgebungsaufgaben genutzt.
Leistungsbewertung im Vergleich zu anderen Modellen
In unserer Studie haben wir CCL als robusten Merkmals-Extraktor verwendet. Wir haben die Leistung von CCL mit mehreren bekannten vortrainierten Modellen verglichen, um seine Effektivität für die histologische Bildabrufaufgaben zu zeigen. Die Ergebnisse zeigten, dass CCL die traditionellen vortrainierten Modelle übertraf und die Vorteile der Verwendung eines Merkmals-Extraktors, der speziell für histopathologische Daten abgestimmt ist, demonstrierte.
Konstruktion von Graphen für den Bildabruf
Um GNNs in unserem Modell anzuwenden, ist die Konstruktion von Graphen entscheidend. Bilder ohne inhärente Strukturen müssen in Graphdatensätze umgewandelt werden, wobei Bilder Knoten darstellen und ihre Merkmale die Knotenmerkmale sind. Kanten zwischen Knoten werden anhand von Distanzmetriken definiert, die ihre potenziellen Interaktionen anzeigen. Verschiedene Algorithmen können helfen, diese Kanten zu erstellen, sodass das Modell die Topologie des Graphen definieren kann.
Architektur des vorgeschlagenen Modells
Unser Modell besteht aus vier Hauptkomponenten: dem Encoder, dem Einbettungs-Latentraum, dem Decoder und dem Diskriminator für adversariales Training. Der konstruierte Graph wird in den Encoder eingegeben, der die Daten verarbeitet und Einbettungen erzeugt. Der Decoder rekonstruiert den Graphen, während der Diskriminator hilft, zwischen echten und synthetischen Daten zu unterscheiden.
Trainingsprozess
Der Trainingsprozess zielt darauf ab, den Verlust aus mehreren Komponenten zu minimieren, einschliesslich Rekonstruktionsverlust, Kullback-Leibler-Divergenzverlust und binärem Kreuzentropie-Verlust im Zusammenhang mit adversalem Training. Durch sorgfältige Optimierung haben wir unser Modell trainiert, um effektiv histopathologische Bilder abzurufen.
Testen des Modells
Während der Testphase versucht das Modell, die ähnlichsten Bilder zu einem gegebenen Abfragebild mithilfe der in einer Datenbank gespeicherten Einbettungen zu identifizieren. Der Prozess umfasst die Extraktion von Merkmalen aus dem Testbild, die Erzeugung von Einbettungen und die Rangfolge der Kandidatenbilder nach ihrer Ähnlichkeit.
Bewertungsmetriken
Um die Leistung unseres Modells zu bewerten, haben wir zwei Bewertungsmetriken verwendet: mean Average Precision (mAP) und mean Majority Vote (mMV). Diese Metriken helfen dabei, zu quantifizieren, wie gut unser Modell relevante Bilder abruft und mit den erwarteten Diagnosen übereinstimmt.
Experimentelle Einrichtung
Die Implementierungsdetails umfassen die Verwendung spezifischer Software-Frameworks für den Modellaufbau, die Optimierung der Modelle und die Bestimmung geeigneter Parameter während des Trainingsprozesses. Während unserer Experimente haben wir Konsistenz in der Datenaufteilung und Validierung beibehalten, um faire Vergleiche zwischen verschiedenen Ansätzen sicherzustellen.
Ergebnisauswertung
Wir haben die Auswirkungen des CCL-Merkmals-Extraktors untersucht und ihn in verschiedenen Experimenten mit anderen vortrainierten Modellen verglichen. Die Ergebnisse zeigten, dass der CCL-Extraktor seine Mitbewerber konsistent übertraf und die Bedeutung der Verwendung eines Merkmals-Extraktors bestätigte, der speziell für histopathologische Bilder entwickelt wurde.
Vergleich mit GNN-Modellen
Wir haben die Leistung unseres A-ARVGAE-Modells mit anderen GNN-basierten und nicht-GNN-basierten Modellen im Kontext des Brusthistopathologie-Bildabrufs bewertet. Die Ergebnisse zeigten, dass unser Modell die modernen Modelle in der Abrufleistung übertraf, was die Vorteile der Integration von Aufmerksamkeitsmechanismen in die Architektur hervorhebt.
Visuelle Analyse der Modellausgabe
Zur visuellen Validierung haben wir Abfragebilder aus den Testsets ausgewählt und die am höchsten abgerufenen Ergebnisse angezeigt. Das Modell hat in den meisten Fällen relevante Bilder identifiziert, was seine Fähigkeit zeigt, ähnliche Bilder effektiv abzurufen.
Erkenntnisse aus den Einbettungsvektoren
Um die Leistung des Modells weiter zu analysieren, haben wir die Einbettungsvektoren ähnlicher und unähnlicher Bildpaare verglichen. Ähnliche Bilder hatten nahe beieinander liegende Einbettungen, während unähnliche Bilder leicht unterscheidbar waren, was die Fähigkeit des Modells bestätigt, bedeutungsvolle Repräsentationen zu erfassen.
Fazit
Zusammengefasst stellt unsere Forschung einen neuen Ansatz für den Abruf von Brusthistopathologie-Bildern unter Verwendung eines GNN-basierten Modells vor, das Aufmerksamkeitsmechanismen und adversales Training integriert. Durch verschiedene Experimente haben wir vielversprechende Ergebnisse gezeigt, die für klinische Anwendungen von Vorteil sein können. Zukünftige Forschungen können das Erforschen von Transformer-basierten Modellen, alternativen Methoden zur Graphkonstruktion und Verbesserungen zur Steigerung der Gesamtleistung umfassen.
Zukunftsperspektiven
Es gibt mehrere Möglichkeiten für zukünftige Arbeiten, um das vorgeschlagene Modell zu verbessern. Die Anpassung von transformer-basierten Modellen für Aufgaben des medizinischen Bildabrufs kann ihre Leistung in verschiedenen Computer Vision-Herausforderungen nutzen. Auch alternative Algorithmen zur Graphkonstruktion, wie die Faiss-Bibliothek, können erkundet werden, um die Leistung zu optimieren. Nicht-lineare neuronale Netzwerke können den Dekodierungsprozess des Modells verbessern, und die Integration von Techniken wie Testzeit-Augmentierung und Ensembles könnte die Abruf Ergebnisse weiter verbessern.
Danksagungen
Die Unterstützung für diese Forschung wurde durch verschiedene Stipendien bereitgestellt. Die Autoren erklären, dass es keine Interessenkonflikte oder konkurrierenden Beziehungen gibt, die die Ergebnisse beeinflussen könnten.
Titel: Leveraging Medical Foundation Model Features in Graph Neural Network-Based Retrieval of Breast Histopathology Images
Zusammenfassung: Breast cancer is the most common cancer type in women worldwide. Early detection and appropriate treatment can significantly reduce its impact. While histopathology examinations play a vital role in rapid and accurate diagnosis, they often require experienced medical experts for proper recognition and cancer grading. Automated image retrieval systems have the potential to assist pathologists in identifying cancerous tissues, thereby accelerating the diagnostic process. Nevertheless, proposing an accurate image retrieval model is challenging due to considerable variability among the tissue and cell patterns in histological images. In this work, we leverage the features from foundation models in a novel attention-based adversarially regularized variational graph autoencoder model for breast histological image retrieval. Our results confirm the superior performance of models trained with foundation model features compared to those using pre-trained convolutional neural networks (up to 7.7% and 15.5% for mAP and mMV, respectively), with the pre-trained general-purpose self-supervised model for computational pathology (UNI) delivering the best overall performance. By evaluating two publicly available histology image datasets of breast cancer, our top-performing model, trained with UNI features, achieved average mAP/mMV scores of 96.7%/91.5% and 97.6%/94.2% for the BreakHis and BACH datasets, respectively. Our proposed retrieval model has the potential to be used in clinical settings to enhance diagnostic performance and ultimately benefit patients.
Autoren: Nematollah Saeidi, Hossein Karshenas, Bijan Shoushtarian, Sepideh Hatamikia, Ramona Woitek, Amirreza Mahbod
Letzte Aktualisierung: 2024-12-12 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2405.04211
Quell-PDF: https://arxiv.org/pdf/2405.04211
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.