Fortschritte bei der Brustkrebsdiagnose mit Deep Learning
Deep Learning-Modelle verbessern die Genauigkeit bei der Klassifizierung von Brustkrebsgewebe.
― 6 min Lesedauer
Inhaltsverzeichnis
Brustkrebs ist eine der Hauptursachen für den Tod von Frauen. Eine frühe Erkennung von Brustkrebs kann die Chancen, daran zu sterben, deutlich senken. Studien zeigen, dass 70-80% der Frauen, bei denen frühzeitig Brustkrebs diagnostiziert wird, erfolgreich behandelt werden können. Der genaueste Weg, Brustkrebs zu bestätigen, ist eine Biopsie, aber verschiedene Ärzte sind oft uneinig über die Ergebnisse. Die Übereinstimmungsrate unter Pathologen liegt bei etwa 75%, und in bestimmten Fällen fällt sie auf etwa 48%.
Um die Genauigkeit der Diagnose zu erhöhen, werden fortgeschrittene Computerprogramme, bekannt als Deep Learning, eingesetzt. Diese Programme haben sich bei verschiedenen visuellen Aufgaben, einschliesslich der Analyse medizinischer Bilder, als effektiv erwiesen. Die Einführung von Whole Slide Imaging ermöglicht eine detaillierte Untersuchung von Gewebeproben und stellt eine bedeutende Entwicklung in der Pathologie dar. Einige Forscher haben erfolgreich Deep Learning genutzt, um bestimmte Tumorarten zu identifizieren und beeindruckende Genauigkeitsraten zu erreichen.
Deep Learning in der Brustkrebsdiagnose
Deep Learning-Methoden können helfen, krebsartiges Gewebe von normalem Gewebe in Mikroskopbildern zu unterscheiden. Es werden zwei Haupttypen von Deep Learning-Ansätzen verwendet: allgemeine Modelle und spezialisierte. Allgemeine Modelle wurden auf grossen Datensätzen trainiert und können für verschiedene Aufgaben angepasst werden. Techniken wie Transferlernen beinhalten, ein Modell, das für eine Aufgabe trainiert wurde, für eine andere zu optimieren. Zum Beispiel haben Forscher beliebte allgemeine Modelle wie InceptionV3, DenseNet201 und ResNet152 verwendet, um Bilder von Brustgewebe zu klassifizieren.
One-Shot-Learning ist eine weitere Methode, bei der das Modell lernt, Kategorien nur anhand weniger Beispiele zu erkennen. Diese Herangehensweise wurde erfolgreich angewendet, um Bilder von normalem und krebskrankem Brustgewebe zu klassifizieren. Spezialisierte Deep Learning-Modelle wie das CLAM-Modell wurden ebenfalls speziell für die Analyse von Pathologie-Bildern entwickelt. Diese Modelle können Bilder klassifizieren, ohne dass eine grosse Menge manuell beschrifteter Daten benötigt wird.
Faktoren, die die Modellleistung beeinflussen
Die Effektivität von Deep Learning-Modellen bei der Klassifizierung von Bildern kann durch verschiedene Faktoren beeinflusst werden, darunter die Konfiguration des Modells und die Datenaufbereitung. Verschiedene Einstellungen, bekannt als Hyperparameter, können zu unterschiedlichen Klassifizierungsergebnissen führen. Faktoren wie die Lernrate, die Dropout-Rate und die Batch-Grösse können erheblichen Einfluss darauf haben, wie gut ein Modell abschneidet.
Eine Studie untersuchte den Einfluss unterschiedlicher Hyperparameter-Einstellungen auf Deep Learning-Modelle. Dabei stellte man fest, dass die Klassifizierungsgenauigkeit je nach Wahl stark variieren konnte. Eine andere Studie zeigte, dass die korrekte Verarbeitung von Bildern, bevor sie in ein Modell eingegeben werden, die Genauigkeit verbessern kann. Das deutet darauf hin, dass sowohl Hyperparameter-Tuning als auch eine ordnungsgemässe Datenhandhabung entscheidend für eine bessere Modellleistung sind.
BACH-Datensatz für Brusthistologie
Ein Datensatz namens BreAst Cancer Histology (BACH) wurde erstellt, der mikroskopische Bilder von Brustgewebe enthält, die mit einem speziellen Farbstoff gefärbt sind. Die Bilder sind in vier Kategorien unterteilt: "normal", "gutartig", "in situ Karzinom" und "invasives Karzinom". Forscher haben einen Bildklassifikator entwickelt, der auf diesem Datensatz gut abgeschnitten hat und eine hohe Genauigkeit bei der Identifizierung verschiedener Brustgewebearten erreicht hat.
Der BACH-Datensatz ermöglicht das Training von Modellen zur Unterscheidung zwischen Tumor- und Nicht-Tumorgeweben. Um diesen Datensatz effektiv zu nutzen, wurden die Bilder in zwei Hauptkategorien organisiert: "Karzinom" (das die beiden Krebsarten umfasst) und "Nicht-Karzinom" (das die normalen und gutartigen Klassen umfasst). Diese Vereinfachung erleichtert es, die Modelle zum Erkennen von Tumoren zu trainieren.
Datenaufbereitung
Zur Vorbereitung der Daten für die Analyse wurden 400 Mikroskopbilder aus dem BACH-Datensatz gesammelt, wobei jede Kategorie gleichmässig vertreten war. Die Bilder wurden in fünf Gruppen unterteilt, um einen ausgewogenen Datensatz für das Training der Modelle sicherzustellen. Diese Methode hilft bei der Validierung der Modellleistung, indem einige Bilder für das Training und andere für den Test verwendet werden.
Die Bilder wurden verarbeitet, um kleinere Abschnitte zu erstellen, die einfacher analysiert werden konnten. Die bearbeiteten Bilder wurden in einem Format gespeichert, das sie für das Training der Modelle bereit machte. Einige Modelle, wie CLAM, benötigten spezifische Arten von Dateninput für das Training, während andere mit Rohpixel-Daten arbeiten konnten.
Bildstandardisierung und Merkmals-Extraktion
Bevor die Modelle trainiert wurden, durchliefen die Bilder einen Standardisierungsprozess, um Konsistenz sicherzustellen. Dabei wurden Helligkeit und Kontrast der Bilder angepasst, sodass sie ähnliche Eigenschaften hatten. Dadurch konnten die Modelle effektiver aus den Daten lernen.
Sobald die Bilder standardisiert waren, wurden Merkmale aus ihnen extrahiert, was bedeutet, dass wichtige Elemente der Bilder identifiziert wurden, die bei der Klassifizierung helfen würden. Zum Beispiel könnte die Verwendung eines vortrainierten Modells es den Forschern ermöglichen, nützliche Merkmale zu erhalten, die die Klassifizierung erleichterten.
Training der Modelle
Verschiedene Deep Learning-Methoden wurden eingesetzt, um die Modelle zu trainieren. Bei allgemeinen Modellen wie DenseNet201 und VGG19 wurden Techniken wie Transferlernen verwendet, bei denen die Modelle von zuvor gesammelten Daten lernten, bevor sie auf dem BACH-Datensatz trainiert wurden. Dieser Ansatz hilft den Modellen, sich schneller und effektiver an neue Aufgaben anzupassen.
Beim One-Shot-Learning lernt das Modell nur aus wenigen Beispielen. Diese Methode kann besonders nützlich in medizinischen Kontexten sein, in denen die Daten möglicherweise begrenzt sind. Das spezialisierte CLAM-Modell erforderte eine strukturiertere Eingabe und wurde speziell für die Analyse digitaler Pathologie-Bilder entwickelt.
Ergebnisse und Erkenntnisse
Die Ergebnisse zeigten, dass das DenseNet201-Modell die beste Genauigkeit bei der Klassifizierung von Brustgeweben erreichte und normal und tumoröse Gewebe korrekt identifizierte. Diese Erkenntnis deutet darauf hin, dass die Verwendung gut etablierter Modelle und deren Feinabstimmung für spezifische Aufgaben zu besseren Ergebnissen führen kann.
Zusätzlich war das Tuning der Hyperparameter entscheidend für die Verbesserung der Modellleistung. Es wurde festgestellt, dass die Fokussierung auf die Verfeinerung der Lernrate einen erheblichen Einfluss im Vergleich zu anderen Parametern hatte. Das deutet darauf hin, dass, während die Modellkomplexität wichtig sein kann, das richtige Verständnis der Grundlagen, wie Hyperparameter-Tuning, entscheidend für den Erfolg ist.
Einfluss von Datensatzunterschieden
Unterschiede in den Datensätzen können sich auch darauf auswirken, wie gut Modelle abschneiden. Zum Beispiel erfordert die Struktur des CLAM-Modells eine Mischung aus informativen und nicht informativen Abschnitten, damit es optimal funktioniert. Im BACH-Datensatz sind alle Abschnitte wertvoll, was zu Leistungsproblemen für dieses Modell geführt haben könnte.
Das DenseNet201-Modell hingegen, da es vielseitiger ist, zeigte eine starke Leistung, ohne signifikant von Datensatzunterschieden betroffen zu sein. Das unterstreicht die Bedeutung der Auswahl des richtigen Modells für spezifische Aufgaben basierend auf dem verwendeten Datensatz.
Fazit
Diese Forschung hebt den Wert fortgeschrittener Deep Learning-Methoden bei der Diagnose von Brustkrebs durch Bildanalyse hervor. Während einige Modelle starke Leistungen gezeigt haben, hängt eine effektive Klassifizierung stark von der Wahl des richtigen Modells, der ordnungsgemässen Datenvorbereitung und dem Feintuning der Hyperparameter ab. Die Arbeit in der digitalen Pathologie erfordert sorgfältige Aufmerksamkeit sowohl für die Daten als auch für die Modellauswahl, um die besten Ergebnisse zu erzielen. Zukünftige Arbeiten könnten sich mit automatisierten Methoden für das Hyperparameter-Tuning befassen, um den Prozess zu optimieren und die Modellleistung weiter zu verbessern.
Titel: Deep Learning in Automating Breast Cancer Diagnosis from Microscopy Images
Zusammenfassung: ContextBreast cancer is one of the most common cancers in women. With early diagnosis, some breast cancers are highly curable. However, the concordance rate of breast cancer diagnosis from histology slides by pathologists is unacceptably low. Classifying normal versus tumor breast tissues from microscopy images of breast histology is an ideal case to use for deep learning and could help to more reproducibly diagnose breast cancer. Since data preprocessing and hyperparameter configurations have impacts on breast cancer classification accuracies of deep learning models, training a deep learning classifier with appropriate data preprocessing approaches and optimized hyperparameter configurations could improve breast cancer classification accuracy. Methods and MaterialUsing 12 combinations of deep learning model architectures (i.e., including 5 non-specialized and 7 digital pathology-specialized model architectures), image data preprocessing, and hyperparameter configurations, the validation accuracy of tumor versus normal classification were calculated using the BreAst Cancer Histology (BACH) dataset. ResultsThe DenseNet201, a non-specialized model architecture, with transfer learning approach achieved 98.61% validation accuracy compared to only 64.00% for the digital pathology-specialized model architecture. ConclusionsThe combination of image data preprocessing approaches and hyperparameter configurations have a profound impact on the performance of deep neural networks for image classification. To identify a well-performing deep neural network to classify tumor versus normal breast histology, researchers should not only focus on developing new models specifically for digital pathology, since hyperparameter tuning for existing deep neural networks in the computer vision field could also achieve a high (often better) prediction accuracy.
Autoren: Steven N Hart, Q. Gu, N. Prodduturi
Letzte Aktualisierung: 2023-06-16 00:00:00
Sprache: English
Quell-URL: https://www.medrxiv.org/content/10.1101/2023.06.15.23291437
Quell-PDF: https://www.medrxiv.org/content/10.1101/2023.06.15.23291437.full.pdf
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an medrxiv für die Nutzung seiner Open-Access-Interoperabilität.