Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Quantitative Biologie# Computer Vision und Mustererkennung# Künstliche Intelligenz# Quantitative Methoden

Fortschritte bei der Brustkrebsdiagnose mit Deep Learning

Diese Studie nutzt Deep Learning und Transferlernen für die HER2-Bewertung bei Brustkrebs.

Rawan S. Abdulsadig, Bryan M. Williams, Nikolay Burlutskiy

― 6 min Lesedauer


Deep Learning fürDeep Learning fürHER2-BewertungModellen automatisieren.Brustkrebsdiagnose mit effektiven
Inhaltsverzeichnis

Wenn Ärzte denken, dass ein Patient Brustkrebs haben könnte, schauen sie sich Gewebeproben unter einem Mikroskop an. Diese Proben werden normalerweise gefärbt, um die Zellen besser sichtbar zu machen. Zwei gängige Färbemethoden sind Hämatoxylin und Eosin (H E) und Immunhistochemie (IHC). IHC ist besonders wichtig, weil es den Ärzten hilft zu bestimmen, ob ein Patient zielgerichtete Behandlungen erhalten kann. Es gibt viel Interesse daran, Computer und Deep Learning zu nutzen, um diese Folien automatisch auszuwerten, damit Ärzte weniger Zeit damit verbringen müssen, auf winzige Details zu schauen.

Das Problem ist jedoch, dass es nicht so einfach ist, Computern beizubringen, medizinische Bilder zu betrachten. Um ein Computermodell effektiv zu trainieren, benötigen wir viele beschriftete Bilder. Hier kommt das Transferlernen ins Spiel. Diese Methode erlaubt es uns, das, was der Computer aus einem Satz von Bildern gelernt hat, zu nutzen, um ihm zu helfen, einen anderen Satz zu verstehen.

Was ist Transferlernen?

Stell dir vor, du versuchst einem Kind beizubringen, verschiedene Früchte zu erkennen. Wenn das Kind bereits weiss, wie ein Apfel aussieht, kann es dieses Wissen nutzen, um schneller zu lernen, wie ein Pfirsich aussieht. Ähnlich verwendet das Transferlernen Wissen aus einem Bereich (wie IHC-Bilder), um bei einem anderen (wie H E-Bildern) zu helfen. Diese Methode kann Zeit sparen, besonders wenn man mit medizinischen Daten arbeitet, die selten und schwer zu finden sein können.

Warum Multiple-Instance Learning?

Manchmal haben wir nicht für jedes Bild detaillierte Notizen (oder Labels). Hier kommt das Multiple-Instance Learning (MIL) ins Spiel. Denk an eine Schnitzeljagd. Wenn du einen Sack voller Gegenstände hast, und du weisst, dass mindestens ein Gegenstand im Sack das ist, wonach du suchst, kannst du vermuten, dass der Sack nützlich sein könnte. Ähnlich funktioniert MIL: Wenn mindestens ein Abschnitt positiv beschriftet ist, kann die ganze Gruppe von Abschnitten als positiv betrachtet werden. Das macht es einfacher, mit Bildern zu arbeiten, bei denen wir nicht jedes Detail haben.

Die Studie

In dieser Studie wollten wir sehen, wie Transferlernen den Deep-Learning-Modellen helfen könnte, HER2, einen wichtigen Marker für Brustkrebs, zu bewerten. Wir haben drei verschiedene Arten von Bildern für unsere Forschung verwendet:

  1. H E-Bilder: Diese sind die gefärbten Bilder, die zur Untersuchung von Geweben verwendet werden.
  2. IHC-Bilder: Diese Bilder bieten spezifische Informationen über HER2.
  3. Nicht-medizinische Bilder: Denk an zufällige Bilder, wie Katzen und Landschaften.

Wir haben untersucht, wie gut die Modelle, die auf jeder dieser verschiedenen Bildarten trainiert wurden, abgeschnitten haben. Mit dem Fokus auf HER2-Bewertung haben wir ausserdem ein Modell entwickelt, das auf bestimmte Bereiche innerhalb der Folien hinweist, die für die Diagnose wichtig sind.

Die Methodik

Wir haben angefangen, kleine Stücke, sogenannte Patches, aus den gesamten Bildfolien zu entnehmen. Diese Patches stammen von sowohl H E- als auch IHC-gefärbten Folien. Um unsere Trainingsdaten vielfältiger und robuster zu machen, haben wir mit den Patches experimentiert, ihre Helligkeit, Farbe und kleine Drehungen verändert.

Mit einem vortrainierten Modell haben wir diese Patches in ein Format umgewandelt, das unser Computer verstehen konnte, und eine neue Schicht für die Aufmerksamkeit erstellt. Diese Aufmerksamkeits-Schicht hilft dem Modell, sich auf die wichtigen Teile der Bilder zu konzentrieren. Denk daran, als würdest du eine Brille aufsetzen, die die Details hervorhebt.

Zum Geschäft

Nachdem wir alles eingerichtet hatten, haben wir unsere Modelle trainiert. Wir haben mehrere Säcke von Patches erstellt und darauf geachtet, dass kein Sack während des Trainings wiederverwendet wurde. Das sollte sicherstellen, dass wir alle möglichen Variationen der Patches abdecken.

Nach dem Training haben wir unsere Daten in zwei Gruppen aufgeteilt: eine zum Trainieren und eine zum Testen. Wir wollten sehen, wie gut unser Modell mit neuen Daten umgehen kann, die es vorher noch nicht gesehen hat. Das ist, als würdest du zum ersten Mal einen Kuchen nach einem Rezept backen und dann sehen, wie er ankommt, wenn du ihn deinen Freunden servierst.

Ergebnisse

Wir haben festgestellt, dass das Modell, wenn wir Patches aus H E-Bildern für das Training verwendet haben, insgesamt besser abgeschnitten hat als die anderen. Als wir jedoch Patches aus dem PatchCamelyon-Datensatz verwendet haben, übertraf es die anderen in allen Erfolgsmassen.

Wir wollten wissen, wie gut unser Modell die HER2-Werte auf den ganzen Folien vorhersagen kann. Wir haben eine Methode verwendet, die ähnlich ist, wie ein Spiel mehrere Male zu simulieren, um ein besseres Verständnis für die Gesamtbewertung zu bekommen. Durch wiederholtes Sampling und Vorhersagen haben wir die Genauigkeit unserer Endergebnisse verbessert.

Nicht nur wollten wir wissen, wie das Modell bewertet hat, sondern wir wollten auch sehen, wo es hinschaute. Mit dem Aufmerksamkeitsmechanismus konnten wir eine Heatmap erstellen, die zeigt, welche Bereiche der Folie für die Vorhersage des Modells wichtig waren. Es war, als hätten wir eine Taschenlampe auf die Stellen gerichtet, die am meisten zählten.

Ergebnisse visualisieren

Um unsere Ergebnisse zu präsentieren, haben wir einige Heatmaps basierend auf den Daten erstellt. Diese Heatmaps heben Bereiche hervor, von denen man annimmt, dass sie HER2-positiv sind. Stell dir eine Schatzkarte vor, aber statt Gold zeigt sie, wo die wichtigen Krebsmarker im Gewebe versteckt sind.

Während des Tests haben wir bemerkt, dass das Modell bei mehr gesampelten Patches sicherer in seinen Vorhersagen wurde. Mehr Proben führten zu besseren Ergebnissen, was bedeutet, dass wir, wenn wir weiter üben, nur besser werden können.

Fazit und Zukunftspläne

Zusammenfassend haben wir erfolgreich ein Modell für die automatische HER2-Bewertung mit H E-Bildern entwickelt. Das Transferlernen von H E zu H E war effektiver als die Verwendung von IHC- oder nicht-medizinischen Bildern. Diese Studie zeigt vielversprechende Möglichkeiten für die Anwendung von MIL, wenn detaillierte Annotationen fehlen.

Für zukünftige Pläne gibt es noch viel zu tun. Wir hoffen, unsere Modelle zu verfeinern und weitere Strategien zu erkunden, um ihre Leistung zu verbessern. Wenn wir herausfinden können, wie wir die verschiedenen Datenquellen am besten nutzen, könnten wir neue Wege zur Verbesserung der medizinischen Bildanalyse erschliessen, eine Folie nach der anderen.

Am Ende, auch wenn wir das Heilmittel für Krebs noch nicht finden können, sind wir auf jeden Fall auf dem richtigen Weg, um die Diagnose viel einfacher zu machen, einen Pixel nach dem anderen. Wer hätte gedacht, dass es mit nur einem Sack von Patches und einer Prise Informatik anfangen könnte, Ärzten zu helfen?

Originalquelle

Titel: Leveraging Transfer Learning and Multiple Instance Learning for HER2 Automatic Scoring of H\&E Whole Slide Images

Zusammenfassung: Expression of human epidermal growth factor receptor 2 (HER2) is an important biomarker in breast cancer patients who can benefit from cost-effective automatic Hematoxylin and Eosin (H\&E) HER2 scoring. However, developing such scoring models requires large pixel-level annotated datasets. Transfer learning allows prior knowledge from different datasets to be reused while multiple-instance learning (MIL) allows the lack of detailed annotations to be mitigated. The aim of this work is to examine the potential of transfer learning on the performance of deep learning models pre-trained on (i) Immunohistochemistry (IHC) images, (ii) H\&E images and (iii) non-medical images. A MIL framework with an attention mechanism is developed using pre-trained models as patch-embedding models. It was found that embedding models pre-trained on H\&E images consistently outperformed the others, resulting in an average AUC-ROC value of $0.622$ across the 4 HER2 scores ($0.59-0.80$ per HER2 score). Furthermore, it was found that using multiple-instance learning with an attention layer not only allows for good classification results to be achieved, but it can also help with producing visual indication of HER2-positive areas in the H\&E slide image by utilising the patch-wise attention weights.

Autoren: Rawan S. Abdulsadig, Bryan M. Williams, Nikolay Burlutskiy

Letzte Aktualisierung: 2024-11-05 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2411.05028

Quell-PDF: https://arxiv.org/pdf/2411.05028

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel