Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Computer Vision und Mustererkennung# Maschinelles Lernen

Batch-Effekte in der Histopathologie mit optimalem Transport angehen

Eine neue Methode verbessert die Genauigkeit von maschinellem Lernen in der Histopathologie in Krankenhäusern.

― 6 min Lesedauer


Optimaler Transport inOptimaler Transport inder HistopathologieLernen revolutionieren.Krankheitsdiagnose mit maschinellemDie Genauigkeit bei der
Inhaltsverzeichnis

Histopathologie spielt 'ne mega wichtige Rolle bei der Diagnostik von Krankheiten, vor allem Krebs. Dabei schauen Ärzte dünne Scheiben von Gewebeproben unter'm Mikroskop an, um Zellveränderungen zu erkennen. Aber diese Methode kann echt langsam und subjektiv sein, was das Interesse an maschinellem Lernen weckt, um die Analyse zu automatisieren. Leider haben maschinelle Lernverfahren Probleme mit "Batch-Effekten", also Variationen, die durch unterschiedliche Präparations- oder Scannmethoden der Slides entstehen. Diese Unterschiede machen’s schwer für Modelle, die mit Daten aus einem Krankenhaus trainiert wurden, in einem anderen gut zu funktionieren.

Das Problem mit Batch-Effekten

Das Hauptproblem bei Batch-Effekten ist, dass sie das Aussehen der Slides verändern können, was für Maschinen verwirrend ist. Menschen können oft über diese kleinen Unterschiede hinwegsehen, aber Maschinen können das nicht. Das führt zu einer geringeren Genauigkeit, wenn Modelle in verschiedenen Krankenhausumgebungen angewendet werden. Das Ziel ist, maschinelle Lernmodelle zu entwickeln, die mit diesen Variationen besser umgehen können.

Forscher haben verschiedene Strategien vorgeschlagen, um Histopathologie-Modelle robuster gegenüber diesen Batch-Effekten zu machen. Ein Ansatz konzentriert sich darauf, Darstellungen zu lernen, die von diesen Variationen nicht beeinflusst werden, damit die Modelle nur biologische Unterschiede erkennen. So entstehen Modelle, die zuverlässiger über verschiedene Institutionen hinweg sind.

Ein neuer Ansatz mit Optimalem Transport

In diesem Kontext stellen wir 'ne neue Methode vor, die auf was namens optimalem Transport (OT) basiert. Diese Methode vergleicht Bildgruppen, um herauszufinden, ob deren Unterschiede gemanagt werden können. Statt einzelne Bilder zu betrachten, analysiert dieser Ansatz Gruppen von Bildern und quantifiziert die Unterschiede in deren Darstellung. So können wir Modelle besser trainieren, die effektiv in verschiedenen Krankenhäusern funktionieren.

Mit einem Datensatz namens Camelyon17 fanden Forscher heraus, dass viele maschinelle Lernmethoden zwar globale Farbunterschiede anpassen können, aber nur unser OT-Ansatz konstant Krebsarten identifiziert, die nicht während des anfänglichen Trainings berücksichtigt wurden.

Optimale Transport verstehen

Optimaler Transport ist 'ne mathematische Technik, die genutzt wird, um Gruppen von Datenpunkten zu vergleichen und auszurichten. Sie hilft, den besten Weg zu finden, um Daten von einer Verteilung zur anderen zu bewegen, was im maschinellen Lernen nützlich ist. In diesem Fall wollen wir Bilder aus einem Krankenhaus (der Quelle) verwenden, um die Leistung des Modells bei Bildern aus einem anderen Krankenhaus (dem Ziel) zu verbessern.

Das Ziel dieser Technik ist, die gelabelten Daten aus dem Quellbereich zu nutzen, um ein Modell zu trainieren, das unlabeled Daten aus dem Zielbereich genau klassifiziert. Das nennt man unüberwachtes Domänenanpassung, wo das Modell nicht nur von einzelnen Proben lernt, sondern auch von den allgemeinen Datenmerkmalen.

Die Methode umsetzen

Um diese Methode in die Praxis umzusetzen, nutzten Forscher ein Klassifikationsmodell, um zwischen Tumor- und Normalgewebe zu unterscheiden. Das Modell wird mit Bildern aus einem Krankenhaus trainiert, während es gleichzeitig Merkmale aus einem anderen Krankenhaus vergleicht. Indem die optimale Transportdistanz zwischen den beiden Bildgruppen berechnet wird, kann das Modell lernen, Batch-Effekte zu ignorieren und sich mehr auf bedeutungsvolle biologische Unterschiede zu konzentrieren.

Der Trainingsprozess kombiniert eine Standardverlustfunktion mit dem OT-Verlust, was dem Modell hilft, besser zu generalisieren, indem es das Lernen fördert, das weniger von Batch-Variationen betroffen ist. So kann das Modell, wenn es an Bildern aus einer völlig neuen Institution getestet wird, trotzdem genaue Klassifikationen liefern, ohne dass es neu trainiert werden muss.

Experimentieren mit dem Camelyon17-WILDS-Datensatz

In dieser Studie wurde der Camelyon17-WILDS-Datensatz als Benchmark verwendet. Dieser Datensatz enthält Tausende von annotierten Bildern von Patienten, die Gewebeproben aus Lymphknoten zeigen. Die Wissenschaftler teilten diese Bilder in Trainings-, Validierungs- und Testsets aus mehreren Institutionen auf, um zu bewerten, wie gut die Modelle sich an Daten von Krankenhäusern anpassen, die nicht Teil des Trainingsprozesses waren.

Forscher trainierten ihr Modell mit gelabelten Bildern von drei Krankenhäusern und testeten es an Daten aus einem vierten Krankenhaus. Sie wollten ein Modell erstellen, das sich gut auf ein Testset verallgemeinern lässt, das von einer anderen Institution stammt, die nicht im Training verwendet wurde.

Ergebnisse der Methode

Die Ergebnisse des OT-Ansatzes waren vielversprechend. Es verbesserte nicht nur die Klassifikation im Validierungsset, sondern zeigte auch einen deutlichen Vorteil, als es an Bildern aus einem unbekannten Krankenhaus getestet wurde. Im Vergleich zu Standardmethoden wie dem Domain-Adaptive Neural Network (DANN) zeigte die OT-Methode eine bessere Leistung.

DANN ist eine frühere Methode, die auch versucht, Daten für eine bessere Klassifikation abzugleichen. Allerdings schaut es sich Bilder einzeln an, was einige der nuancierteren Unterschiede in den Daten übersehen kann. Der OT-Ansatz hingegen berücksichtigt Gruppen von Bildern und ist damit effektiver im Umgang mit Batch-Effekten.

Einblicke in die Modellleistung

Forscher wollten auch verstehen, warum die OT-Methode besser abschnitt. Dazu verglichen sie visuell die Merkmale von Bildern aus verschiedenen Sets – Training, Validierung und Test. Sie stellten fest, dass DANN bei bestimmten Bildern im Testset Schwierigkeiten hatte, während die OT-Methode eine hohe Genauigkeit beibehielt. Das deutet darauf hin, dass OT flexibler ist und sich besser an Variationen in den Daten anpasst.

Ausserdem hob die Forschung hervor, dass viele Testbilder Merkmale enthielten, die im Trainingsdatensatz nicht gut vertreten waren. In Fällen, in denen der DANN-Ansatz Herausforderungen hatte, konnte die OT-Methode diese Bilder korrekt klassifizieren. Das zeigt, dass OT ein breiteres Spektrum an Merkmalen erfassen kann, selbst wenn es nur begrenzte Trainingsdaten gibt.

Breitere Implikationen

Der Erfolg der OT-Methode bei der Anpassung an neue Daten hat Auswirkungen auf die Zukunft der Histopathologie und des maschinellen Lernens. Indem sie einen zuverlässigen Weg bietet, Batch-Effekte zu handhaben, könnte diese Methode die Bereitstellung von Modellen für Maschinelles Lernen in klinischen Umgebungen verbessern und die diagnostische Genauigkeit in verschiedenen Krankenhäusern erhöhen.

Die Forscher wiesen auch darauf hin, dass es viele andere Strategien gibt, die darauf abzielen, Batch-Effekte zu korrigieren, und die Kombination von OT mit diesen Methoden könnte zu noch besseren Ergebnissen führen. Beispielsweise können bestehende Techniken, die sich auf Farb- und Intensitätsvariationen konzentrieren, mit dem OT-Ansatz kombiniert werden, um die Modellleistung weiter zu verbessern.

Fazit

Zusammenfassend lässt sich sagen, dass die Verwendung von optimalem Transport zur Bewältigung von Herausforderungen in der Histopathologie einen vielversprechenden Weg zur Verbesserung von Modellen des maschinellen Lernens bietet. Diese Methode sorgt dafür, dass Modelle, die auf einem Datensatz trainiert wurden, effektiv auf einen anderen angewendet werden können, ohne dass ein umfangreiches Neutrainieren nötig ist. Zukünftige Forschungen könnten tiefer in die Kombination dieses Ansatzes mit anderen fortschrittlichen Techniken eintauchen und seine Anwendung auf grössere und komplexere Datensätze erkunden. Dadurch könnte im Bereich der digitalen Pathologie ein signifikanter Fortschritt in der Diagnose und dem Verständnis von Krankheiten erzielt werden, was letztendlich zu besseren Ergebnissen für Patienten führt.

Originalquelle

Titel: Domain adaptation using optimal transport for invariant learning using histopathology datasets

Zusammenfassung: Histopathology is critical for the diagnosis of many diseases, including cancer. These protocols typically require pathologists to manually evaluate slides under a microscope, which is time-consuming and subjective, leading to interest in machine learning to automate analysis. However, computational techniques are limited by batch effects, where technical factors like differences in preparation protocol or scanners can alter the appearance of slides, causing models trained on one institution to fail when generalizing to others. Here, we propose a domain adaptation method that improves the generalization of histopathological models to data from unseen institutions, without the need for labels or retraining in these new settings. Our approach introduces an optimal transport (OT) loss, that extends adversarial methods that penalize models if images from different institutions can be distinguished in their representation space. Unlike previous methods, which operate on single samples, our loss accounts for distributional differences between batches of images. We show that on the Camelyon17 dataset, while both methods can adapt to global differences in color distribution, only our OT loss can reliably classify a cancer phenotype unseen during training. Together, our results suggest that OT improves generalization on rare but critical phenotypes that may only make up a small fraction of the total tiles and variation in a slide.

Autoren: Kianoush Falahkheirkhah, Alex Lu, David Alvarez-Melis, Grace Huynh

Letzte Aktualisierung: 2023-03-03 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2303.02241

Quell-PDF: https://arxiv.org/pdf/2303.02241

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel