Fortschritte bei der Diagnose von diabetischer Retinopathie
Die selbstüberwachtes Lernen von KI verbessert die Erkennung von diabetischer Retinopathie mit weniger beschrifteten Bildern.
― 5 min Lesedauer
Inhaltsverzeichnis
Diabetische Retinopathie ist eine Augenerkrankung, die durch Diabetes verursacht wird und zu Sehverlust führen kann. Viele Menschen weltweit sind betroffen, und sie zu erkennen, erfordert in der Regel geschulte Fachleute, die Bilder des Auges analysieren. Das ist sowohl zeitaufwendig als auch teuer. Mit den Fortschritten in der Technologie nutzen Forscher Künstliche Intelligenz (KI), um den Prozess der Diagnose von diabetischer Retinopathie zu verbessern. Allerdings gibt es einen Mangel an beschrifteten medizinischen Bildern, was es schwierig macht, KI-Systeme effektiv zu trainieren.
Selbstüberwachtes Lernen
Eine vielversprechende Methode, um den Mangel an beschrifteten Daten anzugehen, ist das selbstüberwachte Lernen. Dieser Ansatz ermöglicht es Modellen, aus grossen Mengen unbeschrifteter Daten zu lernen. Statt viele beschriftete Beispiele zu benötigen, kann selbstüberwachtes Lernen Bilder nutzen, die nicht annotiert sind. Das bedeutet, dass KI Muster und Merkmale in Bildern erkennen kann, ohne detaillierte Labels zu brauchen.
Der Prozess beginnt mit einem Hauptdatensatz, der viele unbeschriftete Fotos enthält. Zum Beispiel werden in unserem Fall Bilder von diabetischer Retinopathie aus einem Quelldatensatz entnommen. Das KI-Modell lernt, verschiedene Versionen jedes Bildes durch verschiedene Techniken zu erstellen, wie zum Beispiel Drehen oder Anpassen der Farben. Einige dieser Versionen werden dann als verwandte, oder positive Paare betrachtet, während andere von verschiedenen Bildern stammen und als negative Paare behandelt werden. So kann das Modell effektive Darstellungen basierend auf den Beziehungen zwischen den Bildern lernen.
Bedeutung der Label-Effizienz
Ein grosser Vorteil des selbstüberwachten Lernens bei der Diagnose von diabetischer Retinopathie ist die Label-Effizienz. Viele traditionelle Methoden erfordern grosse Mengen an beschrifteten Daten, was viel Zeit und Aufwand in Anspruch nehmen kann. Im Gegensatz dazu kann dieser neue Ansatz gute Ergebnisse mit nur einer kleinen Anzahl von beschrifteten Bildern erzielen, was viele weitere potenzielle Anwendungen in der realen Welt ermöglicht. Das ist besonders vorteilhaft in medizinischen Bereichen, in denen beschriftete Daten rar sind.
Wissenstransfer über Domänen
Ausserdem kann das Modell auf verschiedene Datensätze oder Domänen angewendet werden. Das nennt man Wissenstransfer über Domänen. In unserer Forschung können wir ein Modell verwenden, das von einem Datensatz gelernt hat und es auf einen anderen Datensatz mit unterschiedlichen Eigenschaften anwenden. Zum Beispiel kann ein Modell, das auf einem Bildsatz trainiert wurde, trotzdem effektiv Bilder aus einer anderen Quelle klassifizieren.
In der Praxis bedeutet das, dass, wenn wir ein Modell auf einem Satz von Bildern der diabetischen Retinopathie trainieren, es trotzdem gut mit Daten aus einer anderen Quelle funktionieren könnte, die mit einer anderen Kamera oder in einer anderen Umgebung erfasst wurden. Das ist nützlich, weil es eine breitere Anwendung der erlernten Fähigkeiten ermöglicht, ohne jedes Mal riesige Mengen neuer beschrifteter Daten sammeln zu müssen.
Experimente mit verschiedenen Datensätzen
Um diese Methode zu testen, haben Forscher Experimente mit vier verschiedenen öffentlichen Datensätzen durchgeführt: EyePACS, APTOS 2019, MESSIDOR-I und Fundusbilder. EyePACS umfasst viele hochwertige Netzhautbilder, die Ärzte basierend auf ihren Befunden beschriftet haben. APTOS 2019 enthält ebenfalls Bilder, die nach dem Schweregrad der diabetischen Retinopathie beschriftet sind. Der MESSIDOR-I-Datensatz konzentriert sich auf verschiedene Bewertungsskalen für Retinopathiebilder. Fundusbilder bieten weitere Proben von einer medizinischen Einrichtung in Paraguay.
Durch die Anwendung selbstüberwachter Methoden zeigten die Forscher, dass das Modell effektiv lernen konnte, Bilder der diabetischen Retinopathie zu klassifizieren. Die Ergebnisse dieser Datensätze zeigten, dass der Ansatz des selbstüberwachten Lernens viele bestehende Methoden übertraf.
Ergebnisse
In den Experimenten erreichte das KI-Modell hohe Genauigkeitsraten. Zum Beispiel erreichte es über 99% Genauigkeit, als nur ein kleiner Bruchteil der verfügbaren Bilder aus dem APTOS 2019-Datensatz verwendet wurde. Bei den Experimenten mit dem MESSIDOR-I-Datensatz lag die Genauigkeit bei etwa 98%. Selbst bei den Fundusbildern erzielte das Modell gute Ergebnisse und zeigte seine Robustheit über verschiedene Datentypen hinweg.
Die Forscher bewerteten das Modell auch mit Hilfe von Klassifikationsaktivierungskarten, die helfen, zu visualisieren, welche Teile eines Bildes zu einer bestimmten Klassifizierung beigetragen haben. Diese Technik zeigt, dass das Modell nützliche Merkmale lernen und seine Vorhersagen erklären kann, was in medizinischen Anwendungen wichtig ist.
Vergleich mit traditionellen Ansätzen
Im Vergleich zu traditionellen überwachten Lernmethoden hat dieser selbstüberwachte Ansatz klare Vorteile. Viele bestehende Methoden sind stark auf beschriftete Daten angewiesen, die im medizinischen Bereich schwer zu bekommen sind. Das kann zu schlechterer Leistung führen, weil nicht genügend beschriftete Daten zur Verfügung stehen, um das Modell zu trainieren.
Zum Beispiel mussten Methoden, die zuvor niedrigere Genauigkeitsraten im Vergleich zu dem neuen Ansatz erzielten, auf grössere Datensätze zurückgreifen, bei denen mögliche Ungenauigkeiten ihre Leistung beeinflussen konnten. Im Gegensatz dazu ermöglicht die neue selbstüberwachte Methode dem Modell, sich anzupassen und auch mit weniger beschrifteten Bildern gut abzuschneiden, was eine breitere Anwendbarkeit in verschiedenen Situationen gewährleistet.
Zukünftige Richtungen
In Zukunft gibt es viele spannende Möglichkeiten, selbstüberwachtes Lernen in der medizinischen Bildanalyse anzuwenden. Die Forscher wollen diesen Ansatz über die Klassifizierung von diabetischer Retinopathie hinaus auf andere medizinische Bildgebungsaufgaben ausdehnen. Zukünftige Arbeiten könnten sich auf Aufgaben wie Bildsegmentierung oder Lokalisierung konzentrieren, bei denen das Erkennen spezifischer Regionen in einem Bild wichtig ist.
Ausserdem planen die Forscher, andere Methoden des Repräsentationslernens zu untersuchen, die nicht auf kontrastiven Techniken basieren. Das könnte die Leistung und Effizienz beim Umgang mit Bildern aus verschiedenen Domänen weiter verbessern.
Fazit
Zusammenfassend stellt das selbstüberwachte Lernen einen bedeutenden Fortschritt im Bereich der medizinischen Bildanalyse dar. Durch die Reduzierung des Bedarfs an beschrifteten Daten und die Ermöglichung effektiver Anwendungen über Domänen hinweg bietet dieser Ansatz grosses Potenzial zur Verbesserung der Diagnose und Behandlung von diabetischer Retinopathie und ähnlichen Erkrankungen. Die Ergebnisse zeigen vielversprechende Ansätze, und während die Technologie weiterentwickelt wird, können diese Methoden die Patientenversorgung verbessern und die Belastung für medizinische Fachkräfte verringern.
Titel: Learning Self-Supervised Representations for Label Efficient Cross-Domain Knowledge Transfer on Diabetic Retinopathy Fundus Images
Zusammenfassung: This work presents a novel label-efficient selfsupervised representation learning-based approach for classifying diabetic retinopathy (DR) images in cross-domain settings. Most of the existing DR image classification methods are based on supervised learning which requires a lot of time-consuming and expensive medical domain experts-annotated data for training. The proposed approach uses the prior learning from the source DR image dataset to classify images drawn from the target datasets. The image representations learned from the unlabeled source domain dataset through contrastive learning are used to classify DR images from the target domain dataset. Moreover, the proposed approach requires a few labeled images to perform successfully on DR image classification tasks in cross-domain settings. The proposed work experiments with four publicly available datasets: EyePACS, APTOS 2019, MESSIDOR-I, and Fundus Images for self-supervised representation learning-based DR image classification in cross-domain settings. The proposed method achieves state-of-the-art results on binary and multiclassification of DR images, even in cross-domain settings. The proposed method outperforms the existing DR image binary and multi-class classification methods proposed in the literature. The proposed method is also validated qualitatively using class activation maps, revealing that the method can learn explainable image representations. The source code and trained models are published on GitHub.
Autoren: Ekta Gupta, Varun Gupta, Muskaan Chopra, Prakash Chandra Chhipa, Marcus Liwicki
Letzte Aktualisierung: 2023-04-20 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2304.11168
Quell-PDF: https://arxiv.org/pdf/2304.11168
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://github.com/prakashchhipa/Learning-Self-Supervised-Representations-for-Label-Efficient-Cross-Domain-Knowledge-Transfer-on-DRF
- https://www.kaggle.com/c/diabetic-retinopathy-detection/data
- https://www.kaggle.com/competitions/aptos2019-blindness-detection/data
- https://www.adcis.net/en/third-party/messidor
- https://doi.org/10.1016/j.dib.2021.107068