Fortschrittliche Tumorerkennung mit nnUNet in der medizinischen Bildgebung
Neue Methoden verbessern die Genauigkeit bei der Identifizierung von Tumoren aus PET-CT-Scans.
― 6 min Lesedauer
Inhaltsverzeichnis
In den letzten Jahren ist medizinische Bildgebung entscheidend geworden, um Ärzten zu helfen, Krebs zu finden und zu verfolgen. Eine der gängigsten Bildgebungstechniken ist eine Kombination aus einem speziellen Scan namens Fluorodeoxyglucose-Positronen-Emissions-Tomographie (FDG-PET) und Computertomographie (CT). Diese Kombination hilft dabei, Tumore zu entdecken und zu überwachen, wie sie sich im Laufe der Zeit verändern. Allerdings dauert das manuelle Markieren dieser Tumore in Bildern viel Zeit und kann von Arzt zu Arzt unterschiedlich sein, was es weniger zuverlässig macht.
Um diese Herausforderungen anzugehen, haben Forscher automatisierte Methoden entwickelt, die helfen können, Tumore genauer zu identifizieren. Leider haben diese automatisierten Systeme oft Probleme damit, gesunde Körperbereiche fälschlicherweise als Tumore zu identifizieren, besonders wenn sie mit einer Vielzahl von Tumorarten konfrontiert werden. Diese Diskussion wird sich auf die Verwendung eines bestimmten Werkzeugs namens NnUNet konzentrieren, um Tumore aus Ganzkörper-PET-CT-Scans zu segmentieren. Ziel ist es, die besten Möglichkeiten zu finden, um diese Modelle für eine bessere Genauigkeit zu trainieren und zu verarbeiten.
In dieser Studie erzielte ein Modell eine Dice-Score von 69 %, was misst, wie gut die Vorhersagen des Modells mit den tatsächlichen Tumorbereichen übereinstimmen. Ausserdem war das Volumen fälschlich identifizierter Tumore mit 5,78 mL relativ niedrig. Dieses Modell ist Teil der Autopet 2023-Herausforderung, bei der Forscher die Tumorerkennung in der medizinischen Bildgebung verbessern wollen.
PET-Scans verwenden eine radioaktive, zuckerähnliche Substanz, um Bereiche mit hohem Zuckergebrauch im Körper darzustellen. Diese Bereiche können auf das Vorhandensein von Tumoren hinweisen, da Krebszellen oft mehr Glukose konsumieren als normale Zellen. Währenddessen liefern CT-Scans detaillierte Bilder von der Körperstruktur, was Ärzten hilft, zwischen krebsartigem und gesundem Gewebe zu unterscheiden. Eine genaue Tumorerkennung und -messung sind entscheidend für eine effektive Diagnose und die Verfolgung des Krankheitsverlaufs. Manuelle Segmentierung ist nicht nur zeitaufwendig, sondern kann auch inkonsistente Ergebnisse liefern, da verschiedene Ärzte die Bilder unterschiedlich interpretieren können.
Forscher haben herausgefunden, dass die Verwendung von Deep-Learning-Algorithmen, wie z.B. Faltungsneuronalen Netzen, effektive Tumorsementierung erzeugen kann. Allerdings bleibt die Segmentierung von Tumoren in Ganzkörper-PET-CT-Scans aufgrund der Komplexität, Daten aus verschiedenen Bildgebungsverfahren zu kombinieren, und der grossen Vielfalt an Tumorformen und -grössen schwierig.
Im Vorjahr haben einige Modelle hohe Erfolge erzielt, wobei das beste Modell einen Dice-Score von 0,79 aufwies. Diese Modelle hatten jedoch oft Schwierigkeiten, wenn die Bilder von verschiedenen Krankenhäusern stammten. Die Herausforderung in diesem Jahr, genannt Autopet-ii, zielt darauf ab, die Fähigkeit der Modelle zu verbessern, mit verschiedenen Bildgebungsprotokollen und Standorten zu arbeiten. Die Aufgabe wird durch Verschiebungen in der Bildqualität und -klarheit erschwert, die durch den Einsatz unterschiedlicher Maschinen oder unterschiedliche Geräuschpegel in den Bildern entstehen können. Ausserdem gibt es nicht viele öffentlich verfügbare Datensätze zum Trainieren dieser Modelle, was den Aufbau zuverlässiger Systeme erschwert.
Um dabei zu helfen, haben die Organisatoren einen grossen Datensatz von Ganzkörper-PET-CT-Scans von Patienten bereitgestellt, einige mit Tumoren und andere ohne. Dieser Datensatz ist entscheidend für die Entwicklung besserer Modelle, die mit unterschiedlichen Bildtypen umgehen können.
Diese Studie konzentriert sich auf nnUNet, ein Tool für die semantische Segmentierung, das sich automatisch an verschiedene Datensätze anpasst. Es hat sich in einer Vielzahl von medizinischen Bildgebungsaufgaben gut bewährt, was auf sein Potenzial für dieses Projekt hinweist. Ziel war es, verschiedene Möglichkeiten zu identifizieren, um die finalen Vorhersagen durch Nachbearbeitungstechniken zu verbessern.
Die Herausforderung stellte einen Datensatz mit 1016 Ganzkörper-PET-CT-Scans bereit, die mit Masken erstellt wurden, die von zwei Radiologen erstellt wurden. Diese Bilder stammen aus zwei akademischen Krankenhäusern, die spezifische Bildgebungsmaschinen verwendet haben. Von den 900 Patienten hatten die Hälfte Krebs, während die andere Hälfte krebsfrei war. Zusätzlich wurde ein versteckter Testsatz von Bildern verwendet, um die Leistung des Modells besser zu bewerten.
Ein Modell, das getestet wurde, kombinierte diese Scans mit anderen aus einer separaten Herausforderung, die sich auf Kopf- und Halskrebs konzentrierte. Die Idee war, ein breiteres Spektrum an Bildern für das Training zur Verfügung zu stellen, was dem Modell helfen könnte, anpassungsfähiger und robuster zu sein.
Vor dem Training wurden die DICOM-Dateien, die die Scandaten enthalten, angepasst, um die Bildgebungsauflösung zu berücksichtigen. Die PET- und CT-Bilder wurden bearbeitet, um eine konsistente Qualität sicherzustellen. Anschliessend wurden die Bilder zu zweikanaligen 3D-Bildern für das Modelltraining kombiniert. Die meisten Daten wurden für das Training verwendet, während ein kleinerer Teil für Tests reserviert blieb.
Das nnUNet-Modell wurde auf einem Hochleistungscomputer über mehrere Runden trainiert, um die Konsistenz der Ergebnisse zu überprüfen. Bei jeder Trainingssitzung wurde darauf geachtet, dass das Modell eine ausgewogene Anzahl von Bildern mit und ohne Tumoren sah. Dies half dem Modell, Tumore besser zu erkennen.
Während des Trainings wurden verschiedene Techniken angewendet, um die Fähigkeit des Modells zur Erkennung von Tumoren zu verbessern. Dazu gehörten zufällige Anpassungen der Bilder, um unterschiedliche Bedingungen zu simulieren, sodass das Modell aus einem breiteren Set von Beispielen lernen konnte. Nach Abschluss der Trainingsphase wurden verschiedene Methoden getestet, um die Vorhersagen zu verfeinern, z.B. das Entfernen kleiner vorhergesagter Tumorbereiche, die möglicherweise falsch beschriftet wurden.
Zur Leistungsbewertung wurden die Modelle mit zurückgehaltenen Bildern getestet. Die Ergebnisse wurden anhand von Metriken bewertet, die die Genauigkeit bei der Segmentierung von Tumoren und das Volumen fälschlicherweise identifizierter Bereiche massen. Obwohl das Modell einen guten Dice-Score zeigte, produzierte es dennoch eine erhebliche Anzahl von falsch positiven und falsch negativen Ergebnissen.
Eines der Modelle, das während der Tests am besten abschnitt, wurde zur Herausforderung eingereicht. Es gibt jedoch noch viel zu untersuchen, um zukünftige Verbesserungen zu erzielen. Das Modell war zwar effektiv, erzeugte jedoch eine erhebliche Anzahl von ungenauen Vorhersagen. Das Kombinieren mehrerer Modelle oder die Verwendung verschiedener Eingaben wie nur PET- oder nur CT-Scans könnte helfen, die Ergebnisse zu verbessern. Frühere Herausforderungen haben gezeigt, dass Ensemble-Methoden tendenziell bessere Ergebnisse liefern als Einzelmodelle.
Ein weiterer Ansatz wäre die Entwicklung eines End-to-End-Modells, das die Anzahl kleiner falsch positiver Ergebnisse minimiert und so die Notwendigkeit späterer Anpassungen reduziert. Auch das Anpassen der Bewertungsmethoden während des Modelltrainings könnte helfen, spezifische Probleme gezielter anzugehen, insbesondere bei kleineren Vorhersagen.
Darüber hinaus könnte es hilfreich sein, zu verstehen, wie sicher das Modell in seinen Vorhersagen ist, insbesondere wenn es um Bilder aus verschiedenen Quellen geht. So könnte es einfacher werden, den Ergebnissen zu vertrauen und sie in realen Situationen anzuwenden.
Diese Arbeit zeigt die Flexibilität und den Erfolg des nnUNet-Modells, das mit minimalen Anpassungen gut abgeschnitten hat. Die Erkenntnisse aus dieser Herausforderung sind wertvoll, um zuverlässige Methoden zur Tumorsementierung in der medizinischen Bildgebung voranzubringen, was der Patientenversorgung erheblich zugutekommen könnte.
Die Forschung wurde durch verschiedene Stipendien und Programme unterstützt, die sich auf verantwortungsvolle Praktiken in der wissenschaftlichen Forschung konzentrieren. Es wurde die Offenheit der für diese Studie zur Verfügung gestellten PET-CT-Bilder gewürdigt, was den kollaborativen Geist der wissenschaftlichen Gemeinschaft bei der Arbeit an besseren Gesundheitslösungen hervorhebt.
Titel: Autopet Challenge 2023: nnUNet-based whole-body 3D PET-CT Tumour Segmentation
Zusammenfassung: Fluorodeoxyglucose Positron Emission Tomography (FDG-PET) combined with Computed Tomography (CT) scans are critical in oncology to the identification of solid tumours and the monitoring of their progression. However, precise and consistent lesion segmentation remains challenging, as manual segmentation is time-consuming and subject to intra- and inter-observer variability. Despite their promise, automated segmentation methods often struggle with false positive segmentation of regions of healthy metabolic activity, particularly when presented with such a complex range of tumours across the whole body. In this paper, we explore the application of the nnUNet to tumour segmentation of whole-body PET-CT scans and conduct different experiments on optimal training and post-processing strategies. Our best model obtains a Dice score of 69\% and a false negative and false positive volume of 6.27 and 5.78 mL respectively, on our internal test set. This model is submitted as part of the autoPET 2023 challenge. Our code is available at: https://github.com/anissa218/autopet\_nnunet
Autoren: Anissa Alloula, Daniel R McGowan, Bartłomiej W. Papież
Letzte Aktualisierung: 2024-10-25 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2309.13675
Quell-PDF: https://arxiv.org/pdf/2309.13675
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.