MedShapeNet: Eine wertvolle Ressource für medizinische Formen
Eine grosse Sammlung von 3D-medizinischen Formen für Forschung und Ausbildung.
― 7 min Lesedauer
Inhaltsverzeichnis
MedShapeNet ist eine grosse Sammlung von 3D-Modellen medizinischer Formen. Dazu gehören Details wie Knochen, Organe, Blutgefässe und Modelle von chirurgischen Instrumenten. Das Ziel ist, die Nutzung dieser Formen in der medizinischen Bildgebung und Forschung zu verbessern. Formen sind in der Medizin wichtig. Sie helfen uns zu verstehen, wie verschiedene Körperteile aussehen und funktionieren. Eine grosse Bibliothek dieser Formen kann Forschern und medizinischen Fachkräften helfen.
Vor dem Aufkommen von Deep Learning nutzte die medizinische Forschung oft statistische Formenmodelle zur Datenanalyse. Diese Modelle beschrieben die Formen medizinischer Daten effektiv. Moderne Deep-Learning-Techniken konzentrieren sich jedoch oft stärker auf voxelbasierte Daten, die weniger über Formen und mehr über Raster von Datenpunkten sprechen. Im Gegensatz dazu ziehen die Bereiche der Computer Vision oft Formen als Datenformen vor. Formen können auf verschiedene Arten dargestellt werden, wie z. B. Voxelraster, Netze, Punktwolken und mehr. Das sieht man in vielen veröffentlichten Arbeiten auf den besten Vision-Konferenzen.
MedShapeNet wurde als Alternative zu anderen Formdatenbanken wie ShapeNet und ModelNet erstellt. Es soll die Anwendung von Machine-Learning-Algorithmen auf medizinische Probleme erleichtern. Viele der Formen in MedShapeNet stammen direkt aus echten Patientendaten, was es nützlicher macht als andere Datenbanken, die hauptsächlich computergenerierte Modelle verwenden.
Derzeit hat MedShapeNet über 100.000 medizinische Formen und bietet Annotationen für diese Formen. Dieser Datensatz ist kostenlos für verschiedene Anwendungen verfügbar, einschliesslich Virtual Reality, Augmented Reality und medizinischem 3D-Druck. Dieses Papier erklärt die Gründe für die Erstellung von MedShapeNet, wie die Formen gesammelt wurden, mögliche Anwendungen und wie man online darauf zugreifen kann.
Bedeutung von Formen in der Medizin
Das Studium von Formen ist in vielen Bereichen der Medizin entscheidend. 3D-Modelle helfen Gesundheitsfachkräften, Operationen zu planen und komplexe anatomische Beziehungen zu verstehen. Im Falle der chirurgischen Planung ermöglicht ein detailliertes 3D-Modell der Anatomie eines Patienten den Ärzten, sich vorzustellen, was sie während der Operation tun werden. Das kann die Ergebnisse von Operationen verbessern und Risiken für Patienten verringern.
Medizinische Fachkräfte nutzen diese Modelle auch zur Ausbildung. Medizinstudenten können Anatomie effektiver lernen, wenn sie 3D-Modelle erkunden und manipulieren können. Der Einsatz von Virtual- oder Augmented-Reality-Technologie verbessert dieses Lernerlebnis.
Genau 3D-Modelle sind besonders wichtig für Bereiche wie Radiologie und Chirurgie. Diese Bereiche haben oft mit komplizierten Formen zu tun, die sich nicht immer gut in traditionelle Bildformate übersetzen lassen. Daher können Datensätze wie MedShapeNet die Lücke schliessen und es Forschern erleichtern, Techniken der Computer Vision auf reale medizinische Szenarien anzuwenden.
Wie MedShapeNet erstellt wurde
MedShapeNet wurde aus verschiedenen Quellen erstellt. Die Formen darin wurden aus binären Segmentierungsmasken generiert, die im Wesentlichen 3D-Darstellungen verschiedener anatomischer Strukturen sind. Techniken wie Marching Cubes wurden verwendet, um diese Masken in nutzbare Modelle umzuwandeln. Die Segmentierungsmasken wurden aus verschiedenen Quellen gewonnen, einschliesslich automatisierter Systeme und manueller Annotationen von medizinischen Bildgebungsherausforderungen.
Zum Beispiel stellte der TotalSegmentator-Datensatz über 1.000 CT-Scans mit entsprechenden Segmentierungen für verschiedene anatomische Strukturen bereit. Andere Quellen umfassten das Human Connectome Project, das Gehirnbilddaten bereitstellt, sowie spezifische Datensätze, die sich auf die Aorta und andere Körperteile konzentrieren.
MedShapeNet legt auch Wert auf Privatsphäre. Da Patientendaten sensibel sind, haben die Entwickler darauf geachtet, nur Formen einzuschliessen, die keine identifizierbaren Informationen über Patienten preisgeben. Der Datensatz konzentriert sich auf anatomische Formen, nicht auf Graustufen-medizinische Bilder, die persönliche Daten enthalten können.
Inhalte von MedShapeNet
MedShapeNet enthält eine Vielzahl von Formen, die mit dem menschlichen Körper zusammenhängen. Diese Formen umfassen:
- Knochen: Wie Schädel, Rippen und Wirbel.
- Organe: Einschliesslich Gehirn, Lunge, Herz und Leber.
- Blutgefässe: Modelle der Aorta und anderer Gefässe.
- Muskeln: Verschiedene Muskelformen und -konfigurationen.
- Chirurgische Instrumente: Detaillierte Modelle von Werkzeugen, die in der Chirurgie verwendet werden.
Jede Form ist annotiert, was bedeutet, dass sie mit zusätzlichen Informationen kommt, die Forschern helfen können, ihren Kontext zu verstehen. Zum Beispiel könnte eine anatomische Form als „gesundes Leber“ oder „tumoröses Nieren“ gekennzeichnet sein, was für das Training von Machine Learning-Modellen wichtig sein kann.
Verwendung von MedShapeNet
Die Nutzung von MedShapeNet ist unkompliziert. Forscher können über eine Online-Oberfläche auf die Formen zugreifen. Sie können nach spezifischen anatomischen Teilen suchen und die Modelle herunterladen, die sie benötigen. Die Modelle können in 3D betrachtet werden, was eine detaillierte Untersuchung vor der Verwendung ermöglicht.
Forscher, die sich für spezifische Bereiche wie Krebsfrüherkennung oder chirurgische Planung interessieren, können nützliche Modelle finden. Die Formen können auch in verschiedene Software für Augmented Reality und Virtual Reality integriert werden, was sie sowohl für die Ausbildung als auch für praktische medizinische Anwendungen wertvoll macht.
Anwendungen von MedShapeNet
1. Chirurgische Planung
MedShapeNet kann zur Verbesserung der chirurgischen Planung genutzt werden. Chirurgen können die 3D-Modelle verwenden, um die Anatomie ihrer Patienten vor den Eingriffen zu visualisieren. Das hilft ihnen, den besten Ansatz zu verstehen und reduziert Risiken während der Operation.
Bildung
2. MedizinischeMedizinstudenten und -fachkräfte können MedShapeNet zur Anatomieausbildung nutzen. Die Interaktion mit 3D-Modellen verbessert das Lernen. Studierende können üben, verschiedene Strukturen zu identifizieren und deren Beziehungen zu verstehen.
3. Forschung in der Bildgebung
Forscher können diese Formen nutzen, um ihre Studien in der medizinischen Bildgebung und Computer Vision zu verbessern. Durch die Verwendung der Modelle in Experimenten können sie Algorithmen trainieren, um gesunde und erkrankte Gewebe anhand der Formanalyse zu erkennen und zu unterscheiden, anstatt sich nur auf Voxel-Daten zu konzentrieren.
4. Augmented und Virtual Reality
Die Modelle von MedShapeNet sind perfekt für Anwendungen in Augmented Reality (AR) und Virtual Reality (VR). Das kann für medizinisches Training genutzt werden, um Schülern zu ermöglichen, Operationen zu simulieren oder Anatomie in einer vollständig immersiven Umgebung zu verstehen.
5. Datenanalyse
MedShapeNet kann auch Machine-Learning-Bemühungen unterstützen, die darauf abzielen, neue Muster in medizinischen Daten zu entdecken. Durch die Analyse von Formen können Forscher einzigartige Marker identifizieren, die mit verschiedenen Krankheiten verbunden sind, und damit innovative diagnostische Methoden entwickeln.
Herausforderungen bei medizinischen Formdaten
Obwohl MedShapeNet ein wichtiger Schritt nach vorn ist, gibt es Herausforderungen zu berücksichtigen.
1. Datenvollständigkeit
Obwohl der Datensatz umfangreich ist, gibt es immer Lücken. Bestimmte anatomische Strukturen oder Pathologien sind möglicherweise nicht gut vertreten, was den Nutzen des Datensatzes in bestimmten Forschungsbereichen einschränken kann.
2. Integration mit bestehenden Systemen
Forscher verwenden oft verschiedene Software und Systeme. Die Integration der MedShapeNet-Modelle mit diesen bestehenden Frameworks kann zusätzliche Arbeit erfordern, z. B. das Konvertieren von Formaten oder die Gewährleistung der Kompatibilität.
3. Ethische Bedenken
Die Verwendung medizinischer Daten bringt stets ethische Verantwortung mit sich. Obwohl MedShapeNet darauf abzielt, die Identitäten der Patienten zu schützen, muss jede Forschung, die medizinische Daten beinhaltet, strengen ethischen Richtlinien folgen, um Privatsphäre und Sicherheit zu gewährleisten.
Zukünftige Richtungen für MedShapeNet
Um MedShapeNet weiter zu verbessern, werden die Bemühungen auf die Erweiterung seiner Sammlung und die Verbesserung seiner Funktionalität konzentriert. Die Entwickler möchten:
- Die Anzahl der verfügbaren Formen erhöhen, insbesondere in Bezug auf Krankheiten.
- MedShapeNet breiter in akademischen und klinischen Umgebungen bewerben, um das Bewusstsein und die Nutzung zu steigern.
- Neue Benchmarks für die Bewertung von Modellen mithilfe des Datensatzes etablieren.
- Die Online-Oberfläche weiter verbessern, um den Zugang und die Navigation zu erleichtern.
- Detailliertere Annotationen für die vorhandenen Formen sammeln.
Durch diese Massnahmen kann MedShapeNet die medizinische und Forschungsgemeinschaft besser unterstützen und das Wachstum in beiden Bereichen fördern.
Fazit
MedShapeNet stellt eine wichtige Ressource an der Schnittstelle von Computer Vision und Medizin dar. Mit einer umfangreichen Sammlung von 3D-Modellen anatomischer Formen unterstützt es sowohl die akademische Forschung als auch praktische medizinische Anwendungen. Seine Entwicklung zeigt das Engagement zur Verbesserung der medizinischen Ausbildung, zur Verbesserung der chirurgischen Ergebnisse und zur Förderung der Forschung in der medizinischen Bildgebung.
Während MedShapeNet weiter wächst, verspricht es, die Lücken zwischen verschiedenen medizinischen Bereichen und Technologie zu schliessen, was zu besseren Ergebnissen in der Patientenversorgung und Forschungsfortschritten führt. Diese Initiative bereichert nicht nur die verfügbaren Ressourcen, sondern fördert auch die Zusammenarbeit zwischen Forschern und medizinischen Fachleuten, um herausfordernde Probleme im medizinischen Bereich zu bewältigen.
Titel: MedShapeNet -- A Large-Scale Dataset of 3D Medical Shapes for Computer Vision
Zusammenfassung: Prior to the deep learning era, shape was commonly used to describe the objects. Nowadays, state-of-the-art (SOTA) algorithms in medical imaging are predominantly diverging from computer vision, where voxel grids, meshes, point clouds, and implicit surface models are used. This is seen from numerous shape-related publications in premier vision conferences as well as the growing popularity of ShapeNet (about 51,300 models) and Princeton ModelNet (127,915 models). For the medical domain, we present a large collection of anatomical shapes (e.g., bones, organs, vessels) and 3D models of surgical instrument, called MedShapeNet, created to facilitate the translation of data-driven vision algorithms to medical applications and to adapt SOTA vision algorithms to medical problems. As a unique feature, we directly model the majority of shapes on the imaging data of real patients. As of today, MedShapeNet includes 23 dataset with more than 100,000 shapes that are paired with annotations (ground truth). Our data is freely accessible via a web interface and a Python application programming interface (API) and can be used for discriminative, reconstructive, and variational benchmarks as well as various applications in virtual, augmented, or mixed reality, and 3D printing. Exemplary, we present use cases in the fields of classification of brain tumors, facial and skull reconstructions, multi-class anatomy completion, education, and 3D printing. In future, we will extend the data and improve the interfaces. The project pages are: https://medshapenet.ikim.nrw/ and https://github.com/Jianningli/medshapenet-feedback
Autoren: Jianning Li, Zongwei Zhou, Jiancheng Yang, Antonio Pepe, Christina Gsaxner, Gijs Luijten, Chongyu Qu, Tiezheng Zhang, Xiaoxi Chen, Wenxuan Li, Marek Wodzinski, Paul Friedrich, Kangxian Xie, Yuan Jin, Narmada Ambigapathy, Enrico Nasca, Naida Solak, Gian Marco Melito, Viet Duc Vu, Afaque R. Memon, Christopher Schlachta, Sandrine De Ribaupierre, Rajnikant Patel, Roy Eagleson, Xiaojun Chen, Heinrich Mächler, Jan Stefan Kirschke, Ezequiel de la Rosa, Patrick Ferdinand Christ, Hongwei Bran Li, David G. Ellis, Michele R. Aizenberg, Sergios Gatidis, Thomas Küstner, Nadya Shusharina, Nicholas Heller, Vincent Andrearczyk, Adrien Depeursinge, Mathieu Hatt, Anjany Sekuboyina, Maximilian Löffler, Hans Liebl, Reuben Dorent, Tom Vercauteren, Jonathan Shapey, Aaron Kujawa, Stefan Cornelissen, Patrick Langenhuizen, Achraf Ben-Hamadou, Ahmed Rekik, Sergi Pujades, Edmond Boyer, Federico Bolelli, Costantino Grana, Luca Lumetti, Hamidreza Salehi, Jun Ma, Yao Zhang, Ramtin Gharleghi, Susann Beier, Arcot Sowmya, Eduardo A. Garza-Villarreal, Thania Balducci, Diego Angeles-Valdez, Roberto Souza, Leticia Rittner, Richard Frayne, Yuanfeng Ji, Vincenzo Ferrari, Soumick Chatterjee, Florian Dubost, Stefanie Schreiber, Hendrik Mattern, Oliver Speck, Daniel Haehn, Christoph John, Andreas Nürnberger, João Pedrosa, Carlos Ferreira, Guilherme Aresta, António Cunha, Aurélio Campilho, Yannick Suter, Jose Garcia, Alain Lalande, Vicky Vandenbossche, Aline Van Oevelen, Kate Duquesne, Hamza Mekhzoum, Jef Vandemeulebroucke, Emmanuel Audenaert, Claudia Krebs, Timo van Leeuwen, Evie Vereecke, Hauke Heidemeyer, Rainer Röhrig, Frank Hölzle, Vahid Badeli, Kathrin Krieger, Matthias Gunzer, Jianxu Chen, Timo van Meegdenburg, Amin Dada, Miriam Balzer, Jana Fragemann, Frederic Jonske, Moritz Rempe, Stanislav Malorodov, Fin H. Bahnsen, Constantin Seibold, Alexander Jaus, Zdravko Marinov, Paul F. Jaeger, Rainer Stiefelhagen, Ana Sofia Santos, Mariana Lindo, André Ferreira, Victor Alves, Michael Kamp, Amr Abourayya, Felix Nensa, Fabian Hörst, Alexander Brehmer, Lukas Heine, Yannik Hanusrichter, Martin Weßling, Marcel Dudda, Lars E. Podleska, Matthias A. Fink, Julius Keyl, Konstantinos Tserpes, Moon-Sung Kim, Shireen Elhabian, Hans Lamecker, Dženan Zukić, Beatriz Paniagua, Christian Wachinger, Martin Urschler, Luc Duong, Jakob Wasserthal, Peter F. Hoyer, Oliver Basu, Thomas Maal, Max J. H. Witjes, Gregor Schiele, Ti-chiun Chang, Seyed-Ahmad Ahmadi, Ping Luo, Bjoern Menze, Mauricio Reyes, Thomas M. Deserno, Christos Davatzikos, Behrus Puladi, Pascal Fua, Alan L. Yuille, Jens Kleesiek, Jan Egger
Letzte Aktualisierung: 2023-12-12 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2308.16139
Quell-PDF: https://arxiv.org/pdf/2308.16139
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://www.michaelshell.org/
- https://www.michaelshell.org/tex/ieeetran/
- https://www.ctan.org/pkg/ieeetran
- https://www.ieee.org/
- https://www.latex-project.org/
- https://www.michaelshell.org/tex/testflow/
- https://www.ctan.org/pkg/ifpdf
- https://www.ctan.org/pkg/cite
- https://medshapenet.ikim.nrw/
- https://shapemi.github.io/
- https://www.zib.de/projects/shape-informed-medical-image-segmentation
- https://www.zib.de/projects/geometric-analysis-human-spine-image-based-diagnosis-biomechanical-analysis-and-neurosurgery
- https://www.miccai.org/special-interest-groups/shape-modeling-and-analysis/
- https://autoimplant.grand-challenge.org/
- https://autoimplant2021.grand-challenge.org/
- https://www.birs.ca/events/2021/5-day-workshops/21w5128
- https://link.springer.com/book/10.1007/978-3-030-93722-5
- https://link.springer.com/book/10.1007/978-3-319-03813-1
- https://www.sci.utah.edu/cibc-trd/160-iga.html
- https://geomedia-workshop.github.io/
- https://www.embs.org/wp-content/uploads/2021/02/TMI-CFP-GDL_final.pdf
- https://proceedings.mlr.press/v194/
- https://link.springer.com/book/10.1007/978-3-642-55987-7
- https://doi.org/10.5281/zenodo.6802613
- https://doi.org/10.6084/m9.figshare.9616319
- https://humanconnectome.org/
- https://www.humanconnectome.org/study/hcp-young-adult/document/wu-minn-hcp-consortium-open-access-data-use-terms
- https://doi.org/10.6084/m9.figshare.8857007.v2
- https://doi.org/10.6084/m9.figshare.14806362
- https://doi.org/10.6084/m9.figshare.7435385.v2
- https://autoimplant2021.grand-challenge.org/Dataset/
- https://doi.org/10.6084/m9.figshare.14161307.v1
- https://github.com/anjany/verse
- https://github.com/neheller/kits21
- https://www.synapse.org/#!Synapse:syn27046444/wiki/
- https://github.com/abenhamadou/3DTeethSeg22_challenge
- https://hecktor.grand-challenge.org/
- https://zenodo.org/record/6504722
- https://competitions.codalab.org/competitions/17094
- https://isles22.grand-challenge.org/
- https://doi.org/10.7937/TCIA.T905-ZQ20
- https://wiki.cancerimagingarchive.net/display/Public/Data+Usage+Policies+and+Restrictions
- https://autopet.grand-challenge.org/
- https://github.com/JunMa11/AbdomenCT-1K
- https://flare22.grand-challenge.org/
- https://toothfairychallenges.github.io/
- https://asoca.grand-challenge.org/
- https://portal.conp.ca/dataset?id=projects/calgary-campinas
- https://openneuro.org/datasets/ds003346/versions/1.1.2
- https://zenodo.org/record/7155725#.Y0OOCOxBztM
- https://lndb.grand-challenge.org/
- https://zenodo.org/record/8014041
- https://www.nature.com/articles/sdata2017117
- https://emidec.com/segmentation-contest
- https://doi.org/10.6084/m9.figshare.13055663
- https://doi.org/10.6084/m9.figshare.c.5904905.v1
- https://brainsuite.org/
- https://headctstudy.qure.ai/dataset
- https://xrlab.ikim.nrw/
- https://github.com/Jianningli/medshapenet-feedback
- https://shapenet.org/
- https://medshapenet-ikim.streamlit.app/
- https://kite.ikim.nrw/
- https://enfaced2.ikim.nrw/
- https://autoimplant.ikim.nrw/
- https://zvrm.ume.de/