MedShapeNet: Una Risorsa Preziosa per le Forme Mediche
Una grande collezione di forme mediche 3D per ricerca e istruzione.
― 7 leggere min
Indice
MedShapeNet è una grande collezione di modelli 3D di forme mediche. Include dettagli come ossa, organi, vasi sanguigni e modelli di strumenti chirurgici. L'obiettivo è migliorare come usiamo queste forme nell'imaging medico e nella Ricerca. Le forme sono importanti in medicina. Ci aiutano a capire come appaiono e funzionano le diverse parti del corpo. Avere una grande libreria di queste forme può aiutare ricercatori e professionisti medici.
Prima della crescita del deep learning, la ricerca medica spesso usava modelli di forma statistica per analizzare i dati. Questi modelli descrivevano efficacemente le forme dei dati medici. Tuttavia, le tecniche moderne di deep learning si concentrano spesso di più sui dati basati su voxel, che riguardano meno le forme e più griglie di punti dati. Al contrario, i campi della visione computerizzata preferiscono spesso le forme come forme di dati. Le forme possono essere presentate in vari modi, come griglie voxel, mesh, nuvole di punti e altro. Questo è evidente in molti lavori pubblicati nelle principali conferenze di visione.
MedShapeNet è stato creato come un'alternativa ad altri database di forme come ShapeNet e ModelNet. Mira a rendere più facile applicare algoritmi di machine learning a problemi medici. Molte delle forme in MedShapeNet provengono direttamente da dati reale di pazienti, il che lo rende più utile rispetto ad altri database che utilizzano principalmente modelli generati al computer.
Attualmente, MedShapeNet ha oltre 100.000 forme mediche e fornisce annotazioni per queste forme. Questo dataset è liberamente disponibile per vari usi, compresi realtà virtuale, realtà aumentata e stampa 3D medica. Questo documento spiega i motivi per cui è stato creato MedShapeNet, come sono state raccolte le forme, i suoi possibili usi e come accedervi online.
Importanza delle Forme in Medicina
Lo studio delle forme è cruciale in molte aree della medicina. I modelli 3D aiutano i professionisti della salute a pianificare interventi chirurgici e a comprendere relazioni anatomiche complesse. Nel caso della pianificazione chirurgica, avere un modello 3D dettagliato dell'anatomia di un paziente permette ai medici di visualizzare cosa faranno durante l'intervento. Questo può migliorare i risultati delle operazioni e ridurre i rischi per i pazienti.
I professionisti medici usano anche questi modelli per l'educazione. Gli studenti di medicina possono apprendere l'anatomia più efficacemente quando possono esplorare e manipolare modelli 3D. L'uso della tecnologia di realtà virtuale o aumentata migliora questa esperienza di apprendimento.
Avere modelli 3D accurati è particolarmente importante per campi come la radiologia e la chirurgia. Queste aree affrontano spesso forme complicate che non si traducono sempre bene nei formati di imaging tradizionali. Pertanto, dataset come MedShapeNet possono colmare il divario, rendendo più facile per i ricercatori applicare tecniche di visione computerizzata a scenari medici reali.
Come è stato creato MedShapeNet
MedShapeNet è stato creato da una varietà di fonti. Le forme in esso sono state generate da maschere di Segmentazione binaria, che sono essenzialmente rappresentazioni 3D di diverse strutture anatomiche. Tecniche come Marching Cubes sono state utilizzate per convertire queste maschere in modelli utilizzabili. Le maschere di segmentazione sono state ottenute da diverse fonti, inclusi sistemi automatizzati e annotazioni manuali da sfide di imaging medico.
Ad esempio, il dataset TotalSegmentator ha fornito oltre 1.000 scansioni TC con relative segmentazioni per varie strutture anatomiche. Altre fonti includevano il Progetto Human Connectome, che fornisce dati di imaging cerebrale, e dataset specifici focalizzati sull'aorta e altre parti del corpo.
MedShapeNet sottolinea anche la privacy. Poiché le informazioni sui pazienti sono sensibili, gli sviluppatori hanno avuto cura di includere solo forme che non rivelano informazioni identificabili sui pazienti. Il dataset si concentra su forme anatomiche, non su immagini mediche in scala di grigi che possono contenere dati personali.
Contenuti di MedShapeNet
MedShapeNet contiene una varietà di forme relative al corpo umano. Queste forme includono:
- Ossa: come crani, costole e vertebre.
- Organi: incluso cervello, polmoni, cuore e fegato.
- Vasi Sanguigni: modelli dell'aorta e altri vasi.
- Muscoli: diverse forme e configurazioni muscolari.
- Strumenti Chirurgici: modelli dettagliati di strumenti usati in chirurgia.
Ogni forma è annotata, il che significa che viene fornita con informazioni aggiuntive che possono aiutare i ricercatori a capire il suo contesto. Ad esempio, una forma anatomica potrebbe essere etichettata come "fegato sano" o "rene tumorale", che può essere fondamentale per addestrare modelli di machine learning.
Come usare MedShapeNet
Usare MedShapeNet è semplice. I ricercatori possono accedere alle forme tramite un'interfaccia online. Possono cercare parti anatomiche specifiche e scaricare i modelli di cui hanno bisogno. I modelli possono essere visualizzati in 3D, permettendo un'ispezione dettagliata prima dell'uso.
I ricercatori interessati a studiare aree specifiche, come la rilevazione del cancro o la pianificazione chirurgica, possono trovare modelli utili. Le forme possono anche essere integrate in vari software per applicazioni di realtà aumentata e virtuale, rendendole preziose sia per l'educazione che per applicazioni mediche pratiche.
Applicazioni di MedShapeNet
1. Pianificazione Chirurgica
MedShapeNet può essere utilizzato per migliorare la pianificazione chirurgica. I chirurghi possono usare i modelli 3D per visualizzare l'anatomia dei loro pazienti prima delle procedure. Questo li aiuta a capire il miglior approccio da adottare e riduce i rischi durante l'intervento.
2. Educazione Medica
Gli studenti e i professionisti della medicina possono usare MedShapeNet per l'educazione all'anatomia. La possibilità di interagire con modelli 3D migliora l'apprendimento. Gli studenti possono esercitarsi a identificare diverse strutture e a capire le loro relazioni.
3. Ricerca nell'Imaging
I ricercatori possono usare queste forme per migliorare i loro studi nell'imaging medico e nella visione computerizzata. Utilizzando i modelli negli esperimenti, possono addestrare algoritmi a riconoscere e differenziare tra tessuti sani e malati basandosi sull'analisi delle forme piuttosto che solo sui dati voxel.
4. Realtà Aumentata e Virtuale
I modelli di MedShapeNet sono perfetti per applicazioni nella realtà aumentata (AR) e nella realtà virtuale (VR). Questo può essere usato per la formazione medica, permettendo agli studenti di simulare interventi chirurgici o comprendere l'anatomia in un ambiente completamente immersivo.
5. Analisi dei Dati
MedShapeNet può anche supportare gli sforzi di machine learning volti a scoprire nuovi modelli nei dati medici. Analizzando le forme, i ricercatori possono identificare marcatori unici associati a diverse malattie, aprendo la strada a metodi diagnostici innovativi.
Sfide nei Dati di Forma Medici
Sebbene MedShapeNet rappresenti un passo significativo avanti, ci sono sfide da considerare.
1. Completezza dei Dati
Sebbene il dataset sia esteso, ci sono sempre lacune. Alcune strutture anatomiche o patologie potrebbero non essere ben rappresentate, il che può limitare l'utilità del dataset in specifiche aree di ricerca.
2. Integrazione con Sistemi Esistenti
I ricercatori utilizzano spesso vari software e sistemi. Integrare i modelli di MedShapeNet con questi framework esistenti può richiedere lavoro aggiuntivo, come convertire formati o garantire compatibilità.
3. Preoccupazioni Etiche
L'uso di dati medici comporta sempre responsabilità etiche. Anche se MedShapeNet mira a proteggere le identità dei pazienti, qualsiasi ricerca che coinvolga dati medici deve aderire a rigorose linee guida etiche per garantire privacy e sicurezza.
Direzioni Future per MedShapeNet
Per continuare a migliorare MedShapeNet, gli sforzi si concentreranno sull'espansione della sua collezione e sul miglioramento della sua funzionalità. I creatori vogliono:
- Aumentare il numero di forme disponibili, specialmente quelle relative a malattie.
- Promuovere MedShapeNet in modo più ampio sia in contesti accademici che clinici per aumentare consapevolezza e utilizzo.
- Stabilire nuovi benchmark per la valutazione dei modelli utilizzando il dataset.
- Continuare a migliorare l'interfaccia online per un accesso e una navigazione più facili.
- Raccogliere annotazioni più dettagliate per le forme esistenti.
Facendo ciò, MedShapeNet può servire meglio le comunità mediche e di ricerca, facilitando la crescita in entrambi i campi.
Conclusione
MedShapeNet rappresenta una risorsa importante all'incrocio tra visione computerizzata e medicina. Fornendo una ricca collezione di modelli 3D di forme anatomiche, supporta sia la ricerca accademica che le applicazioni mediche pratiche. Il suo sviluppo riflette un impegno a migliorare l'educazione medica, migliorare i risultati chirurgici e avanzare la ricerca nell'imaging medico.
Man mano che MedShapeNet continua a evolversi, promette di colmare i divari tra i diversi campi medici e la tecnologia, portando a migliori risultati nella cura dei pazienti e nei progressi della ricerca. Questa iniziativa arricchisce non solo le risorse disponibili, ma favorisce anche la collaborazione tra ricercatori e professionisti medici per affrontare problemi sfidanti nel campo medico.
Titolo: MedShapeNet -- A Large-Scale Dataset of 3D Medical Shapes for Computer Vision
Estratto: Prior to the deep learning era, shape was commonly used to describe the objects. Nowadays, state-of-the-art (SOTA) algorithms in medical imaging are predominantly diverging from computer vision, where voxel grids, meshes, point clouds, and implicit surface models are used. This is seen from numerous shape-related publications in premier vision conferences as well as the growing popularity of ShapeNet (about 51,300 models) and Princeton ModelNet (127,915 models). For the medical domain, we present a large collection of anatomical shapes (e.g., bones, organs, vessels) and 3D models of surgical instrument, called MedShapeNet, created to facilitate the translation of data-driven vision algorithms to medical applications and to adapt SOTA vision algorithms to medical problems. As a unique feature, we directly model the majority of shapes on the imaging data of real patients. As of today, MedShapeNet includes 23 dataset with more than 100,000 shapes that are paired with annotations (ground truth). Our data is freely accessible via a web interface and a Python application programming interface (API) and can be used for discriminative, reconstructive, and variational benchmarks as well as various applications in virtual, augmented, or mixed reality, and 3D printing. Exemplary, we present use cases in the fields of classification of brain tumors, facial and skull reconstructions, multi-class anatomy completion, education, and 3D printing. In future, we will extend the data and improve the interfaces. The project pages are: https://medshapenet.ikim.nrw/ and https://github.com/Jianningli/medshapenet-feedback
Autori: Jianning Li, Zongwei Zhou, Jiancheng Yang, Antonio Pepe, Christina Gsaxner, Gijs Luijten, Chongyu Qu, Tiezheng Zhang, Xiaoxi Chen, Wenxuan Li, Marek Wodzinski, Paul Friedrich, Kangxian Xie, Yuan Jin, Narmada Ambigapathy, Enrico Nasca, Naida Solak, Gian Marco Melito, Viet Duc Vu, Afaque R. Memon, Christopher Schlachta, Sandrine De Ribaupierre, Rajnikant Patel, Roy Eagleson, Xiaojun Chen, Heinrich Mächler, Jan Stefan Kirschke, Ezequiel de la Rosa, Patrick Ferdinand Christ, Hongwei Bran Li, David G. Ellis, Michele R. Aizenberg, Sergios Gatidis, Thomas Küstner, Nadya Shusharina, Nicholas Heller, Vincent Andrearczyk, Adrien Depeursinge, Mathieu Hatt, Anjany Sekuboyina, Maximilian Löffler, Hans Liebl, Reuben Dorent, Tom Vercauteren, Jonathan Shapey, Aaron Kujawa, Stefan Cornelissen, Patrick Langenhuizen, Achraf Ben-Hamadou, Ahmed Rekik, Sergi Pujades, Edmond Boyer, Federico Bolelli, Costantino Grana, Luca Lumetti, Hamidreza Salehi, Jun Ma, Yao Zhang, Ramtin Gharleghi, Susann Beier, Arcot Sowmya, Eduardo A. Garza-Villarreal, Thania Balducci, Diego Angeles-Valdez, Roberto Souza, Leticia Rittner, Richard Frayne, Yuanfeng Ji, Vincenzo Ferrari, Soumick Chatterjee, Florian Dubost, Stefanie Schreiber, Hendrik Mattern, Oliver Speck, Daniel Haehn, Christoph John, Andreas Nürnberger, João Pedrosa, Carlos Ferreira, Guilherme Aresta, António Cunha, Aurélio Campilho, Yannick Suter, Jose Garcia, Alain Lalande, Vicky Vandenbossche, Aline Van Oevelen, Kate Duquesne, Hamza Mekhzoum, Jef Vandemeulebroucke, Emmanuel Audenaert, Claudia Krebs, Timo van Leeuwen, Evie Vereecke, Hauke Heidemeyer, Rainer Röhrig, Frank Hölzle, Vahid Badeli, Kathrin Krieger, Matthias Gunzer, Jianxu Chen, Timo van Meegdenburg, Amin Dada, Miriam Balzer, Jana Fragemann, Frederic Jonske, Moritz Rempe, Stanislav Malorodov, Fin H. Bahnsen, Constantin Seibold, Alexander Jaus, Zdravko Marinov, Paul F. Jaeger, Rainer Stiefelhagen, Ana Sofia Santos, Mariana Lindo, André Ferreira, Victor Alves, Michael Kamp, Amr Abourayya, Felix Nensa, Fabian Hörst, Alexander Brehmer, Lukas Heine, Yannik Hanusrichter, Martin Weßling, Marcel Dudda, Lars E. Podleska, Matthias A. Fink, Julius Keyl, Konstantinos Tserpes, Moon-Sung Kim, Shireen Elhabian, Hans Lamecker, Dženan Zukić, Beatriz Paniagua, Christian Wachinger, Martin Urschler, Luc Duong, Jakob Wasserthal, Peter F. Hoyer, Oliver Basu, Thomas Maal, Max J. H. Witjes, Gregor Schiele, Ti-chiun Chang, Seyed-Ahmad Ahmadi, Ping Luo, Bjoern Menze, Mauricio Reyes, Thomas M. Deserno, Christos Davatzikos, Behrus Puladi, Pascal Fua, Alan L. Yuille, Jens Kleesiek, Jan Egger
Ultimo aggiornamento: 2023-12-12 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2308.16139
Fonte PDF: https://arxiv.org/pdf/2308.16139
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.
Link di riferimento
- https://www.michaelshell.org/
- https://www.michaelshell.org/tex/ieeetran/
- https://www.ctan.org/pkg/ieeetran
- https://www.ieee.org/
- https://www.latex-project.org/
- https://www.michaelshell.org/tex/testflow/
- https://www.ctan.org/pkg/ifpdf
- https://www.ctan.org/pkg/cite
- https://medshapenet.ikim.nrw/
- https://shapemi.github.io/
- https://www.zib.de/projects/shape-informed-medical-image-segmentation
- https://www.zib.de/projects/geometric-analysis-human-spine-image-based-diagnosis-biomechanical-analysis-and-neurosurgery
- https://www.miccai.org/special-interest-groups/shape-modeling-and-analysis/
- https://autoimplant.grand-challenge.org/
- https://autoimplant2021.grand-challenge.org/
- https://www.birs.ca/events/2021/5-day-workshops/21w5128
- https://link.springer.com/book/10.1007/978-3-030-93722-5
- https://link.springer.com/book/10.1007/978-3-319-03813-1
- https://www.sci.utah.edu/cibc-trd/160-iga.html
- https://geomedia-workshop.github.io/
- https://www.embs.org/wp-content/uploads/2021/02/TMI-CFP-GDL_final.pdf
- https://proceedings.mlr.press/v194/
- https://link.springer.com/book/10.1007/978-3-642-55987-7
- https://doi.org/10.5281/zenodo.6802613
- https://doi.org/10.6084/m9.figshare.9616319
- https://humanconnectome.org/
- https://www.humanconnectome.org/study/hcp-young-adult/document/wu-minn-hcp-consortium-open-access-data-use-terms
- https://doi.org/10.6084/m9.figshare.8857007.v2
- https://doi.org/10.6084/m9.figshare.14806362
- https://doi.org/10.6084/m9.figshare.7435385.v2
- https://autoimplant2021.grand-challenge.org/Dataset/
- https://doi.org/10.6084/m9.figshare.14161307.v1
- https://github.com/anjany/verse
- https://github.com/neheller/kits21
- https://www.synapse.org/#!Synapse:syn27046444/wiki/
- https://github.com/abenhamadou/3DTeethSeg22_challenge
- https://hecktor.grand-challenge.org/
- https://zenodo.org/record/6504722
- https://competitions.codalab.org/competitions/17094
- https://isles22.grand-challenge.org/
- https://doi.org/10.7937/TCIA.T905-ZQ20
- https://wiki.cancerimagingarchive.net/display/Public/Data+Usage+Policies+and+Restrictions
- https://autopet.grand-challenge.org/
- https://github.com/JunMa11/AbdomenCT-1K
- https://flare22.grand-challenge.org/
- https://toothfairychallenges.github.io/
- https://asoca.grand-challenge.org/
- https://portal.conp.ca/dataset?id=projects/calgary-campinas
- https://openneuro.org/datasets/ds003346/versions/1.1.2
- https://zenodo.org/record/7155725#.Y0OOCOxBztM
- https://lndb.grand-challenge.org/
- https://zenodo.org/record/8014041
- https://www.nature.com/articles/sdata2017117
- https://emidec.com/segmentation-contest
- https://doi.org/10.6084/m9.figshare.13055663
- https://doi.org/10.6084/m9.figshare.c.5904905.v1
- https://brainsuite.org/
- https://headctstudy.qure.ai/dataset
- https://xrlab.ikim.nrw/
- https://github.com/Jianningli/medshapenet-feedback
- https://shapenet.org/
- https://medshapenet-ikim.streamlit.app/
- https://kite.ikim.nrw/
- https://enfaced2.ikim.nrw/
- https://autoimplant.ikim.nrw/
- https://zvrm.ume.de/