MedShapeNet: Un recurso valioso para formas médicas
Una gran colección de formas médicas en 3D para investigación y educación.
― 9 minilectura
Tabla de contenidos
MedShapeNet es una gran colección de modelos 3D de formas médicas. Esto incluye detalles como huesos, órganos, vasos sanguíneos y modelos de instrumentos Quirúrgicos. El objetivo es ayudar a mejorar cómo usamos estas formas en la imagenología médica y la Investigación. Las formas son importantes en medicina. Nos ayudan a entender cómo lucen y funcionan diferentes partes del cuerpo. Tener una gran biblioteca de estas formas puede ayudar a investigadores y profesionales médicos.
Antes del auge del aprendizaje profundo, la investigación médica a menudo utilizaba modelos de formas estadísticas para analizar datos. Estos modelos describían de manera efectiva las formas de los datos médicos. Sin embargo, las técnicas modernas de aprendizaje profundo a menudo se centran más en datos basados en voxel, que se trata menos de formas y más de cuadrículas de puntos de datos. En contraste, los campos de la visión por computadora a menudo prefieren las formas como formas de datos. Las formas se pueden presentar de varias maneras, como cuadrículas de voxeles, mallas, nubes de puntos y más. Esto se observa en muchos trabajos publicados en las principales conferencias de visión.
MedShapeNet fue creado como una alternativa a otras bases de datos de formas como ShapeNet y ModelNet. Su objetivo es facilitar la aplicación de algoritmos de aprendizaje automático a problemas médicos. Muchas de las formas en MedShapeNet provienen directamente de datos reales de pacientes, lo que lo hace más útil que otras bases de datos que principalmente utilizan modelos generados por computadora.
Actualmente, MedShapeNet tiene más de 100,000 formas médicas y proporciona anotaciones para estas formas. Este conjunto de datos está disponible de forma gratuita para varios usos, incluyendo realidad virtual, realidad aumentada e impresión 3D médica. Este documento explica las razones de la creación de MedShapeNet, cómo se recopilaron las formas, sus posibles usos y cómo acceder a él en línea.
Importancia de las Formas en Medicina
El estudio de las formas es crucial en muchas áreas de la medicina. Los modelos 3D ayudan a los profesionales de la salud a planificar cirugías y entender relaciones anatómicas complejas. En el caso de la planificación quirúrgica, por ejemplo, tener un modelo 3D detallado de la anatomía de un paciente permite a los doctores visualizar lo que van a hacer durante la cirugía. Esto puede mejorar los resultados de las cirugías y reducir riesgos para los pacientes.
Los profesionales médicos también utilizan estos modelos para la Educación. Los estudiantes de medicina pueden aprender sobre anatomía más efectivamente cuando pueden explorar y manipular modelos 3D. Usar tecnología de realidad virtual o aumentada mejora esta experiencia de aprendizaje.
Tener modelos 3D precisos es especialmente importante para campos como la radiología y la cirugía. Estas áreas a menudo tratan con formas complicadas que no siempre se traducen bien en formatos de imagen tradicionales. Por lo tanto, conjuntos de datos como MedShapeNet pueden cerrar la brecha, facilitando a los investigadores aplicar técnicas de visión por computadora a escenarios médicos del mundo real.
Cómo se Creó MedShapeNet
MedShapeNet fue creado a partir de una variedad de fuentes. Las formas en él fueron generadas a partir de máscaras de Segmentación binaria, que son esencialmente representaciones 3D de diferentes estructuras anatómicas. Se utilizaron técnicas como Marching Cubes para convertir estas máscaras en modelos utilizables. Las máscaras de segmentación se obtuvieron de diferentes fuentes, incluyendo sistemas automatizados y anotaciones manuales de desafíos de imagenología médica.
Por ejemplo, el conjunto de datos TotalSegmentator proporcionó más de 1,000 escaneos CT con segmentaciones correspondientes para varias estructuras anatómicas. Otras fuentes incluyeron el Proyecto Human Connectome, que proporciona datos de imagenología cerebral, y conjuntos de datos específicos enfocados en la aorta y otras partes del cuerpo.
MedShapeNet también enfatiza la privacidad. Debido a que la información del paciente es sensible, los desarrolladores se aseguraron de incluir solo formas que no revelen información identificable sobre los pacientes. El conjunto de datos se centra en formas anatómicas, no en imágenes médicas en escala de grises que pueden contener datos personales.
Contenidos de MedShapeNet
MedShapeNet contiene una variedad de formas relacionadas con el cuerpo humano. Estas formas incluyen:
- Huesos: Como cráneos, costillas y vértebras.
- Órganos: Incluyendo el cerebro, pulmón, corazón y hígado.
- Vasos Sanguíneos: Modelos de la aorta y otros vasos.
- Músculos: Diferentes formas y configuraciones musculares.
- Instrumentos Quirúrgicos: Modelos detallados de herramientas utilizadas en cirugía.
Cada forma está anotada, lo que significa que viene con información adicional que puede ayudar a los investigadores a entender su contexto. Por ejemplo, una forma anatómica podría estar etiquetada como "hígado saludable" o "riñón tumoral", lo cual puede ser vital para entrenar modelos de aprendizaje automático.
Cómo Usar MedShapeNet
Usar MedShapeNet es sencillo. Los investigadores pueden acceder a las formas a través de una interfaz en línea. Pueden buscar partes anatómicas específicas y descargar los modelos que necesiten. Los modelos se pueden ver en 3D, permitiendo una inspección detallada antes de su uso.
Los investigadores interesados en estudiar áreas específicas, como la detección de cáncer o la planificación quirúrgica, pueden encontrar modelos útiles. Las formas también se pueden integrar en varios software para aplicaciones de realidad aumentada y virtual, lo que las hace valiosas tanto para la educación como para aplicaciones médicas prácticas.
Aplicaciones de MedShapeNet
1. Planificación Quirúrgica
MedShapeNet se puede usar para mejorar la planificación quirúrgica. Los cirujanos pueden usar los modelos 3D para visualizar la anatomía de sus pacientes antes de los procedimientos. Esto les ayuda a entender el mejor enfoque a seguir y reduce riesgos durante la cirugía.
2. Educación Médica
Los estudiantes y profesionales de la medicina pueden usar MedShapeNet para la educación en anatomía. La capacidad de interactuar con modelos 3D mejora el aprendizaje. Los estudiantes pueden practicar identificando diferentes estructuras y entendiendo sus relaciones.
3. Investigación en Imagenología
Los investigadores pueden usar estas formas para mejorar sus estudios en imagenología médica y visión por computadora. Al utilizar los modelos en experimentos, pueden entrenar algoritmos para reconocer y diferenciar entre tejidos sanos y enfermos basándose en el análisis de formas en lugar de solo en datos voxel.
4. Realidad Aumentada y Virtual
Los modelos de MedShapeNet son perfectos para aplicaciones en realidad aumentada (AR) y realidad virtual (VR). Esto se puede usar para entrenamiento médico, permitiendo a los estudiantes simular cirugías o entender la anatomía en un entorno completamente inmersivo.
5. Análisis de Datos
MedShapeNet también puede apoyar esfuerzos de aprendizaje automático destinados a descubrir nuevos patrones en datos médicos. Al analizar formas, los investigadores pueden identificar marcadores únicos asociados con diferentes enfermedades, allanando el camino para métodos de diagnóstico innovadores.
Desafíos en los Datos de Formas Médicas
Aunque MedShapeNet es un paso significativo hacia adelante, hay desafíos a considerar.
1. Completitud de los Datos
Aunque el conjunto de datos es extenso, siempre hay vacíos. Ciertas estructuras anatómicas o patologías pueden no estar bien representadas, lo que puede limitar la utilidad del conjunto de datos en áreas de investigación específicas.
2. Integración con Sistemas Existentes
Los investigadores a menudo utilizan varios software y sistemas. Integrar los modelos de MedShapeNet con estos marcos existentes puede requerir trabajo adicional, como convertir formatos o asegurar compatibilidad.
3. Preocupaciones Éticas
Usar datos médicos siempre conlleva responsabilidades éticas. Aunque MedShapeNet busca proteger las identidades de los pacientes, cualquier investigación que involucre datos médicos debe cumplir con estrictas pautas éticas para garantizar la privacidad y la seguridad.
Direcciones Futuras para MedShapeNet
Para seguir mejorando MedShapeNet, los esfuerzos se centrarán en expandir su colección y mejorar su funcionalidad. Los creadores quieren:
- Aumentar el número de formas disponibles, especialmente aquellas relacionadas con enfermedades.
- Promover MedShapeNet más ampliamente en entornos académicos y clínicos para aumentar la conciencia y el uso.
- Establecer nuevos puntos de referencia para evaluar modelos utilizando el conjunto de datos.
- Seguir mejorando la interfaz en línea para facilitar el acceso y la navegación.
- Recoger anotaciones más detalladas para las formas existentes.
Al hacer esto, MedShapeNet puede servir mejor a las comunidades médica y de investigación, facilitando el crecimiento en ambos campos.
Conclusión
MedShapeNet representa un recurso importante en la intersección de la visión por computadora y la medicina. Al proporcionar una rica colección de modelos 3D de formas anatómicas, apoya tanto la investigación académica como las aplicaciones médicas prácticas. Su desarrollo refleja un compromiso con la mejora de la educación médica, la mejora de los resultados quirúrgicos y el avance de la investigación en imagenología médica.
A medida que MedShapeNet continúa evolucionando, promete cerrar brechas entre diferentes campos médicos y tecnología, llevando a mejores resultados en la atención al paciente y avances en la investigación. Esta iniciativa no solo enriquece los recursos disponibles, sino que también fomenta la colaboración entre investigadores y profesionales médicos para abordar problemas desafiantes en el campo de la medicina.
Título: MedShapeNet -- A Large-Scale Dataset of 3D Medical Shapes for Computer Vision
Resumen: Prior to the deep learning era, shape was commonly used to describe the objects. Nowadays, state-of-the-art (SOTA) algorithms in medical imaging are predominantly diverging from computer vision, where voxel grids, meshes, point clouds, and implicit surface models are used. This is seen from numerous shape-related publications in premier vision conferences as well as the growing popularity of ShapeNet (about 51,300 models) and Princeton ModelNet (127,915 models). For the medical domain, we present a large collection of anatomical shapes (e.g., bones, organs, vessels) and 3D models of surgical instrument, called MedShapeNet, created to facilitate the translation of data-driven vision algorithms to medical applications and to adapt SOTA vision algorithms to medical problems. As a unique feature, we directly model the majority of shapes on the imaging data of real patients. As of today, MedShapeNet includes 23 dataset with more than 100,000 shapes that are paired with annotations (ground truth). Our data is freely accessible via a web interface and a Python application programming interface (API) and can be used for discriminative, reconstructive, and variational benchmarks as well as various applications in virtual, augmented, or mixed reality, and 3D printing. Exemplary, we present use cases in the fields of classification of brain tumors, facial and skull reconstructions, multi-class anatomy completion, education, and 3D printing. In future, we will extend the data and improve the interfaces. The project pages are: https://medshapenet.ikim.nrw/ and https://github.com/Jianningli/medshapenet-feedback
Autores: Jianning Li, Zongwei Zhou, Jiancheng Yang, Antonio Pepe, Christina Gsaxner, Gijs Luijten, Chongyu Qu, Tiezheng Zhang, Xiaoxi Chen, Wenxuan Li, Marek Wodzinski, Paul Friedrich, Kangxian Xie, Yuan Jin, Narmada Ambigapathy, Enrico Nasca, Naida Solak, Gian Marco Melito, Viet Duc Vu, Afaque R. Memon, Christopher Schlachta, Sandrine De Ribaupierre, Rajnikant Patel, Roy Eagleson, Xiaojun Chen, Heinrich Mächler, Jan Stefan Kirschke, Ezequiel de la Rosa, Patrick Ferdinand Christ, Hongwei Bran Li, David G. Ellis, Michele R. Aizenberg, Sergios Gatidis, Thomas Küstner, Nadya Shusharina, Nicholas Heller, Vincent Andrearczyk, Adrien Depeursinge, Mathieu Hatt, Anjany Sekuboyina, Maximilian Löffler, Hans Liebl, Reuben Dorent, Tom Vercauteren, Jonathan Shapey, Aaron Kujawa, Stefan Cornelissen, Patrick Langenhuizen, Achraf Ben-Hamadou, Ahmed Rekik, Sergi Pujades, Edmond Boyer, Federico Bolelli, Costantino Grana, Luca Lumetti, Hamidreza Salehi, Jun Ma, Yao Zhang, Ramtin Gharleghi, Susann Beier, Arcot Sowmya, Eduardo A. Garza-Villarreal, Thania Balducci, Diego Angeles-Valdez, Roberto Souza, Leticia Rittner, Richard Frayne, Yuanfeng Ji, Vincenzo Ferrari, Soumick Chatterjee, Florian Dubost, Stefanie Schreiber, Hendrik Mattern, Oliver Speck, Daniel Haehn, Christoph John, Andreas Nürnberger, João Pedrosa, Carlos Ferreira, Guilherme Aresta, António Cunha, Aurélio Campilho, Yannick Suter, Jose Garcia, Alain Lalande, Vicky Vandenbossche, Aline Van Oevelen, Kate Duquesne, Hamza Mekhzoum, Jef Vandemeulebroucke, Emmanuel Audenaert, Claudia Krebs, Timo van Leeuwen, Evie Vereecke, Hauke Heidemeyer, Rainer Röhrig, Frank Hölzle, Vahid Badeli, Kathrin Krieger, Matthias Gunzer, Jianxu Chen, Timo van Meegdenburg, Amin Dada, Miriam Balzer, Jana Fragemann, Frederic Jonske, Moritz Rempe, Stanislav Malorodov, Fin H. Bahnsen, Constantin Seibold, Alexander Jaus, Zdravko Marinov, Paul F. Jaeger, Rainer Stiefelhagen, Ana Sofia Santos, Mariana Lindo, André Ferreira, Victor Alves, Michael Kamp, Amr Abourayya, Felix Nensa, Fabian Hörst, Alexander Brehmer, Lukas Heine, Yannik Hanusrichter, Martin Weßling, Marcel Dudda, Lars E. Podleska, Matthias A. Fink, Julius Keyl, Konstantinos Tserpes, Moon-Sung Kim, Shireen Elhabian, Hans Lamecker, Dženan Zukić, Beatriz Paniagua, Christian Wachinger, Martin Urschler, Luc Duong, Jakob Wasserthal, Peter F. Hoyer, Oliver Basu, Thomas Maal, Max J. H. Witjes, Gregor Schiele, Ti-chiun Chang, Seyed-Ahmad Ahmadi, Ping Luo, Bjoern Menze, Mauricio Reyes, Thomas M. Deserno, Christos Davatzikos, Behrus Puladi, Pascal Fua, Alan L. Yuille, Jens Kleesiek, Jan Egger
Última actualización: 2023-12-12 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2308.16139
Fuente PDF: https://arxiv.org/pdf/2308.16139
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.
Enlaces de referencia
- https://www.michaelshell.org/
- https://www.michaelshell.org/tex/ieeetran/
- https://www.ctan.org/pkg/ieeetran
- https://www.ieee.org/
- https://www.latex-project.org/
- https://www.michaelshell.org/tex/testflow/
- https://www.ctan.org/pkg/ifpdf
- https://www.ctan.org/pkg/cite
- https://medshapenet.ikim.nrw/
- https://shapemi.github.io/
- https://www.zib.de/projects/shape-informed-medical-image-segmentation
- https://www.zib.de/projects/geometric-analysis-human-spine-image-based-diagnosis-biomechanical-analysis-and-neurosurgery
- https://www.miccai.org/special-interest-groups/shape-modeling-and-analysis/
- https://autoimplant.grand-challenge.org/
- https://autoimplant2021.grand-challenge.org/
- https://www.birs.ca/events/2021/5-day-workshops/21w5128
- https://link.springer.com/book/10.1007/978-3-030-93722-5
- https://link.springer.com/book/10.1007/978-3-319-03813-1
- https://www.sci.utah.edu/cibc-trd/160-iga.html
- https://geomedia-workshop.github.io/
- https://www.embs.org/wp-content/uploads/2021/02/TMI-CFP-GDL_final.pdf
- https://proceedings.mlr.press/v194/
- https://link.springer.com/book/10.1007/978-3-642-55987-7
- https://doi.org/10.5281/zenodo.6802613
- https://doi.org/10.6084/m9.figshare.9616319
- https://humanconnectome.org/
- https://www.humanconnectome.org/study/hcp-young-adult/document/wu-minn-hcp-consortium-open-access-data-use-terms
- https://doi.org/10.6084/m9.figshare.8857007.v2
- https://doi.org/10.6084/m9.figshare.14806362
- https://doi.org/10.6084/m9.figshare.7435385.v2
- https://autoimplant2021.grand-challenge.org/Dataset/
- https://doi.org/10.6084/m9.figshare.14161307.v1
- https://github.com/anjany/verse
- https://github.com/neheller/kits21
- https://www.synapse.org/#!Synapse:syn27046444/wiki/
- https://github.com/abenhamadou/3DTeethSeg22_challenge
- https://hecktor.grand-challenge.org/
- https://zenodo.org/record/6504722
- https://competitions.codalab.org/competitions/17094
- https://isles22.grand-challenge.org/
- https://doi.org/10.7937/TCIA.T905-ZQ20
- https://wiki.cancerimagingarchive.net/display/Public/Data+Usage+Policies+and+Restrictions
- https://autopet.grand-challenge.org/
- https://github.com/JunMa11/AbdomenCT-1K
- https://flare22.grand-challenge.org/
- https://toothfairychallenges.github.io/
- https://asoca.grand-challenge.org/
- https://portal.conp.ca/dataset?id=projects/calgary-campinas
- https://openneuro.org/datasets/ds003346/versions/1.1.2
- https://zenodo.org/record/7155725#.Y0OOCOxBztM
- https://lndb.grand-challenge.org/
- https://zenodo.org/record/8014041
- https://www.nature.com/articles/sdata2017117
- https://emidec.com/segmentation-contest
- https://doi.org/10.6084/m9.figshare.13055663
- https://doi.org/10.6084/m9.figshare.c.5904905.v1
- https://brainsuite.org/
- https://headctstudy.qure.ai/dataset
- https://xrlab.ikim.nrw/
- https://github.com/Jianningli/medshapenet-feedback
- https://shapenet.org/
- https://medshapenet-ikim.streamlit.app/
- https://kite.ikim.nrw/
- https://enfaced2.ikim.nrw/
- https://autoimplant.ikim.nrw/
- https://zvrm.ume.de/