Détection des fractures osseuses avec l'IA
Un modèle de deep learning améliore la détection des fractures dans les images X-ray.
― 6 min lire
Table des matières
Les Fractures osseuses arrivent quand il y a une casse dans l'os. Ça peut être à cause d'accidents, de stress ou de problèmes de santé comme l'ostéoporose. Les fractures peuvent toucher n'importe qui, peu importe l'âge, et elles peuvent se manifester de différentes façons. Certaines personnes peuvent juste ressentir une légère douleur et un peu de gonflement, tandis que d'autres peuvent avoir des soucis plus graves comme des déformations et une perte de fonction dans la zone touchée.
Pour savoir si quelqu'un a une fracture, les médecins vont poser des questions sur la blessure, examiner la zone physiquement et chercher des symptômes comme la douleur, le gonflement, des changements de forme, des mouvements inattendus et parfois un bruit de craquement. Mais dans certains cas, surtout avec des fractures fermées ou des fractures de stress, les signes peuvent être subtils ou pas très clairs.
Comment les fractures sont diagnostiquées
Pour diagnostiquer une fracture, les médecins commencent généralement par des radiographies pour avoir une vue claire de la structure osseuse. Si les radiographies ne donnent pas assez d'infos, ils peuvent utiliser d'autres méthodes d'imagerie comme des scanners, des IRM ou des ultrasons. Le meilleur traitement pour une fracture dépend de son type, de son emplacement et de sa gravité. Certaines fractures peuvent être traitées sans chirurgie en utilisant des attelles, tandis que d'autres peuvent nécessiter des interventions chirurgicales avec des vis, des broches ou des tiges pour maintenir les os en place. Après le traitement, la réhabilitation, y compris la physiothérapie, est importante pour retrouver force et fonction.
Avancées dans la détection des fractures
Dans le domaine médical, il y a eu des progrès dans l'utilisation de logiciels informatiques qui utilisent l'Apprentissage profond pour aider à lire les radiographies. Ce logiciel peut améliorer la précision dans la détection des fractures. Mais il a aussi quelques limites. Par exemple, il a du mal à analyser plusieurs parties du corps en même temps et peut manquer plusieurs fractures sur une seule image de radiographie.
Avec des méthodes avancées d'apprentissage profond, ce logiciel peut augmenter les chances de repérer correctement les fractures, ce qui peut alléger la charge de travail des radiologues et améliorer les soins aux patients en accélérant et en améliorant le processus de diagnostic.
Données d'entraînement pour les modèles d'apprentissage profond
Dans cette étude, nous avons utilisé un gros dataset public appelé MURA pour apprendre au modèle d'apprentissage profond à détecter les fractures. Ce dataset comprend beaucoup d'images de radiographies, organisées pour indiquer si elles montraient une fracture ou pas. Nous avons sélectionné une partie de ces images pour être étiquetées plus en détail, afin d'aider le modèle à mieux apprendre.
Dans l'ensemble du dataset, nous avons utilisé 720 images montrant des fractures. Un radiologue a soigneusement étiqueté ces images pour indiquer où se trouvaient les fractures. Lors de l'entraînement du modèle, nous avons inclus différents types d'images osseuses pour lui donner un large éventail d'exemples à partir desquels apprendre.
YOLO
Architecture du modèle :Le modèle d'apprentissage profond que nous avons utilisé s'appelle YOLO (You Only Look Once), c'est un type de programme informatique conçu pour trouver des objets, dans ce cas, des fractures, dans des images rapidement. YOLO fonctionne en regardant l'ensemble de l'image à la fois, ce qui l'aide à comprendre le contexte des os et améliore ses chances de repérer les fractures avec précision.
Développé avec un cadre appelé Darknet, YOLO est conçu pour bien fonctionner sur des ordinateurs standards et des unités de traitement graphique (GPU) plus puissantes, ce qui le rend applicable dans divers environnements médicaux. Quand le modèle détecte une fracture, il trace un cadre autour de la zone d'intérêt, aidant les radiologues à identifier facilement la fracture.
Tester le modèle d'apprentissage profond
Pour voir à quel point notre modèle d'apprentissage profond fonctionnait bien, nous l'avons testé sur deux ensembles d'images différents. Le premier ensemble venait d'un dataset appelé FracAtlas, qui comprenait à la fois des images avec des fractures et celles sans. Le deuxième ensemble se composait d'images internes étiquetées par notre radiologue. Pour chaque dataset, nous voulions mesurer à quel point le modèle pouvait identifier si une fracture était présente.
Lors de nos tests, le modèle a réussi à identifier correctement de nombreuses fractures dans les images. Nous avons regardé différentes mesures de performance pour évaluer son efficacité. La Sensibilité, ou la capacité du modèle à trouver correctement les fractures, était élevée dans le premier dataset mais pas aussi forte dans le dataset interne. La Spécificité, qui fait référence à sa capacité à confirmer quand il n'y a pas de fractures, variait beaucoup entre les deux datasets.
Analyser la performance du modèle
Nous avons évalué la performance du modèle en utilisant plusieurs indicateurs clés. La sensibilité montre à quel point le modèle trouve des fractures, tandis que la spécificité indique à quel point il peut exclure des fractures dans des images normales. Dans nos résultats, le modèle avait un taux de sensibilité élevé dans le premier dataset, ce qui montre qu'il pouvait identifier les fractures avec précision. Cependant, ce taux a chuté dans le deuxième dataset, ce qui laisse entendre qu'il pourrait y avoir des défis dans différents contextes cliniques ou avec d'autres types de fractures.
La haute valeur prédictive négative du modèle signifie qu'il est bon pour confirmer quand il n'y a pas de fracture, ce qui est important pour les médecins qui prennent des décisions. Cependant, la valeur prédictive positive variait entre les datasets, ce qui indique que tous les résultats positifs du modèle ne peuvent pas être fiables. Par conséquent, il devrait être considéré comme un outil utile plutôt qu'un décideur final.
Conclusions
En résumé, cette étude montre que le modèle d'apprentissage profond basé sur YOLO peut détecter efficacement les fractures dans les images de radiographie. Sa haute sensibilité dans certains cas et sa capacité constante à exclure les fractures sont encourageantes. Cependant, les différences de spécificité et de valeur prédictive positive soulignent le besoin de continuer à travailler pour affiner le modèle et valider son utilisation dans divers environnements réels.
Cette recherche soutient l'idée d'intégrer des outils d'IA en radiologie pour aider les professionnels de santé à poser des diagnostics plus précis et à améliorer les résultats des soins aux patients. À l'avenir, nous devrions nous concentrer sur la collecte de datasets plus grands et plus diversifiés pour l'entraînement, améliorer l'algorithme, et tester sa fiabilité dans différents milieux médicaux.
Titre: Cross-Center Validation of Deep Learning Model for Musculoskeletal Fracture Detection in Radiographic Imaging: A Feasibility Study
Résumé: Fractures, often resulting from trauma, overuse, or osteoporosis, pose diagnostic challenges due to their variable clinical manifestations. To address this, we propose a deep learning-based decision support system to enhance the efficacy of fracture detection in radiographic imaging. For the purpose of our study, we utilized 720 annotated musculoskeletal (MSK) X-rays from the MURA dataset, augmented by bounding box-level annotation, for training the YOLO (You Only Look Once) model. The models performance was subsequently tested on two datasets, sampled FracAtlas dataset (Dataset 1, 840 images, nNORMAL = 696, nFRACTURE = 144) and own internal dataset (Dataset 2, 124 images, nNORMAL = 50, nFRACTURE = 74), encompassing a diverse range of MSK radiographs. The results showed a Sensitivity (Se) of 0.910 (95% CI: 0.852-0.946) and Specificity (Sp) of 0.557 (95% CI: 0.520-0.594) on the Dataset 1, and a Se of 0.622 (95% CI: 0.508-0.724) and Sp of 0.740 (95% CI: 0.604-0.841) on the Dataset 2. This study underscores the promising role of AI in medical imaging, providing a solid foundation for future research and advancements in the field of radiographic diagnostics.
Auteurs: Daniel Kvak, R. Hruby, J. Dandar, A. Atakhanova, M. Misar, D. Dufek
Dernière mise à jour: 2024-01-17 00:00:00
Langue: English
Source URL: https://www.medrxiv.org/content/10.1101/2024.01.17.24301244
Source PDF: https://www.medrxiv.org/content/10.1101/2024.01.17.24301244.full.pdf
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à medrxiv pour l'utilisation de son interopérabilité en libre accès.