IA en Radiologie Interventionnelle : Un Pas en Avant
Une étude montre que l'IA peut aider à rédiger des rapports de radiologie efficacement.
― 6 min lire
Table des matières
La Radiologie interventionnelle (RI) est un domaine médical spécialisé qui utilise des techniques d'imagerie pour guider des procédures peu invasives. Les outils d'imagerie souvent utilisés dans ce domaine incluent la fluoroscopie, l'échographie, la tomodensitométrie et l'imagerie par résonance magnétique. Récemment, il y a eu un intérêt pour voir comment l'automatisation, notamment via l'intelligence artificielle (IA), peut aider à rédiger des Rapports médicaux, ce qui peut prendre beaucoup de temps aux médecins.
Traditionnellement, les Radiologues interventionnels passent une grande partie de leur temps à accomplir des tâches administratives, y compris la rédaction de rapports pour les procédures. Ces tâches sont souvent perçues comme ennuyeuses et n'impactent pas directement les soins aux patients. À mesure que la demande pour les services d'imagerie médicale augmente, il devient de plus en plus important de trouver des moyens de gagner du temps sur ces tâches administratives. L'idée, c'est que les outils d'IA, comme les modèles de traitement du langage naturel, pourraient accélérer le processus de rédaction de rapports, ce qui bénéficierait non seulement aux médecins mais aussi aux patients et à la gestion des hôpitaux.
Pour enquêter là-dessus, des chercheurs ont examiné si un outil d'IA, comme ChatGPT, pouvait effectivement rédiger des rapports en fonction d'un modèle spécifique fourni par la Société radiologique d'Amérique du Nord pour les cathéters centraux insérés par voie périphérique (PICC). L'étude visait à voir si ces rapports générés par l'IA pouvaient répondre aux normes requises en documentation médicale.
Méthodologie de l'étude
Les chercheurs ont conçu une étude impliquant la création de trois cas différents, chacun avec des détails spécifiques sur les patients et les procédures effectuées. Ils ont ensuite demandé à ChatGPT de rédiger des rapports pour ces cas en utilisant le modèle RSNA. Au total, 15 rapports ont été générés pour analyser la performance de l'IA.
Après cela, huit radiologues expérimentés ont évalué les rapports. Ils ont examiné chaque rapport selon plusieurs critères, y compris si toutes les informations nécessaires étaient incluses, si la structure du rapport était logique, et si le texte semblait écrit par une machine. Ils ont utilisé un système de notation pour exprimer leur opinion sur chaque rapport.
L'expérience des radiologues variait, certains ayant plusieurs années d'expérience dans le domaine, tandis que d'autres étaient encore en formation. Ce mélange a fourni une perspective large sur les rapports générés par l'IA.
Résultats préliminaires
Les résultats initiaux suggéraient que l'IA pouvait générer des rapports que les radiologues trouvaient acceptables. En général, les radiologues s'accordaient à dire que les rapports contenaient toutes les informations pertinentes et suivaient une structure satisfaisante. Cependant, il y avait certains domaines à améliorer, notamment en ce qui concerne l'inclusion de complications potentielles liées aux procédures.
Les radiologues ont donné des retours sur les rapports, indiquant que bien que le texte généré par l'IA soit souvent utile, il pourrait manquer certains détails importants qu'ils s'attendraient à voir dans un rapport rédigé par un humain. Par exemple, des recommandations concernant le traitement médical étaient notées comme un élément manquant.
Évaluation de la similarité des textes
Pour mesurer à quel point les rapports générés par l'IA étaient similaires aux commandes originales données à ChatGPT, une méthode appelée similarité cosinienne a été utilisée. Cette technique aide à comprendre à quel point les réponses écrites correspondent aux informations fournies dans les commandes. Les résultats ont montré que bien que l'IA puisse adapter son écriture à des variations dans les entrées, la structure globale changeait souvent, entraînant des différences dans la façon dont les informations étaient présentées.
Évaluation sur tableau
Les radiologues ont utilisé un tableau de notation pour évaluer les rapports en fonction de cinq questions. Ils ont évalué si toutes les informations pertinentes étaient incluses, la structure du rapport, si le texte semblait généré par l'IA, s'ils enverraient le rapport à un médecin référent sans modifications, et si l'outil d'IA leur faisait gagner du temps dans leur travail de documentation. En général, le retour était positif, surtout concernant les quatre premières questions.
Fait intéressant, de nombreux radiologues n'étaient pas d'accord avec l'idée que les rapports étaient facilement identifiables comme écrits par l'IA. Cela montre la capacité croissante de l'IA à produire des textes semblables à ceux des humains, ce qui pourrait réduire les inquiétudes quant à l'utilisation de cette technologie dans le domaine médical.
Accord inter-juge et fiabilité
L'étude a également examiné à quel point les notations étaient cohérentes parmi les radiologues participants. L'analyse a indiqué que lorsque les rapports étaient considérés comme de meilleure qualité, le désaccord parmi les évaluateurs diminuait. À l'inverse, lorsque la qualité était perçue comme inférieure, la variation des scores augmentait. Cette observation correspond aux expériences du monde réel, où un besoin de discussion suggère des opinions divergentes sur la qualité des rapports.
Les résultats ont mis en évidence qu'alors que l'IA peut aider à rédiger des rapports, il existe toujours une variabilité dans la façon dont les médecins individuels pourraient percevoir et interpréter la qualité de ces rapports. Par exemple, tandis qu'un radiologue pourrait trouver un rapport acceptable, un autre pourrait le signaler comme nécessitant des révisions importantes.
Conclusion et considérations futures
L'étude montre des résultats prometteurs concernant l'utilisation de l'IA, spécifiquement ChatGPT, dans la rédaction de rapports de radiologie interventionnelle pour les insertions de lignes PICC. Les retours des radiologues suggèrent que l'IA peut faire gagner du temps dans les tâches de documentation. Cependant, cela souligne aussi l'importance de s'assurer que les rapports générés par l'IA contiennent toutes les informations nécessaires et répondent aux normes cliniques.
Les recherches futures devront approfondir les avantages et les inconvénients potentiels de l'utilisation de l'IA dans la rédaction de rapports médicaux. Des questions comme la confiance dans le contenu généré par l'IA, la responsabilité partagée pour les soins aux patients entre humains et IA, et la vie privée des patients sont toutes des sujets essentiels qui nécessitent une exploration plus approfondie. À mesure que la technologie IA continue de se développer et de s'intégrer dans la pratique médicale, comprendre ces facteurs sera crucial pour sa mise en œuvre réussie dans les établissements de santé.
Au final, le but est d'améliorer l'efficacité de la documentation médicale, en s'assurant que les professionnels de la santé peuvent se concentrer davantage sur les soins aux patients tout en bénéficiant des capacités des outils d'IA dans leur travail quotidien.
Titre: ChatGPT may free time needed by the interventional radiologist for administration / documentation: A study on the RSNA PICC line reporting template.
Résumé: MotiveDocumentation and administration, unpleasant necessities, take a substantial part of the working time in the subspecialty of interventional radiology. With increasing future demand for clinical radiology predicted, time savings from use of text drafting technologies could be a valuable contribution towards our field. MethodThree cases of peripherally inserted central catheter (PICC) line insertion were defined for the present study. The current version of ChatGPT was tasked with drafting reports, following the Radiological Society of North America (RSNA) template. Key resultsScore card evaluation by human radiologists indicates that time savings in documentation / administration can be expected without loss of quality from using ChatGPT. Further, automatically generated texts were not assessed to be clearly identifiable as AI-produced. ConclusionsPatients, doctors, and hospital administrators would welcome a reduction of the time that interventional radiologists need for documentation and administration these days. If AI-tools as tested in the present study are brought into clinical application, questions about trust into those systems eg with regard to medical complications will have to be addressed.
Auteurs: Wolfram A Bosbach, J. F. Senge, M. T. Mc Murray, F. Haupt, P. S. Breiding, C. Beisbart, K. Daneshvar, A. Komarek, G. Noeldge, F. Mosler
Dernière mise à jour: 2023-07-16 00:00:00
Langue: English
Source URL: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578
Source PDF: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578.full.pdf
Licence: https://creativecommons.org/licenses/by-nc/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à medrxiv pour l'utilisation de son interopérabilité en libre accès.