AI nella Radiologia Interventistica: Un Passo Avanti
Uno studio mostra che l'IA può aiutare a redigere i report di radiologia in modo efficiente.
― 5 leggere min
Indice
La Radiologia Interventistica (IR) è un campo specifico della medicina che usa tecniche di imaging per guidare procedure minimamente invasive. Gli strumenti di imaging usati in questo campo includono fluoroscopia, ecografia, tomografia computerizzata e risonanza magnetica. Recentemente, c'è stato interesse su come l'automazione, soprattutto attraverso l'intelligenza artificiale (AI), possa aiutare nella stesura di report medici, che sono spesso un compito che richiede tempo per i dottori.
Tradizionalmente, i radiologi interventisti passano gran parte del loro tempo a completare compiti amministrativi, inclusa la scrittura di report per le procedure. Questi compiti sono spesso visti come noiosi e non influenzano direttamente la cura del paziente. Con l'aumento della domanda di servizi di imaging medico, diventa sempre più importante trovare modi per risparmiare tempo in questi compiti amministrativi. L'idea è che gli strumenti AI, come i modelli di elaborazione del linguaggio naturale, possano velocizzare il processo di scrittura dei report, beneficiando non solo i dottori ma anche i pazienti e la gestione ospedaliera.
Per indagare su questo, i ricercatori hanno esaminato se uno strumento AI, come ChatGPT, potesse redigere efficacemente report basati su un modello specifico fornito dalla Società Radiologica del Nord America per i cateteri centrali inseriti per via periferica (PICC). Lo studio mirava a vedere se questi report generati dall'AI potessero soddisfare gli standard richiesti nella documentazione medica.
Metodologia dello Studio
I ricercatori hanno progettato uno studio che prevedeva la creazione di tre casi diversi, ognuno con dettagli specifici sui pazienti e le procedure svolte. Hanno poi istruito ChatGPT a redigere report per questi casi usando il modello RSNA. In totale, sono stati generati 15 report per analizzare quanto bene lavorasse l'AI.
Dopo il completamento, otto radiologi esperti hanno valutato i report. Hanno esaminato ciascun report su vari criteri, inclusi se tutte le informazioni necessarie erano incluse, se la struttura del report fosse logica e se il testo sembrasse scritto da una macchina. Hanno usato un sistema di punteggio per esprimere le loro opinioni su ciascun report.
L'esperienza dei radiologi variava, con alcuni che avevano molti anni di esperienza nel campo, mentre altri erano ancora in formazione. Questa varietà ha fornito una prospettiva ampia sui report generati dall'AI.
Risultati Preliminari
I risultati iniziali hanno suggerito che l'AI potesse generare report che i radiologi trovavano accettabili. I radiologi generalmente concordavano sul fatto che i report contenessero tutte le informazioni rilevanti e seguissero una struttura soddisfacente. Tuttavia, c'erano alcune aree che potevano essere migliorate, in particolare riguardo l'inclusione di potenziali complicazioni legate alle procedure.
I radiologi hanno fornito feedback sui report, indicando che, sebbene il testo generato dall'AI fosse spesso utile, poteva mancare dettagli importanti che si aspetterebbero in un report redatto da un umano. Per esempio, sono state notate raccomandazioni riguardanti il trattamento medico come un elemento mancante.
Valutazione della Somiglianza dei Testi
Per misurare quanto fossero simili i report generati dall'AI rispetto ai comandi iniziali dati a ChatGPT, è stata usata una metodologia chiamata similarità coseno. Questa tecnica aiuta a capire quanto le risposte scritte corrispondano alle informazioni fornite nei comandi. I risultati hanno mostrato che, mentre l'AI poteva adattare la sua scrittura a variazioni nell'input, la struttura generale cambiava spesso, portando a differenze nel modo in cui le informazioni venivano presentate.
Valutazione tramite Scorecard
I radiologi hanno usato una scorecard per valutare i report basandosi su cinque domande. Hanno valutato se tutte le informazioni rilevanti erano incluse, la struttura del report, se il testo sembrava generato dall'AI, se avrebbero inviato il report a un medico di riferimento senza modifiche e se lo strumento AI ha risparmiato loro tempo nel lavoro di documentazione. In generale, il feedback è stato positivo, soprattutto riguardo le prime quattro domande.
In modo interessante, molti radiologi non erano d'accordo con l'idea che i report fossero facilmente identificabili come scritti da un'AI. Questo fa pensare alla crescente capacità dell'AI di produrre testi simili a quelli umani, il che potrebbe ridurre le preoccupazioni sull'uso di tale tecnologia nel campo medico.
Accordo tra Valutatori e Affidabilità
Lo studio ha anche esaminato quanto fossero coerenti le valutazioni tra i radiologi partecipanti. L'analisi ha indicato che quando i report venivano visti come di qualità più alta, il disaccordo tra i valutatori diminuiva. Al contrario, quando la qualità veniva percepita come più bassa, la variazione nei punteggi aumentava. Questa osservazione si allinea con le esperienze nel mondo reale, dove la necessità di discussione suggerisce opinioni diverse sulla qualità del report.
I risultati hanno sottolineato che, mentre l'AI può assistere nella redazione dei report, c'è ancora variabilità in come i singoli dottori potrebbero percepire e interpretare la qualità di quei report. Ad esempio, mentre un radiologo potrebbe trovare un report accettabile, un altro potrebbe segnalarlo come bisognoso di revisioni significative.
Conclusione e Considerazioni Future
Lo studio mostra risultati promettenti riguardo l'uso dell'AI, in particolare ChatGPT, nella redazione di report di radiologia interventistica per inserimenti di cateteri PICC. Il feedback dei radiologi suggerisce che l'AI può risparmiare tempo nei compiti di documentazione. Tuttavia, evidenzia anche l'importanza di garantire che i report generati dall'AI contengano tutte le informazioni necessarie e soddisfino gli standard clinici.
La ricerca futura dovrà approfondire i benefici e i potenziali svantaggi dell'uso dell'AI nella scrittura di report medici. Questioni come la fiducia nei contenuti generati dall'AI, la responsabilità condivisa per la cura del paziente tra umani e AI, e la privacy dei pazienti sono tutti argomenti essenziali che necessitano di ulteriore esplorazione. Man mano che la tecnologia AI continua a svilupparsi e integrarsi nella pratica medica, capire questi fattori sarà fondamentale per la sua implementazione di successo nelle strutture sanitarie.
In fin dei conti, l'obiettivo è migliorare l'efficienza nella documentazione medica, assicurando che i professionisti della salute possano concentrarsi maggiormente sulla cura del paziente, beneficiando delle capacità degli strumenti AI nel loro lavoro quotidiano.
Titolo: ChatGPT may free time needed by the interventional radiologist for administration / documentation: A study on the RSNA PICC line reporting template.
Estratto: MotiveDocumentation and administration, unpleasant necessities, take a substantial part of the working time in the subspecialty of interventional radiology. With increasing future demand for clinical radiology predicted, time savings from use of text drafting technologies could be a valuable contribution towards our field. MethodThree cases of peripherally inserted central catheter (PICC) line insertion were defined for the present study. The current version of ChatGPT was tasked with drafting reports, following the Radiological Society of North America (RSNA) template. Key resultsScore card evaluation by human radiologists indicates that time savings in documentation / administration can be expected without loss of quality from using ChatGPT. Further, automatically generated texts were not assessed to be clearly identifiable as AI-produced. ConclusionsPatients, doctors, and hospital administrators would welcome a reduction of the time that interventional radiologists need for documentation and administration these days. If AI-tools as tested in the present study are brought into clinical application, questions about trust into those systems eg with regard to medical complications will have to be addressed.
Autori: Wolfram A Bosbach, J. F. Senge, M. T. Mc Murray, F. Haupt, P. S. Breiding, C. Beisbart, K. Daneshvar, A. Komarek, G. Noeldge, F. Mosler
Ultimo aggiornamento: 2023-07-16 00:00:00
Lingua: English
URL di origine: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578
Fonte PDF: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578.full.pdf
Licenza: https://creativecommons.org/licenses/by-nc/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia medrxiv per l'utilizzo della sua interoperabilità ad accesso aperto.