Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Gesundheitswissenschaften# Radiologie und Bildgebung

KI in der interventionellen Radiologie: Ein Schritt nach vorne

Eine Studie zeigt, dass KI effizient beim Verfassen von Radiologieberichten helfen kann.

― 5 min Lesedauer


KI in der Radiologie:KI in der Radiologie:Zeit sparenBerichten.effizienten Verfassen von klinischenKI zeigt vielversprechende Ansätze beim
Inhaltsverzeichnis

Interventionelle Radiologie (IR) ist ein spezialisiertes Gebiet der Medizin, das bildgebende Verfahren nutzt, um minimal-invasive Eingriffe zu leiten. Die häufig verwendeten Bildgebungswerkzeuge in diesem Bereich sind Fluoroskopie, Ultraschall, Computertomographie und Magnetresonanztomographie. In letzter Zeit gibt es Interesse daran, wie Automatisierung, insbesondere durch künstliche Intelligenz (KI), bei der Erstellung von medizinischen Berichten helfen kann, was für Ärzte zeitaufwendig sein kann.

Traditionell verbringen interventionelle Radiologen einen grossen Teil ihrer Zeit mit administrativen Aufgaben, darunter das Schreiben von Berichten über Eingriffe. Diese Aufgaben werden oft als mühsam angesehen und haben keinen direkten Einfluss auf die Patientenversorgung. Da die Nachfrage nach medizinischen Bildgebungsdiensten wächst, wird es immer wichtiger, Wege zu finden, um Zeit bei diesen administrativen Aufgaben zu sparen. Die Idee ist, dass KI-Tools, wie z.B. Modelle zur Verarbeitung natürlicher Sprache, den Berichtsschreibprozess beschleunigen könnten, was nicht nur den Ärzten, sondern auch den Patienten und dem Krankenhausmanagement zugutekommt.

Um das zu untersuchen, schauten sich Forscher an, ob ein KI-Tool wie ChatGPT effektiv Berichte basierend auf einer spezifischen Vorlage der Radiological Society of North America für peripher eingebrachte zentrale Katheter (PICC) erstellen könnte. Die Studie wollte herausfinden, ob diese KI-generierten Berichte die Anforderungen an die medizinische Dokumentation erfüllen konnten.

Methodik der Studie

Die Forscher entwarfen eine Studie, die das Erstellen von drei verschiedenen Fällen beinhaltete, die jeweils spezifische Details über die Patienten und die durchgeführten Verfahren enthielten. Sie wiesen ChatGPT an, Berichte für diese Fälle mithilfe der RSNA-Vorlage zu erstellen. Insgesamt wurden 15 Berichte generiert, um zu analysieren, wie gut die KI abschnitt.

Nach der Fertigstellung bewerteten acht erfahrene Radiologen die Berichte. Sie bewerteten jeden Bericht nach mehreren Kriterien, darunter ob alle erforderlichen Informationen enthalten waren, ob die Struktur des Berichts logisch war und ob der Text wie von einer Maschine geschrieben wirkte. Sie verwendeten ein Punktesystem, um ihre Meinungen zu jedem Bericht auszudrücken.

Die Erfahrung der Radiologen war unterschiedlich, einige hatten viele Jahre in dem Bereich gearbeitet, während andere noch in der Ausbildung waren. Diese Mischung bot eine breite Perspektive auf die KI-generierten Berichte.

Vorläufige Ergebnisse

Die ersten Ergebnisse deuteten darauf hin, dass KI Berichte generieren könnte, die Radiologen akzeptabel fanden. Die Radiologen waren sich im Allgemeinen einig, dass die Berichte alle relevanten Informationen enthielten und einer zufriedenstellenden Struktur folgten. Es gab jedoch einige Bereiche, die verbessert werden könnten, insbesondere in Bezug auf das Einfügen potenzieller Komplikationen im Zusammenhang mit den Verfahren.

Die Radiologen gaben Feedback zu den Berichten und stellten fest, dass der KI-generierte Text oft hilfreich war, aber möglicherweise wichtige Details vermissen liess, die sie in einem menschlich verfassten Bericht erwarten würden. Zum Beispiel wurden Empfehlungen zur medizinischen Behandlung als fehlendes Element genannt.

Bewertung der Ähnlichkeit von Texten

Um zu messen, wie ähnlich die KI-generierten Berichte den ursprünglichen Eingabeaufforderungen waren, wurde eine Methode namens Kosinusähnlichkeit verwendet. Diese Technik hilft, zu verstehen, wie nah die geschriebenen Antworten an den in den Eingaben bereitgestellten Informationen sind. Die Ergebnisse zeigten, dass die KI ihre Schreibweise an Variationen im Input anpassen konnte, aber die Gesamtstruktur sich oft änderte, was zu Unterschieden in der Präsentation der Informationen führte.

Bewertungskarte

Die Radiologen verwendeten eine Bewertungskarte, um die Berichte anhand von fünf Fragen zu bewerten. Sie bewerteten, ob alle relevanten Informationen enthalten waren, die Struktur des Berichts, ob der Text KI-generiert wirkte, ob sie den Bericht ohne Änderungen an einen überweisenden Arzt senden würden und ob das KI-Tool ihnen Zeit bei der Dokumentationsarbeit sparte. Im Allgemeinen war das Feedback positiv, insbesondere in Bezug auf die ersten vier Fragen.

Interessanterweise waren viele Radiologen nicht mit der Vorstellung einverstanden, dass die Berichte leicht als KI-geschrieben identifizierbar waren. Das deutet auf die wachsende Fähigkeit der KI hin, menschenähnlichen Text zu produzieren, was Bedenken hinsichtlich der Verwendung solcher Technologien im medizinischen Bereich verringern könnte.

Übereinstimmung und Zuverlässigkeit der Bewerter

Die Studie untersuchte auch, wie konsistent die Bewertungen unter den beteiligten Radiologen waren. Die Analyse ergab, dass, wenn die Berichte als höherwertig angesehen wurden, die Uneinigkeit unter den Bewertern abnahm. Umgekehrt nahm die Variation der Bewertungen zu, wenn die Qualität als niedriger wahrgenommen wurde. Diese Beobachtung stimmt mit realen Erfahrungen überein, bei denen ein Bedarf an Diskussion darauf hindeutet, dass unterschiedliche Meinungen zur Berichtqualität bestehen.

Die Ergebnisse hoben hervor, dass, obwohl KI bei der Erstellung von Berichten helfen kann, es immer noch Unterschiede darin gibt, wie einzelne Ärzte die Qualität dieser Berichte wahrnehmen und interpretieren könnten. Zum Beispiel könnte ein Radiologe einen Bericht als akzeptabel empfinden, während ein anderer ihn als stark überarbeitungsbedürftig einstuft.

Fazit und zukünftige Überlegungen

Die Studie zeigt vielversprechende Ergebnisse in Bezug auf die Nutzung von KI, speziell ChatGPT, bei der Erstellung von Berichten zur interventionellen Radiologie für PICC-Katheter-Einführungen. Das Feedback der Radiologen deutet darauf hin, dass KI Zeit bei Dokumentationsaufgaben sparen kann. Es unterstreicht jedoch auch die Wichtigkeit, sicherzustellen, dass KI-generierte Berichte alle notwendigen Informationen enthalten und klinischen Standards entsprechen.

Zukünftige Forschung wird tiefer in die Vor- und Nachteile der Verwendung von KI beim Schreiben medizinischer Berichte eintauchen müssen. Fragen wie Vertrauen in KI-generierte Inhalte, die geteilte Verantwortung für die Patientenversorgung zwischen Mensch und KI sowie der Datenschutz sind alles wesentliche Themen, die weiter untersucht werden müssen. Während KI-Technologie weiterhin entwickelt und in die medizinische Praxis integriert wird, wird das Verständnis dieser Faktoren entscheidend für die erfolgreiche Implementierung im Gesundheitswesen sein.

Letztendlich ist das Ziel, die Effizienz in der medizinischen Dokumentation zu verbessern, sodass die Gesundheitsfachkräfte sich mehr auf die Patientenversorgung konzentrieren können, während sie von den Fähigkeiten der KI-Tools in ihrer täglichen Arbeit profitieren.

Originalquelle

Titel: ChatGPT may free time needed by the interventional radiologist for administration / documentation: A study on the RSNA PICC line reporting template.

Zusammenfassung: MotiveDocumentation and administration, unpleasant necessities, take a substantial part of the working time in the subspecialty of interventional radiology. With increasing future demand for clinical radiology predicted, time savings from use of text drafting technologies could be a valuable contribution towards our field. MethodThree cases of peripherally inserted central catheter (PICC) line insertion were defined for the present study. The current version of ChatGPT was tasked with drafting reports, following the Radiological Society of North America (RSNA) template. Key resultsScore card evaluation by human radiologists indicates that time savings in documentation / administration can be expected without loss of quality from using ChatGPT. Further, automatically generated texts were not assessed to be clearly identifiable as AI-produced. ConclusionsPatients, doctors, and hospital administrators would welcome a reduction of the time that interventional radiologists need for documentation and administration these days. If AI-tools as tested in the present study are brought into clinical application, questions about trust into those systems eg with regard to medical complications will have to be addressed.

Autoren: Wolfram A Bosbach, J. F. Senge, M. T. Mc Murray, F. Haupt, P. S. Breiding, C. Beisbart, K. Daneshvar, A. Komarek, G. Noeldge, F. Mosler

Letzte Aktualisierung: 2023-07-16 00:00:00

Sprache: English

Quell-URL: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578

Quell-PDF: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578.full.pdf

Lizenz: https://creativecommons.org/licenses/by-nc/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an medrxiv für die Nutzung seiner Open-Access-Interoperabilität.

Ähnliche Artikel