Analizzando i Log di Audit EHR con Modelli Linguistici
Lo studio esplora come i modelli linguistici possono prevedere il rilascio dei pazienti usando i registri EHR.
― 6 leggere min
Indice
I registri elettronici di salute (EHR) vengono utilizzati nella sanità per tenere traccia delle informazioni sui pazienti. Una parte importante di questi registri è il registro di audit, che documenta come gli utenti interagiscono con il sistema EHR. Questo registro include dettagli essenziali come chi ha accesso al record di un paziente, quali azioni sono state intraprese e quando si sono verificate. Inizialmente pensati per motivi di sicurezza e privacy, questi registri hanno recentemente attirato l'attenzione per il loro potenziale di aiutare a comprendere come lavorano i professionisti della salute e identificare problemi come il burnout.
Studiare questi registri ha permesso ai ricercatori di fare progressi nel comprendere quanto tempo e sforzo impiegano i dottori utilizzando i sistemi EHR. Hanno anche trovato modi per utilizzare le informazioni per prevedere gli esiti dei pazienti. Ad esempio, analizzare questi registri ha migliorato la capacità di prevedere se un paziente sarà dimesso dall'ospedale entro il giorno successivo, basandosi sulle interazioni dei fornitori di assistenza con il sistema EHR.
Registri di Audit EHR
I registri di audit EHR servono come una fonte estesa di dati che cattura le interazioni dettagliate tra i lavoratori della salute e il sistema EHR. Registrano ogni azione compiuta da chi ha accesso al sistema, inclusi medici, infermieri e personale amministrativo. Questo significa che i registri includono chi ha fatto cosa, nel record di quale paziente e a che ora.
I fornitori di EHR forniscono questi registri con una vasta gamma di azioni e descrizioni degli utenti, assicurando che ogni interazione venga catturata accuratamente. I registri non sono solo preziosi per monitorare il comportamento degli utenti, ma sono anche utili per migliorare la cura dei pazienti e prevedere gli esiti clinici.
Il Ruolo dei Modelli di Linguaggio Grande
I Modelli di Linguaggio Grande (LLM) come GPT-4 e LLaMA-2 sono strumenti avanzati nel campo dell’elaborazione del linguaggio naturale. Aiutano a comprendere e generare testi simili a quelli umani. Recentemente, i ricercatori hanno iniziato a esplorare come questi modelli possano essere utilizzati per analizzare i registri di audit EHR, in particolare per prevedere la dimissione dall'ospedale. Tuttavia, non è un compito semplice.
Studi precedenti hanno dimostrato che usare gli LLM per analizzare i registri EHR può essere complicato. Questo in parte perché molti LLM non sono stati addestrati usando dati sanitari. Quindi, potrebbero non funzionare bene su compiti medici. Per affrontare questa lacuna, i ricercatori stanno sperimentando metodi che consentano agli LLM di comprendere meglio e elaborare i dati dei registri EHR.
Obiettivi dello Studio
Questo studio mira a indagare alcune domande chiave riguardanti l'uso degli LLM nell'analizzare i dati dei registri di audit EHR. In primo luogo, esplora quanto efficacemente questi modelli possono interpretare le sequenze delle azioni degli utenti e utilizzare queste informazioni per prevedere gli esiti dei pazienti. In secondo luogo, lo studio confronta due approcci: uno in cui il modello genera output testuali e l'altro in cui prevede risultati numericamente. Infine, esamina come diversi modi di organizzare i dati in input influiscano sulle prestazioni dei modelli.
Metodi
Lo studio coinvolge la raccolta di dati EHR e di audit log da un grande centro medico. I ricercatori si sono concentrati su pazienti adulti ricoverati in un anno specifico, guardando in particolare ai registri di audit di quelli che sono rimasti più di 24 ore. I dati sono stati elaborati in pezzi gestibili per prevedere se un paziente sarebbe stato dimesso entro il giorno successivo.
Serializzazione
Metodi diData la complessità dei dati, i ricercatori hanno sviluppato diverse strategie per trasformare le sequenze delle azioni degli utenti in un formato adatto all'elaborazione degli LLM.
- Serializzazione sequenziale che preserva l'ordine: Questo metodo semplifica le sequenze rimuovendo azioni ripetute mantenendo l’ordine originale.
- Serializzazione sequenziale selettiva: Questo approccio include solo le azioni più importanti per la previsione della dimissione, come identificato da altri modelli.
- Serializzazione sequenziale per prima occorrenza: Questo metodo riduce ulteriormente la sequenza mantenendo solo la prima occorrenza di ogni azione.
Questi metodi aiutano a strutturare i dati in un modo che consenta agli LLM di comprendere meglio le sequenze di azioni intraprese dai professionisti della salute.
Valutazione del Modello
I ricercatori hanno testato vari modelli per vedere quanto bene potessero prevedere la dimissione dei pazienti. Utilizzando diverse strategie di serializzazione e confrontando le prestazioni degli LLM con i modelli di machine learning tradizionali, hanno cercato di trovare l'approccio più efficace.
Classificazione a Livello di Testo vs. Classificazione a Livello di Logit
Nel compito di classificazione a livello di testo, il modello genera previsioni testuali basate sulle azioni degli utenti in input. Al contrario, la classificazione a livello di logit comporta un fine-tuning del modello per fornire probabilità numeriche di dimissione.
I risultati hanno mostrato che la classificazione a livello di logit ha performato meglio in generale. LLaMA-2, ad esempio, ha raggiunto un'accuratezza superiore quando è stato ottimizzato per questo compito specifico rispetto alla generazione di previsioni basate su testo.
Risultati Chiave
Lo studio ha rivelato diversi importanti spunti riguardo all'uso degli LLM per analizzare i registri di audit EHR.
- Problemi di Prestazioni: Gli LLM che non erano stati specificamente addestrati su dati medici hanno mostrato un'efficacia limitata nella previsione degli esiti dei pazienti.
- Importanza della Serializzazione: Il modo in cui i dati erano strutturati ha giocato un ruolo critico nelle prestazioni del modello. Formati più semplici e concisi hanno spesso prodotto risultati migliori.
- Vantaggi del Fine-tuning: Adattare gli LLM a compiti sanitari specifici ha migliorato la loro accuratezza predittiva.
Sebbene l'uso degli LLM per applicazioni sanitarie abbia un potenziale, è evidente la necessità di modelli specificamente addestrati su dati medici.
Limitazioni
Ci sono diverse limitazioni che dovrebbero essere considerate in questo studio. Innanzitutto, ci si è concentrati su un singolo compito, la previsione della dimissione, e future ricerche dovrebbero esplorare altri compiti di previsione clinica. In secondo luogo, lo studio non ha valutato le prestazioni di tutti i modelli disponibili, in particolare quelli specificamente orientati alla salute. Infine, la necessità di risorse computazionali sostanziali può limitare l'accesso per alcuni ricercatori.
Conclusione
L'esplorazione degli LLM nella sanità, in particolare nell'analizzare i registri di audit EHR, mostra sia potenzialità che sfide. Sebbene i progressi nella tecnologia degli LLM possano migliorare le capacità predittive, è chiaro che è necessario ulteriore lavoro per garantire che questi modelli siano sia efficaci che applicabili in situazioni cliniche reali. Le intuizioni ottenute da questo studio possono gettare le basi per future ricerche volte a migliorare la cura dei pazienti attraverso l'uso di tecnologie innovative. Man mano che il campo sanitario continua a evolversi, integrare strumenti avanzati come gli LLM potrebbe portare a miglioramenti significativi nella comprensione delle esigenze e degli esiti dei pazienti.
Titolo: Optimizing Large Language Models for Discharge Prediction: Best Practices in Leveraging Electronic Health Record Audit Logs
Estratto: Electronic Health Record (EHR) audit log data are increasingly utilized for clinical tasks, from workflow modeling to predictive analyses of discharge events, adverse kidney outcomes, and hospital readmissions. These data encapsulate user-EHR interactions, reflecting both healthcare professionals behavior and patients health statuses. To harness this temporal information effectively, this study explores the application of Large Language Models (LLMs) in leveraging audit log data for clinical prediction tasks, specifically focusing on discharge predictions. Utilizing a years worth of EHR data from Vanderbilt University Medical Center, we fine-tuned LLMs with randomly selected 10,000 training examples. Our findings reveal that LLaMA-2 70B, with an AUROC of 0.80 [0.77-0.82], outperforms both GPT-4 128K in a zero-shot, with an AUROC of 0.68 [0.65-0.71], and DeBERTa, with an AUROC of 0.78 [0.75-0.82]. Among various serialization methods, the first-occurrence approach--wherein only the initial appearance of each event in a sequence is retained--shows superior performance. Furthermore, for the fine-tuned LLaMA-2 70B, logit outputs yield a higher AUROC of 0.80 [0.77-0.82] compared to text outputs, with an AUROC of 0.69 [0.67-0.72]. This study underscores the potential of fine-tuned LLMs, particularly when combined with strategic sequence serialization, in advancing clinical prediction tasks.
Autori: You Chen, X. Zhang, C. Yan, Y. Yang, Z. Li, Y. Feng, B. A. Malin
Ultimo aggiornamento: Sep 13, 2024
Lingua: English
URL di origine: https://www.medrxiv.org/content/10.1101/2024.09.12.24313594
Fonte PDF: https://www.medrxiv.org/content/10.1101/2024.09.12.24313594.full.pdf
Licenza: https://creativecommons.org/licenses/by-nc/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia medrxiv per l'utilizzo della sua interoperabilità ad accesso aperto.