IA na Radiologia Intervencionista: Um Passo à Frente
Estudo mostra que IA pode ajudar a elaborar relatórios de radiologia de forma eficiente.
― 6 min ler
Índice
A radiologia intervencionista (IR) é uma área especializada da medicina que usa técnicas de imagem pra guiar procedimentos minimamente invasivos. As ferramentas de imagem mais usadas nesse campo incluem fluoroscopia, ultrassonografia, tomografia computadorizada e ressonância magnética. Recentemente, o interesse tem crescido em como a automação, principalmente através da inteligência artificial (IA), pode ajudar a redigir Relatórios médicos, que costumam ser bem demorados pros médicos.
Tradicionalmente, os Radiologistas intervencionistas passam uma boa parte do tempo realizando tarefas administrativas, incluindo a escrita de relatórios sobre os procedimentos. Essas tarefas são vistas como chatas e não impactam diretamente o cuidado com os pacientes. Com o aumento da demanda por serviços de imagem médica, é cada vez mais importante encontrar maneiras de economizar tempo nessas atividades administrativas. A ideia é que ferramentas de IA, como modelos de processamento de linguagem natural, possam acelerar o processo de escrita de relatórios, beneficiando não só os médicos, mas também os pacientes e a gestão dos hospitais.
Pra investigar isso, os pesquisadores analisaram se uma ferramenta de IA, como o ChatGPT, poderia redigir relatórios de forma eficaz com base em um template específico fornecido pela Sociedade Radiológica da América do Norte para cateteres centrais inseridos perifericamente (PICC). O estudo tinha como objetivo ver se esses relatórios gerados pela IA poderiam atender aos padrões exigidos na documentação médica.
Metodologia do Estudo
Os pesquisadores montaram um estudo que envolveu a criação de três casos diferentes, cada um com detalhes específicos sobre os pacientes e os procedimentos realizados. Depois, eles pediram pro ChatGPT redigir relatórios pra esses casos usando o template da RSNA. No total, foram gerados 15 relatórios pra analisar como a IA se saiu.
Após a finalização, oito radiologistas experientes avaliaram os relatórios. Eles analisaram cada relatório com base em vários critérios, incluindo se todas as informações necessárias estavam incluídas, se a estrutura do relatório fazia sentido e se o texto parecia escrito por uma máquina. Usaram um sistema de pontuação pra expressar suas opiniões sobre cada relatório.
A experiência dos radiologistas variou, com alguns tendo muitos anos de atuação na área, enquanto outros ainda estavam em treinamento. Essa mistura trouxe uma perspectiva ampla sobre os relatórios gerados pela IA.
Resultados Preliminares
Os resultados iniciais sugeriram que a IA poderia gerar relatórios que os radiologistas acharam aceitáveis. Eles geralmente concordaram que os relatórios continham todas as informações relevantes e seguiam uma estrutura satisfatória. No entanto, havia algumas áreas que poderiam ser melhoradas, especialmente em relação à inclusão de possíveis complicações relacionadas aos procedimentos.
Os radiologistas deram um feedback sobre os relatórios, indicando que, embora o texto gerado pela IA fosse muitas vezes útil, ele poderia deixar de incluir detalhes importantes que eles esperariam ver em um relatório feito por humanos. Por exemplo, recomendações sobre tratamento médico foram notadas como um elemento que faltava.
Avaliando a Similaridade dos Textos
Pra medir o quão semelhantes eram os relatórios gerados pela IA em relação aos comandos originais dados ao ChatGPT, foi utilizada uma técnica chamada similaridade cosseno. Essa técnica ajuda a entender quão de perto as respostas escritas correspondem às informações fornecidas nos comandos. Os resultados mostraram que, embora a IA pudesse adaptar sua escrita a variações na entrada, a estrutura geral frequentemente mudava, levando a diferenças na apresentação das informações.
Avaliação de Pontuação
Os radiologistas usaram um cartão de pontuação pra classificar os relatórios com base em cinco perguntas. Eles avaliaram se todas as informações relevantes estavam incluídas, a estrutura do relatório, se o texto parecia gerado por IA, se eles enviariam o relatório a um médico referenciador sem edições e se a ferramenta de IA economizou tempo no trabalho de documentação. Em geral, o feedback foi positivo, especialmente em relação às quatro primeiras perguntas.
Curiosamente, muitos radiologistas discordaram da ideia de que os relatórios eram facilmente identificáveis como escritos por IA. Isso aponta pra crescente capacidade da IA em produzir textos semelhantes aos humanos, o que poderia reduzir as preocupações sobre o uso dessa tecnologia na área médica.
Concordância entre Avaliadores e Confiabilidade
O estudo também examinou quão consistentes eram as avaliações entre os radiologistas participantes. A análise indicou que, quando os relatos eram vistos como de maior qualidade, a discordância entre os avaliadores diminuía. Por outro lado, quando a qualidade era percebida como inferior, a variação nas pontuações aumentava. Essa observação se alinha com experiências do dia a dia, onde uma necessidade de discussão sugere opiniões diferentes sobre a qualidade dos relatórios.
Os achados destacaram que, embora a IA possa ajudar na redação de relatórios, ainda há variabilidade em como cada médico pode perceber e interpretar a qualidade desses relatórios. Por exemplo, enquanto um radiologista pode achar um relatório aceitável, outro pode apontar que ele precisa de revisões significativas.
Conclusão e Considerações Futuras
O estudo mostra resultados promissores em relação ao uso da IA, especificamente do ChatGPT, na redação de relatórios de radiologia intervencionista pra inserções de cateteres PICC. O feedback dos radiologistas sugere que a IA pode economizar tempo nas tarefas de documentação. No entanto, também destaca a importância de garantir que os relatórios gerados pela IA contenham todas as informações necessárias e atendam aos padrões clínicos.
Pesquisas futuras precisarão investigar mais a fundo os benefícios e potenciais desvantagens do uso da IA na redação de relatórios médicos. Questões como a confiança no conteúdo gerado pela IA, a responsabilidade compartilhada pelo cuidado do paciente entre humanos e IA, e a privacidade dos pacientes são todos tópicos essenciais que precisam de mais exploração. À medida que a tecnologia de IA continua a se desenvolver e a se integrar na prática médica, entender esses fatores será crucial pra sua implementação bem-sucedida em ambientes de saúde.
No final das contas, o objetivo é melhorar a eficiência na documentação médica, garantindo que os profissionais de saúde possam se concentrar mais no cuidado com o paciente, enquanto se beneficiam das capacidades das ferramentas de IA no dia a dia.
Título: ChatGPT may free time needed by the interventional radiologist for administration / documentation: A study on the RSNA PICC line reporting template.
Resumo: MotiveDocumentation and administration, unpleasant necessities, take a substantial part of the working time in the subspecialty of interventional radiology. With increasing future demand for clinical radiology predicted, time savings from use of text drafting technologies could be a valuable contribution towards our field. MethodThree cases of peripherally inserted central catheter (PICC) line insertion were defined for the present study. The current version of ChatGPT was tasked with drafting reports, following the Radiological Society of North America (RSNA) template. Key resultsScore card evaluation by human radiologists indicates that time savings in documentation / administration can be expected without loss of quality from using ChatGPT. Further, automatically generated texts were not assessed to be clearly identifiable as AI-produced. ConclusionsPatients, doctors, and hospital administrators would welcome a reduction of the time that interventional radiologists need for documentation and administration these days. If AI-tools as tested in the present study are brought into clinical application, questions about trust into those systems eg with regard to medical complications will have to be addressed.
Autores: Wolfram A Bosbach, J. F. Senge, M. T. Mc Murray, F. Haupt, P. S. Breiding, C. Beisbart, K. Daneshvar, A. Komarek, G. Noeldge, F. Mosler
Última atualização: 2023-07-16 00:00:00
Idioma: English
Fonte URL: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578
Fonte PDF: https://www.medrxiv.org/content/10.1101/2023.07.14.23292578.full.pdf
Licença: https://creativecommons.org/licenses/by-nc/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao medrxiv pela utilização da sua interoperabilidade de acesso aberto.