がん治療の決定におけるAIの役割
研究が明らかにしたのは、AIが医者ががん治療の選択をするのをどう助けるかってこと。
― 1 分で読む
がん治療は難しいよね。最近の治療法の進展や患者の詳細なデータが手に入るようになったことで、もっとパーソナライズされた治療プランを提供できるようになったんだ。これらのプランは、患者が時間の経過とともにどのように反応するかに基づいて変わることがあって、治療をもっと効果的にし、副作用を減らすことを目指してる。でも、がんの特性上、最適なアプローチを見つけるのは難しいんだよね。選択肢はたくさんあるし、関わるデータは複雑で不確かだから、パーソナルな治療をより効果的にする方法を見つけることが大事なんだ。ここで人工知能(AI)の出番。AIツールは治療反応を分析したり、結果を予測したり、ベストな治療プランを提案したりできる。でも、これらのツールはいつも正確じゃないし、訓練されたデータに基づいて偏りが生じることもある。だから、AIに依存しすぎても、逆に依存が少なすぎても、効果的な治療の決定に悪影響を与えるかもしれない。がんのような深刻な病状に対する治療戦略を決定する前に、医師とAIがどのように協力できるかを研究することが重要なんだ。
研究概要
この研究では、研究者たちが医師が特定の治療法である知識ベースの反応適応放射線療法(KBR-ART)を行う際に、AIツールとどのように連携しているかを調べた。KBR-ARTは、治療前に患者を評価すること、治療中に患者の反応を評価すること、そしてその反応に応じて治療を調整するという3つの主要なステップがある。
評価の段階では、医師が治療前と治療中に収集したデータを比較して患者の反応を見てる。次に適応の段階で、その反応に基づいて治療プランを変更する。今回使われたAIツールはARCliDSというもので、先進的なアルゴリズムを使って患者のデータを分析し、治療プランの変更を提案する。
研究の前に、ARCliDSツールは、非小細胞肺癌(NSCLC)や肝細胞癌(HCC)の患者の過去のデータを用いて開発された。研究者たちは、医師がAIの助けなしで決定する場合とAIの助けを借りる場合の比較実験を行った。医師は治療中の投与量の調整を判断し、自分の決定に対する自信を評価し、AIの推薦に対する信頼感を共有した。
研究のデザイン
研究者たちは、KBR-ARTの意思決定プロセスを模倣したウェブモジュールを設計した。最初の段階では、医師が患者の治療プランや画像データを見て、投与量の決定を行い、自信の評価を0から5のスケールで行った。次の段階では、AIが治療反応の分析に基づいて推薦を提供し、医師は再度自分の決定と自信レベルを入力した。
医師がAIの推薦を信頼できるようにするため、研究者たちは潜在的な治療結果や予測の不確実性を示す視覚的なグラフなどの機能を含めた。医師たちがAIの推薦についてどう感じていたか、自分の意思決定プロセスについてのデータを集めた。
この研究の主な目的は、医師がAIとどのように協力して意思決定を行うかを理解し、医療専門家からのフィードバックに基づいてARCliDSツールのパフォーマンスを評価することだった。研究者たちは、異なる医療機関から多様な参加者を含め、経験や専門分野のバランスを取った。
決定の評価
研究者たちは、NSCLCとHCCのケースを含む合計144件の評価を集めた。彼らはAIが医師の決定にどう影響を与えたかを分析した。多くの評価では、AIが決定に大きな変化をもたらさなかったが、個々のケースでは、約半分の医師がAIの推薦を見た後に決定を調整していたことがわかった。
結果は、ある医師は全く決定を変えなかったが、他の医師はAIの入力に基づいて複数回調整を行ったことを示していた。NSCLCでは、決定の調整が広くばらつき、一部の医師は複数回決定を調整したのに対し、他の医師はAIの提案に反応しなかった。HCCのコホートでは、すべての評価者が少なくとも一度は決定を変更していた。
AIの影響を理解する
研究では、医師の元の決定とAIの推薦との間の不一致レベルが最終結果にどのように影響するかを調べた。AIが提案した内容と医師が計画していた内容の間に大きな違いがあった場合、医師は通常、決定をより多く調整した。これにより、ギャップが大きくなるほどAIの入力が医師の最終的な判断に影響を与える可能性が高いことが示唆された。
また、AIへの信頼が高まるにつれて、医師はAIの提案に賛同する傾向が強くなった。この相関関係は、医師がAIを信頼すると、提案に従う傾向が高くなることを示している。
決定の自信
研究では、医師が自分の決定についてどれだけ自信を持っていたか、特にAIの提案との関係についても焦点を当てた。結果は混合した傾向を示した。HCCの評価においては、決定への自信とAIへの信頼との間に正の関係が見られた。しかし、NSCLCの評価ではこのつながりはあまり明確ではなかった。
一般的に、医師が自分の決定がケアの標準に近いと感じたとき、自信レベルは高まる傾向があった。この傾向は、NSCLCとHCCの両方のケースで見られた。AIが標準的な実践に沿った決定を支持した際、医師はより高い自信を示し、既存の実践に対する親しみや整合性が影響していることを示している。
評価者間の合意
この研究では、AIを利用した決定が医師間の合意を高めるかどうかを評価した。AIの支援を受けた場合、医師の決定間で合意が顕著に増加したことが分かった。これは、AIツールが医師の意思決定の変動を減らすのに役立つことを示唆している。
治療結果に向けた決定の調整
研究者たちは、AIが提供した予測治療結果に関連して医師の決定がどのように変化したかを見た。NSCLCの文脈では、大多数の変更が腫瘍コントロールの可能性を高めることを目指して行われたが、副作用には慎重であった。一方、HCCの患者では、より多くの医師が毒性を制限するために決定を調整することを好んでいた。これにより、2つのがんタイプの焦点の違いが示された。
両方のがんタイプにおける決定変更の分析は、医師間の共通の目標、すなわち効果的で副作用を考慮したより良い治療結果を達成することを示していた。AIからの結果予測は、これらの調整を導く上で重要な役割を果たしており、治療戦略を最適化する際のAIの重要性を強調している。
評価者のフィードバック
研究の一環として、研究者たちは参加者からのフィードバックを集めた。評価者たちは、潜在的な副作用や治療の有効性が、自分たちの決定に影響を与える重要な要素であると共有した。NSCLCでは、特に重要な臓器の毒性リスクを考慮することが多くの人に強調された。HCCでは、肝機能が治療選択に影響を与える主要な考慮事項だった。
これらのコメントは、医師とAIの間の協働的な意思決定プロセスについてのさらなる洞察を提供した。参加者の中には、予測された治療結果とAIの提案との関係を理解することが重要であると指摘した医師もいた。多くの医師がAIの予測が論理的で、実際のシナリオを反映していることを確認したいと考えていた。
結論
この研究は、がん治療における医師とAIの複雑な関係を強調している。AIツールは貴重な推薦を提供できるけど、どのようにそれらの推薦が受け入れられ、行動に移されるかは、信頼性や医師の過去の経験に大きく依存する。
全体として、結果はAIがデータに基づいた洞察を提供することで協働的な意思決定にポジティブな影響を及ぼし、医師間の一貫性を促進し、より良い治療結果を達成するのを助ける可能性があることを示している。
AIをがん治療戦略に組み込む目的は、医師が情報に基づいた決定を下し、最終的に患者ケアを向上させるようサポートすることなんだ。この分野の研究を続けることが重要で、AIツールを最適化し、臨床実践への影響を理解する必要がある。特に、より適応的な治療法が腫瘍学で利用可能になるにつれて、これは重要になる。
この研究から得られた洞察は、医療専門家の専門知識を補完する効果的なAIシステムを開発するための今後の取り組みに役立ち、がんとの戦いにおいて患者の結果を改善することにつながるだろう。
タイトル: Intricacies of Human-AI Interaction in Dynamic Decision-Making for Precision Oncology: A Case Study in Response-Adaptive Radiotherapy
概要: BackgroundAdaptive treatment strategies that can dynamically react to individual cancer progression can provide effective personalized care. Longitudinal multi-omics information, paired with an artificially intelligent clinical decision support system (AI-CDSS) can assist clinicians in determining optimal therapeutic options and treatment adaptations. However, AI-CDSS is not perfectly accurate, as such, clinicians over/under reliance on AI may lead to unintended consequences, ultimately failing to develop optimal strategies. To investigate such collaborative decision-making process, we conducted a Human-AI interaction case study on response-adaptive radiotherapy (RT). MethodsWe designed and conducted a two-phase study for two disease sites and two treatment modalities--adaptive RT for non-small cell lung cancer (NSCLC) and adaptive stereotactic body RT for hepatocellular carcinoma (HCC)--in which clinicians were asked to consider mid-treatment modification of the dose per fraction for a number of retrospective cancer patients without AI-support (Unassisted Phase) and with AI-assistance (AI-assisted Phase). The AI-CDSS graphically presented trade-offs in tumor control and the likelihood of toxicity to organs at risk, provided an optimal recommendation, and associated model uncertainties. In addition, we asked for clinicians decision confidence level and trust level in individual AI recommendations and encouraged them to provide written remarks. We enrolled 13 evaluators (radiation oncology physicians and residents) from two medical institutions located in two different states, out of which, 4 evaluators volunteered in both NSCLC and HCC studies, resulting in a total of 17 completed evaluations (9 NSCLC, and 8 HCC). To limit the evaluation time to under an hour, we selected 8 treated patients for NSCLC and 9 for HCC, resulting in a total of 144 sets of evaluations (72 from NSCLC and 72 from HCC). Evaluation for each patient consisted of 8 required inputs and 2 optional remarks, resulting in up to a total of 1440 data points. ResultsAI-assistance did not homogeneously influence all experts and clinical decisions. From NSCLC cohort, 41 (57%) decisions and from HCC cohort, 34 (47%) decisions were adjusted after AI assistance. Two evaluations (12%) from the NSCLC cohort had zero decision adjustments, while the remaining 15 (88%) evaluations resulted in at least two decision adjustments. Decision adjustment level positively correlated with dissimilarity in decision-making with AI [NSCLC:{rho} = 0.53 (p < 0.001); HCC:{rho} = 0.60 (p < 0.001)] indicating that evaluators adjusted their decision closer towards AI recommendation. Agreement with AI-recommendation positively correlated with AI Trust Level [NSCLC:{rho} = 0.59 (p < 0.001); HCC:{rho} = 0.7 (p < 0.001)] indicating that evaluators followed AIs recommendation if they agreed with that recommendation. The correlation between decision confidence changes and decision adjustment level showed an opposite trend [NSCLC:{rho} = -0.24 (p = 0.045), HCC:{rho} = 0.28 (p = 0.017)] reflecting the difference in behavior due to underlying differences in disease type and treatment modality. Decision confidence positively correlated with the closeness of decisions to the standard of care (NSCLC: 2 Gy/fx; HCC: 10 Gy/fx) indicating that evaluators were generally more confident in prescribing dose fractionations more similar to those used in standard clinical practice. Inter-evaluator agreement increased with AI-assistance indicating that AI-assistance can decrease inter-physician variability. The majority of decisions were adjusted to achieve higher tumor control in NSCLC and lower normal tissue complications in HCC. Analysis of evaluators remarks indicated concerns for organs at risk and RT outcome estimates as important decision-making factors. ConclusionsHuman-AI interaction depends on the complex interrelationship between experts prior knowledge and preferences, patients state, disease site, treatment modality, model transparency, and AIs learned behavior and biases. The collaborative decision-making process can be summarized as follows: (i) some clinicians may not believe in an AI system, completely disregarding its recommendation, (ii) some clinicians may believe in the AI system but will critically analyze its recommendations on a case-by-case basis; (iii) when a clinician finds that the AI recommendation indicates the possibility for better outcomes they will adjust their decisions accordingly; and (iv) When a clinician finds that the AI recommendation indicate a worse possible outcome they will disregard it and seek their own alternative approach.
著者: Dipesh Niraula, K. C. Cuneo, I. D. Dinov, B. D. Gonzalez, J. B. Jamaluddin, J. Jin, Y. Luo, M. M. Matuszak, R. K. Ten Haken, A. K. Bryant, T. J. Dilling, M. P. Dykstra, J. M. Frakes, C. L. Liveringhouse, S. R. Miller, M. N. Mills, R. F. Palm, S. N. Regan, A. Rishi, J. F. Torres-Roca, H.-H. M. Yu, I. El Naqa
最終更新: 2024-04-30 00:00:00
言語: English
ソースURL: https://www.medrxiv.org/content/10.1101/2024.04.27.24306434
ソースPDF: https://www.medrxiv.org/content/10.1101/2024.04.27.24306434.full.pdf
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。