Simple Science

最先端の科学をわかりやすく解説

# 健康科学# 医療政策

AIが健康の平等に与える影響の評価

AIソリューションが医療における健康の平等にどう影響するかを評価するためのフレームワーク。

― 1 分で読む


AIと健康の公平性評価AIと健康の公平性評価AIの健康格差を減らす役割を評価する。
目次

データに基づくテクノロジーの利用が医療で一般的になってきてるね。主なテクノロジーにはAI(人工知能)とML(機械学習)があって、これらのツールは医療提供者の働き方を改善したり、臨床判断を助けたり、医療システムの全体的な運営を強化するのに役立つんだ。例えば、AIとMLは敗血症のような重篤な状態の認識や治療に役立ったり、不要な集中治療への転送を防いだり、重要な心機能の指標を自動で計算したりすることができる。これらのテクノロジーは、早期の病気検出を可能にしたり、医療データの収集と分析をより一貫して行えるようにしたり、患者にとっての医療アクセスを向上させたりすることもあるんだ。

でも、AIツールの成長は、これらが安全かつ公正に使われることを保証するルールやガイドラインの成長を上回っているんだ。研究によると、これらのAIテクノロジーが既存のバイアスや不平等を助長しているケースがたくさんあることがわかった。そこで、さまざまな政府機関が医療AIがこれらの不平等を悪化させないように対策を講じ始めたけど、医療機関がこれらの原則を効果的に実施するための明確な方法はまだ不足しているんだ。

多くの研究が、AI製品にバイアスが存在する理由をいくつか特定している。データの代表性のギャップ、歴史的データの欠如、特異な事例、データの測定方法のバイアス、結果を説明する言語の問題などが含まれているよ。これらのバイアスに対処するためのレビューや提案はあったけど、医療リーダーがAIによる健康格差の悪化リスクを減らすために使える実用的なステップの包括的なセットはまだ欠けているんだ。

前の研究では、医療のリーダーたちがAI製品が健康格差に与える影響を評価するのが難しいことがわかった。いろんな医療機関やAI倫理・バイアスの専門家に話を聞いたけど、これらの影響を評価する最善の方法について明確な合意には至らなかったんだ。

現在の研究

これらのギャップを埋めるために、ワークショップを開催して、医療リーダーがAI技術が健康の公平性にどのように影響するかを理解するのを助けるフレームワークを作ったんだ。このフレームワークは「AIライフサイクルにおける健康の公平性(HEAAL)」と呼ばれている。健康の公平性は、誰もが自分のバックグラウンドや状況に関係なく最適な健康を達成することと定義しているよ。

この研究の目標は2つあって、まずはフレームワークの手続きや関連するデータ、利害関係者について詳しく説明すること。次に、このフレームワークを参加型デザイン研究の方法を使ってどう作ったかを説明することで、今後のコラボレーションに役立てることなんだ。

参加と整合

HEAALフレームワークは、アメリカの医療機関と関連パートナーのリーダーたちとの広範な協力を通じて設計されたよ。ケーススタディを実施したチームを集めて、ワークショップ中に彼らの経験を共有してもらった。医療機関やエコシステムパートナーから多くの代表が、彼らの現場でAIがどのように使われているかについてのインサイトを提供したんだ。

臨床医、コミュニティ代表、コンピュータ科学者、法律の専門家、プロジェクトマネージャー、学者など、さまざまな専門家がフレームワークとその手続きを作る開発チームの一員となった。彼らはデザインプロセスの中で議論を重ね、さまざまな専門知識が組み込まれるようにしたよ。デザインアプローチでは、アイデアの生成と洗練の2回の主要なラウンドが含まれた。

倫理声明

この研究は、質改善プロジェクトとして構成されていて、人間の被験者に関する研究を含まなかったから、倫理審査委員会(IRB)の承認は必要なかった。すべての参加者はデザインプロセスに参加するための口頭同意を提供し、匿名の意見が分析に使われることを許可したんだ。

初期の発見フェーズでは、参加者の見解を探り、その考えを文書化した。

ケーススタディ

この研究プロセスの一環として、合計3つのケーススタディが作成された。1つは、デューク健康イノベーション研究所のチームによって小児敗血症を予測するツールに焦点を当てて開発された。他の2つのケーススタディは、ニューヨーク・プレスビテリアン病院とパークランド臨床イノベーションセンターのチームによって、産後うつ病と患者セグメンテーションに関するものだ。

これらのケーススタディは、AIアプリケーションの実例として機能し、ワークショップ中の議論を促進したよ。

評価ドメイン

フレームワークを開発したチームメンバーは、ケーススタディを分析し、医療のリーダーがAIソリューションを実装する際に注目すべき重要な分野を特定した。それぞれの分野を説明し、潜在的な評価方法を提案したことで、6つの重要な評価ドメインを特定したんだ。

ワークショップのインサイト

ワークショップ中、さまざまな分野の参加者が異なる活動を通じて意見を共有した。デザインリサーチャーは、行われた議論からメモを集め、重要なインサイトを統合した。これらのインサイトは、以前に特定された評価エリアに整理されたよ。

フレームワークの開発者は、ワークショップで共有されたアイデアを見直し、評価エリアを6つの明確なドメインに洗練させた。

プロトタイピング

次のフェーズでは、フレームワークの初期プロトタイプを作成してテストした。各ドメインには、フレームワーク開発者が個別に回答した具体的なガイディングクエスチョンがあったんだ。デザインリサーチャーはこの情報を1つの文書にまとめ、フレームワークの最初のプロトタイプを形成した。

チームは次に、小児敗血症予測アルゴリズムを使ってプロトタイプをテストした。これが実際の使用に適していることを確認するために重要だったんだ。この初期テストからのフィードバックは、手続きの冗長性を減らしたり、特定の役割や責任を明確にしたりする改善点を示唆した。

その後、ユーザーのインサイトを含む第2のプロトタイプが生成された。この更新版は、使いやすさとフレームワークの元々の目標との一致を確認するために再度テストされたよ。

フレームワークの最終化

ユーザーや利害関係者からのフィードバックに基づいて修正が行われた後、HEAALフレームワークの最終版が作成された。この最終版は、さらなる適用のために他のケーススタディチームと共有される予定だよ。

健康の公平性評価ドメイン

HEAALフレームワークは、5つの主要な評価ドメインに焦点を当ててる:

  1. 説明責任:これは、AIソリューションの効果に対して、個人や組織が責任を持つことを確保すること。潜在的な悪影響の監視と、継続的なモニタリングの計画を設けることを含む。

  2. 公平性:この原則は、すべての人々を偏りなく公平に扱うことに関するもの。評価の目的は、異なるグループ間でリソースが公平に分配され、差別的な結果を防ぐことを確保すること。

  3. 目的適合性:これは、AIソリューションが解決すべき特定の問題に適しているかどうかを評価する。意図された用途、制約、ターゲットオーディエンスを定義することが含まれる。

  4. 信頼性と妥当性:この分野はAIソリューションのパフォーマンスに焦点を当てている。信頼できるツールは一貫した結果を出し、妥当性はモデルが意図したものを正確に測定することを保証する。

  5. 透明性:このドメインは、AIソリューションがどのように開発され、維持されるかについての明確なコミュニケーションの重要性を強調する。ユーザーが潜在的なリスクや影響を理解できるようにすることを目指しているよ。

実施上の課題

HEAALフレームワークは、これらの評価ドメインを適用する際の課題も認識している。多様で robust なデータセットを収集するためには、高度な専門知識とインフラが必要なんだ。フレームワークは有用だけど、完全に実施するにはかなりのリソースとサポートが必要で、特にリソースが限られている組織には大変だよ。

HEAALフレームワークを採用するために、医療機関に動機付けをする財政的インセンティブも必要だね。これらのインセンティブがなければ、組織はAIを使うことに尻込みするリスクがあるんだ、たとえそれがケアの質を向上させる可能性があったとしても。

単にHEAALフレームワークを採用するだけでは公平性が保証されないことにも注意が必要だよ。組織は本当の変化をcommitし、フレームワークを本当に改善することなくコミットしているふりをしないようにしなきゃね。

制限と今後の方向性

HEAALフレームワークは包括的で使いやすいけど、制限もある。主にアメリカの文脈で開発されたから、他の国のユーザーはその手続きにギャップがあるかもしれない。また、フレームワークはかなり広範で、一部のユーザーには圧倒されるかもしれない。アクセスしやすさを向上させるために、指示はできるだけ簡素化されているよ。

もう一つの制限は、HEAALフレームワークが主に社内で構築されたAI製品でテストされたこと。外部で開発された製品での検証が必要だね、医療で使われるAIソリューションのほとんどは内部で構築されていないから。

フレームワークは、生成AIアプリケーションでまだテストされていない。これを引き続き改善するために、組織がHEAALフレームワークを実際に使ってフィードバックを提供してくれることを期待しているよ。

結論

HEAALは、医療機関がAIソリューションが健康の公平性に与える影響を評価するための構造的な方法を提供している。AIアプリケーションの潜在的な影響を徹底的に評価する必要性を強調し、さまざまな利害関係者間のコラボレーションを促進しているんだ。フレームワークは健康の格差を軽減し、AI駆動の医療の進行中の課題や機会にも対処することを目指している。こうした協力的なアプローチを通じて、私たちは公平な医療提供を進め、継続的な改善のためのオープンなコミュニケーションチャンネルを維持したいと考えているよ。

オリジナルソース

タイトル: Development and preliminary testing of Health Equity Across the AI Lifecycle (HEAAL): A framework for healthcare delivery organizations to mitigate the risk of AI solutions worsening health inequities

概要: The use of data-driven technologies such as Artificial Intelligence (AI) and Machine Learning (ML) is growing in healthcare. However, the proliferation of healthcare AI tools has outpaced regulatory frameworks, accountability measures, and governance standards to ensure safe, effective, and equitable use. To address these gaps and tackle a common challenge faced by healthcare delivery organizations, a case-based workshop was organized, and a framework was developed to evaluate the potential impact of implementing an AI solution on health equity. The Health Equity Across the AI Lifecycle (HEAAL) is co-designed with extensive engagement of clinical, operational, technical, and regulatory leaders across healthcare delivery organizations and ecosystem partners in the US. It assesses 5 equity assessment domains- accountability, fairness, fitness for purpose, reliability and validity, and transparency-across the span of eight key decision points in the AI adoption lifecycle. It is a process-oriented framework containing 37 step-by-step procedures for evaluating an existing AI solution and 34 procedures for evaluating a new AI solution in total. Within each procedure, it identifies relevant key stakeholders and data sources used to conduct the procedure. HEAAL guides how healthcare delivery organizations may mitigate the potential risk of AI solutions worsening health inequities. It also informs how much resources and support are required to assess the potential impact of AI solutions on health inequities. Author summaryIn healthcare, the use of data-driven technologies such as Artificial Intelligence (AI) and Machine Learning (ML) is increasing. However, the lack of robust regulations and standards poses a challenge to their safe and equitable use. To bridge this gap, we brought together healthcare leaders from various backgrounds in a workshop and developed the Health Equity Across the AI Lifecycle (HEAAL) framework. HEAAL evaluates how the use of AI might affect health equity. It examines five crucial domains--accountability, fairness, fitness for purpose, reliability and validity, and transparency--across eight key decision points in the AI adoption process. HEAAL offers tailored procedures for assessing both existing and new AI solutions, along with relevant stakeholders and data sources. By providing step-by-step guidance, HEAAL empowers healthcare delivery organizations to comprehend and mitigate the risk of AI exacerbating health inequities.

著者: Jee Young Kim, A. Hasan, K. Kellogg, W. Ratliff, S. Murray, H. Suresh, A. Valladares, K. Shaw, D. Tobey, D. Vidal, M. Lifson, M. Patel, I. D. Raji, M. Gao, W. Knechtle, L. Tang, S. Balu, M. Sendak

最終更新: 2024-02-19 00:00:00

言語: English

ソースURL: https://www.medrxiv.org/content/10.1101/2023.10.16.23297076

ソースPDF: https://www.medrxiv.org/content/10.1101/2023.10.16.23297076.full.pdf

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。

著者たちからもっと読む

類似の記事

ニューラル・コンピューティングと進化コンピューティングSpyx: スパイキングニューラルネットワークのための新しいツール

Spyxライブラリは、スパイキングニューラルネットワークのトレーニング効率を向上させるよ。

― 1 分で読む

コンピュータビジョンとパターン認識視線推定におけるプライバシー保護技術

新しい方法は、視線データのプライバシーを守るために、フェデレーテッドラーニングとセキュアコンピュテーションを組み合わせてるんだ。

― 1 分で読む