医療アルゴリズムにおける人種の役割
患者ケアを向上させるために、医療アルゴリズムに人種が影響すべきかを検討中。
― 0 分で読む
最近、医療界では、医療アルゴリズムを作成する際に人種を考慮するべきかどうかについての重要な議論が行われてるんだ。これらのアルゴリズムは、医者や医療提供者が治療、診断、患者ケアについての判断をするのを助けるツールなんだよ。心臓病学、腫瘍学、腎臓病学などのいくつかの医療分野では、こうしたアルゴリズムがよく使われていて、患者の結果やリスクを計算する要素として人種を含めてる。
でも、人種をこれらのアルゴリズムに含めるべきかどうかの話は続いていて、患者ケアにとって重要なんだ。例えば、ある医療システムでは、腎機能を評価する際に人種を使うのをやめたところもある。この変更は重要で、いくつかの人種に関するデータの調整は疑わしい情報に基づいていることがあるし、健康の格差を広げたり、人種が生物学的要因だという間違った見解から来ていることもあるからなんだ。代わりに、人種は社会的な問題として捉えるべきだよ。これらの実践で人種を見直す必要がある一方で、これらのアルゴリズムから人種を取り除く影響はまだ不明なんだ。だから、研究者たちは変更を加える前に慎重に調査するように呼びかけてる。
健康データの質と人種
この議論の重要な部分は、異なる人種グループから収集された医療データの質に関することなんだ。健康データの記録が人種によって異なることが多いんだけど、その不一致は健康の公平性に影響を与えるんだ。医療アルゴリズムに入る情報が人種間で同じくらい信頼できないと、これらのアルゴリズムによって作られる予測が特定のグループに対して不正確になる可能性がある。もし人種を考慮せずにアルゴリズムが設計されると、異なる人種グループが経験するデータの質の違いを見逃すかも。
この問題の具体的な例として、家族の健康歴があるんだ。家族の誰かが特定の病気にかかったかどうかを知ることで、その人のリスクを評価するのに役立つ。でも、研究によると、白人患者に比べて黒人患者の家族健康歴の記録が正確にされている割合が低いんだ。この違いは、家族歴に基づくがんリスクの予測が非白人患者に対してあまり信頼できないかもしれないということを示す。もしアルゴリズムがこれを考慮しなければ、その患者のリスクを過小評価する可能性がある。一方で、人種を含めることで、アルゴリズムがこれらの違いをよりよく反映できるかもしれない。
研究の概要
この問題をより理解するために、研究者たちは、アメリカ南東部における健康の格差に関する大規模な研究からデータを分析した。この研究は、主にコロレクトラル癌の既往歴がない40歳から74歳の成人を対象にした多様な参加者を含んでる。
参加者には、母、父、兄弟姉妹などの癌の家族歴について尋ねた。「はい」「いいえ」「わからない」と答えるオプションがあったんだ。研究者たちは、参加者がコロレクトラル癌の知られている家族歴を持っているかどうかに基づいて彼らを分類した。特に、黒人参加者がサンプルのかなりの部分を占めているにもかかわらず、白人参加者と比べて知られている家族歴の割合が低いことが観察されたんだ。
興味のある結果は、参加者が研究に参加した後の10年間にコロレクトラル癌を発症したかどうかだった。研究者たちは、異なる統計的方法を使ってこれを分析し、癌の家族歴が人種に応じてどのように異なるリスクに影響を与えるかを比較した。
アルゴリズムの比較
研究者たちは、コロレクトラル癌の10年リスクを予測するための2つのアルゴリズムを作成した。一つは人種を要素として含めたもので、もう一つはそうでないもの。癌リスクを推定する際にそれぞれの方法がどのように機能するかを評価し、高リスクの個人を特定したかったんだ。
両方のアルゴリズムは、年齢、性別、ライフスタイル習慣など、さまざまな要因を考慮していた。人種補正されたアルゴリズムは人種と家族歴を組み込んでいて、無人種版は人種を要素として考慮してなかった。研究者たちはその後、特に黒人参加者に対して、どのアルゴリズムがコロレクトラル癌リスクをよりよく予測できるかを確認した。
分析の結果、人種補正されたアルゴリズムは無人種版よりも良いパフォーマンスを示したんだ。特に黒人個人の間では予測精度が向上した。これは、人種を含めることで異なるグループのデータの質の不一致に対処でき、より正確な予測ができることを示唆してるんだ。
癌検診への影響
コロレクトラル癌の高リスクの個人を特定することは、効果的な予防と検診戦略にとって重要なんだ。研究者たちは、人種補正アルゴリズムを使うことで、無人種アルゴリズムと比べて、より多くの黒人参加者が高リスクとしてフラグ付けされたことを発見した。この発見は重要で、人種を考慮することで、より多くの人がタイムリーな検診を受けられる可能性があることを示している。早期に癌を見つけることは、治療が可能な段階での発見が重要だからね。
アメリカのコロレクトラル癌検診のガイドラインが最近変わって、推奨される開始年齢が45歳に引き下げられたのは、若い世代、特に黒人男性の中で上昇しているコロレクトラル癌の発生率に対処するためなんだ。検診予測に人種を含めない場合、黒人患者が必要な検診を受ける機会が減る可能性があり、健康格差を埋める努力を逆に妨げるリスクがあるんだ。
結論と今後の方向性
まとめると、この研究は、医療アルゴリズムに人種を含めることで、より良い予測と健康の平等が向上する可能性があることを示してる。特に、人種間でデータの質が異なる場合にはね。このアプローチは、人種を生物学的要因として扱うのではなく、健康データに影響を与える社会的構造を認識することなんだ。
でも、研究には限界もあって、人種補正されたアルゴリズムで高リスクとされた黒人患者が、実際の臨床の場で検診へのアクセスが改善されるかどうかは評価してないんだ。他の医療分野でも同様のパターンが現れるかどうかを調べたり、データ収集と質を改善するための別の解決策を探るために、さらに研究が必要だよ。
最終的には、人種グループ間でデータの質の違いを認識することが、患者のニーズを正確に反映したアルゴリズムを作成するために不可欠なんだ。人種修正が現在のデータの不足に対処する助けになる一方で、すべての患者のために医療データの全体的な質を改善する努力にも焦点を当てるべきなんだ。
タイトル: Race Corrections in Clinical Algorithms Can Help Correct for Racial Disparities in Data Quality
概要: Despite ethical and historical arguments for removing race corrections from clinical algorithms, the consequences of removal remain unclear. An important and underdiscussed consideration in this debate is the fact that medical data quality frequently varies across race groups. For example, family history of cancer is an essential predictor in cancer risk prediction algorithms but is less reliably documented for Black patients and may therefore be less predictive of cancer outcomes. We assessed whether race corrections could allow risk prediction models to capture varying data quality by race, focusing on colorectal cancer risk prediction. Using data from the Southern Community Cohort Study, we analyzed 77,836 adults with no history of colorectal cancer at baseline. We assessed whether the predictive relationship between self-reported family history of colorectal cancer and 10-year colorectal cancer risk differed by race. We then compared two cancer risk prediction algorithms -- a race-blind algorithm which included standard colorectal cancer risk factors but not race, and a race-corrected algorithm which additionally included race. Family history predicted 10-year colorectal cancer risk among White patients (OR: 1.74, 95% CI 1.25-2.38), but not Black patients (OR: 0.98, 95% CI 0.72-1.29). Relative to the race-blind algorithm, the race-corrected algorithm improved predictive performance, as measured by goodness of fit in a likelihood ratio test (p-value
著者: Anna Zink, Z. Obermeyer, E. Pierson
最終更新: 2023-10-10 00:00:00
言語: English
ソースURL: https://www.medrxiv.org/content/10.1101/2023.03.31.23287926
ソースPDF: https://www.medrxiv.org/content/10.1101/2023.03.31.23287926.full.pdf
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。