Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# コンピュータと社会

アルゴリズムの公平性における人種について再考する

アルゴリズムの公平性研究で人種がどう定義されてるかを探る。

― 0 分で読む


アルゴリズムにおける人種のアルゴリズムにおける人種の再定義検討。アルゴリズム研究における人種定義の批判的
目次

近年、アルゴリズムの公平性についての議論が重要になってきたよね。特に人種に関係なく人を平等に扱うことが求められている。人種を正確に定義することが差別を防ぐ鍵なんだけど、これがめっちゃ複雑なんだ。人種は生物学的な特性だけじゃなくて、時間とともに変わる社会的な概念でもあるからね。歴史的には、政府が法律や公式記録を通じて人種カテゴリを定義する大きな役割を果たしてきたけど、今は研究者や技術開発者がアルゴリズムの公平性に取り組む中で、この責任を引き受けているんだ。

この記事では、アルゴリズムの公平性研究の分野で、人種をどのように定義し分類しているか、彼らの選択にどんな影響があるのか、その決定が現実世界にどんな影響を与えるのかを見ていくよ。さまざまな研究論文を分析することで、この分野で人種がどう理解され、適用されているかを明らかにしていくつもり。

人種を定義する難しさ

人種カテゴリを定義する問題は新しいわけじゃない。政府は何年も前から国勢調査データや法律を通じて公式な人種分類を提供してきた。この分類は特定のグループを差別から守るために使われてきたことが多い。でも、アルゴリズムが意思決定プロセスでますます使われるようになると、人種の定義が研究者たちにとって重要な問題になってくるんだ。

アルゴリズムの公平性研究では、人種がどのように概念化されているかを深く掘り下げる必要があるとの声が増えてきてる。一部の研究者は、特に法律や生物学的な観点から来る伝統的な人種観について批判的に考える必要があるって強調している。

発表された研究の検討

アルゴリズムの公平性文献で人種がどのように扱われているかを理解するために、2018年から2020年にかけて発表された論文を詳細に分析した。調査結果は、人種カテゴリの定義や使用が一貫していないことを示している。同じ研究内でも研究者が異なるカテゴリを採用することが多く、彼らの結論の信頼性について疑問を呼ぶ。

分析された論文の中には、明確に人種カテゴリを定義していないものがかなりあった。一部の論文は、分類をオープンエンドにしていて、著者が分析でさまざまな人種の定義を使う可能性があった。人種を定義するためのいくつかの一般的なスキーマが確認されたけど、どのカテゴリを使うべきかについての合意はなかった。

人種分類のパターン

研究者が人種を定義することを選んだとき、通常はいくつかの方法の中から選んでいた。最も一般的な方法は、黒人と白人の基本的な二元的区別で、これはしばしば適切な根拠なしに当たり前のように扱われていた。他の方法には、さまざまな形の多人種分類や異なる民族グループへの言及が含まれていた。

興味深いことに、国勢調査の分類に関連する強い歴史的背景があるにもかかわらず、研究者は必ずしもこれらの確立されたカテゴリに頼っているわけではなかった。むしろ、彼らは自分たちのカテゴリを選ぶことが多く、人種をアルゴリズムの公平性の文脈でどのように定義すべきかについての合意がないことを示している。

多人種の視点

多人種の個人は、調査された多くの分析において目立って欠如していた。人種カテゴリを定義した論文の中で、多人種の個人をどう扱うかに触れたものは非常に少なかった。このギャップは、現代社会の人種的アイデンティティの複雑性を無視した、より単純な二元的分類を好む傾向を示している。多人種分類に関する明確なガイドラインが欠如していると、この人口の成長と可視化が進む中で、公平性分析の結果に影響を与えるかもしれない。

人種の違いの次元

研究者が人種カテゴリを構築する方法は、社会における人種の意味の異なる理解を示す。文献は、人種の違いが法律的保護や社会的地位、グループの利益など、さまざまなレンズを通じて理解されることが多いと示している。これらの次元は、人種の社会的な重要性を反映していて、公平性がどのように認識され、アルゴリズムシステムに実装されるかに影響を与える。

制度的影響の役割

アルゴリズムの公平性研究が行われる機関も、人種がどのように分類されるかに大きな影響を与える。研究者のバックグラウンドや学術コミュニティの規範、利用可能なデータが、彼らの仕事における人種カテゴリの定義や使用を形作っている。多くの研究者は、利用可能なデータによって制約を感じているようで、それが真の人種の複雑性を捉えない、過度に単純なまたは二元的なカテゴリの採用につながっていることがある。

正当化の必要性

研究からの一つの憂慮すべき発見は、多くの著者が使用した人種カテゴリに対する正当化を提供しなかったことだ。選ばれた定義について理由を示した論文はごく少数で、これはこの研究分野における厳密さや責任感について疑問を投げかける。正当化が行われた場合、それはしばしば使用されたデータや技術的制約、または先行研究への言及に関するもので、定義の社会的影響との意味のある関わり合いからはほど遠かった。

結論の考え

アルゴリズムの公平性研究における人種カテゴリの不一致な使用は、人種がどのように概念化されるべきかに対するさらなる注意の必要性を浮き彫りにしている。研究者は、自分たちの定義や選択の影響についてより明示的であるべきだ。コミュニティは透明性と正当化を優先して、真に公平性の目標が実現されるようにしなければならない。

今後、研究者は人種分類が自分たちの仕事に与える影響についてもっと意識を持つことが重要だ。これらの定義を形作る根底にある価値観や規範を理解することが、アルゴリズムの公平性に対するより公正なアプローチを生み出すのに役立つ。今日の選択が人々の生活にどのような影響をもたらすかは長期的に重要だから、この問題に対して思慮深く批判的に取り組むことが必要だよ。

行動への呼びかけ

研究者、機関、そして広いコミュニティは、アルゴリズムの公平性における人種定義のためのより明確な基準を確立するために協力しなきゃ。これには、人種的アイデンティティや社会的現実の複雑性を反映した多様な視点が必要だよ。こうした努力を通じて、私たちは人種や差別に関する長年の問題に取り組むことができるようになるんだ。

オリジナルソース

タイトル: An Empirical Analysis of Racial Categories in the Algorithmic Fairness Literature

概要: Recent work in algorithmic fairness has highlighted the challenge of defining racial categories for the purposes of anti-discrimination. These challenges are not new but have previously fallen to the state, which enacts race through government statistics, policies, and evidentiary standards in anti-discrimination law. Drawing on the history of state race-making, we examine how longstanding questions about the nature of race and discrimination appear within the algorithmic fairness literature. Through a content analysis of 60 papers published at FAccT between 2018 and 2020, we analyze how race is conceptualized and formalized in algorithmic fairness frameworks. We note that differing notions of race are adopted inconsistently, at times even within a single analysis. We also explore the institutional influences and values associated with these choices. While we find that categories used in algorithmic fairness work often echo legal frameworks, we demonstrate that values from academic computer science play an equally important role in the construction of racial categories. Finally, we examine the reasoning behind different operationalizations of race, finding that few papers explicitly describe their choices and even fewer justify them. We argue that the construction of racial categories is a value-laden process with significant social and political consequences for the project of algorithmic fairness. The widespread lack of justification around the operationalization of race reflects institutional norms that allow these political decisions to remain obscured within the backstage of knowledge production.

著者: Amina A. Abdu, Irene V. Pasquetto, Abigail Z. Jacobs

最終更新: 2023-09-12 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2309.06607

ソースPDF: https://arxiv.org/pdf/2309.06607

ライセンス: https://creativecommons.org/licenses/by-nc-sa/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事