Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 人工知能

AIと法的理由付けのギャップ

この研究は、法律の文脈におけるAIの説明の課題を調査してる。

― 1 分で読む


法律の文脈におけるAIの説法律の文脈におけるAIの説AIの法的意思決定における現実を評価する
目次

人工知能(AI)が私たちの日常にますます普及していく中で、規制当局からこれらのシステムが下した決定について説明を求める声が高まっている。でも、わかりやすい説明が必要だってことと、機械学習システムがそれを提供できるかどうかには大きなギャップがある。この研究は、法律における「理由提供」の概念と、それがAIから求められる説明とどう関係しているのかを探るものだ。

法律における理由提供の目的

理由提供は法律システムでいくつかの重要な役割を果たしている:

  1. より良く、公正な決定を下すこと。
  2. 適正な手続きをサポートすること。
  3. 人間の関与を認識すること。
  4. 決定権者の権威を高めること。

これらの役割を検討すると、AIシステムが提供する説明がしばしば不十分であることが明らかになる。理由提供の効果は人間の決定者に影響を与えることに依存しているが、機械から出てくる結果にはそれが当てはまらないからだ。

AIからの説明の要求

AIシステムが決定を下す役割を担うようになるにつれて、自動化された決定に対する説明を求める声がますます高まっている。「説明の権利」は一般データ保護規則(GDPR)などの法的枠組みから派生することが多い。この権利は、公正性、透明性、人権保護を確保するために重要だと見なされている。

AIの台頭により、機械学習のコミュニティの中で説明可能なAI(XAI)への関心が高まった。開発者たちは、複雑な予測に対して明確な説明を提供することで、AIシステムへの信頼を築こうとしている。

説明可能性と法的要件の結びつきの課題

この分析では、エンドユーザーの説明可能性が法的要件を満たすことができるかどうかを調べている。以下の三つの重要な質問を検討する:

  1. 法律における「説明」はどう定義されるのか?
  2. 法的文脈において理由提供はどこで適用されるのか?
  3. なぜ理由提供は法律において重要なのか?

これらの側面を理解することで、理由提供が法律における意思決定において重要であり、どのように決定が下され、正当化されるかに影響を与えることがわかる。

法律における理由提供の機能

理由提供の主な機能には以下が含まれる:

  • 決定の公正さを改善すること。
  • 個人が自分に関する決定を理解する権利を支えること。
  • 決定の影響を受ける人と決定者の道徳的な主体性を認識すること。
  • これらの決定を下す権威の正当性を高めること。

これらの機能は、理由提供が単なる官僚的な要件ではなく、公正な結果を生み出すのに役立つ仕組みであることを示している。

エンドユーザーの説明可能性の限界

説明の需要があるにもかかわらず、エンドユーザーの説明可能性には大きな限界がある。法律における理由提供の核心機能に対処できないことが多い。特に複雑なアルゴリズムに依存するAIシステムは、公正な意思決定を促すような意味のある説明を提供する能力を持っていない。代わりに、彼らはアルゴリズムに基づいた予測を生成するが、これは説明責任や道徳的判断に関連する人間の特質を欠いている。

例えば、決定が機械の予測に依存している場合、正当な結果を保証するために理由提供の役割は無関係になる。AIは人間の価値観を理解したり反映したりする能力が欠けているため、これらのシステムがポジティブに決定に影響を与えるのは難しい。

説明可能性は適正手続きを促進できるのか?

適正手続きも説明が必要なもう一つの分野だ。個人は自分に影響を与える決定の理由を知る権利がある。もし説明可能性が十分な説明を提供できなければ、そのプロセスは個人の権利を保護することができない。この研究は、現在の説明生成技術がしばしば不足していて、信頼できる説明の法的定義を満たしていないと主張している。

説明可能性の解釈の課題

LIMEやSHAPのような説明可能性技術は、非専門家には解釈が難しい出力を生成することがある。多くの人がこれらの出力を理解するための技術的背景を持っていないため、混乱や不信を招くことがある。説明可能性は、機械学習に精通した人だけでなく、すべての人が理解できる説明を提供すべきだ。

プライバシーとセキュリティの懸念

プライバシー、知的財産、セキュリティに関する懸念も、説明を提供する際の利害関係者の抵抗を生む。いくつかの利害関係者は、説明を提供することで敏感な情報が明らかになったり、意思決定プロセスが操作されるリスクを恐れている。このエンドユーザーとAIシステムの間の対立的な動態は、説明が育むべき信頼の構築を複雑にする。

人間の主体性の認識

理由提供は人間の主体性を認める役割も果たす。人間が決定を下すとき、彼らは行動に対して責任を持たれる。しかし、機械システムが決定を下すとき、責任の概念は変わる。これは人間の自律性や意思決定プロセスにおけるAIの役割について倫理的な疑問を引き起こす。説明の存在は、決定の影響を受ける人々の人間の尊厳を尊重し、確認するべきだ。これは、決定が人間によってなされたか機械によってなされたかに関わらない。

決定者の権威を高める

説明可能性が成功しているように見える分野の一つは、決定者の権威を高めることだ。適切に説明された決定は、決定を下す人々の正当性の認識を高めることができる。場合によっては、大規模言語モデル(LLM)のようなAIシステムが、説明が欠陥や誤解を招くものであっても、一貫した説明を生成できる。

しかし、これは操作や機械への過信に関する懸念を引き起こす。エンドユーザーが正当な精査なしに機械生成の出力からの説明を信頼すると、誤った行動や潜在的な被害につながることがある。機械への盲目的な信頼を助長するリスクは見逃すべきではない。

説明可能性研究の変化

説明可能性に関する研究は、透明性から効果性や信頼構築へと焦点を移している。透明性はシステムがどのように機能するかを理解することを目的としているが、最近のトレンドはユーザーの満足度やシステムへの信頼を強調している。このシフトは、AIシステムにおける精査と責任を促進するという元々の目標を希薄にする可能性がある。

結論

この分析は、法的な説明の必要性と現在のAIシステムが提供できる現実とのギャップを強調している。多くの説明可能性技術は、法律における理由提供の本質的な機能を果たすのに苦労している。AIシステムの権威を高めるための前向きな進展がある一方で、操作や誤った信頼のリスクは重要な課題を引き起こす。

AIが進化し続ける中で、説明可能性へのアプローチを再考することが重要だ。不十分な技術に依存し、悪用の可能性を伴うことは、AIシステムの開発と実装において慎重な考慮を必要とする微妙な状況を生み出す。この説明を求める動きが、公正性や責任の原則を損なうような意図しない結果を招かないようにすることが不可欠だ。

オリジナルソース

タイトル: The Case Against Explainability

概要: As artificial intelligence (AI) becomes more prevalent there is a growing demand from regulators to accompany decisions made by such systems with explanations. However, a persistent gap exists between the need to execute a meaningful right to explanation vs. the ability of Machine Learning systems to deliver on such a legal requirement. The regulatory appeal towards "a right to explanation" of AI systems can be attributed to the significant role of explanations, part of the notion called reason-giving, in law. Therefore, in this work we examine reason-giving's purposes in law to analyze whether reasons provided by end-user Explainability can adequately fulfill them. We find that reason-giving's legal purposes include: (a) making a better and more just decision, (b) facilitating due-process, (c) authenticating human agency, and (d) enhancing the decision makers' authority. Using this methodology, we demonstrate end-user Explainabilty's inadequacy to fulfil reason-giving's role in law, given reason-giving's functions rely on its impact over a human decision maker. Thus, end-user Explainability fails, or is unsuitable, to fulfil the first, second and third legal function. In contrast we find that end-user Explainability excels in the fourth function, a quality which raises serious risks considering recent end-user Explainability research trends, Large Language Models' capabilities, and the ability to manipulate end-users by both humans and machines. Hence, we suggest that in some cases the right to explanation of AI systems could bring more harm than good to end users. Accordingly, this study carries some important policy ramifications, as it calls upon regulators and Machine Learning practitioners to reconsider the widespread pursuit of end-user Explainability and a right to explanation of AI systems.

著者: Hofit Wasserman Rozen, Niva Elkin-Koren, Ran Gilad-Bachrach

最終更新: 2023-05-20 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2305.12167

ソースPDF: https://arxiv.org/pdf/2305.12167

ライセンス: https://creativecommons.org/licenses/by-sa/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

ヒューマンコンピュータインタラクション親向けのパーソナライズされたストレス解消アプリ

研究によると、親向けにパーソナライズされたモバイルアプリのおすすめを使った効果的なストレス管理ができるんだって。

― 1 分で読む

類似の記事