道徳的価値観を持った機械を作る
この記事では、機械がどうやって道徳的価値を学んで適用できるかについて話してるよ。
― 0 分で読む
目次
私たちの世界では、人々が機械とますます多くのやり取りをしています。これらの機械がより賢くなり、自分で行動するようになるにつれて、彼らも人間のように何が正しいか間違っているかを理解する必要があります。この考えは、道徳的価値に基づいて意思決定ができる「人工道徳エージェント」と呼ばれる機械を作ることについてです。でも、機械はどうやってこれらの価値を理解し、道徳的な選択をすることができるのでしょうか?
価値とは?
価値とは、私たちの行動や決定を導く信念や考えのことです。これらは社会の中で重要で、人々が何が正しいか間違っているかを理解するのに役立ちます。機械が倫理的に行動するためには、これらの価値を明確に理解する必要があります。
機械での価値について話すとき、明確に定義することが重要です。価値は特定の目標や動機に関連付けられることがあります。たとえば、正直さの価値は会話での真実を目指す目標に繋がるかもしれません。こうして、価値は人間と機械の行動を形作るのに役立ちます。
規範の役割
規範は、社会で人々がどのように行動するかを導くルールや期待のことです。これらは秩序を維持し、コミュニティに受け入れられる方法で行動するよう人々を促します。たとえば、並んでいるときには順番を待つべきという規範があります。
機械も規範が存在する環境で動作します。これらの機械が人間や他の機械とうまく協力するためには、これらの規範に従う必要があります。規範を理解することは、機械が集団内で効率的に相互作用するために重要です。
価値を意識した機械の作成
機械が道徳的な決定を下すためには、価値を意識する必要があります。つまり、価値や規範を認識して解釈する方法を持っている必要があります。価値を意識した機械は、出会う規範の道徳的な影響に基づいて自分の行動や決定を評価できます。
価値を意識した機械を作るために、人間が価値を理解する方法を見てみましょう。人々はしばしば目標を通じて価値を解釈します。だから、機械に価値を目標に翻訳することを教えれば、特定の状況でどのように行動するかをよりよく理解できるようになります。
価値の表現としての目標
機械の文脈では、目標は価値の代理として機能することがあります。機械は自分の価値を反映する特定の目標を追求するように設計されるべきです。たとえば、機械が平等を重視する場合、その目標は対話における公平さを促進することかもしれません。
これらの目標を使うことで、機械は自分の行動を評価し、従うべき価値と一致しているかをチェックできます。これにより、機械は自分の代表する価値をよりよく守るために行動を調整できるフィードバックループが生まれます。
ニュアンスのある目標のためのファジィ論理の利用
機械の目標を設定するのはいつも簡単じゃありません。人間とは違って、機械は真偽の2値で考えることが多く、要素を考慮したり状況を考えたりすることができません。このニュアンスの欠如は、価値の点で問題になることがあります。だからこそ、ファジィ論理を使うことで、より柔軟なアプローチが可能になります。
ファジィ論理を使うと、機械は単なる白黒ではなく、満足度の範囲を反映した目標を持つことができます。つまり、機械はある目標に向かって働きかけることができるが、その目標を完璧に達成する必要はありません。たとえば、機械がジェンダー平等を目指す場合、その目標をどれだけ近づけるかによって行動を調整できるかもしれません。
価値と規範の関連付け
機械が価値と規範の両方を理解すると、より良い決定を下せます。規範はしばしば、価値を支える特定の行動を促進します。たとえば、チームワークを奨励する規範は、機械と人間の間の協力の価値を支えることができます。
機械は、自分が持っている価値をどれだけ支えているかに基づいて規範を評価できる必要があります。規範が機械の価値とよく一致している場合、その規範はその価値を促進する行動を助け、機械と人間の間のより調和の取れた相互作用を生み出します。
集合的規範の必要性
個々の機械は自分自身の価値を持つかもしれませんが、同時に全体の機械グループを支配する大きな規範のシステムにも適合する必要があります。これが、機械の個人的な価値がグループの規範と対立することになる可能性があります。
これらの対立を解決するために、機械は自分たちの集合的な価値を反映する規範を作るプロセスに積極的に参加するべきです。こうすることで、個々の目標と社会の期待の間のより良い整合を実現できます。これによって、機械と人間は共通の基盤を見つけ、協力と理解を深めることができます。
規範と価値の評価
機械が価値の整合性を維持するためには、規範を評価する方法を持っている必要があります。規範がどのように目標に影響を与え、彼らの持つ価値を支えているかを分析できます。
機械は、規範の結果を予測するために分析的な推論を用いたり、実際に規範がどのように機能するかをテストするためにシミュレーションを行ったりできます。この評価は重要で、機械が自分の価値との互換性に基づいて特定の規範を採用、修正、または拒否するかどうかを決定するのに役立ちます。
将来の方向性
これからのことを考えると、機械に価値を埋め込むことが重要だと分かります。これらの機械がより自律的になっていくにつれ、道徳的な価値の理解が一層重要になってきます。現在のアプローチは特定の道徳理論や行動パターンに焦点を当てがちですが、機械が自分の推論プロセスに価値を統合する必要があります。
将来的には、機械が自分の価値に基づいて規範を設定することに積極的に参加できるシステムに焦点を当てるべきです。これにより、彼らは人間によって課されたルールに従うだけでなく、共有された道徳的枠組みに貢献できるようになります。
さらに、未来の機械はお互いの価値をより深く理解することから利益を得られるかもしれません。他の機械の価値を認識し解釈することで、彼らの相互作用を強化し、より意味のある倫理的な関わりを生むことができます。
結論
価値を意識した機械を作ることは、私たちの生活に彼らを統合するための重要なステップです。価値と規範の両方を理解することで、これらの機械は人間の倫理に合わせたより良い決定を下すことができます。
これらのシステムを開発するために取り組む中で、機械が彼らが操作する規範に関わり、形作るために必要なツールを持つことをどのように確保するかも考慮する必要があります。このアプローチは、より倫理的な機械だけでなく、テクノロジーと人間が調和して働ける社会をもたらします。
タイトル: Value Engineering for Autonomous Agents
概要: Machine Ethics (ME) is concerned with the design of Artificial Moral Agents (AMAs), i.e. autonomous agents capable of reasoning and behaving according to moral values. Previous approaches have treated values as labels associated with some actions or states of the world, rather than as integral components of agent reasoning. It is also common to disregard that a value-guided agent operates alongside other value-guided agents in an environment governed by norms, thus omitting the social dimension of AMAs. In this blue sky paper, we propose a new AMA paradigm grounded in moral and social psychology, where values are instilled into agents as context-dependent goals. These goals intricately connect values at individual levels to norms at a collective level by evaluating the outcomes most incentivized by the norms in place. We argue that this type of normative reasoning, where agents are endowed with an understanding of norms' moral implications, leads to value-awareness in autonomous agents. Additionally, this capability paves the way for agents to align the norms enforced in their societies with respect to the human values instilled in them, by complementing the value-based reasoning on norms with agreement mechanisms to help agents collectively agree on the best set of norms that suit their human values. Overall, our agent model goes beyond the treatment of values as inert labels by connecting them to normative reasoning and to the social functionalities needed to integrate value-aware agents into our modern hybrid human-computer societies.
著者: Nieves Montes, Nardine Osman, Carles Sierra, Marija Slavkovik
最終更新: 2023-02-17 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2302.08759
ソースPDF: https://arxiv.org/pdf/2302.08759
ライセンス: https://creativecommons.org/licenses/by-nc-sa/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。