信頼できるAIを作る:開発のための倫理原則
責任あるAIシステムを開発するための倫理的要件ガイド。
Nicholas Kluge Corrêa, Julia Maria Mönig
― 1 分で読む
今日の世界では、人工知能(AI)が日常生活の一部になってきてるよね。映画を推薦するような簡単なタスクから、車を運転するような複雑なものまで、AIは私たちの社会のいろんな側面に影響を与えてる。でも、この成長に伴って、AIが責任を持って開発され、使われるためのガイドラインが必要なんだ。この文章では、開発者が信頼できるAIシステムを作るために従うべき倫理的要件を紹介するよ。
信頼できるAI
信頼できるAIは、誠実さ、公平さ、人権の尊重を重視して設計・開発されたAIシステムとして定義できる。人々がAI技術に対して安心感を持つことが重要で、AIが彼らを害することなく、社会にプラスの影響を与えることを感じてもらわないといけない。この信頼を築くために、開発者はAI開発のすべての段階に倫理的配慮を組み込む必要があるんだ。
倫理的原則
以下の6つの原則が信頼できるAIの基礎を提供するよ:
公平性: AIは、背景に関係なくみんなを平等に扱うべき。開発者は、不公平な扱いをもたらす可能性のあるバイアスを特定し、修正する必要がある。
プライバシーとデータ保護: 個人のプライバシーを尊重することが重要。AIシステムは必要なときにのみ個人データを使用し、そのデータが安全かつ責任を持って扱われることを保証すべき。
安全性と堅牢性: AIシステムは安全に使えるものであるべき。開発者は潜在的なリスクを予測し、それを最小限に抑えるために積極的に取り組むべき。
持続可能性: AIの開発は、その環境への影響を考慮するべき。開発者は、AIシステムのエネルギー消費や炭素排出を減らすように努力するべき。
透明性と説明可能性: AIシステムはユーザーにとって理解できるものであるべき。開発者は、これらのシステムがどのように機能し、どんな制限があるのかについて明確な情報を提供するべき。
真実性: AIが生成するコンテンツは正確で信頼できるものであるべき。開発者は、AIシステムが偽情報や誤解を招くような情報を生成しないようにする必要がある。
倫理的要件の実施
これらの原則を満たすために、開発者は具体的なステップを取らなきゃいけない。各倫理原則に関連する具体的な要件を以下に示すよ:
公平性
バイアス分析: データや意思決定プロセスを調べて、AIシステムにバイアスがないか定期的にチェックする。これにより、個人やグループに対する不公平な扱いを特定できる。
オープンディスクロージャー: 潜在的なバイアスについて透明性を持つ。特に高リスクのアプリケーションでは、ユーザーにAIシステムの知られたバイアスについて知らせるべき。
バイアスの修正または軽減: バイアスが特定された場合、データの質を改善したりアルゴリズムを調整するなどして修正する必要がある。
人間のモデレーション: 重要なアプリケーションでは、公平性を確保するために人間の監視が必要。人間のモデレーターがAIシステムが無視するかもしれない重要なコンテキストを提供できる。
プライバシーとデータ保護
目的制限とデータ最小化: 必要なときにのみ個人データを収集し処理する。AIシステムはタスクに必要な以上のデータを使ってはいけない。
ユーザーコントロールと情報提供: データが処理されるときはユーザーに知らせ、データの使用方法についてコントロールできるようにする。ユーザーにはデータ処理へのオプトインまたはオプトアウトの選択肢が必要。
デザインとデフォルトによるデータ保護: AIシステムの開発にプライバシー保護を直接組み込む。デフォルトはデータ保護の最高基準に設定する必要がある。
匿名化と擬似匿名化: 個人データを処理する際にユーザーの身元を保護する技術を使う。可能な限り個人識別情報を削除して、無許可のアクセスを防ぐ。
データ保護影響評価: 新しいAIプロジェクトがプライバシーにどう影響するかを評価する。潜在的なプライバシーリスクを早期に特定し対処する。
安全性と堅牢性
堅牢でオープンな評価: AIシステムを定期的に安全性と堅牢性のために評価する。これは、システムが異なる条件下でどのように機能するかをテストすることを含む。
レッドチーミングと広範な影響分析: AIシステムの脆弱性を特定するためにシミュレーションを行う。この積極的なアプローチで、開発者は潜在的なリスクやAIアプリケーションの広範な影響を理解できる。
人間の監視: 高リスクなAIアプリケーションに人間のチェックを実装する。人間の介入は、不確実性に対処し、AIの運用における倫理基準を守るのに役立つ。
持続可能性
環境マーカーの追跡: AIシステムのライフサイクル全体で、炭素排出やエネルギー使用などの重要な環境指標を監視する。
持続可能でオープンな開発: リソース消費を減らすためにオープンソース技術やコラボレーションを重視する。既存の技術に基づくことで環境への負荷を軽減できる。
持続可能で効率的な開発: AIモデルとその運用インフラを最適化して、開発中のエネルギーとリソースの消費を減らす。
オフセットポリシー: AIの環境への影響を軽減するためのポリシーを実施する。これには持続可能性プロジェクトへの投資や炭素オフセットの取り組みが含まれるかもしれない。
透明性と説明可能性
説明可能で理解可能な結果: AIシステムは理解できる結果を提供しなきゃいけない。これは、意思決定がどのようになされ、何がその意思決定に影響を与えるかを明確に説明することを必要とする。
データセットの文書化: AI開発に使用されたデータセットの詳細な記録を保持する。データの特徴を文書化することで、すべての関係者がその影響を理解できるようになる。
モデル報告: AIシステムについて詳細な報告を提供する。これには、どのように動作し、制限や既知のリスクが何かを含める。このことが責任感を育む。
ブラックボックスシナリオのリスク評価: 簡単に解釈できない複雑なモデルに注意を払う。これらのモデルが使用される場合、追加の人間の監督があることを確保する。
真実性
開示と透かし: ユーザーがAI生成コンテンツと対話しているときは明確にする。AIの出力にラベリングや透かしを施して、ユーザーが人工のコンテンツを識別できるようにする。
事実に基づいた情報提供: AIシステムが正確な情報を提供することを保証する。AIの出力の基盤となる信頼できるデータソースを使用する。
ファクトチェックとガードレール: AIが生成する情報の正確性を自動的に確認するシステムを実装する。このようなガードレールが虚偽を排除するのに役立つ。
結論
人工知能の急速な進歩は、機会と課題をもたらしている。リスクを最小限に抑えつつその利点を活用するために、開発者は倫理原則を遵守する必要がある。公平性、プライバシー、安全性、持続可能性、透明性、真実性に焦点を当てることで、社会の価値観や優先事項に合致したAIシステムを作れるんだ。
信頼できるAIの計画は明確だ:倫理基準を守り、ステークホルダーと関わり、AI技術の影響を常に評価すること。これらの原則に専念することで、AIが責任を持って人間の生活を向上させる未来を築けるはずだ。
タイトル: Catalog of General Ethical Requirements for AI Certification
概要: This whitepaper offers normative and practical guidance for developers of artificial intelligence (AI) systems to achieve "Trustworthy AI". In it, we present overall ethical requirements and six ethical principles with value-specific recommendations for tools to implement these principles into technology. Our value-specific recommendations address the principles of fairness, privacy and data protection, safety and robustness, sustainability, transparency and explainability and truthfulness. For each principle, we also present examples of criteria for risk assessment and categorization of AI systems and applications in line with the categories of the European Union (EU) AI Act. Our work is aimed at stakeholders who can take it as a potential blueprint to fulfill minimum ethical requirements for trustworthy AI and AI Certification.
著者: Nicholas Kluge Corrêa, Julia Maria Mönig
最終更新: 2024-11-15 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2408.12289
ソースPDF: https://arxiv.org/pdf/2408.12289
ライセンス: https://creativecommons.org/licenses/by-sa/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://nkluge-correa.github.io/worldwide_AI-ethics/
- https://gdpr-info.eu/
- https://eur-lex.europa.eu/eli/reg/2022/2065/oj
- https://digital-markets-act.ec.europa.eu/index_en
- https://dalex.drwhy.ai/python/api/fairness/index.html
- https://www.ibm.com/opensource/open/projects/ai-fairness-360/
- https://fairlearn.org/v0.8/auto_examples/index.html
- https://github.com/princetonvisualai/revise-tool
- https://pair-code.github.io/what-if-tool/
- https://arxiv.org/abs/1412.3756
- https://dl.acm.org/doi/abs/10.1145/3194770.3194776
- https://proceedings.mlr.press/v162/nilforoshan22a.html
- https://github.com/stanford-policylab/causal-fairness
- https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0
- https://huggingface.co/openai-community/gpt2
- https://huggingface.co/docs/hub/model-card-annotated
- https://github.com/joojs/fairface?tab=readme-ov-file
- https://github.com/Trusted-AI/AIF360
- https://github.com/JerryYLi/Dataset-REPAIR
- https://github.com/LDNOOBW/List-of-Dirty-Naughty-Obscene-and-Otherwise-Bad-Words
- https://github.com/LAION-AI/LAION-SAFETY
- https://platform.openai.com/docs/guides/moderation/quickstart
- https://dl.acm.org/doi/abs/10.1145/3491102.3501999
- https://github.com/sdv-dev/SDV
- https://trustarc.com/
- https://www.euprivacy-seal.com/
- https://github.com/opendp/opendp
- https://privacypatterns.org/patterns/Anonymity-set
- https://privacypatterns.org/patterns/Pseudonymous-identity
- https://arxiv.org/abs/1802.07228
- https://crfm.stanford.edu/helm/lite/latest/
- https://decodingtrust.github.io/leaderboard/
- https://arxiv.org/abs/2209.07858
- https://github.com/openai/gpt-3/blob/master/model-card.md
- https://github.com/facebookresearch/llama/blob/llama_v1/MODEL_CARD.md
- https://link.springer.com/article/10.1007/s43681-023-00323-3
- https://www.sciencedirect.com/science/article/pii/S0268401220300967
- https://climate.ec.europa.eu/eu-action/transport/road-transport-reducing-co2-emissions-vehicles/co2-emission-performance-standards-cars-and-vans_en
- https://arxiv.org/abs/2211.02001
- https://arxiv.org/abs/1911.08354
- https://mlco2.github.io/codecarbon/methodology.html
- https://github.com/mlco2/codecarbon
- https://github.com/sb-ai-lab/Eco2AI
- https://www.apple.com/environment/pdf/Apple_Environmental_Progress_Report_2023.pdf
- https://impakter.com/index/nvidia-sustainability-report/
- https://ecochain.com/knowledge/life-cycle-assessment-lca-guide/
- https://pytorch.org/hub/
- https://huggingface.co/tasks
- https://github.com/pprp/timm?tab=readme-ov-file
- https://github.com/tensorflow/models/tree/master/official
- https://www.kaggle.com/models
- https://huggingface.co/docs/transformers/perf_infer_gpu_one
- https://huggingface.co/docs/transformers/v4.23.1/en/perf_train_gpu_one
- https://huggingface.co/docs/transformers/main/en/perf_train_gpu_one
- https://github.com/Anima-Lab/MaskDiT
- https://github.com/Zhendong-Wang/Patch-Diffusion
- https://www.cerebras.net/model-lab/
- https://mtli.github.io/gpubench/
- https://github.com/huggingface/optimum
- https://climate.ec.europa.eu/eu-action/eu-emissions-trading-system-eu-ets_en
- https://distill.pub/2018/building-blocks/
- https://sites.research.google/datacardsplaybook/
- https://llama-2.ai/llama-2-model-card/
- https://huggingface.co/spaces/huggingface/Model_Cards_Writing_Tool
- https://arxiv.org/abs/2110.06674
- https://c2pa.org/
- https://github.com/sylinrl/TruthfulQA
- https://arxiv.org/abs/2311.06697
- https://github.com/awsaf49/artifact
- https://github.com/SCLBD/DeepfakeBench
- https://www.kaggle.com/datasets/birdy654/deep-voice-deepfake-voice-recognition
- https://toolbox.google.com/factcheck/explorer
- https://github.com/citadel-ai/langcheck
- https://github.com/uptrain-ai/uptrain
- https://github.com/GAIR-NLP/factool
- https://oecd.ai/en/catalogue/tools
- https://nkluge-correa.github.io/ethical-problem-solving/
- https://github.com/Nkluge-correa/TeenyTinyCastle