AIの害について新たな視点
AIの悪影響をみんなで考えよう。
― 1 分で読む
目次
この記事では、人工知能(AI)、アルゴリズム、そして自動化によって引き起こされる害について新しい視点を提案してるよ。みんながこれらの技術がもたらすネガティブな影響を理解できるようなシステムを作ることが目指されてるんだ。既存のシステムは開発者や政策立案者など特定のグループに焦点を当てがちだけど、この新しいアプローチは全ての人のニーズを考慮することを目指してる。
その目的は、専門家から一般市民まで、誰にとっても情報がわかりやすく役立つようにすること。そうすることで、AIや関連技術がもたらす害についてのより良い議論を促進し、これらの技術が社会でどのように使われるかを改善していきたいと思ってるんだ。
新しい分類法の必要性
AIの害については多くの文書やシステムが既にあるけれど、しばしば不十分なんだ。理解しにくかったり、普通の人の体験を捉えきれなかったりすることが多いんだよ。既存のシステムで使われる言葉も混乱を招くことがあって、一般の人々が情報に共感するのを難しくしてる。
AIや自動化が引き起こす害はリアルで、深刻な結果をもたらすこともある。例えば、誤った顔認識システムが誤認逮捕を引き起こしたり、オンラインで使われるアルゴリズムが中高生の依存症を悪化させたりすることがあるから、これらの害を正確に定義して分類する方法が必要なんだ。
開発プロセス
この新しいシステムを作るために、いろんな情報源からデータを集めたよ。報告書やニュース記事、AIや自動化に関連する出来事が含まれてる。また、専門家と密に連携し、一般の人とのテストも行ってアプローチを洗練させたんだ。
その結果、害をいくつかのカテゴリに分ける明確で整理されたシステムができたよ。このシステムは柔軟で、新しいタイプの害が出てきた時に成長・変化できるんだ。これを一般に共有することで、AIの影響についての認識を高め、責任ある使い方を促進したいと思ってる。
害のカテゴリー
新しいシステムでは、害を9つの主要なタイプに分類してるよ。それぞれがAIが個人や社会に与えるネガティブな影響の異なる側面を捉えてるんだ。
1. 自律性
このカテゴリは、個人やグループが自分で決定する能力の喪失や制限を扱ってる。AIシステムが個人の自由に干渉すると、大きな害をもたらすことがあるよ。例えば、システムが選択肢を制限すると、その人の自律性が損なわれる。
2. 身体的
身体的な害は、人や財産に対して引き起こされるあらゆる怪我や損害を指すよ。自動運転車やロボットなどでAIが使われるようになった今、身体的な怪我のリスクが高まってる。これらのリスクを理解して対処することが、安全を確保するために重要なんだ。
3. 精神的
AIは人々のメンタルヘルスにもネガティブな影響を与えることがある。このカテゴリには、感情や心理的な健康に対する直接的・間接的な影響が含まれてるよ。例えば、ソーシャルメディアのアルゴリズムは、ユーザーの不安感やうつの感情に寄与することがあって、重要な問題になってる。
4. 評判
評判に関する害は、個人や組織の評判に対する損害を指すよ。AI駆動のプラットフォームを通じて広がる誤情報は、不当なネガティブな認識を引き起こすことがあって、個人やビジネスに深刻な影響を与える。
5. 経済的・ビジネス
このタイプは、AIアプリケーションによって引き起こされる経済的な害に焦点を当ててる。例えば、悪意のあるアルゴリズムの使用がビジネスに損失をもたらすことがあるし、企業もAI技術の誤用によって戦略的・運営上の課題に直面することがある。
6. 人権・市民的自由
このカテゴリは、基本的な人権や自由を損なう害を扱ってる。AI技術は時にこれらの権利を侵害することがあって、より広範な社会問題を引き起こすことがある。
7. 社会的・文化的
AIはコミュニティや文化的慣習にも影響を与えることがある。このカテゴリには、特定のアルゴリズムが公共の意見や社会的な結束に与える影響など、社会の機能に影響を及ぼす害が含まれてる。
8. 政治的・経済的
AI技術は政治的な信念を操ったり、政治機関の機能を妨害したりすることがある。このカテゴリは、これらの行動に関連するリスクや、民主主義やガバナンスへの影響を扱ってる。
9. 環境
AIの環境への影響は、これらの技術によって直接的または間接的に引き起こされる損害を含むよ。例えば、AIの運用を支えるデータセンターは膨大なエネルギーや水を消費して、地域の資源に負担をかけることがある。
害の特定に関する課題
AIによって引き起こされる害を認識し、分類するのは難しいんだ。特に複雑なAIシステムは、理解しにくい方法で動作するから、いつどのように害が発生するかを特定するのが難しいんだよ。さらに、明確なルールや報告基準がないと、開発者が潜在的な害についての情報を共有するモチベーションがほとんどないことも多い。
有害な影響は測定や解釈が難しいこともある。様々な方法で現れることがあって、異なる害との関係を理解するのは複雑なんだ。例えば、経済的損失を引き起こす出来事が評判の損害につながることがあり、その影響の絡み合いは簡単に評価できない。
分類法の重要性
よく構成された害の分類法は、多くの利点を提供できる。まず、政策立案者が立法や規制を形成するためのリファレンスとして機能するよ。市民や組織が出来事や違反を追跡する手助けもできるし、これによりこの問題の重要性への認識も高まる。
分類法は教育的な取り組みもサポートできる。明確な定義や分類を提供することで、人々がAI技術の広範な影響を理解する手助けになるんだ。これには、これらのシステムに関連するリスクや害についての公共の認識を高めることも含まれる。
これからの道
今後、私たちのチームは害の分類法をさらに洗練させ、改善していく予定だよ。これは新しい情報が出てくるにつれて成長する生きた文書として設計されてるんだ。一般の人々や専門家からのフィードバックを積極的に求めて、常に関連性と効果を保てるよう努めていくつもり。
今後の仕事で重要な分野の一つは、潜在的な害やそれに寄与する要因を含めるために分類法を拡張することだよ。原因やリスクを盛り込むことで、擁護、政策立案、リスク管理に役立つより包括的なシステムを作れるんだ。
公共の関与
この取り組みにおける公共の関与は、その成功にとって重要だよ。これには、市民が害を報告したり、分類プロセスに貢献することが含まれる。より多くの人が分類法に積極的に関与することで、それが改善され、AI技術に関連する個人の多様な経験や課題をより反映できるようになると思うんだ。
結論
要するに、AI、アルゴリズム、自動化によって引き起こされる害を分類するための新しい分類法は、これらの技術のネガティブな影響を理解するための重要なステップだよ。誰にでもアクセスしやすく、AIがもたらす課題を認識し対応しやすくすることを目指してる。
社会がますますAIに依存していく中で、その結果としての害を分類するための明確で役立つシステムを持つことは必要不可欠なんだ。そうすることで、責任ある技術の使い方についてのより良い議論を促進し、AIの影響についての認識を高めて、安全で倫理的な未来に向けて進んでいけたらいいなと思ってる。
タイトル: A Collaborative, Human-Centred Taxonomy of AI, Algorithmic, and Automation Harms
概要: This paper introduces a collaborative, human-centred taxonomy of AI, algorithmic and automation harms. We argue that existing taxonomies, while valuable, can be narrow, unclear, typically cater to practitioners and government, and often overlook the needs of the wider public. Drawing on existing taxonomies and a large repository of documented incidents, we propose a taxonomy that is clear and understandable to a broad set of audiences, as well as being flexible, extensible, and interoperable. Through iterative refinement with topic experts and crowdsourced annotation testing, we propose a taxonomy that can serve as a powerful tool for civil society organisations, educators, policymakers, product teams and the general public. By fostering a greater understanding of the real-world harms of AI and related technologies, we aim to increase understanding, empower NGOs and individuals to identify and report violations, inform policy discussions, and encourage responsible technology development and deployment.
著者: Gavin Abercrombie, Djalel Benbouzid, Paolo Giudici, Delaram Golpayegani, Julio Hernandez, Pierre Noro, Harshvardhan Pandit, Eva Paraschou, Charlie Pownall, Jyoti Prajapati, Mark A. Sayre, Ushnish Sengupta, Arthit Suriyawongkul, Ruby Thelot, Sofia Vei, Laura Waltersdorfer
最終更新: 2024-11-09 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2407.01294
ソースPDF: https://arxiv.org/pdf/2407.01294
ライセンス: https://creativecommons.org/licenses/by-sa/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://apnews.com/article/technology-louisiana-baton-rouge-new-orleans-crime-50e1ea591aed6cf14d248096958dccc4
- https://www.mondaq.com/china/copyright/1444468/china-issues-landmark-ruling-on-copyright-infringement-involving-ai-generated-images
- https://www.wired.com/story/how-a-british-teens-death-changed-social-media
- https://news.sky.com/story/fake-ai-generated-joe-biden-robocall-tells-people-in-new-hampshire-not-to-vote-13054446
- https://www.theatlantic.com/technology/archive/2024/03/ai-water-climate-microsoft/677602/
- https://www.politico.com/newsletters/digital-future-daily/2023/09/25/ai-vs-public-opinion-00118002
- https://www.aiaaic.org/aiaaic-repository
- https://www.nist.gov/system/files/documents/2021/10/15/taxonomy_AI_risks.pdf
- https://www.oecd.org/going-digital/ai/principles
- https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
- https://www.federalregister.gov/documents/2020/12/08/2020-27065/promoting-the-use-of-trustworthy
- https://www.aiaaic.org/aiaaic-repository/classifications-and-definitions
- https://datatracker.ietf.org/doc/html/rfc7282
- https://www.pewresearch.org/short-reads/2023/08/28/growing-public-concern-about-the-role-of-artificial-intelligence-in-daily-life/
- https://www.gov.uk/government/publications/public-attitudes-to-data-and-ai-tracker-survey-wave-3/public-attitudes-to-data-and-ai-tracker-survey-wave-3
- https://www.business-humanrights.org/en/latest-news/
- https://incidentdatabase.ai/
- https://cset.georgetown.edu/wp-content/uploads/CSET-An-Argument-for-Hybrid-AI-Incident-Reporting.pdf
- https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law
- https://oecd.ai/en/incidents