画像タグ付けの社会への影響
画像タグ付けシステムのリスクと利点を調べる。
― 0 分で読む
近年、コンピュータービジョン技術は日常生活の一部になって、ソーシャルメディアやオンライン画像検索など、いろんな分野に影響を与えてる。コンピュータービジョンでよくある作業の一つが画像タグ付けで、これは画像にタグやラベルを付けてその内容を説明することなんだ。無害に見えるかもしれないけど、これらのシステムがどう機能するかについて、特に公平性や表現に関して懸念があるよ。
画像タグ付けって何?
画像タグ付けは、画像の内容に基づいて説明的なタグを割り当てるプロセスなんだ。これは、画像内の物体を特定することに焦点を当てた物体認識とは異なるよ。タグ付けには、行動や感情、社会的グループの認識も含まれていて、物理的なアイテムの特定だけじゃないんだ。画像タグ付けで作成されたタグは、視覚障害者のユーザーのための説明を提供したり、データベースで特定の画像を見つける手助けをするために人が読むことを意図してることが多い。
画像タグ付けによる具体的な害
画像タグ付けシステムの使用は、特定の問題を引き起こすことがあり、これらはしばしば「害」と呼ばれる。これらの害は主に2つのカテゴリに分けられる:割当ての害と表現の害。割当ての害は、社会的グループに基づく不公平な扱いを含んでいて、職、住宅、その他の重要なリソースへのアクセスに影響を与えることがある。一方、表現の害は、これらのシステムが社会的グループに対する否定的または誤解を招く見方を促進する時に生じるもので、人々がそれらをどう認識するかに影響を与えるんだ。
表現の害を理解する
表現の害は特に重要で、異なる社会的グループに対する人々の信念や態度を形作るからね。これらの害は以下のようにいくつかの方法で現れることがあるよ:
社会的グループの固定化:画像タグ付けシステムは、社会的グループが固定されていて、見た目だけに基づいているという考えを強化することがある。これがアイデンティティの流動的な性質の誤解を招くことになるんだ。これらのシステムは、見える特徴に基づいて人を分類する傾向があって、関わる複雑さを認識していないんだ。
ステレオタイプ化:これらのシステムは、特定の見た目の特徴を特定の役割や性格と結びつけることで、ステレオタイプを助長することがあるよ。例えば、女性のプロフェッショナルなシーンの画像を「看護師」とラベル付けして、男性の画像を「医者」とラベル付けする場合、性別の役割に関する古いステレオタイプを促進してしまう。
社会的グループの侮辱:一部のタグは否定的な意味合いや歴史的な負担を持っていることがある。例えば、黒人の個人の画像に「ゴリラ」というタグを付けるのは間違いだけじゃなく、深く不快で、歴史的に黒人を非人間化するために使われた有害な比較を永続させるんだ。
社会的グループの消失:タグ付けシステムが特定の社会的グループに関連するタグを適用しないと、そのグループは公共の意識から消えてしまうことがある。例えば、タグ付けシステムがヒジャブを着た人々の画像に「人」という用語を適用しない場合、社会的文脈における彼らの可視性と存在を否定することになるんだ。
画像タグ付けにおける公平性の重要性
画像タグ付けにおける公平性の懸念は、これらのシステムが社会に与える広範な影響に由来しているよ。以前の研究では、画像タグ付けが社会的バイアスを反映し、拡張することがあると示されている。例えば、画像タグ付けシステムのトレーニングに使用されるデータセットに白人の画像が有色人種よりも多く含まれていると、そのシステムは後者の画像を正確にタグ付けするのが難しくなり、既存のステレオタイプを強化することになるんだ。
測定アプローチ
これらの問題に対処するために、研究者たちは画像タグ付けの公平性を測るためのさまざまな方法を提案している。これらのアプローチは主に5つのカテゴリに分けられる:
発生ベースのアプローチ:この方法は、タグ付けシステムの出力に特定の問題のあるタグやコンテンツのタイプを探す。例えば、侮辱的または明示的に有害なタグが出力に現れるかどうかをチェックするかもしれない。
分布ベースのアプローチ:このアプローチは、出力のタグや画像のタイプの分布を期待されるまたは理想的な分布と比較する。これにより、特定のグループが過小評価されているか誤って表現されているかを判断できる。
パフォーマンスベースのアプローチ:これらの方法は、異なる社会的グループに対して画像タグ付けシステムがどれほど効果的に機能しているかを評価する。例えば、システムが男性と女性の画像を同じようにタグ付けできているかどうかを見ることがある。
摂動ベースのアプローチ:この方法は、画像に変更を加えてタグ付けがどのように変わるかを確認する。例えば、画像の照明を変更して受け取るタグが変わる場合、これはシステムが異なる特徴を認識する際のバイアスを示すかもしれない。
内部ベースのアプローチ:このアプローチは、タグ付けシステムの内部動作を調査し、画像をどのように処理し、意思決定において偏見のある特徴を取り入れているかどうかを調べる。
害と測定アプローチのマッピング
さまざまな測定アプローチは、タグ付けシステムが引き起こす可能性のある具体的な表現の害を特定するのに役立つよ。例えば、ステレオタイプ化を評価するために、特定のステレオタイプと関連したタグが異なる社会的グループ間で不均等に適用されているかどうかを見ることができる。
異なる測定手法を適用することで、研究者はタグ付けシステムの動作や潜在的な害のさまざまな側面を捉えることができる。1つの方法だけを使うと問題の全貌がつかめないことが多いから、複数の方法を組み合わせることがより深い洞察を提供できるんだ。
軽減における緊張をナビゲートする
画像タグ付けシステムが引き起こす害に対処するのは簡単じゃなくて、複雑な緊張をナビゲートすることがしばしば求められるよ。例えば、社会的グループに関連するタグを削除することでステレオタイプのリスクを軽減できるかもしれないけど、同時にそのグループの可視性を消してしまうことになり、別の問題を引き起こす場合もある。
ソーシャルメディアプラットフォームのような特定の文脈では、特定のタグを削除することで害を防ぐのが適切かもしれない。でも、必要な認識を提供しようとする場合、無視されがちなグループを正しくタグ付けしないことは、さらなる可視性の喪失につながる。
これらのシステムの開発者は、潜在的な軽減策を目標と慎重に天秤にかける必要がある。例えば、もしシステムがアクセシビリティのために設計されているなら、正確なタグ付けを保証することが、社会的グループの消失の懸念よりも重要かもしれない。
結論
要するに、画像タグ付けシステムは社会における社会的グループの認識に重要な役割を果たしている。便利さや機能性を提供する一方で、その使用に伴う潜在的な害を無視することはできない。これらの害、特に表現の害を理解することは、公平で効果的なタグ付けシステムを開発する上で重要なんだ。
技術が進化し続ける中で、画像タグ付けの意味、どのように公平性を測定するか、これらのシステムに関連する課題をナビゲートすることについての継続的な議論が重要であり続ける。これらの問題に対する意識を高めることで、より公平で正義にかなった技術的解決策を目指していけるはずだよ。
タイトル: Taxonomizing and Measuring Representational Harms: A Look at Image Tagging
概要: In this paper, we examine computational approaches for measuring the "fairness" of image tagging systems, finding that they cluster into five distinct categories, each with its own analytic foundation. We also identify a range of normative concerns that are often collapsed under the terms "unfairness," "bias," or even "discrimination" when discussing problematic cases of image tagging. Specifically, we identify four types of representational harms that can be caused by image tagging systems, providing concrete examples of each. We then consider how different computational measurement approaches map to each of these types, demonstrating that there is not a one-to-one mapping. Our findings emphasize that no single measurement approach will be definitive and that it is not possible to infer from the use of a particular measurement approach which type of harm was intended to be measured. Lastly, equipped with this more granular understanding of the types of representational harms that can be caused by image tagging systems, we show that attempts to mitigate some of these types of harms may be in tension with one another.
著者: Jared Katzman, Angelina Wang, Morgan Scheuerman, Su Lin Blodgett, Kristen Laird, Hanna Wallach, Solon Barocas
最終更新: 2023-05-02 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2305.01776
ソースPDF: https://arxiv.org/pdf/2305.01776
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。