言語モデルにおける性別バイアスと職業の代表性
この研究は、職業に関連する言語モデルの性別バイアスを調べてるよ。
― 1 分で読む
言語モデルは、チャットボットや翻訳サービスなど、いろんなアプリケーションで使われるツールだよ。これらのモデルは、いろんな言語で書かれたたくさんのテキストから学ぶんだ。でも、大きな問題は、トレーニングデータにある偏見を反映しちゃう可能性があること。この記事では、言語モデルにおける職業と性別の関連性を調べてて、特に男性と女性の職業の表現に対する偏見があるかどうかに注目してるんだ。
言語モデルにおける偏見の問題
言語モデルは、インターネットや書籍などから大量のテキストを読んで学習するんだけど、残念ながら、そのテキストには偏見が含まれていることがあるんだ。たとえば、看護が主に女性と関連付けられていて、工学が男性と関連付けられているフレーズをモデルがよく見ると、それらのステレオタイプを反映したり、強調したりしちゃうかもしれない。これって、人々がさまざまな職業をどう見るかに影響を与えるから心配なんだよね。
偏見を調べるアプローチ
言語モデルが職業に関連する性別の偏見をうまく扱えてるかを理解するために、研究者たちはモデルを実際の統計と比較するんだ。フランス、ノルウェー、イギリス、アメリカなどの国の国勢調査データを使って、いろんな職業における男女の実際の分布を明らかにするの。
研究者たちは、性別の代名詞(彼や彼女)や職業名(医者や看護師)を使って文を作って、言語モデルがどう反応するかを見るんだ。そして、モデルの出力がその職業における実際の性別分布と一致するかを評価するの。
ベンチマークデータセットの作成
研究を進めるために、研究者たちは各国特有の職業のリストを作成して、その職業の性別の内訳も含めるんだ。フランスで235職、ノルウェーで415職、イギリスで325職、アメリカで314職のデータを集めたよ。いくつかの言語では性別によって単語の形が変わるから、男性と女性それぞれの名詞の異なるバージョンを作るんだ。
この文は、「彼は医者です」や「彼女は看護師として働いています」みたいに、いろんなアクションを含むように構成されてる。目的は、言語モデルを試すための大規模なテンプレートセットを作ること。合計でテスト用に何万ものテンプレートを作成するんだ。
言語モデルの検証
研究者たちは、英語、フランス語、ノルウェー語でトレーニングされたいくつかの異なる言語モデルを使うよ。それらのモデルがどれくらいテンプレートの性別識別子を正しく予測できるかを解析するんだ。モデルを調べるときは、文中の性別の言葉を隠して(マスクして)文脈に基づいてモデルがどれだけその言葉を推測できるかを見るんだ。
たとえば、文が「彼女は[MASK]です」だとしたら、モデルは「医者」や「看護師」のような適切な言葉を予測しようとするんだ。モデルがこれらの予測でどれくらい正しいかを見ることで、研究者たちはさまざまな職業における偏見スコアを計算できるんだ。
スコアの理解
研究者たちは、言語モデルの偏見を分析するために2種類のスコアを考案したよ:
ノーマティブバイアススコア:このスコアは、言語モデルが各職業において男女の平等な表現を示しているかどうかをチェックするんだ。理想的には、どの職業でも予測された男性と女性の数はほぼ同じ、つまり50/50に近いはず。モデルが特定の職業に対して主に一方の性別を予測したら、ここで低いスコアを受けることになるよ。
デスクリプティブバイアススコア:このスコアは、モデルが現実をどれだけ反映しているかを見るんだ。モデルの予測と国勢調査データの実際の職業の性別分布を比較するよ。もしある職業が主に女性や男性に占められているなら、それがモデルの予測にも反映されるべきなんだ。モデルが正確であればあるほど、デスクリプティブスコアは高くなるんだ。
研究結果
調査結果を見ると、ほとんどの言語モデルがノーマティブバイアススコアで苦労してることがわかるよ。さまざまな職業において、しばしば性別の不平等な表現を予測するんだ。たとえば、特定のモデルは医者を男性として、看護師を女性として認識することが多いんだ。
でも、デスクリプティブスコアに関しては、状況は良く見える。多くのモデルは、ある程度まで実際の職業の性別分布を反映することができるんだ。たとえば、女性が多いことで知られている職業を分析すると、一部のモデルはうまくいくかもしれないけど、男性が優勢な職業ではまだ足りないことがあるんだ。
興味深いことに、テストしたモデルは特定の職業を一方の性別と強く結びつける傾向があった。このことは、バランスが欠けていることを示していて、多くの職業で男女を公平に表現していないことがわかるんだ。
研究の限界
この研究の主な限界は、男性と女性の2つの性別しか考慮していないことだよ。性別のアイデンティティは二元的なオプションよりも複雑だけど、使われた国勢調査データはこの2つのカテゴリーしか認識していないんだ。つまり、これらの定義に合わない人々の経験を正確に反映できないかもしれないってこと。
さらに、テスト用に作成されたテンプレートは職業名の性別を特定の方法でフレーミングしたものに基づいているんだ。もっと多様でバリエーションのある文を導入すれば、言語モデルが職業における性別をどう表現しているかについて、より良い洞察が得られるかもしれない。
もう一つの考慮すべき点は、英語とフランス語でトレーニングされたモデルが、イギリス、アメリカ、フランスの特定の国勢調査データにどれだけ適用できるかということだ。英語とフランス語は複数の国で話されているから、これらの言語モデルがさまざまな文化における職業分布をどれくらい反映できるかを調べるのは有益だと思う。
今後の方向性
研究者たちは、今後の研究の可能性として、文化的な違いが言語モデルの偏見にどのように影響するかを調査することを挙げているよ。また、異なるトレーニングデータのソースがバイアススコアにどのように影響するかを探ることも計画しているんだ。これによって、モデルのトレーニングを改善して偏見を減らす方法に対するより良い理解が得られるかもしれない。
全体的に、この研究は言語モデルを使って職業における性別の表現を評価する新しい方法を提供しているよ。ノーマティブバイアスとデスクリプティブバイアスを分けるスコアリングシステムを開発することで、これらのモデルがどれだけ現実を反映しているかをよりよく理解できるんだ。自然言語処理の分野では、これらの問題に対処することが、公平で偏見のない言語技術を作るために重要なんだよね。
タイトル: Measuring Normative and Descriptive Biases in Language Models Using Census Data
概要: We investigate in this paper how distributions of occupations with respect to gender is reflected in pre-trained language models. Such distributions are not always aligned to normative ideals, nor do they necessarily reflect a descriptive assessment of reality. In this paper, we introduce an approach for measuring to what degree pre-trained language models are aligned to normative and descriptive occupational distributions. To this end, we use official demographic information about gender--occupation distributions provided by the national statistics agencies of France, Norway, United Kingdom, and the United States. We manually generate template-based sentences combining gendered pronouns and nouns with occupations, and subsequently probe a selection of ten language models covering the English, French, and Norwegian languages. The scoring system we introduce in this work is language independent, and can be used on any combination of template-based sentences, occupations, and languages. The approach could also be extended to other dimensions of national census data and other demographic variables.
著者: Samia Touileb, Lilja Øvrelid, Erik Velldal
最終更新: 2023-04-12 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2304.05764
ソースPDF: https://arxiv.org/pdf/2304.05764
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://www.latex-project.org/help/documentation/encguide.pdf
- https://dares.travail-emploi.gouv.fr/donnees/portraits-statistiques-des-metiers
- https://utdanning.no/likestilling
- https://www.nomisweb.co.uk/datasets/aps168/
- https://www.bls.gov/cps/cpsaat11.htm
- https://www.nb.no/sprakbanken/ressurskatalog/oai-nb-no-sbr-4/
- https://huggingface.co/ltgoslo/norbert2
- https://github.com/NbAiLab/notram/blob/master/guides/corpus_description.md
- https://huggingface.co/NbAiLab/nb-bert-large
- https://github.com/SamiaTouileb/Normative-Descrptive-scores
- https://www.aclweb.org/portal/content/acl-code-ethics