Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# コンピュータと社会

AIデータセットをスケールアップするリスク

AIモデルにおける有害コンテンツへのデータセットサイズの影響を調査する。

― 1 分で読む


データセットのスケーリングデータセットのスケーリング:危険なトレンドを助長するかもしれない。大きなデータセットはAIの有害なバイアス
目次

AI、特に生成AIの世界では、モデルを大きくしてより良くすることに強い焦点が当てられてるよね。このトレンドは、スケーリングのアイデアをもたらして、モデルを大きくしてデータセットを豊かにしてパフォーマンスを向上させようとするんだ。でも、モデルのスケーリングについての研究はたくさんあるのに、データのスケーリングや、それが生み出すコンテンツ、特に有害なコンテンツや憎しみに満ちたコンテンツにどう影響するかにはあまり注意が払われていないんだ。

データセットの役割

データセットは、AIモデルが学習して新しいコンテンツを生成するために使う情報の集まり。データの一つの大きなソースはインターネットで、CommonCrawlみたいな巨大なデータセットが生成モデルに頻繁に使用されてる。これらのデータセットは非常に大きいけど、問題のあるコンテンツが含まれていたりすることが多いんだ。

この文脈で注目すべきデータセットがLAION-400MとLAION-2B-en。前者は約4億サンプル、後者は約20億。これらのデータセットを調べることで、データの量を増やすことが憎しみのあるコンテンツの出現をどう増やすかがわかるよ。

憎しみのコンテンツに関する発見

調査結果は心配な傾向を示してる:データセットが大きくなるにつれて、憎しみのあるコンテンツが含まれる傾向があるんだ。これは「憎しみのコンテンツ率(HCR)」という特定のスコアを使って測定した。両方のデータセットで、テキストの説明に存在する憎しみや攻撃的な発言を測定したところ、LAION-400MからLAION-2B-enにデータがスケールするにつれて、憎しみのあるコンテンツの存在が大幅に増加したんだ。

AIモデルのバイアス

データだけでなく、これらのデータセットがトレーニングに使われたAIモデルに与える影響も見たよ。人種バイアスに注目して、シカゴフェースデータセット(CFD)を使ってモデルが人間の顔をどれだけうまく分類できるか評価した。結果は厳しいものだった。大きなデータセット(LAION-2B-en)でトレーニングされたモデルは、ブラックの顔を犯罪者としてレッテルを貼るネガティブなステレオタイプと結びつける可能性が高かったんだ。

スケールの影響

スケールには結果があるってことは、データセットを大きくすることがそのまま良くなるわけじゃないって意味だ。例えば、データセットのサイズが増えるにつれて、モデルは人間の顔を「人間」として認識する精度が下がっていったんだ。代わりに、これらの顔をネガティブなクラスに分類する可能性が高くなった。

特にブラックの男性と女性に対する影響が顕著だった。小さいデータセットから大きいデータセットに移ると、ブラックの女性の顔が犯罪者分類に関連付けられる可能性が2倍になり、ブラックの男性の顔はさらに増えていったんだ。

現在のアプローチの問題

現在、テック業界では「データが多いほどモデルが良くなる」という考えが支配的だ。この考えはAIの分野では広まっていて、データセットをスケールアップさせることで質に関する問題を解決できるって思われてる。でも、私たちの発見はこの見解に挑戦していて、単にデータセットのサイズを増やすだけで、有害なバイアスやステレオタイプがモデルに組み込まれる可能性が高くなることがわかったんだ。

データセットの質とキュレーション

データセットの質は重要だ。だけど、業界では質よりも量を優先する傾向があるんだ。これが重複や低品質なサンプル、有害なコンテンツで満たされたデータセットを生んでる。データセットのキュレーションプロセスは慎重に考慮されるべきで、有害または憎しみに満ちたコンテンツがモデルのトレーニングに使われる前にフィルタリングされる必要があるよ。

「まず収集、後で質問」の文化

AI開発にはデータを素早く収集する文化が根付いていて、しばしば適切な精査なしに行われている。「まず収集、後で質問」と呼ばれるこのアプローチは、深刻な倫理的影響を持つ広範なデータセットを生成してしまうんだ。これらのデータセットの多くには著作権のある素材や攻撃的な画像、その他の問題のあるコンテンツが含まれていて、ネガティブなステレオタイプを助長する可能性がある。

データセットのキュレーションに関する提言

私たちの発見を踏まえて、AIにおけるデータセットを責任を持って作成し使用するためのいくつかの提言が浮かんできたよ:

  1. 量より質:データセットのサイズを増やすのではなく、有害なコンテンツのクリーニングと確認に焦点を当てよう。
  2. 定期的な監査:データセットの中に憎しみのあるコンテンツやバイアスの存在を監視するために、定期的なチェックと監査を行うべきだ。
  3. データソースの透明性:データの出所がはっきりしていて、精査できるようにして、独立した研究者がデータセットを評価できるようにする。
  4. コミュニティとの関与:データセット作成プロセスを通じて、影響を受けるコミュニティと協力して、データが及ぼす影響を理解しよう。

結論

AIにおけるデータセットのスケーリングは単なる技術的な取り組みじゃない、それは重要な倫理的責任を伴うんだ。この分野が進む中で、より大きなデータセットは有害なバイアスを増幅するリスクを持つことを認識することが重要だ。責任あるデータキュレーションと評価に重きを置くことで、公正で平等なAIシステムを作る方向に向かうことができて、最終的には社会全体に利益をもたらすことができるんだ。

非人間化の歴史的背景

現在のAIモデルに見られるバイアスは新しいものじゃない。これは、様々な形で続いてきた人種的非人間化の長い歴史から来ているんだ。このパターンは何世紀も前に遡ることができて、アフリカ系の人々はしばしばその人間性を減少させるように描かれてきた。

歴史的な物語は、ブラックの人々を人間ではない存在に近づけるような認識を形成してきた。こういった見方は、奴隷制や植民地主義を含む数え切れないほどの不正義を正当化してきた。AIでは、これらのステレオタイプが私たちが使うデータを通じて再浮上する可能性があるんだ。

前進する道

これからは、AIを支えるデータセットを批判的に検証する必要がある。つまり、透明性を高めるだけでなく、モデルに組み込まれた有害なステレオタイプを積極的に崩すために取り組むことだ。挑戦は単により良い技術を開発することだけじゃなく、技術の進歩と同じくらい倫理的考慮と社会的責任を重視するAI文化を育むことにあるよ。

データのスケールが憎しみやバイアスに与える影響についてより繊細な理解を持つことで、包括性や尊重を促進し、人間の経験の多様性を真に反映するAIシステムを作れるんだ。そうすることで、AIが過去の不正の助長ではなく、善のための道具として役立つ未来に貢献できるんだ。

オリジナルソース

タイトル: On Hate Scaling Laws For Data-Swamps

概要: `Scale the model, scale the data, scale the GPU-farms' is the reigning sentiment in the world of generative AI today. While model scaling has been extensively studied, data scaling and its downstream impacts remain under explored. This is especially of critical importance in the context of visio-linguistic datasets whose main source is the World Wide Web, condensed and packaged as the CommonCrawl dump. This large scale data-dump, which is known to have numerous drawbacks, is repeatedly mined and serves as the data-motherlode for large generative models. In this paper, we: 1) investigate the effect of scaling datasets on hateful content through a comparative audit of the LAION-400M and LAION-2B-en, containing 400 million and 2 billion samples respectively, and 2) evaluate the downstream impact of scale on visio-linguistic models trained on these dataset variants by measuring racial bias of the models trained on them using the Chicago Face Dataset (CFD) as a probe. Our results show that 1) the presence of hateful content in datasets, when measured with a Hate Content Rate (HCR) metric on the inferences of the Pysentimiento hate-detection Natural Language Processing (NLP) model, increased by nearly $12\%$ and 2) societal biases and negative stereotypes were also exacerbated with scale on the models we evaluated. As scale increased, the tendency of the model to associate images of human faces with the `human being' class over 7 other offensive classes reduced by half. Furthermore, for the Black female category, the tendency of the model to associate their faces with the `criminal' class doubled, while quintupling for Black male faces. We present a qualitative and historical analysis of the model audit results, reflect on our findings and its implications for dataset curation practice, and close with a summary of our findings and potential future work to be done in this area.

著者: Abeba Birhane, Vinay Prabhu, Sang Han, Vishnu Naresh Boddeti

最終更新: 2023-06-28 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2306.13141

ソースPDF: https://arxiv.org/pdf/2306.13141

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事