Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 計算と言語# コンピュータと社会

オンラインのセクシズムとミソジニーへの対処:レビュー

オンラインのセクシズムとミソジニーの研究方法と結果に関する系統的レビュー。

Aditi Dutta, Susan Banducci, Chico Q. Camargo

― 1 分で読む


オンライン虐待に効果的に対オンライン虐待に効果的に対抗するするための研究をレビューしてる。オンラインのセクシズムやミソジニーに対抗
目次

インターネットは人々のコミュニケーションの仕方を変えたけど、それと同時に女性に対するオンラインの虐待も増えちゃったよね。この憎しみや虐待的な言葉の増加は、研究者たちがオンラインの性差別や女性嫌悪を研究して理解しようとするきっかけになってる。ここ数年で、こういった有害な行動を検出したり測定したりするためのツールがたくさん開発されてきたけど、それらのツールがどう機能するのか、現在の研究の状況についてはまだ理解が足りてない部分があるんだ。

女性へのオンラインの差別に対する懸念が高まる中、こういった分野の研究手法や対策を体系的にレビューする必要があるよね。私たちの目標は、社会科学とコンピュータ科学のギャップを埋めて、両方の分野がオンラインの性差別や女性嫌悪の問題にどうアプローチしているかを見ていくことなんだ。

オンラインの性差別と女性嫌悪の問題

オンラインの性差別や女性嫌悪はいろんな形で現れるし、定義も分野によってバラバラだよね。ある研究者たちは、女性をコントロールする社会的な規範を維持することを女性嫌悪として説明してるけど、性差別はしばしばこれらの規範をステレオタイプで正当化することが多い。これらの行動は、文脈によって強度やタイプが異なる女性への攻撃性や敵意として現れることがある。

ソーシャルメディアの普及によって、こうした行動が蔓延しやすくなったんだ。多くの女性がハラスメントや脅迫を経験していて、オンラインで女性として存在するだけでも攻撃的な反応を引き起こすことがある。このオンラインハラスメントは、有害なステレオタイプや社会的規範を反映し、強化するんだ。性による虐待はいろんな形をとるけど、どれも女性の公共生活への参加を減少させ、彼女たちの声を弱める方向に働くんだよ。

現在の研究の理解

研究が増えてきたにもかかわらず、性差別や女性嫌悪をどう定義し、測定するかについての合意がまだまだ足りてないんだ。いくつかの研究者は、定義があまりにも広くなりすぎて、この問題の複雑さを捉えきれなくなってるって主張してる。オンラインプラットフォームが侮辱的なコンテンツの温床になってきた中で、これらの行動のニュアンスを理解することが、有効な検出ツールを開発する上で重要なんだ。

最近、社会科学の知見とコンピュータ科学の方法論を組み合わせた学際的な研究が登場してきたけど、これらの分野を効果的に橋渡しする方法についてはまだ大きなギャップが残ってる。多くの研究が質的なアプローチに頼っている一方で、量的あるいは計算的な手法を利用している研究は少なく、現存の文献を体系的にレビューしてベストプラクティスを見つける必要があるんだ。

レビューの方法論

オンラインの性差別と女性嫌悪に関する研究の状況をよりよく理解するために、2012年から2022年までの文献を体系的にレビューしたよ。私たちのアプローチは、いくつかのフェーズを含んでいたんだ:

  1. 関連する研究の特定:性差別、女性嫌悪、ヘイトスピーチ、検出方法に関する特定のキーワードを使って、さまざまなデータベースを検索して、関連する記事だけを分析に含めるようにしたよ。

  2. スクリーニングと品質評価:選ばれた研究は、オンラインの性差別や女性嫌悪に焦点を当てているかどうかを確認して、量的な手法を用いているものだけを残したんだ。

  3. データ収集と分析:選定した研究の手法、定義、結果を分析して、重要な特性を強調した要約表を作成したよ。

  4. テーマの特定:トピックモデリングやキーワード分析を行って、文献全体の主要なテーマやトレンドを特定して、現在の研究の焦点を理解する手助けをしたんだ。

文献レビューからの主要な発見

オンラインの性差別と女性嫌悪に関する文献レビューからの主な発見を見ていこう。

一般的なテーマとトレンド

レビューでは、いくつかの共通テーマが見つかったよ:

  • アプローチの多様性:社会科学とコンピュータ科学の研究では手法に明らかな多様性があった。社会科学の研究はより広いテーマや文脈を調べる傾向がある一方、コンピュータ科学は特定の分析手法に焦点を当てている。

  • 検出への焦点:コンピュータ科学の多くの研究は、検出アルゴリズムの開発やテストを目指しているけど、攻撃的なコンテンツをテキストで特定することにはいくつか成功しているものの、文脈のニュアンスに苦戦していることが多い。

  • ジェンダー表現:研究はしばしばTwitterやFacebookなどのソーシャルメディアプラットフォームに焦点を当てていて、そこがオンライン性差別の大半が起こる場所を反映している。でも、他のプラットフォームにも有害なコンテンツがあるのに、そっちにはあまり注目が集まっていないんだ。

性差別と女性嫌悪の測定に関する課題

性差別や女性嫌悪を定量化しようとする研究者にはいくつかの課題があるよ:

  • 複雑な定義:性差別と女性嫌悪が何を指すのかについての合意がないため、標準化された検出メトリックを作るのが難しくなってるんだ。

  • 言語の主観性:微妙な形の性差別は、あまり攻撃的でない言語に見られることが多くて、従来のツールで検出するのが難しいんだ。

  • データの質:多くの研究は、一般の人々を代表していないかもしれない小規模なサンプルサイズや特定のデータセットに頼っていて、バイアスのかかった結果をもたらしている。

今後の研究への提言

これらの課題に対処するために、以下のことを提案するよ:

  • 学際的な協力:研究者は分野を超えて協力して、オンラインの性差別や女性嫌悪についてより包括的な理解を築くべきだ。

  • 改善された手法:今後の研究では、定性的な手法と定量的な手法の両方を取り入れて、問題の複雑さを捉えるアプローチを洗練させる必要がある。

  • 微妙な形への焦点:しばしば見逃されがちだけど、社会に対して重大な影響を持つ微妙な形の性差別や女性嫌悪を特定することにもっと注意を向けるべきだ。

結論

私たちのレビューは、オンラインの性差別と女性嫌悪を研究するための統一されたアプローチが求められていることを強調しているんだ。社会科学とコンピュータ科学の知見を結集することで、これらの有害な行動を検出し理解するためのより良いツールを開発できる。こうした学際的な取り組みは、今後の研究が問題を特定するだけでなく、オンライン空間でのジェンダー平等と意識向上を促進する道を切り開くことにつながるよ。

オンライン性差別と女性嫌悪に関する研究の未来

これから先、オンラインの性差別と女性嫌悪に関する研究を続けることは非常に重要だよ。この分野は急速に進化していて、オンラインでの憎しみ行動に対処するために新しい技術や方法論が登場してきているんだ。

研究におけるバイアスへの対処

今後の研究の重要な側面の一つは、バイアスに対処することだね。データの使用や研究の進め方に関しても、多様な視点が反映されることが重要なんだ。研究チームは、データ選択や解釈においてバイアスを最小限に抑えるために、さまざまなバックグラウンドを持つ個人を含めるようにするべきだよ。

研究の範囲の拡大

さらに、研究は特定のオンラインプラットフォームだけに焦点を当てるのではなく、性差別や女性嫌悪の交差的な側面も考慮する必要がある。異なる性別、人種、社会階級がオンラインでの虐待を異なる形で経験しているから、これらのニュアンスは今後の研究にとって重要な要素になるはずだ。

高度な技術の活用

機械学習や自然言語処理技術の進歩は、女性嫌悪的なコンテンツの検出を自動化する上で重要な役割を果たすだろう。これらのツールがより洗練されることで、言語の微妙なニュアンスをよりよく捉え、有害な行動を特定しやすくなるんだ。

結論の考え

要するに、オンラインの性差別と女性嫌悪を研究するには、さまざまな分野の研究者が協力してこの問題についてより包括的な理解を深めていく必要がある。新たな技術を活用して学際的なコラボレーションを促進することで、私たちはこうした問題を効果的に解決し、オンライン空間での問題に立ち向かうことができるようになるんだ。

オリジナルソース

タイトル: Divided by discipline? A systematic literature review on the quantification of online sexism and misogyny using a semi-automated approach

概要: In recent years, several computational tools have been developed to detect and identify sexism, misogyny, and gender-based hate speech, especially on online platforms. Though these tools intend to draw on knowledge from both social science and computer science, little is known about the current state of research in quantifying online sexism or misogyny. Given the growing concern over the discrimination of women in online spaces and the rise in interdisciplinary research on capturing the online manifestation of sexism and misogyny, a systematic literature review on the research practices and their measures is the need of the hour. We make three main contributions: (i) we present a semi-automated way to narrow down the search results in the different phases of selection stage in the PRISMA flowchart; (ii) we perform a systematic literature review of research papers that focus on the quantification and measurement of online gender-based hate speech, examining literature from computer science and the social sciences from 2012 to 2022; and (iii) we identify the opportunities and challenges for measuring gender-based online hate speech. Our findings from topic analysis suggest a disciplinary divide between the themes of research on sexism/misogyny. With evidence-based review, we summarise the different approaches used by the studies who have explored interdisciplinary approaches to bridge the knowledge gap. Coupled with both the existing literature on social science theories and computational modeling, we provide an analysis of the benefits and shortcomings of the methodologies used. Lastly, we discuss the challenges and opportunities for future research dedicated to measuring online sexism and misogyny.

著者: Aditi Dutta, Susan Banducci, Chico Q. Camargo

最終更新: 2024-09-30 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2409.20204

ソースPDF: https://arxiv.org/pdf/2409.20204

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

類似の記事