ディープフェイクポルノと非同意画像のリスク
ディープフェイクポルノの悪影響と人々の見方を調べる。
― 1 分で読む
目次
ディープフェイク技術によって、人々はリアルに見える偽の画像や動画を作ることができるようになった。ディープフェイク技術の一般的な使い方の一つは、偽のポルノを作ることだ。これは特に、自分の画像を使う許可を出していない人が関与している場合、悪影響を及ぼす可能性がある。この記事では、非合意の親密な画像の一種であるディープフェイクポルノに関する人々の考えや行動について見ていく。
私たちは10か国以上の1万6000人以上に調査を行った。目的は、この種の行動を経験したり参加したりした人がどれだけいるのか、そして異なる性別がそれをどう捉えているのかを理解することだ。
非合意の合成親密な画像って何?
非合意の合成親密な画像(NSII)は、本物の人々の肖像を無断で使用した偽の画像や動画を指す。これらは、簡単な写真編集ソフトやより高度な人工知能技術を使って作成される。『ディープフェイク』という用語は、より進んだAI生成のコンテンツを指す。
ディープフェイク技術の普及により、誰でも簡単に画像や動画を操作できるようになり、多くの人々、特に女性にリスクをもたらしている。ディープフェイクポルノの悪影響には、メンタルヘルスの問題や名誉の傷つき、個人的な関係への影響が含まれる。
研究の概要
この研究では、主に3つの質問に答えようとした:
- 人々はディープフェイクポルノについてどれだけ知っていて、どんな態度を持っているのか?
- AI生成のディープフェイクポルノに関連する行動、例えばこの種のコンテンツを作成したり視聴したり共有したりすることはどれほど一般的か?
- 性別はこれらの質問への回答にどのように影響するのか?
データを収集するために、ディープフェイクポルノに関する人々の経験や意見についての質問を含む調査を実施した。
認識と態度
ほとんどの回答者(約28%)は、ディープフェイクポルノに多少なりとも馴染みがあると報告した。しかし、国によって認識の幅は広く、韓国では最も低く、オーストラリアでは最も高かった。限られた認識にもかかわらず、回答者は一般的にディープフェイクポルノに関連する行為は犯罪化されるべきだという意見で一致していた。
人々は、同意なしに本物の親密なコンテンツを共有するなどの従来の画像に基づく性的虐待の形態を、同様のディープフェイク行動よりも罰せられるべきだと評価した。また、実際の非合意の画像を共有することが偽のものを共有することよりも深刻な行為だと考える傾向があった。
誰かが許可なく自分のディープフェイクを作った場合、人々が怒ったりすべきではないのかという質問には、ほとんどの回答者が反対した。これは、従来の虐待の形態に比べてディープフェイク行動に対する寛容さがあるとしても、大多数の人々が依然としてこれを懸念すべき問題と見ていることを示している。
ディープフェイクポルノに関連する行動
調査では、どれだけの人がディープフェイクポルノに関連する行動に関与したかも調べた。最も一般的な行動は、セレブのディープフェイクコンテンツを視聴することで、全回答者の約6.2%がそれを行ったと答えた。それに対して、一般の人々を巻き込んだディープフェイクポルノを作成したと報告したのはわずか0.6%だった。
個人的な経験では、2.2%の回答者がディープフェイクポルノの被害者であると示した。これは、誰かが許可なく彼らの偽コンテンツを作成または共有した経験を含んでいる。加害の割合も低く、1.8%の回答者がそのような行動に関与したことを認めた。
認識と行動における性別の違い
性別は、ディープフェイクポルノに対する経験や態度を形作る重要な要素だった。男性は女性よりもディープフェイクの概念に馴染みがあると報告する傾向が高かった。これは、男性が一般的に女性よりも技術に関与することが多いという研究と一致している。
さらに、男性はディープフェイクポルノの行動を女性よりも深刻でないと捉える傾向があった。たとえば、さまざまな行動の深刻さを評価する際、女性はディープフェイクポルノに関する行動を男性よりも罰せられるべきだと評価した。
個人的な経験に関して、男性はディープフェイク行動に関連する被害と加害の両方の割合が高いと報告した。しかし、女性はディープフェイクポルノの潜在的な危険について非難や懸念を表明する傾向があった。
質的な反応
参加者にはディープフェイクポルノについての考えを尋ねるオープンエンドの質問があった。約7.8%の回答者が意見を共有した。これらの回答の最も一般的なテーマは、ディープフェイクポルノへの非難で、多くがその行為に強い否定的な感情を抱いていることを示した。
回答者のかなりの部分が、ディープフェイク技術自体に対する恐怖感、特にディープフェイクの能力の含意や関連するリスクについて表明した。多くの人がプライバシーやオンラインでのディープフェイクコンテンツの規制の課題について懸念を示した。
最後に、一部の回答者はディープフェイクポルノを作成する者に対する罰則を支持したが、被害者を責める態度を示したのはわずかで、ほとんどの人が被害者をその経験に責任を負わせていないことを示唆している。
従来の画像に基づく性的虐待との比較
研究によれば、従来の画像に基づく性的虐待の割合は、ディープフェイクポルノよりも高いことが多い。多くの人々は、特に簡単には発見できないディープフェイクによる被害について認識していない。
技術が進化し続ける中で、ディープフェイクポルノに関する事例が増える可能性が高い。この潜在的な増加は、このような行動に関連する危害についての認識を高める教育的取り組みの必要性を強調している。
法律的考慮
ディープフェイクポルノやNSIIに関する法律には明確なギャップがある。一部の国では、非合意の親密な画像の作成や配布に対する法律を整備し始めているが、多くの法域ではまだ十分な法的保護が欠けている。
法律は、ディープフェイクポルノに関与することの結果を理解できるようにするための公共の意識向上活動とともに行われるべきだ。既存の法律も、特にオンラインコンテンツに関しては、効果的に施行されるべきである。
潜在的な介入策
NSIIやディープフェイクポルノに関する懸念の高まりに対処するために、いくつかの介入策を考慮することができる:
教育プログラム:NSIIの危険性や同意の重要性について一般に教育する努力は、認識を高め、潜在的な加害者を抑止するのに役立つ。
立法:ディープフェイクポルノの作成や配布を犯罪化する法律を整備することは、こうした行為が容認できないことを示すために重要だ。
技術的解決策:プラットフォームは、有害なコンテンツを検出する能力を高め、ユーザーにはディープフェイク資料の作成や共有の潜在的な結果を認識させることができる。
被害者支援:ディープフェイクポルノの被害者が正義を求める過程を支援するためのリソースを提供すべきだ。
結論
ディープフェイク技術は、特に非合意の親密な画像を作成する際に重大なリスクをもたらす。ディープフェイクポルノに対する認識はまだ限られているが、調査結果は人々が一般的にこれらの行為を有害であり、罰せられるべきだと見ていることを示している。性別のダイナミクスは、個々のディープフェイクポルノへの認識や関与の仕方に重要な役割を果たす。
技術が進化し続ける中で、教育的な取り組みを実施し、立法を強化し、技術的解決策を開発して、ディープフェイクポルノに関連する危害を軽減することが重要だ。これらの問題に積極的に対処することで、人々を保護し、デジタル環境におけるこの懸念のリスクを軽減できる。
タイトル: Non-Consensual Synthetic Intimate Imagery: Prevalence, Attitudes, and Knowledge in 10 Countries
概要: Deepfake technologies have become ubiquitous, "democratizing" the ability to manipulate photos and videos. One popular use of deepfake technology is the creation of sexually explicit content, which can then be posted and shared widely on the internet. Drawing on a survey of over 16,000 respondents in 10 different countries, this article examines attitudes and behaviors related to "deepfake pornography" as a specific form of non-consensual synthetic intimate imagery (NSII). Our study found that deepfake pornography behaviors were considered harmful by respondents, despite nascent societal awareness. Regarding the prevalence of deepfake porn victimization and perpetration, 2.2% of all respondents indicated personal victimization, and 1.8% all of respondents indicated perpetration behaviors. Respondents from countries with specific legislation still reported perpetration and victimization experiences, suggesting NSII laws are inadequate to deter perpetration. Approaches to prevent and reduce harms may include digital literacy education, as well as enforced platform policies, practices, and tools which better detect, prevent, and respond to NSII content.
著者: Rebecca Umbach, Nicola Henry, Gemma Beard, Colleen Berryessa
最終更新: 2024-02-13 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2402.01721
ソースPDF: https://arxiv.org/pdf/2402.01721
ライセンス: https://creativecommons.org/licenses/by-nc-sa/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。