Die wachsende Bedrohung durch Deepfakes
Deepfakes stellen Risiken für persönliche Freiheiten und die nationale Sicherheit dar.
― 7 min Lesedauer
Inhaltsverzeichnis
DeepFakes sind fake Audio- und Videoaufnahmen, die echt aussehen und sich auch so anhören, aber eigentlich mit künstlicher Intelligenz erstellt werden. Diese Technologie hat ganz schön viele Probleme verursacht, zum Beispiel den Missbrauch von Bildern für sexuelle Zwecke, Betrug und die Manipulation politischer Meinungen. Je beliebter Deepfakes werden, desto mehr bedrohen sie sowohl persönliche Freiheiten als auch die nationale Sicherheit.
Was sind Deepfakes?
Deepfakes werden normalerweise mit fortschrittlichen Computerprogrammen erstellt, die echte Stimmen, Gesichter und Videoaufnahmen nachahmen können. Die Ergebnisse können so überzeugend sein, dass viele Leute den Unterschied zwischen einem Deepfake und echtem Content nicht erkennen könnten. Diese Technologie wurde genutzt, um nicht einvernehmliche Inhalte für Erwachsene zu erstellen, öffentliche Figuren nachzuahmen, Wahlen zu beeinflussen und Falschinformationen zu verbreiten.
Die aktuelle Situation
In den letzten Jahren sind die Vorfälle mit Deepfakes explodiert. Berichte zeigen, dass der Anteil an sexuellen Deepfake-Inhalten zwischen 2022 und 2023 um über 400 % gestiegen ist, während Betrug mit Deepfakes um unglaubliche 3000 % zugenommen hat. Ausserdem bereiten sich viele grosse Länder auf Wahlen im Jahr 2024 vor, was Bedenken aufwirft, dass Deepfakes demokratische Prozesse weltweit stören könnten.
Momentan gibt es keine starken Gesetze, die speziell auf Deepfakes abzielen. Einige bestehende Gesetze behandeln ähnliche Themen, wie das Teilen nicht einvernehmlicher Bilder, aber sie gehen nicht effektiv auf die einzigartigen Herausforderungen ein, die durch Deepfakes entstehen.
Die Deepfake-Lieferkette
Die Erstellung von Deepfakes involviert eine Lieferkette, die mit einer kleinen Anzahl von Modellentwicklern und Anbietern beginnt und sich auf Milliarden potenzieller Ersteller weltweit ausdehnt. Hier ist eine Übersicht über die Deepfake-Lieferkette:
Modellentwickler: Das sind die Gruppen, die die KI-Modelle bauen, die zur Generierung von Deepfakes verwendet werden. Das erfordert erhebliche technische Expertise und Ressourcen.
Modellanbieter: Das sind die Firmen oder Plattformen, die Zugang zu den KI-Modellen bieten. Einige Unternehmen entwickeln ihre eigenen Modelle, während andere einfach Modelle anbieten, die von anderen Entwicklern erstellt wurden.
Rechenleistungsanbieter: Diese Unternehmen bieten die Rechenpower, die nötig ist, um die KI-Modelle auszuführen. Ohne ausreichende Rechenressourcen wäre die Erstellung von Deepfakes schwierig.
Deepfake-Ersteller: Diese Gruppe besteht aus Individuen, die die Modelle und Rechenressourcen nutzen, um Deepfakes zu erstellen. Viele Leute können ganz einfach auf Werkzeuge zugreifen, um Deepfakes zu machen, ohne fortgeschrittene Fähigkeiten zu benötigen.
Politische Empfehlungen
Um effektiv gegen die Bedrohungen von Deepfakes vorzugehen, sind umfassende politische Veränderungen notwendig. Die folgenden Empfehlungen zielen auf verschiedene Teile der Deepfake-Lieferkette ab:
1. Kriminalisierung der Erstellung und Verbreitung von Deepfakes
Die Erstellung oder Verbreitung von Deepfakes sollte als Straftat betrachtet werden. Personen, die durch Deepfakes geschädigt wurden, sollten Schadensersatz einklagen können. Solche rechtlichen Massnahmen würden die Ersteller für ihr Handeln zur Verantwortung ziehen und zukünftige Vorfälle abschrecken.
2. Haftung für Modellentwickler
Modellentwickler sollten die Verantwortung haben sicherzustellen, dass ihre Modelle nicht leicht für die Erstellung von Deepfakes verwendet werden können. Sie sollten Techniken implementieren, um das Potenzial ihrer Modelle zur Erzeugung schädlicher Inhalte zu reduzieren. Modellentwickler müssen ausserdem bestätigen, dass ihre Trainingsdaten keine illegalen Inhalte enthalten.
3. Verantwortung der Modellanbieter
Modellanbieter müssen überwachen, wie ihre Modelle genutzt werden. Sie sollten angemessene Schritte unternehmen, um böswilligen Nutzern zu verhindern, Deepfakes zu erstellen. Zum Beispiel könnten sie Systeme einrichten, die Nutzer erkennen, die versuchen, schädliche Inhalte zu erstellen, und den Zugang für diese Personen einschränken.
4. Überwachung durch Rechenleistungsanbieter
Unternehmen, die Rechenressourcen bereitstellen, müssen ebenfalls zur Verantwortung gezogen werden. Sie müssen Massnahmen umsetzen, die ähnlich wie Identitätsprüfungen bei Banken sind, bekannt als "Know Your Customer"-Regeln. Das bedeutet, dass sie die Identität ihrer Kunden überprüfen und deren Aktivitäten überwachen sollten, um den Missbrauch ihrer Ressourcen zu verhindern.
5. Stärkere Verfahren für Meldung und Entfernung
Soziale Medien und Webseiten, auf denen Deepfakes geteilt werden können, sollten verpflichtet werden, schädliche Inhalte schnell zu entfernen. Sie sollten auch Systeme implementieren, um die Verbreitung von Deepfakes zu verhindern, bevor sie weit verbreitet sind.
Gegenüberstellungen
Während die politischen Entscheidungsträger über Regelungen nachdenken, müssen sie verschiedene Herausforderungen und Bedenken bewältigen:
Rechte des ersten Verfassungszusatzes
Einige könnten argumentieren, dass strenge Regelungen die Meinungsfreiheit verletzen könnten. Ähnliche Herausforderungen wurden jedoch in den Gesetzen zu Urheberrecht und Verleumdung behandelt. Gesetze zu Deepfakes könnten Ausnahmen für harmlose Inhalte festlegen, um sicherzustellen, dass Regelungen die legitime Meinungsäusserung nicht einschränken.
Die Rolle von Wasserzeichen
Wasserzeichnen beinhaltet das Einbetten von Identifikationssignalen in KI-generierte Inhalte, um sie von echtem Content zu unterscheiden. Obwohl diese Idee vielversprechend erscheinen mag, stehen ihr Herausforderungen gegenüber. Viele Deepfakes können immer noch Schaden anrichten, selbst wenn sie als KI-generiert gekennzeichnet sind. Ausserdem hat die Forschung gezeigt, dass effektives Wasserzeichen schwierig zu erreichen sein kann, da entschlossene Personen diese Marker leicht entfernen könnten.
Veranschaulichende Beispiele
Um die Notwendigkeit von regulatorischen Änderungen weiter zu verdeutlichen, hier einige Szenarien, in denen Deepfakes erhebliche Probleme verursacht haben:
Fall 1: Wahlmanipulation
Im Januar 2024 hat ein Deepfake von Joe Biden Wähler in New Hampshire in die Irre geführt. Mit einer gefälschten Stimme forderte das Deepfake die Leute auf, nicht an der bevorstehenden Vorwahl teilzunehmen. Bestehende Gesetze würden den Ersteller zur Verantwortung ziehen, aber die Unternehmen, die die Technologie bereitgestellt haben, würden keine Strafen erhalten. Diese Lücke in den Regelungen ermöglicht es Deepfakes, den Wahlprozess weiterhin zu beeinflussen.
Fall 2: Finanzbetrug
Im selben Monat wurden Deepfakes von Rishi Sunak weitläufig in sozialen Medien verbreitet, die ein betrügerisches Investitionsschema bewarben. Trotz erheblicher Ausgaben zur Förderung dieser Deepfakes wurde nichts gegen die Ersteller unternommen. Die Regulierung unter den vorgeschlagenen Richtlinien würde diese Art von Betrug kriminalisieren und helfen, solche schädlichen Aktivitäten zu begrenzen.
Fall 3: Vorfälle in Schulen
Im Oktober 2023 wurden Deepfakes verwendet, um nicht einvernehmliche sexuelle Bilder von Schülern in New Jersey zu erstellen. Der bestehende rechtliche Rahmen bot den Opfern kaum eine Möglichkeit zur Klage, und es gab keine klaren Strafen für die Täter. Die vorgeschlagenen Regelungen würden die Ersteller zur Verantwortung ziehen und Massnahmen umsetzen, um Deepfake-Vorfälle früher in der Lieferkette zu erfassen.
Dringender Handlungsbedarf
Deepfakes stellen ernsthafte Bedrohungen für persönliche Freiheiten und nationale Sicherheit dar, und ihre Gefahren wachsen, je besser die Technologie wird. Um diese Risiken effektiv zu bekämpfen, sind regulatorische Massnahmen entlang der Deepfake-Lieferkette unerlässlich. Diese Politiken würden helfen, Einzelpersonen vor Schaden zu schützen und die Integrität demokratischer Prozesse zu wahren.
Indem die Herausforderungen von Deepfakes jetzt angegangen werden, können die politischen Entscheidungsträger eine sicherere digitale Umgebung schaffen, die die Vorteile der Technologie mit dem Bedürfnis verbindet, die Gesellschaft vor böswilligem Gebrauch zu schützen. Es ist dringend an der Zeit zu handeln, da Deepfakes eine neue Grenze im Missbrauch von künstlicher Intelligenz darstellen, die nicht ignoriert werden kann.
Fazit
Zusammenfassend stellen Deepfakes eine komplexe Herausforderung dar, die durchdachte und proaktive Lösungen erfordert. Die vorgeschlagenen Politiken zielen darauf ab, Verantwortlichkeit entlang der Lieferkette zu implementieren und sicherzustellen, dass jeder, der an der Erstellung und Verbreitung von Deepfakes beteiligt ist, eine Rolle dabei spielt, ihre Verbreitung zu verhindern. Mit den richtigen Massnahmen kann die Gesellschaft die schädlichen Auswirkungen von Deepfakes mindern und gleichzeitig die positiven Nutzungsmöglichkeiten der Technologie erlauben.
Titel: Combatting deepfakes: Policies to address national security threats and rights violations
Zusammenfassung: This paper provides policy recommendations to address threats from deepfakes. First, we provide background information about deepfakes and review the harms they pose. We describe how deepfakes are currently used to proliferate sexual abuse material, commit fraud, manipulate voter behavior, and pose threats to national security. Second, we review previous legislative proposals designed to address deepfakes. Third, we present a comprehensive policy proposal that focuses on addressing multiple parts of the deepfake supply chain. The deepfake supply chain begins with a small number of model developers, model providers, and compute providers, and it expands to include billions of potential deepfake creators. We describe this supply chain in greater detail and describe how entities at each step of the supply chain ought to take reasonable measures to prevent the creation and proliferation of deepfakes. Finally, we address potential counterpoints of our proposal. Overall, deepfakes will present increasingly severe threats to global security and individual liberties. To address these threats, we call on policymakers to enact legislation that addresses multiple parts of the deepfake supply chain.
Autoren: Andrea Miotti, Akash Wasil
Letzte Aktualisierung: 2024-02-19 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2402.09581
Quell-PDF: https://arxiv.org/pdf/2402.09581
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://www.bundesnetzagentur.de/DE/Service-Funktionen/ElektronischeVertrauensdienste/HinweiseEmpfehlungen/Empfehlungen/Empfehlungen_node.html
- https://tex.stackexchange.com/questions/3033/forcing-linebreaks-in-url/10419?noredirect=1#comment1021887_10419
- https://ssrn.com/abstract=4666854
- https://www.legislation.gov.uk/ukpga/2003/21/contents
- https://crsreports.congress.gov/product/pdf/IF/IF11333
- https://www.copyright.gov/title17/title17.pdf
- https://www.legislation.gov.uk/ukpga/1988/48/contents
- https://publications.parliament.uk/pa/bills/cbill/58-04/0010/230010.pdf
- https://bills.parliament.uk/bills/3511
- https://media.defense.gov/2023/Sep/12/2003298925/-1/-1/0/CSI-DEEPFAKE-THREATS.PDF
- https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf
- https://oversight.house.gov/wp-content/uploads/2023/11/Doermann-Statement41.pdf
- https://www.legislation.gov.uk/ukpga/2023/56/enacted
- https://doi.org/10.48550/arXiv.2310.13625
- https://static1.squarespace.com/static/64428d8d19bf554e51471181/t/65a03259148cc61aa541372a/1704997472127/FENIMORE+HARPER+REPORT_+DEEP-FAKED+POLITICAL+ADS+V2.pdf
- https://www.forbes.com/sites/lutzfinger/2022/09/08/overview-of-how-to-create-deepfakesits-scarily-simple/
- https://www.legislation.gov.uk/ukpga/2006/35/contents
- https://oversight.house.gov/wp-content/uploads/2023/11/Sam-Gregory-House-Oversight-Committee-Advances-in-Deepfake-Technology-November-2023.pdf
- https://www.homesecurityheroes.com/state-of-deepfakes/#key-findings
- https://www.congress.gov/bill/118th-congress/house-bill/3106
- https://www.congress.gov/bill/118th-congress/house-bill/5586/text
- https://www.congress.gov/bill/118th-congress/house-bill/6943/text
- https://supreme.justia.com/cases/federal/us/485/46/
- https://www.iwf.org.uk/media/q4zll2ya/iwf-ai-csam-report_public-oct23v1.pdf
- https://cloud-platform-e218f50a4812967ba1215eaecede923f.s3.amazonaws.com/uploads/sites/30/2021/02/Intimate-image-abuse-consultation-paper.pdf
- https://s3-eu-west-2.amazonaws.com/cloud-platform-e218f50a4812967ba1215eaecede923f/uploads/sites/30/2022/07/Intimate-Image-Abuse-Report.pdf
- https://www.gov.uk/government/news/new-laws-to-better-protect-victims-from-abuse-of-intimate-images
- https://doi.org/10.48550/arXiv.2310.20563
- https://doi.org/10.48550/arXiv.2311.10748
- https://medium.com/@multiplatform.ai/octomls-termination-of-partnership-with-civitai-over-ai-generated-csam-concerns-e0921fe71f0d
- https://www.nbcnews.com/news/us-news/little-recourse-teens-girls-victimized-ai-deepfake-nudes-rcna126399
- https://www.nbcnews.com/tech/tech-news/deepfake-law-ai-new-jersey-high-school-teen-image-porn-rcna133706
- https://www.nbcnews.com/politics/2024-election/fake-joe-biden-robocall-tells-new-hampshire-democrats-not-vote-tuesday-rcna134984
- https://supreme.justia.com/cases/federal/us/376/254/
- https://www.njleg.state.nj.us/bill-search/2022/S3707
- https://files.constantcontact.com/1849eea4801/695cfd71-1d24-4146-a453-3dab7d49babd.pdf
- https://onfido.com/landing/identity-fraud-report/
- https://www.legislation.gov.uk/ukpga/2023/50/enacted
- https://www.legislation.gov.uk/ukpga/1978/37
- https://static-content.regulaforensics.com/Landing_pages/the-state-of-identity-verification-2023-report/Identity%20Verification%20Investment-A%20Study%20on%20Its%20Business%20Impact.pdf
- https://doi.org/10.48550/arXiv.2310.00076
- https://www.coons.senate.gov/imo/media/doc/no_fakes_act_draft_text.pdf
- https://www.judiciary.senate.gov/imo/media/doc/2023-09-12_pm_-_testimony_-_smith.pdf
- https://stacks.stanford.edu/file/druid:kh752sm9123/ml_training_data_csam_report-2023-12-23.pdf
- https://tsjournal.org/index.php/jots/article/view/126
- https://doi.org/10.48550/arXiv.2311.04378
- https://www.harvard.edu/kempner-institute/2023/11/09/watermarking-in-the-sand/
- https://ctan.org/pkg/codehigh
- https://github.com/lvjr/tabularray
- https://bitbucket.org/lvjr/tabularray
- https://github.com/lvjr/tabularray/discussions
- https://topanswers.xyz/tex
- https://github.com/lvjr/tabularray/issues
- https://www.learnlatex.org/en/lesson-08
- https://www.overleaf.com/learn/latex/Tables
- https://ctan.org/pkg/ninecolors
- https://tex.stackexchange.com/questions/603023/tabularray-and-tabularx-column-separator
- https://ctan.org/pkg/functional
- https://www.ctan.org/pkg/ragged2e
- https://www.ctan.org/pkg/codehigh
- https://www.ctan.org/pkg/fvextra
- https://github.com/lvjr/tabularray/milestones
- https://github.com/lvjr/tabularray/raw/main/tabularray.sty
- https://github.com/lvjr/tabularray/wiki/ChangeLog