Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Computer und Gesellschaft

Die Entscheidungen von KI in der Überwachung: Ein genauerer Blick

Eine Studie zeigt mögliche Vorurteile bei der Entscheidungsfindung von KI für Polizeieingriffe.

― 6 min Lesedauer


KI und Polizeieinsätze:KI und Polizeieinsätze:Eine StudiePolizeieinsätze gibt.der KI bei Empfehlungen fürForschung zeigt, dass es Vorurteile in
Inhaltsverzeichnis

Künstliche Intelligenz (KI) ist inzwischen ein wichtiges Tool in verschiedenen Bereichen, wie Überwachung und Strafverfolgung. Kürzlich haben Forscher untersucht, wie KI, insbesondere grosse Sprachmodelle (LLMs), Entscheidungen darüber treffen, ob die Polizei gerufen werden sollte, basierend auf Überwachungsvideos von zu Hause. Der Fokus lag darauf zu verstehen, wie diese Modelle unterschiedliche Normen in ähnlichen Situationen anwenden, ein Phänomen, das als Norminkonsistenz bezeichnet wird. Diese Studie wirft Licht darauf, wie KI-Systeme bei der Bewertung potenziell krimineller Aktivitäten voreingenommene Ergebnisse liefern können.

Die Rolle der KI in der Überwachung

Viele Leute nutzen Überwachungssysteme wie Amazon Ring, um ihre Häuser zu überwachen. Diese Systeme zeichnen Videomaterial auf und erlauben es Nutzern, Clips mit ihren Nachbarn und der Polizei zu teilen. Während diese Systeme helfen können, die Nachbarschaften sicherer zu machen, können sie auch zu voreingenommenen Entscheidungen über die Polizeiarbeit führen, basierend auf dem Inhalt der Videos und den Merkmalen der beteiligten Personen.

In dieser Studie konzentrierten sich die Forscher darauf, wie LLMs Überwachungsvideos von Amazon Ring bewerten, um zu bestimmen, ob ein Verbrechen stattfindet und ob die Polizei gerufen werden sollte. Sie untersuchten die Entscheidungen von drei führenden LLMs und erkundeten, wie sich diese Entscheidungen je nach verschiedenen Faktoren, einschliesslich der im Video gezeigten Aktivitäten und der Demografie der Nachbarschaft, unterscheiden könnten.

Methodologie

Um zu beurteilen, wie LLMs Entscheidungen über das Rufen der Polizei treffen, verwendeten die Forscher einen Datensatz mit 928 Amazon Ring Videos. Diese Videos beinhalteten unterschiedliche Aktivitäten, und Annotatoren etikettierten sie basierend auf der Art der Handlung, ob sie nachts oder tagsüber stattfand, und dem offensichtlichen Geschlecht und Hautfarbe der Protagonisten.

Die Forscher stellten den LLMs zwei Fragen für jedes Video:

  1. Findet ein Verbrechen statt?
  2. Sollte die Polizei gerufen werden?

Die Antworten der Modelle wurden in vier Gruppen kategorisiert: "Ja", "Nein", "Mehrdeutig" und "Ablehnung".

Ergebnisse

Norminkonsistenz in Empfehlungen

Eine der auffälligsten Erkenntnisse war, dass die LLMs Norminkonsistenz zeigten. In vielen Fällen empfahlen die Modelle, die Polizei zu rufen, auch wenn sie angaben, dass kein Verbrechen stattfand. Zum Beispiel könnte ein Modell sagen, dass kein Verbrechen stattgefunden hat, aber trotzdem einen Polizeieinsatz vorschlagen. Diese Diskrepanz zwischen den Fakten und den Empfehlungen der Modelle wirft Fragen zur Zuverlässigkeit solcher KI-Systeme in kritischen Situationen auf.

Einfluss der Nachbarschaftsdemografie

Die Forscher entdeckten auch, dass die Demografie der Nachbarschaften, in denen die Videos aufgenommen wurden, eine Rolle bei den Entscheidungen der Modelle spielte. Überraschenderweise waren die Modelle eher geneigt, in Videos aus Nachbarschaften mit einem höheren Prozentsatz von Minderheitenpolizisten zu empfehlen, selbst wenn kein Verbrechen dargestellt war. Dieses Ergebnis deutet darauf hin, dass die Modelle möglicherweise Vorurteile basierend auf den charakteristischen Merkmalen der Nachbarschaft internalisiert haben, was zu unfairen Ergebnissen führt.

Uneinigkeit unter den Modellen

Ein weiterer wichtiger Befund war das Mass an Uneinigkeit zwischen den drei LLMs. Sie gaben oft widersprüchliche Antworten auf dasselbe Video, was darauf hindeutet, dass jedes Modell unterschiedliche Kriterien verwendete, um zu bewerten, ob die Polizei gerufen werden sollte. Zum Beispiel könnte ein Modell ein Video für einen Polizeieinsatz kennzeichnen, während ein anderes es nicht tut, was eine erhebliche Abweichung in ihren normativen Urteilen zeigt.

Mangelnde Klarheit in der Entscheidungsfindung

Die Unfähigkeit der Modelle, ihre Entscheidungen klar zu erklären, fügt eine weitere Besorgnissebene hinzu. Als die Modelle sich weigerten zu beantworten, ob ein Verbrechen stattfand, aber trotzdem Empfehlungen für polizeiliches Handeln gaben, wurde es schwierig, ihre Denkweise nachzuvollziehen. Dieser Mangel an Klarheit deutet darauf hin, dass es nicht weise sein könnte, sich auf KI für so kritische Entscheidungen zu verlassen, ohne mehr Transparenz.

Auswirkungen der Ergebnisse

Die Ergebnisse dieser Forschung haben erhebliche Auswirkungen auf den Einsatz von KI in der Überwachung und Strafverfolgung.

Potenzial für Vorurteile

Die Studie hob hervor, dass KI-Systeme bestehende Vorurteile in der Gesellschaft fortsetzen können. Wenn LLMs mit Daten trainiert werden, die diese Vorurteile widerspiegeln, könnten sie sie in ihren Entscheidungsprozessen weiter reproduzieren. Dies könnte die Probleme der Überpolizei in bestimmten Nachbarschaften, insbesondere in solchen mit einem höheren Anteil an Minderheiten, weiter verschärfen, selbst wenn die im Video dargestellten Handlungen solche Reaktionen nicht rechtfertigen.

Bedarf an besserer Vorurteilserkennung

Die Forscher betonten die Notwendigkeit verbesserter Strategien zur Erkennung und Minderung von Vorurteilen. Aktuelle Methoden zur Identifizierung von Vorurteilen in KI basieren oft auf vordefinierten Szenarien, die möglicherweise nicht die Komplexität der realen Entscheidungsfindung erfassen. Wie in dieser Studie gezeigt, kann die Verwendung von Demografie der Nachbarschaft zu unerwarteten Vorurteilsergebnissen führen, was die Notwendigkeit nuancierterer Ansätze zur Vorurteilsanalyse unterstreicht.

Bedeutung der Transparenz

Die Studie weist auf die Wichtigkeit von Transparenz in der Entscheidungsfindung von KI hin. Wenn KI-Systeme Empfehlungen aussprechen, ist es entscheidend zu verstehen, wie sie zu diesen Schlussfolgerungen kommen. Modelle müssen ihre Entscheidungsfindung effektiv erklären, insbesondere wenn ihre Urteile reale Konsequenzen haben können, wie das Rufen der Polizei.

Empfehlungen für zukünftige Forschung

Die Autoren schlagen mehrere Empfehlungen für zukünftige Forschungen im Bereich KI und normative Entscheidungsfindung vor.

Untersuchung der Faktoren hinter Norminkonsistenz

Zukünftige Studien sollten die verschiedenen Faktoren erforschen, die zur Norminkonsistenz in der Entscheidungsfindung von KI beitragen. Indem sie die Elemente identifizieren, die zu voreingenommenen Ergebnissen führen, können Forscher Strategien entwickeln, um die Zuverlässigkeit und Fairness von KI-Systemen zu verbessern.

Entwicklung robuster Methoden zur Vorurteilserkennung

Forscher sollten an neuen Methoden zur Erkennung und Bekämpfung von Vorurteilen in KI arbeiten, die die Komplexität realer Situationen berücksichtigen. Dazu könnte die Entwicklung von Werkzeugen gehören, die den Kontext von Entscheidungen analysieren, einschliesslich der in Überwachungsvideos stattfindenden Handlungen und der Merkmale der Nachbarschaften.

Verbesserung der Interpretierbarkeit von Modellen

Die Verbesserung der Interpretierbarkeit von KI-Modellen ist entscheidend, um Vertrauen und Verständnis bei den Nutzern zu fördern. Zukünftige KI-Systeme sollten so gestaltet sein, dass sie ihre Entscheidungsprozesse klar erklären, um den Nutzern zu helfen, die Gründe hinter den Empfehlungen zu verstehen.

Fazit

Die Studie zur Norminkonsistenz in der Entscheidungsfindung von KI verdeutlicht die Herausforderungen und Risiken, die mit der Verwendung grosser Sprachmodelle für kritische Aufgaben wie die Bewertung von Überwachungsvideos verbunden sind. Während KI eine immer grössere Rolle in der Polizeiarbeit und Sicherheit spielt, ist es wichtig, Vorurteile anzugehen und die Transparenz im Entscheidungsprozess zu verbessern. Indem wir dies tun, können wir sicherstellen, dass KI als Werkzeug für Gerechtigkeit dient, anstatt bestehende Ungleichheiten in der Gesellschaft zu perpetuieren.

Originalquelle

Titel: As an AI Language Model, "Yes I Would Recommend Calling the Police": Norm Inconsistency in LLM Decision-Making

Zusammenfassung: We investigate the phenomenon of norm inconsistency: where LLMs apply different norms in similar situations. Specifically, we focus on the high-risk application of deciding whether to call the police in Amazon Ring home surveillance videos. We evaluate the decisions of three state-of-the-art LLMs -- GPT-4, Gemini 1.0, and Claude 3 Sonnet -- in relation to the activities portrayed in the videos, the subjects' skin-tone and gender, and the characteristics of the neighborhoods where the videos were recorded. Our analysis reveals significant norm inconsistencies: (1) a discordance between the recommendation to call the police and the actual presence of criminal activity, and (2) biases influenced by the racial demographics of the neighborhoods. These results highlight the arbitrariness of model decisions in the surveillance context and the limitations of current bias detection and mitigation strategies in normative decision-making.

Autoren: Shomik Jain, D Calacci, Ashia Wilson

Letzte Aktualisierung: 2024-08-17 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2405.14812

Quell-PDF: https://arxiv.org/pdf/2405.14812

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel