Bias in Risiko-Bewertungstools im Justizsystem
Untersuchung von Rassenbias in algorithmischen Risikoabschätzungs-Tools im Strafrecht.
― 4 min Lesedauer
Inhaltsverzeichnis
In den letzten Jahren sind algorithmische Tools zur Risikobewertung im Strafjustizsystem immer gängiger geworden. Diese Tools, auch bekannt als Risikobewertungsinstrumente (RAIs), helfen dabei, die Wahrscheinlichkeit einzuschätzen, dass eine Person in Zukunft Verbrechen begehen wird. Allerdings gibt es Bedenken, wie diese Tools funktionieren und welche potenziellen Vorurteile sie mit sich bringen, insbesondere in Bezug auf Rasse und Ethnie.
Hintergrund
RAIs verwenden in der Regel frühere Festnahmen, um zukünftiges Verhalten vorherzusagen. Das kann problematisch sein, weil nicht alle Verbrechen gemeldet oder erfasst werden, und verschiedene Gruppen von Menschen unterschiedliche Chancen haben können, für ähnliche Handlungen festgenommen zu werden. Zum Beispiel können die Rasse, das Geschlecht und das Alter einer Person beeinflussen, wie wahrscheinlich es ist, dass sie festgenommen wird, selbst wenn sie dasselbe Verbrechen begangen hat wie jemand anderes. Das bedeutet, dass die Daten, auf denen diese Einschätzungen basieren, möglicherweise kein faires oder genaues Bild davon liefern, wer wahrscheinlich rückfällig wird.
Potenzielle Vorurteile in RAIs
Eines der Hauptprobleme bei der Verwendung von Festnahmeprotokollen als Grundlage für RAIs ist das bestehende Vorurteil in diesen Aufzeichnungen. Da verschiedene Gemeinschaften unterschiedliche Meldepraktiken und Polizeistrategien haben könnten, können die Daten bestehende Ungleichheiten im Rechtssystem widerspiegeln. Wenn zum Beispiel eine demografische Gruppe wahrscheinlicher für bestimmte Verbrechen festgenommen wird als eine andere, die tatsächlichen Verbrechensraten jedoch ähnlich sind, kann dies die Ergebnisse der Risikobewertung gegen die Gruppe verzerren, die mehr Festnahmen erlebt.
Methodologie
Um besser zu verstehen, wie Vorurteile in RAIs die Ergebnisse beeinflussen könnten, führten Forscher eine Studie mit Daten aus verschiedenen Quellen durch. Sie betrachteten Festnahmeprotokolle über einen bestimmten Zeitraum und analysierten, wie diese Aufzeichnungen im Vergleich zu den tatsächlichen Verbrechensraten zwischen verschiedenen Gruppen abschneiden. Indem sie diese Diskrepanzen berücksichtigten, wollten die Forscher den Grad der Vorurteile in den RAIs aufdecken.
Datenquellen
Die Daten umfassten Festnahmeprotokolle aus einer bestimmten Region und Umfragen, die Informationen zu Verbrechensraten lieferten. Diese Kombination ermöglichte eine gründlichere Untersuchung, wie verschiedene Demografien im Strafjustizsystem behandelt wurden.
Bildung von Kohorten
Die Forscher bildeten Gruppen von Individuen basierend auf ihren Festnahmeprotokollen und passten sie nach Alter, Geschlecht und krimineller Vorgeschichte an. So konnten sie sicherstellen, dass die verglichenen Gruppen ähnliche Hintergründe hatten, was eine klarere Analyse etwaiger Unterschiede in der Vergabe von Risikopunkten ermöglichte.
Ergebnisse zu Risikopunkten
Bei der Betrachtung der Risikopunkte, die verschiedenen rassischen und ethnischen Gruppen zugewiesen wurden, wurden erhebliche Unterschiede festgestellt. Wenn man sich nur die Festnahmeprotokolle ansah, schien es, dass schwarze Personen leicht höhere Risikopunkte als weisse Personen hatten. Betrachtete man jedoch die nicht erfassten Verbrechen – ein Mass für Straftaten, die wahrscheinlich begangen wurden, aber nicht in den Festnahmedaten registriert sind – wurden die Unterschiede viel grösser, was auf ein besorgniserregenderes Vorurteil in den RAIs hinwies.
Auswirkungen der Ergebnisse
Die Ergebnisse deuteten darauf hin, dass die Verwendung von Festnahmeprotokollen als Mass für zukünftiges Risiko zu einer unfairen Behandlung bestimmter Gruppen im Rechtssystem führen könnte. Wenn RAIs die ungleichen Chancen, basierend auf Rasse oder ethnischer Herkunft festgenommen zu werden, nicht berücksichtigen, könnten sie bestehende Ungleichheiten weiter verfestigen und sogar verschärfen.
Empfehlungen für RAIs
Angesichts dieser Ergebnisse gibt es Vorschläge zur Verbesserung der Entwicklung und Bewertung von RAIs:
Berücksichtigung der Unterschiede in den Festnahmeraten: Tools sollten mit dem Bewusstsein entwickelt werden, wie verschiedene Demografien die Polizeiarbeit erleben. Wenn man diese Unterschiede nicht berücksichtigt, riskiert man weiterhin voreingenommene Ergebnisse.
Lokalisierung der Bewertungen: Bewertungen sollten auf Gemeindeebene erfolgen, anstatt sich nur auf nationale Durchschnittswerte zu verlassen. So werden spezifische Variationen einer Region in die Risikobewertungen einbezogen.
Verbesserung der Datenqualität: Besserer Zugang zu genauen Daten wird helfen, die lokalen Gegebenheiten zu verstehen und die Tools entsprechend anzupassen.
Mehr Forschung nötig: Langfristige Studien sollten durchgeführt werden, um zu bewerten, wie gut RAIs tatsächliche Risiken vorhersagen und dabei die vorhandenen Vorurteile im Blick behalten.
Fazit
Der Einsatz algorithmischer Tools im Strafjustizsystem bietet sowohl Chancen als auch Herausforderungen. Obwohl sie die Effizienz bei der Risikobewertung verbessern können, ist es wichtig sicherzustellen, dass sie keine Vorurteile verstärken oder schaffen. Das Bewusstsein für die Grenzen von Festnahmeprotokollen ist entscheidend. Indem man sich auf ein differenzierteres Verständnis von Risiko zubewegt, das Faktoren wie Rasse und die Möglichkeit nicht erfasster Verbrechen einschliesst, kann das Justizsystem einen faireren Ansatz für alle beteiligten Personen anstreben.
Titel: The Progression of Disparities within the Criminal Justice System: Differential Enforcement and Risk Assessment Instruments
Zusammenfassung: Algorithmic risk assessment instruments (RAIs) increasingly inform decision-making in criminal justice. RAIs largely rely on arrest records as a proxy for underlying crime. Problematically, the extent to which arrests reflect overall offending can vary with the person's characteristics. We examine how the disconnect between crime and arrest rates impacts RAIs and their evaluation. Our main contribution is a method for quantifying this bias via estimation of the amount of unobserved offenses associated with particular demographics. These unobserved offenses are then used to augment real-world arrest records to create part real, part synthetic crime records. Using this data, we estimate that four currently deployed RAIs assign 0.5--2.8 percentage points higher risk scores to Black individuals than to White individuals with a similar \emph{arrest} record, but the gap grows to 4.5--11.0 percentage points when we match on the semi-synthetic \emph{crime} record. We conclude by discussing the potential risks around the use of RAIs, highlighting how they may exacerbate existing inequalities if the underlying disparities of the criminal justice system are not taken into account. In light of our findings, we provide recommendations to improve the development and evaluation of such tools.
Autoren: Miri Zilka, Riccardo Fogliato, Jiri Hron, Bradley Butcher, Carolyn Ashurst, Adrian Weller
Letzte Aktualisierung: 2023-05-12 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2305.07575
Quell-PDF: https://arxiv.org/pdf/2305.07575
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://www.acm.org/publications/taps/whitelist-of-latex-packages
- https://dl.acm.org/ccs.cfm
- https://www.acm.org/publications/proceedings-template
- https://capitalizemytitle.com/
- https://www.acm.org/publications/class-2012
- https://dl.acm.org/ccs/ccs.cfm
- https://ctan.org/pkg/booktabs
- https://goo.gl/VLCRBB
- https://www.acm.org/publications/taps/describing-figures/
- https://creativecommons.org/licenses/by/4.0/
- https://github.com/Bradley-Butcher/pipeline_paper_code