Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Mensch-Computer-Interaktion

Verantwortungsvolle KI-Implementierung im öffentlichen Dienst

Untersuchen der sorgfältigen Nutzung von KI in Behörden.

― 6 min Lesedauer


KI in öffentlichenKI in öffentlichenDienstleistungen erklärtangehen.Community bei der Nutzung von KIHerausforderungen und Bedürfnisse der
Inhaltsverzeichnis

Öffentliche Einrichtungen in den USA schauen zunehmend darauf, wie Künstliche Intelligenz (KI) ihnen helfen kann, Dienstleistungen wie Kinderschutz, Gesundheitsversorgung und öffentliche Sicherheit zu verbessern. KI hat das Potenzial, diese Dienste effizienter und effektiver zu gestalten. Allerdings gibt es erhebliche Herausforderungen, um sicherzustellen, dass KI-Tools verantwortungsvoll entwickelt und genutzt werden. Viele frühere KI-Projekte in öffentlichen Einrichtungen haben die Erwartungen nicht erfüllt, und einige haben bestehende Probleme sogar verschärft, insbesondere für benachteiligte Gemeinschaften.

In diesem Artikel werden wir die Probleme besprechen, mit denen öffentliche Einrichtungen konfrontiert sind, wenn sie KI-Tools implementieren, die Bedeutung von durchdachten Entscheidungen bei der KI-Entwicklung und ein neues Tool namens Situate AI Guidebook vorstellen, das dazu dienen soll, den Einrichtungen zu helfen, zu entscheiden, ob sie ein KI-Projekt vorantreiben wollen.

Die Notwendigkeit von sorgfältigen Entscheidungen bei der KI-Implementierung

KI-Tools versprechen erhebliche Vorteile, darunter verbesserte Entscheidungsfindung und Effizienz in den öffentlichen Diensten. Sie können zum Beispiel riesige Datenmengen analysieren, um Muster zu erkennen und Vorhersagen zu treffen, die Menschen möglicherweise nicht sehen. Doch während das Versprechen gross ist, übersieht der Implementierungsprozess oft wichtige Faktoren, die zum Scheitern führen.

Ein bemerkenswerter Fall war ein KI-Tool, das von der Arbeitslosenversicherung von Michigan zur Betrugserkennung entwickelt wurde. Leider hat dieses Tool mehr als 90% der Fälle fälschlicherweise markiert, was zu erheblichem Stress für viele Personen führte. Ähnlich wurde ein KI-Tool zur Überprüfung von Kindesmisshandlung kritisiert, weil es Vorurteile gegenüber bestimmten Gemeinschaftsgruppen verstärkt hat.

Viele dieser Misserfolge haben ihren Ursprung in den frühen Phasen der KI-Entwicklung, wo Entscheidungen über das Design und den Zweck des Tools getroffen werden, ohne dass eine angemessene Konsultation mit denjenigen erfolgt, die es nutzen oder von ihm betroffen sind. Diese Tools können am Ende inkompatibel mit den Bedürfnissen der realen Welt sein, was zu Misstrauen in der Gemeinschaft und ineffektiven Lösungen führt.

Die Bedeutung der Einbeziehung der Gemeinschaft

Die Einbeziehung von Gemeinschaftsmitgliedern und Frontarbeitern kann das Design von KI-Tools erheblich verbessern. Diese Personen haben oft ein tiefes Verständnis für die Probleme, die KI zu lösen versucht, und können Einblicke geben, die Daten allein nicht bieten können. Indem ihre Perspektiven in das Design und die Implementierung von KI-Tools einbezogen werden, können Einrichtungen die Risiken von Vorurteilen mindern und sicherstellen, dass die Tools auf die Bedürfnisse der Gemeinschaft abgestimmt sind.

Ein Beispiel: Einrichtungen können aktiv Feedback aus der Gemeinschaft einholen, um Entscheidungen über KI-Tools zu informieren, was einen kollaborativeren Ansatz für die Dienstleistungserbringung ermöglicht. Ausserdem kann das Verständnis für historische Kontexte und bestehende Vorurteile innerhalb der Daten, die für das KI-Training verwendet werden, helfen, zu verhindern, dass diese Vorurteile in den Ergebnissen der KI-Tools verstärkt werden.

Einführung des Situate AI Guidebook

Angesichts der beschriebenen Herausforderungen und potenziellen Fallstricke wurde das Situate AI Guidebook entwickelt, um öffentlichen Einrichtungen zu helfen, informierte Entscheidungen über die Entwicklung von KI-Tools zu treffen. Dieses Handbuch ist speziell für den öffentlichen Sektor konzipiert und soll frühzeitige Diskussionen darüber fördern, ob ein bestimmtes KI-Projekt verfolgt werden sollte.

Das Situate AI Guidebook umfasst:

  1. Diskussionsfragen: Diese sind darauf ausgelegt, die Gespräche unter den Beteiligten zu leiten und kritische Bereiche wie Ziele, soziale Überlegungen, Datenbeschränkungen und Governance-Faktoren abzudecken. Durch strukturierte Gespräche können Mitarbeiter im öffentlichen Sektor potenzielle Probleme frühzeitig identifizieren und ihren Ansatz entsprechend anpassen.

  2. Nutzungsrichtlinien: Das Handbuch bietet klare Richtlinien für Einrichtungen, wie sie den Diskussionsprozess effektiv umsetzen können, um sicherzustellen, dass die Gespräche produktiv sind und sich auf die richtigen Themen konzentrieren.

  3. Erfolgskriterien: Es liefert Kriterien, um Einrichtungen zu helfen, die Effektivität ihrer Entscheidungsfindungsprozesse und der KI-Tools, die sie entwickeln möchten, zu bewerten.

Wichtige Merkmale des Situate AI Guidebook

Diskussionsfragen

Das Herzstück des Handbuchs ist die Reihe von Diskussionsfragen, die in vier Hauptkategorien unterteilt sind:

  1. Ziele und beabsichtigte Nutzung: Was ist der Zweck des KI-Tools? Wer wird betroffen sein und was sind die beabsichtigten Ergebnisse? Dieser Abschnitt ermutigt Einrichtungen, die breiteren Auswirkungen ihrer KI-Tools auf die Gemeinschaft zu berücksichtigen und sie an den tatsächlichen Bedarf anzupassen.

  2. Gesellschaftliche und rechtliche Überlegungen: Dieser Abschnitt regt die Einrichtungen an, über ethische, rechtliche und gesellschaftliche Auswirkungen nachzudenken. Es ermutigt sie, über Fragen von Vorurteilen und Fairness nachzudenken und sicherzustellen, dass die getroffenen Entscheidungen im besten Interesse aller Mitglieder der Gemeinschaft liegen.

  3. Daten- und Modellierungsbeschränkungen: Das Verständnis der Einschränkungen und der Qualität von Daten ist entscheidend. Dieser Abschnitt hilft Einrichtungen, Herausforderungen in ihren Daten zu identifizieren, die die Leistung des KI-Tools beeinträchtigen können.

  4. Organisatorische Governance-Faktoren: Dieser Teil des Handbuchs konzentriert sich darauf, wie Entscheidungen rund um das KI-Tool geregelt werden, einschliesslich wer für die Aufsicht verantwortlich ist und wie das Tool auf Effektivität überwacht wird.

Richtlinien für die Implementierung

Das Handbuch ist so gestaltet, dass es praktisch und flexibel ist. Einrichtungen können den Diskussionsprozess an ihre bestehenden Arbeitsabläufe anpassen, was es einfacher macht, die Gespräche in ihre Entscheidungsfindungsroutinen zu integrieren.

Erfolgskriterien

Das Situate AI Guidebook enthält Erfolgskriterien, die den Einrichtungen helfen, zu bewerten, ob ihre Diskussionsprozesse zu bedeutenden Verbesserungen führen. Dazu gehört die Bewertung, ob verschiedene Interessengruppen effektiv über das KI-Tool kommunizieren können, ob die Ressourcenbedarfe frühzeitig erkannt werden und ob soziale und ethische Überlegungen priorisiert werden.

Die Einbeziehung von Gemeinschaftsmitgliedern

Ein wesentlicher Bestandteil einer verantwortungsvollen KI-Entwicklung ist die Einbeziehung von Gemeinschaftsmitgliedern. Das Situate AI Guidebook ermutigt Einrichtungen, nicht nur interne Stakeholder zu engagieren, sondern auch aktiv Gemeinschaftsvertreter in den Diskussionsprozess einzubeziehen.

Einrichtungen werden aufgefordert, darüber nachzudenken, wie sie Rückmeldungen von Gemeinschaften, die von den KI-Tools betroffen sein werden, sammeln können. Dazu könnte es gehören, öffentliche Foren abzuhalten, Umfragen zu versenden oder Gremien zu bilden, die Gemeinschaftsvertreter einbeziehen.

Indem Gemeinschaftsmitglieder am Entscheidungsprozess teilnehmen, können öffentliche Einrichtungen sicherstellen, dass die KI-Tools, die sie entwickeln, besser auf die Bedürfnisse derjenigen abgestimmt sind, denen sie dienen. Dies kann helfen, das Vertrauen zwischen den Einrichtungen und den Gemeinschaftsmitgliedern aufzubauen und zu besseren Ergebnissen für alle Beteiligten führen.

Fazit

Während öffentliche Einrichtungen weiterhin KI-Tools erkunden, ist es entscheidend, diese Innovationen verantwortungsvoll anzugehen. Das Situate AI Guidebook zielt darauf ab, einen Rahmen für durchdachte Entscheidungen zu bieten, um sicherzustellen, dass KI-Tools nicht nur effektiv, sondern auch ethisch und vorteilhaft für die Gemeinschaft sind. Mit seinem Fokus auf Zusammenarbeit, Transparenz und Reflexion dient das Handbuch als wertvolle Ressource für Einrichtungen, die ihre Dienstleistungen durch KI verbessern und dabei Risiken und unbeabsichtigte Folgen minimieren möchten.

Indem die Einbeziehung der Gemeinschaft und reflektierende Entscheidungen priorisiert werden, können öffentliche Einrichtungen das volle Potenzial von KI-Tools ausschöpfen und gleichzeitig eine vertrauensvolle und verantwortungsvolle Beziehung zu den Gemeinschaften aufbauen, denen sie dienen. Der Weg zur verantwortungsvollen KI-Nutzung ist komplex, aber mit den richtigen Werkzeugen und Prozessen kann er zu bedeutsamen Verbesserungen der öffentlichen Dienstleistungen und des Wohlergehens der Gemeinschaft führen.

Originalquelle

Titel: The Situate AI Guidebook: Co-Designing a Toolkit to Support Multi-Stakeholder Early-stage Deliberations Around Public Sector AI Proposals

Zusammenfassung: Public sector agencies are rapidly deploying AI systems to augment or automate critical decisions in real-world contexts like child welfare, criminal justice, and public health. A growing body of work documents how these AI systems often fail to improve services in practice. These failures can often be traced to decisions made during the early stages of AI ideation and design, such as problem formulation. However, today, we lack systematic processes to support effective, early-stage decision-making about whether and under what conditions to move forward with a proposed AI project. To understand how to scaffold such processes in real-world settings, we worked with public sector agency leaders, AI developers, frontline workers, and community advocates across four public sector agencies and three community advocacy groups in the United States. Through an iterative co-design process, we created the Situate AI Guidebook: a structured process centered around a set of deliberation questions to scaffold conversations around (1) goals and intended use or a proposed AI system, (2) societal and legal considerations, (3) data and modeling constraints, and (4) organizational governance factors. We discuss how the guidebook's design is informed by participants' challenges, needs, and desires for improved deliberation processes. We further elaborate on implications for designing responsible AI toolkits in collaboration with public sector agency stakeholders and opportunities for future work to expand upon the guidebook. This design approach can be more broadly adopted to support the co-creation of responsible AI toolkits that scaffold key decision-making processes surrounding the use of AI in the public sector and beyond.

Autoren: Anna Kawakami, Amanda Coston, Haiyi Zhu, Hoda Heidari, Kenneth Holstein

Letzte Aktualisierung: 2024-03-05 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2402.18774

Quell-PDF: https://arxiv.org/pdf/2402.18774

Lizenz: https://creativecommons.org/licenses/by-nc-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel