Die moralische Verantwortung von KI: Wer ist schuld?
Erforschen, wie wir die moralischen Handlungen und Verantwortungen von KI bewerten.
Aikaterina Manoli, Janet V. T. Pauketat, Jacy Reese Anthis
― 5 min Lesedauer
Inhaltsverzeichnis
Mit dem zunehmenden Einsatz von Künstlicher Intelligenz (KI) in unserem Leben fangen die Leute an, darüber nachzudenken, ob Roboter und KI-Systeme moralische Verantwortung haben sollten. Schuldigen wir einem Chatbot für seine Fehler genauso wie einem Menschen? Der Aufstieg verschiedener KI-Systeme wirft Fragen auf, wie wir diese digitalen Helfer wahrnehmen, besonders wenn sie Mist bauen.
Das Konzept der moralischen Handlung
Moralische Handlung bezieht sich darauf, ob ein Wesen moralische oder unmoralische Entscheidungen treffen kann. Im Klartext geht's darum, ob wir denken, dass jemand oder etwas Lob oder Tadel für sein Handeln verdient. Zum Beispiel, wenn ein Chatbot falsche Ratschläge gibt, sollten wir ihm dafür die Verantwortung zuschreiben? Können wir ihn als moralisches Wesen sehen? Studien zeigen, dass viele Leute KI ein gewisses Mass an moralischer Handlung zuschreiben und glauben, dass sie aufgrund ihrer Handlungen Kritik oder Lob verdient.
Die Rolle des moralischen Spillover
Moralischer Spillover ist ein Phänomen, bei dem die Einstellungen gegenüber einer Person beeinflussen, wie wir andere Personen oder Gruppen sehen. Das ist so, als hättest du eine schlechte Erfahrung in einem Restaurant und fängst an zu denken, dass alle ähnlichen Orte furchtbares Essen servieren. Das kann bei menschlichen Interaktionen passieren, aber Forscher untersuchen, ob das auch bei menschlich-KI-Interaktionen gilt.
So haben wir diese Idee getestet
Zwei Studien wurden durchgeführt, um zu verstehen, wie die Leute KI wahrnehmen und ob negative Aktionen einer KI die Wahrnehmung aller KIs beeinflussen könnten. In der ersten Studie interagierten die Teilnehmer mit einem Chatbot oder einem menschlichen Assistenten, der entweder unmoralisch oder neutral handelte. In der zweiten Studie wurde ein Namensagent verwendet, damit die Teilnehmer eine stärkere Verbindung dazu fühlten, und der Fokus wurde auf alle KIs und alle Menschen statt nur auf Assistenten gelegt.
Was in den Studien passiert ist
Überblick über Studie 1
In der ersten Studie lasen die Teilnehmer ein Szenario, in dem ein Chatbot oder menschlicher Assistent etwas Falsches machte oder einfach nur seinen Job ohne Schaden erfüllte. Dann wurden sie gefragt, wie moralisch oder unmoralisch sie den Agenten und wie sehr sie dachten, dass die Gruppe der Assistenten (menschlich oder KI) moralische Aufmerksamkeit verdient.
Ergebnisse von Studie 1
-
Negative moralische Handlung: Als der Assistent unmoralisch handelte, bewerteten die Teilnehmer sowohl den Agenten als auch die Gruppe als moralisch negativer. Das bedeutet, wenn der Chatbot jemandem Kaffee verschüttete, waren die Leute weniger geneigt, den Chatbot oder alle Chatbots als moralische Wesen zu sehen.
-
Positive moralische Handlung: Ebenso dachten die Leute, dass sowohl der menschliche als auch der KI-Assistent weniger positive moralische Handlung hatten, wenn sie schlecht handelten. Es ist wie zu sagen: "Wenn ein Chatbot schlecht ist, sind sie alle schlecht!"
-
Moralische Fürsorge: Die Studie stellte fest, dass die Leute, wenn ein Agent schlecht handelte, weniger geneigt waren zu denken, dass der Agent oder die Gruppe moralische Fürsorge oder Aufmerksamkeit verdient.
Überblick über Studie 2
In der zweiten Studie wurde der Name "Ezal" für den Agenten gewählt. Das Ziel war zu sehen, ob man dieser KI durch eine menschlichere Identität eine andere Wahrnehmung geben könnte. Die Teilnehmer lasen weiterhin über eine unmoralische oder neutrale Handlung, aber jetzt bewerteten sie alle KIs und alle Menschen, nicht nur Assistenten.
Ergebnisse von Studie 2
-
Fortgesetzter Spillover: Die negativen Aktionen des KI-Agenten beeinflussten weiterhin, wie die Leute alle KIs sahen, aber nicht so sehr bei Menschen. Es schien, als wären die Leute menschlicheren Fehlern gegenüber nachsichtiger als gegenüber KIs. Wenn Ezal etwas falsch machte, wurden alle KIs beschuldigt.
-
Doppelte Standards in der Bewertung: Die Ergebnisse zeigten einen doppelten Standard, bei dem KIs strenger beurteilt wurden als Menschen. Wenn ein menschlicher Assistent einen Fehler machte, verdarb das nicht unbedingt den Ruf aller Menschen.
Auswirkungen in der realen Welt
Mit immer mehr KIs in unserem Leben haben diese Ergebnisse echte Konsequenzen. Die Tendenz, alle KIs nach den Handlungen einer einzigen zu beurteilen, könnte zu einem Mangel an Vertrauen in KI-Systeme führen, selbst wenn sie dazu gedacht sind, hilfreich zu sein. Das deutet darauf hin, dass ein einzelner Fehler beeinflussen kann, wie wir eine gesamte Kategorie von Technologie sehen, was die Zusammenarbeit zwischen Menschen und KIs behindern könnte.
AIs mit Bedacht gestalten
Angesichts dieser Erkenntnisse ist es wichtig, dass Designer von KI-Systemen sorgfältig darüber nachdenken, wie sich diese Systeme verhalten und wie sie präsentiert werden. Wenn eine KI einen Fehler macht, könnte das die Wahrnehmung anderer schädigen.
-
Positive Wahrnehmungen schaffen: KIs könnten so gestaltet werden, dass sie ansprechender und freundlicher sind, um eine Art Puffer gegen negative Wahrnehmungen zu schaffen.
-
Transparenz ist entscheidend: Offenheit über die Grenzen von KIs könnte den Leuten helfen zu verstehen, dass eine schlechte Handlung nicht die gesamte Gruppe repräsentiert.
-
Vergebung fördern: KIs könnten auch so programmiert werden, dass sie erkennen, wenn sie einen Fehler gemacht haben und sich entschuldigen, was helfen könnte, Vertrauen zu erhalten und negativen Spillover zu vermeiden.
Fazit
Während wir uns in einer Welt mit mehr KIs zurechtfinden, ist es entscheidend zu verstehen, wie wir diese Systeme wahrnehmen und wie unsere Urteile über eine die Ansichten über alle beeinflussen können. Der Effekt des moralischen Spillover zeigt, dass die Leute unterschiedliche Standards für KIs im Vergleich zu Menschen haben. Dieses Wissen kann uns dabei helfen, wie wir KI-Systeme in Zukunft gestalten und mit ihnen interagieren, sodass Vertrauen und Zusammenarbeit gefördert werden, anstatt Skepsis.
Also, wenn dein Chatbot dir das falsche Info gibt, denk daran, dass es nur ein kleiner Ezal in einer grossen Welt von KIs ist! Und hoffen wir, dass es deinen Appetit auf die nächste Unterhaltung mit einem digitalen Helfer nicht ruiniert.
Originalquelle
Titel: The AI Double Standard: Humans Judge All AIs for the Actions of One
Zusammenfassung: Robots and other artificial intelligence (AI) systems are widely perceived as moral agents responsible for their actions. As AI proliferates, these perceptions may become entangled via the moral spillover of attitudes towards one AI to attitudes towards other AIs. We tested how the seemingly harmful and immoral actions of an AI or human agent spill over to attitudes towards other AIs or humans in two preregistered experiments. In Study 1 (N = 720), we established the moral spillover effect in human-AI interaction by showing that immoral actions increased attributions of negative moral agency (i.e., acting immorally) and decreased attributions of positive moral agency (i.e., acting morally) and moral patiency (i.e., deserving moral concern) to both the agent (a chatbot or human assistant) and the group to which they belong (all chatbot or human assistants). There was no significant difference in the spillover effects between the AI and human contexts. In Study 2 (N = 684), we tested whether spillover persisted when the agent was individuated with a name and described as an AI or human, rather than specifically as a chatbot or personal assistant. We found that spillover persisted in the AI context but not in the human context, possibly because AIs were perceived as more homogeneous due to their outgroup status relative to humans. This asymmetry suggests a double standard whereby AIs are judged more harshly than humans when one agent morally transgresses. With the proliferation of diverse, autonomous AI systems, HCI research and design should account for the fact that experiences with one AI could easily generalize to perceptions of all AIs and negative HCI outcomes, such as reduced trust.
Autoren: Aikaterina Manoli, Janet V. T. Pauketat, Jacy Reese Anthis
Letzte Aktualisierung: 2024-12-08 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2412.06040
Quell-PDF: https://arxiv.org/pdf/2412.06040
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.