Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Künstliche Intelligenz# Maschinelles Lernen

Die Rolle von KI bei der Steuerung menschlichen Verhaltens

KI kann beeinflussen, wie Menschen Aufgaben in gemeinsamen Situationen erledigen.

― 12 min Lesedauer


KI beeinflusstKI beeinflusstmenschliches HandelnMenschen bei Aufgaben zu verbessern.KI passt sich an, um die Leistung der
Inhaltsverzeichnis

Wenn KI mit Menschen interagiert, verändert sie nicht nur die Umgebung; sie kann auch beeinflussen, wie Menschen handeln, ihre Absichten und Strategien. Die meisten Studien dazu gehen davon aus, dass Menschen nahezu perfekt handeln, wie man in Wettbewerben oder Situationen mit autonom fahrenden Autos sieht, die die Strasse mit menschlichen Fahrern teilen. Unser Fokus liegt jedoch darauf, wie KI Menschen beeinflussen kann, die möglicherweise nicht optimal handeln aufgrund von Vorurteilen oder Informationsmangel. Zum Beispiel, wenn Menschen Schwierigkeiten haben, bei einer Aufgabe zusammenzuarbeiten, wie kann eine KI ihnen helfen, besser abzuschneiden? Anzunehmen, dass Menschen optimal handeln, hilft hier nicht; die KI muss aus echten Interaktionen mit Menschen lernen. Aber Ideen online mit Menschen auszuprobieren, kann riskant sein, und es ist oft schwierig, einen detaillierten Simulator der Situation zu erstellen.

Um dies anzugehen, schlagen wir vor, aus einem Datensatz von Interaktionen zwischen Menschen zu lernen. Wir glauben, dass der Einsatz von Offline Reinforcement Learning (RL) der KI ermöglicht, suboptimales menschliches Verhalten effektiv zu beeinflussen, indem verschiedene Aspekte beobachteter menschlicher Interaktionen kombiniert werden.

Unsere Ergebnisse legen nahe, dass offline RL zwei Hauptprobleme beim Beeinflussen von Verhalten effektiv bewältigen kann. Erstens zeigen wir, dass die KI, indem sie Daten aus verschiedenen menschlichen Interaktionen analysiert – von denen keine einen erfolgreichen Einfluss demonstriert – dennoch Strategien lernen kann, um Menschen zu helfen, besser zu werden, selbst bei neuen Aufgaben. Zweitens zeigen wir, dass offline RL, indem es menschliches Verhalten versteht, nicht nur die Aktionen der Menschen beeinflussen kann, sondern auch deren Strategien, und sich an Veränderungen in ihrem Denken und Verhalten anpasst.

In vielen Bereichen wie Spielen, Gesundheitswesen, Empfehlungssystemen und Robotik interagiert KI mit Menschen und beeinflusst deren Verhalten. Die meisten vorherigen Studien haben Fälle untersucht, in denen Menschen fast perfekt gehandelt haben, wie in strategischen Spielen wie Go oder in autonomen Szenarien, in denen die KI versucht, Fahrer dazu zu bringen, langsamer zu fahren. Unsere Arbeit unterscheidet sich, indem wir uns auf Situationen konzentrieren, in denen echte Menschen irrational oder nicht optimal handeln, wie in kooperativen Aufgaben mit anderen, die möglicherweise keine Experten sind, oder sozialen Interaktionen, die nicht strategisch sind.

Stell dir zum Beispiel vor, ein Roboter und ein Mensch arbeiten zusammen, um eine Mahlzeit zuzubereiten. Der Mensch beginnt vielleicht, Tomaten für einen Salat zu schneiden, weil sie in der Nähe sind, auch wenn es besser wäre, wenn der Roboter den Salat macht, während der Mensch das Hauptgericht vorbereitet. Der Roboter könnte versuchen, den Menschen zu ermutigen, das Gericht anzurichten, indem er einen Teller neben ihnen platziert oder sogar den Zugang zu den Tomaten blockiert. Solche Strategien wären nicht nötig, wenn der Mensch mit vollem Verständnis handeln würde, was zeigt, wie wichtig es ist, zu berücksichtigen, wie echte Menschen sich verhalten und wie sie durch die Aktionen des Roboters beeinflusst werden können.

Frühere Forschungen zum Beeinflussen suboptimalen Verhaltens basierten meist auf geskripteten oder vereinfachten Modellen, wie Menschen handeln. Allerdings wird menschliches Verhalten von vielen kognitiven Verzerrungen beeinflusst, was es komplex und schwer macht, genau zu simulieren. Das bedeutet, eine KI zu lehren, Verhalten zu beeinflussen, wird wahrscheinlich echte menschliche Daten brauchen. Doch Ideen online mit Menschen zu testen kann unsicher oder unpraktisch sein.

Wie können wir also effektive Einflussstrategien finden, wenn wir nur Daten von menschlichen Interaktionen haben? Unsere zentrale Erkenntnis ist, dass KI dennoch lernen kann, Verhalten zu beeinflussen, selbst wenn sie keine expliziten Demonstrationen von Einfluss gesehen hat. Speziell kann offline Reinforcement Learning lernen zu beeinflussen, indem es verschiedene Teile menschlichen Verhaltens aus verschiedenen Interaktionen zusammensetzt. Ein einfaches Beispiel in einer Kochsituation verdeutlicht dies: In einigen Interaktionen macht eine Person einen Fehler und geht, um Zwiebeln zu holen, anstatt anzurichten, während sie in einer anderen einen nahegelegenen Teller aufnimmt. Durch das Kombinieren dieser beiden Verhaltensweisen lernt die KI, dass das Platzieren eines Tellers neben dem Menschen sie ermutigen kann, das Gericht anzurichten.

Unser Hauptbeitrag ist zu zeigen, dass offline RL zwei bedeutende Herausforderungen beim Beeinflussen suboptimalen menschlichen Verhaltens überwinden kann. Erstens zeigen wir, dass bestehende offline RL-Methoden Strategien ableiten können, um menschliche Aktionen zu beeinflussen, auch wenn es in den Trainingsdaten keine Beispiele für solche Strategien gibt. Zweitens, indem wir offline RL-Algorithmen mit Einsichten in die versteckten Strategien des Menschen verbessern, können wir der KI ermöglichen, nicht nur die Aktionen des Menschen, sondern auch deren gesamten Ansatz zu beeinflussen.

Im Bereich des Reinforcement Learning streben Agenten an, zu lernen, wie sie Entscheidungen treffen, die ihre Belohnungen im Laufe der Zeit maximieren. In diesem Fall interessiert uns, wie KI lernen kann, die Aktionen und Strategien menschlicher Partner in kooperativen Aufgaben zu beeinflussen.

Verwandte Arbeiten

Es gab eine beträchtliche Menge an Arbeiten zum Einsatz von Reinforcement Learning in Multi-Agenten-Einstellungen, in denen mehrere Agenten in wettbewerbsfähigen oder kooperativen Situationen agieren. Traditionelle Methoden modellieren oft, wie die Aktionen aller Agenten die Umgebung beeinflussen und können zentralisiertes Training umfassen, um die Aktionen anderer Agenten zu berücksichtigen. Einige Ansätze haben sogar Kommunikationskanäle eingeführt, damit Agenten ihre Strategien teilen können. Unsere Arbeit konzentriert sich jedoch speziell darauf, wie KI mit Menschen interagieren kann, die möglicherweise keine vorhersehbaren oder rationalen Muster befolgen.

Kürzlich gab es auch einen Anstieg an Forschungen, die sich auf das Design von KI konzentrieren, die mit Menschen interagiert. Frühere Bemühungen umfassten das Trainieren von Agenten, um menschliche Spieler in Wettbewerben wie Go und Poker zu übertreffen, wobei das Ziel darin bestand, den Menschen als nahezu optimal zu modellieren. In realen Aufgaben ist es jedoch unzureichend, Menschen als perfekte Entscheidungsträger zu betrachten, insbesondere in kooperativen oder sozialen Kontexten.

Frühere Arbeiten befassten sich beispielsweise mit Koordinationsherausforderungen mit Menschen in spielähnlichen Umgebungen. Dennoch unterscheiden wir uns von dieser Arbeit, indem wir uns auf das Beeinflussen von Verhalten konzentrieren, anstatt es nur zu berücksichtigen. Wir behandeln Aufgaben, bei denen eine KI ändern muss, wie sich ein Mensch verhält, um erfolgreich zu sein. Der entscheidende Punkt in unserem Ansatz ist, dass wir keinen Zugriff auf einen Simulator annehmen und stattdessen rein durch die Beobachtung vergangener menschlicher Interaktionen lernen müssen.

Unsere Untersuchung zielt darauf ab, KI-Agenten zu trainieren, um Menschen zu ermutigen, sich so zu verhalten, dass sie in gemeinsamen Aufgaben bessere Ergebnisse erzielen. Andere Studien haben ebenfalls den Einsatz von Einfluss in Spielen oder kooperativen Umgebungen untersucht. Diese Studien haben sowohl model-free als auch model-based Ansätze vorgeschlagen. Model-free Methoden sagen voraus, wie andere Agenten ihre Strategien ändern werden, ohne die zugrunde liegenden Dynamiken der Umgebung zu lernen. In wettbewerbsorientierten Kontexten bewerten Methoden wie LOLA die Updates der Spieler und nutzen sie, um die nächsten Züge des Agenten zu informieren.

Im Gegensatz dazu liegt unser Fokus darauf, Agenten zu helfen, Menschen in Echtzeit zu beeinflussen. Das Ziel des Reinforcement Learning ist es, eine Strategie zu lernen, die kumulative Belohnungen in einer gegebenen Situation maximiert, die als Markov-Entscheidungsprozess modelliert ist. Unser Problem konzentriert sich auf Aufgaben, die Interaktionen mit Menschen erfordern, deren Strategie und Verhalten unbekannt sind.

Wir modellieren menschliches Verhalten als eine Art versteckten strategischen Layer, der ihre Aktionen leitet. Unser Ansatz kann als eine spezielle Art von teilweise beobachtbarem Entscheidungsprozess betrachtet werden, der sich auf die versteckten Aspekte menschlicher Interaktion konzentriert.

Offline Reinforcement Learning

Wir nutzen offline Reinforcement Learning, um Strategien für die Koordination mit menschlichen Partnern zu entwickeln, ohne dass Live-Interaktionen oder ein Simulator erforderlich sind. Beim offline RL arbeiten wir mit einem festen Datensatz, der verschiedene Interaktionsdaten enthält. Typische Algorithmen verwenden ein Actor-Critic-Framework, das lernt, die erwarteten Belohnungen aus den aufgezeichneten Erfahrungen zu maximieren.

Da wir ausschliesslich auf vergangenen Daten basieren, können traditionelle Methoden Schwierigkeiten haben, mit Situationen umzugehen, in denen die Aktionen der KI im Datensatz nicht vertreten sind. Um dem entgegenzuwirken, verwenden wir konservatives Q-Learning, das Aktionen bestraft, die von dem abweichen, was im Datensatz gesehen wurde, und so sicherstellt, dass unser gelerntes Verhalten innerhalb der Grenzen menschlicher Interaktionen bleibt.

Einfluss in der Overcooked-Umgebung

Um unsere Ideen zu testen, haben wir eine vereinfachte Version des Spiels Overcooked gewählt, in dem die Spieler koordinieren müssen, um Mahlzeiten zuzubereiten. Dieses Spiel eignet sich gut, um menschliche Interaktionen zu studieren, da die Spieler oft suboptimal handeln aufgrund von Missverständnissen und Koordinationsproblemen.

In dieser Umgebung navigieren zwei Spieler durch eine Küche voller Zutaten und Kochutensilien. Sie müssen zusammenarbeiten, um Gerichte zuzubereiten und dabei Hindernisse überwinden. Der Erfolg hängt davon ab, dass jeder Spieler Aufgaben in der richtigen Reihenfolge und effektiv zusammenarbeiten kann.

In unserer Arbeit identifizieren wir zwei Hauptprobleme beim Lernen, menschliches Verhalten in dieser Umgebung zu beeinflussen. Die erste Herausforderung besteht darin, zu erkennen, wie man neue Einflussstrategien basierend auf den verfügbaren Daten ableiten kann. Die zweite Herausforderung besteht darin, sicherzustellen, dass die KI ihren Ansatz an sich veränderndes menschliches Verhalten im Laufe der Zeit anpassen kann.

Herausforderung 1: Ableitung neuer Einflussstrategien

Daten über menschliches Verhalten in der Overcooked-Umgebung zu sammeln, ist relativ einfach, aber effektive Einflussstrategien zu identifizieren ist herausfordernd. Das liegt daran, dass Menschen oft passiv auf ihre Partner reagieren und Aufgaben erledigen, wie sie kommen, ohne aktiv zu versuchen, das Verhalten ihres Partners zu ändern. Wenn eine KI also weiss, dass ihr menschlicher Partner besser für bestimmte Aufgaben geeignet ist, sollte sie idealerweise diesen Partner dazu beeinflussen, diese Rollen zu übernehmen.

Da Menschen jedoch in den gesammelten Daten im Allgemeinen nicht aktiv koordinieren, müssen wir Strategien entwickeln, um zu lernen, wie man andere basierend auf den vorhandenen Daten beeinflusst. Wir schlagen vor, dass offline RL neue Einflussstrategien ableiten kann, indem es bestehende Verhaltensweisen im Datensatz kombiniert. Indem die KI Subaufgaben aus verschiedenen Interaktionen zusammensetzt, kann sie Wege finden, Menschen zu besserer Koordination zu führen, ohne dass explizite Beispiele für Einfluss notwendig sind.

Herausforderung 2: Langfristiger Einfluss versteckter Strategien

Einfach nur einen Menschen dazu zu bringen, bestimmte Aktionen auszuführen, könnte nicht genug sein. Es könnte vorteilhafter sein, ihren zugrunde liegenden Ansatz oder ihre Strategie zu ändern. Wenn eine KI beispielsweise möchte, dass ein Mensch sich auf bestimmte Aufgaben konzentriert, muss sie möglicherweise den Zugang zu Ablenkungen über einen längeren Zeitraum blockieren und so die Strategie des Menschen im Laufe der Zeit ändern.

Effektiver Einfluss erfordert, dass die KI die sich entwickelnde Strategie des Menschen erkennt und darauf reagiert. Unsere vorgeschlagene Methode ermöglicht es offline RL, sich an sich änderndes menschliches Verhalten anzupassen, während sie deren Entscheidungen beeinflusst. Wir glauben, dass das System, selbst wenn es Daten zeigt, die nur wenige Beispiele für erfolgreiche Koordination enthalten, dennoch anpassen kann, indem es Misserfolgstrajektorien nutzt, um verschiedene Verhaltensweisen zu verstehen.

Lernstrategien für Einfluss aus verschiedenen Verhaltensweisen

In diesem Abschnitt zeigen wir, dass eine KI, die offline RL verwendet, lernen kann, menschliches Verhalten zu beeinflussen und zu verbessern, indem sie Verhaltensweisen aus den Daten effektiv neu kombiniert. Wir streben an, eine Methode zu entwickeln, bei der die KI vergangene Interaktionen nutzen kann, um Strategien zu entwickeln, die nicht unbedingt in früheren Beispielen ersichtlich sein müssen.

In unseren Experimenten konzentrieren wir uns darauf, wie gut offline RL auf neue Aufgaben verallgemeinern kann, insbesondere im Overcooked-Bereich. Indem wir die Belohnungsstruktur in unseren Experimenten ändern, können wir die KI motivieren, ihren menschlichen Partner auf eine Weise zu beeinflussen, die die Aufgabenleistung verbessert.

Datensammlung

Wir haben Daten aus menschlichen Interaktionen beim Spielen des Spiels unter verschiedenen Bedingungen gesammelt. Ein Satz von Anweisungen erlaubte den Spielern, unter einem Standardziel zu operieren, während ein anderer sich auf spezifische Rollen konzentrierte, ohne dass der Partner davon wusste, was zu einer Vielzahl von suboptimalen Aktionen führte.

In unseren Bewertungen vergleichen wir die Leistung von offline RL mit traditionellen Methoden wie Verhaltenstraining und Variationen des Reinforcement Learning, die nicht die Fülle menschlicher Kooperation nutzen.

Erreichen langfristigen Einflusses versteckter Strategien

Um effektiv die Gesamtstrategie eines Menschen zu beeinflussen, muss die KI verstehen, was der Mensch wahrscheinlich tun wird. In unseren Experimenten führen wir eine Methode ein, bei der die KI eine Darstellung der versteckten Strategie des Menschen lernt und ihre Entscheidungen basierend auf diesem Verständnis steuert.

Durch eine Kombination aus vergangenen Interaktionen und aktuellen Beobachtungen können wir die KI trainieren, ihre Einflussstrategie anzupassen, während sich das Verhalten des Menschen im Laufe der Zeit ändert. Dieser Ansatz ermöglicht es der KI, in ihren Interaktionen reaktionsschneller und effektiver zu sein.

Aufgabenbeschreibung

In unserer Bewertung haben wir verschiedene Layouts im Overcooked-Bereich eingerichtet, die es den Spielern ermöglichen, sich direkt gegenseitig zu beeinflussen. Wir betrachten, wie effektiv die KI das Verhalten ihres Partners ändern kann, indem sie Belohnungen für gewünschte Ergebnisse anbietet, wie das Anrichten von Suppen, die nur mit bestimmten Zutaten zubereitet wurden.

Fazit

Menschen handeln oft suboptimal aufgrund von Vorurteilen oder Informationsmangel. Wir untersuchen, wie offline RL lernen kann, menschliches Verhalten zu beeinflussen, indem es Daten aus menschlichen Interaktionen nutzt. Unsere Ergebnisse zeigen, dass bestehende offline RL-Methoden neue Einflussstrategien aus verschiedenen menschlichen Verhaltensweisen ableiten können. Darüber hinaus kann die KI durch das Erkennen und Anpassen an Veränderungen in menschlichen Strategien erfolgreich Menschen zu besserer Leistung führen.

Einschränkungen und zukünftige Arbeiten

Unsere Forschung konzentriert sich hauptsächlich auf das Spiel Overcooked aufgrund seiner klaren Regeln und Dynamiken, was es einfacher macht, menschlichen Einfluss zu untersuchen. Diese Umgebung ist jedoch einfacher als reale Situationen, die eine Zusammenarbeit mit Menschen erfordern. Zukünftige Studien sollten untersuchen, ob unsere Ergebnisse auch in komplexeren, realen Szenarien gelten, wie in Dialogsystemen.

Darüber hinaus haben wir zwei Herausforderungen im Hinblick auf den menschlichen Einfluss isoliert: das Lernen unsichtbarer Strategien und das Erreichen eines anpassbaren langfristigen Einflusses. Es bleibt abzuwarten, ob offline RL beide Herausforderungen in einem kohärenten Ansatz angehen kann, indem es aus vielfältigen menschlichen Interaktionen lernt, um deren zukünftiges Verhalten effektiv zu steuern.

Ethische Implikationen

Die Idee, menschliches Verhalten zu beeinflussen, ist komplex. Während es Vorteile gibt – wie Menschen zu helfen, suboptimale Verhaltensweisen zu verbessern – gibt es auch Risiken. Wenn KI unter falschen Annahmen operiert oder das Verständnis menschlicher Werte fehlt, könnte der Einfluss negative Folgen haben. Das Verständnis der ethischen Implikationen von AI-Einfluss ist entscheidend für die verantwortungsvolle Entwicklung und Anwendung.

Originalquelle

Titel: Learning to Influence Human Behavior with Offline Reinforcement Learning

Zusammenfassung: When interacting with people, AI agents do not just influence the state of the world -- they also influence the actions people take in response to the agent, and even their underlying intentions and strategies. Accounting for and leveraging this influence has mostly been studied in settings where it is sufficient to assume that human behavior is near-optimal: competitive games, or general-sum settings like autonomous driving alongside human drivers. Instead, we focus on influence in settings where there is a need to capture human suboptimality. For instance, imagine a collaborative task in which, due either to cognitive biases or lack of information, people do not perform very well -- how could an agent influence them towards more optimal behavior? Assuming near-optimal human behavior will not work here, and so the agent needs to learn from real human data. But experimenting online with humans is potentially unsafe, and creating a high-fidelity simulator of the environment is often impractical. Hence, we focus on learning from an offline dataset of human-human interactions. Our observation is that offline reinforcement learning (RL) can learn to effectively influence suboptimal humans by extending and combining elements of observed human-human behavior. We demonstrate that offline RL can solve two challenges with effective influence. First, we show that by learning from a dataset of suboptimal human-human interaction on a variety of tasks -- none of which contains examples of successful influence -- an agent can learn influence strategies to steer humans towards better performance even on new tasks. Second, we show that by also modeling and conditioning on human behavior, offline RL can learn to affect not just the human's actions but also their underlying strategy, and adapt to changes in their strategy.

Autoren: Joey Hong, Sergey Levine, Anca Dragan

Letzte Aktualisierung: 2023-10-27 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2303.02265

Quell-PDF: https://arxiv.org/pdf/2303.02265

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel