Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Multiagentensysteme# Künstliche Intelligenz# Neuronales und evolutionäres Rechnen

Ausrichten von Normen und Werten in Multi-Agenten-Systemen

Diese Studie stellt ein Modell vor, um Normen mit mehreren Werten in Agentensystemen in Einklang zu bringen.

― 8 min Lesedauer


Optimierung von Normen inOptimierung von Normen inAgentensystemenMulti-Agenten-Umgebungen.unterschiedlicher Werte inEin Modell verbessert die Ausrichtung
Inhaltsverzeichnis

Multi-Agent-Systeme (MAS) werden für komplexe Aufgaben wie Verkehrssteuerung und Energiemanagement verwendet. Diese Systeme bestehen aus Agenten, die mit spezifischen Zielen arbeiten und eigenständig agieren können. Die Agenten in diesen Systemen arbeiten zusammen oder konkurrieren sogar miteinander. Ein wichtiger Aspekt, der diesen Agenten hilft, zusammenzuarbeiten, ist die Verwendung von Normen oder Regeln, die ihr Verhalten leiten. Hier kommen die Normativen Multi-Agenten-Systeme (NorMAS) ins Spiel.

In NorMAS sind Normen Regeln, die von einer sozialen Gruppe oder der Mehrheit der Agenten erstellt werden, um das Verhalten zu regulieren. Zum Beispiel gibt es an vielen Orten eine Regel, die Fahrer dazu verpflichtet, Einsatzfahrzeugen Vorrang zu gewähren. In einem anderen Beispiel wird von Passagieren erwartet, dass sie älteren Menschen die Sitze am nächsten zur Tür in einem Bus überlassen. Diese Normen helfen den Agenten zu verstehen, wie sie sich in verschiedenen Situationen verhalten sollen, was die Teamarbeit und Entscheidungsfindung unterstützt.

Die Förderung menschlicher Werte in MAS ist wichtig, um sicherzustellen, dass diese Systeme der realen Welt entsprechen. Werte stehen für das, was als wichtig erachtet wird, wie Fairness, Gleichheit, Gesundheit oder Glück. Zum Beispiel könnte ein Unternehmen eine Norm haben, die Mitarbeiterinnen Mutterschaftsurlaub gewährt. Wenn die Werte des Unternehmens jedoch Gleichheit unterstützen, hätten sowohl Männer als auch Frauen Anspruch auf denselben Urlaub.

Wert-Ausrichtung bezieht sich auf die Idee, das Verhalten von intelligenten Agenten mit gemeinsamen menschlichen Werten in Einklang zu bringen. Diese Idee wurde in der Forschung untersucht, was zu mehreren Methoden geführt hat, um die Herausforderungen der Wert-Ausrichtung zu bewältigen. Zu den gängigen Methoden gehören Denkstrategien, Lernansätze und genetische Algorithmen. Allerdings haben sich die meisten Lösungen darauf konzentriert, einen Wert nach dem anderen auszurichten.

In der Realität müssen oft mehrere Werte gleichzeitig ausgerichtet werden, insbesondere da Menschen und Agenten unterschiedliche Werte haben können. Diese Forschung zielt darauf ab, diese Lücke zu schliessen, indem ein Modell entwickelt wird, das mehrere Werte gleichzeitig mit spezialisierten Algorithmen fördert.

Herausforderungen

Eine wesentliche Herausforderung bei der Wert-Ausrichtung besteht darin, dass viele bestehende Modelle sich darauf konzentrieren, Agenten mit einem Hauptwert oder den populärsten Werten in Einklang zu bringen. In realen Situationen müssen jedoch alle Werte, unabhängig von ihrer internen Kompatibilität, berücksichtigt werden. Ein weiteres Problem ist, dass Agenten in den Werten, die sie unterstützen, variieren können, insbesondere wenn einige Werte im Widerspruch zueinander stehen. Zum Beispiel können Fairness und Gleichheit manchmal im Widerspruch stehen, wo die Gewährleistung von Fairness nicht unbedingt bedeutet, Gleichheit zu fördern.

Einige bestehende Studien erstellen Normen direkt aus den Werten. Das ist ein Problem, da Normen und Werte in vielen Fällen inkompatibel sein können. Eine Gemeinschaft könnte Gleichheit schätzen, aber auch eine Norm haben, die Senioren in Warteschlangen priorisiert. Daher ist es entscheidend, dass Normen und Werte als separate Entitäten behandelt werden.

Diese Forschung schlägt ein Modell namens Normative Alignment and Optimisation Model (NAO) vor, mit drei Hauptzielen:

  1. Die beste Normenset in einem System mit vielfältigen Agenten auszuwählen.
  2. Mehrere Werte im System zu optimieren, einschliesslich kompatibler und konfliktärer Werte.
  3. Unabhängige Normen- und Wertensets in Einklang zu bringen.

Indem wir dies als ein Multi-Objective-Optimierungsproblem formulieren, können wir Werte als zu optimierende Ziele und Normen als Entscheidungsvariablen darstellen. Dies ermöglicht es dem System, die besten Normen zu identifizieren, die mit den Werten übereinstimmen.

Methodologie

Die Studie verwendet Multi-Objective Evolutionary Algorithms (MOEAs), um das optimale Normenset zu finden. Diese Algorithmen waren in verschiedenen Bereichen erfolgreich, einschliesslich Logistik und Umweltmanagement. In dieser Forschung wurden mehrere MOEAs getestet, um ihre Leistung in verschiedenen Szenarien zu bewerten.

Die Forschung untersucht den Einfluss verschiedener evolutionärer Algorithmen auf die Ausrichtung von Werten und Normen. Durch die Analyse der Ergebnisse aus verschiedenen Blickwinkeln können wir sehen, wie die Wahl des Algorithmus die erzielten Lösungen beeinflusst.

Evolutionäre Algorithmen

MOEAs sind flexible Techniken, die mit Multi-Objective-Problemen umgehen können, ohne strenge Anforderungen an die zu optimierenden Funktionen. Sie bauen auf früheren evolutionären Algorithmen (EAs) auf, sind aber für Situationen mit mehreren Zielen konzipiert.

Ein grundlegendes Konzept in MOEAs ist das Pareto-Dominanz. Das bedeutet, dass eine Lösung als besser angesehen wird als eine andere, wenn sie in allen Aspekten gleich ist und in mindestens einem besser. Das Ziel ist es, ein Gleichgewicht zwischen konfliktären Zielen zu finden, um optimale Lösungen zu gewährleisten.

Es gibt mehrere Typen von MOEAs, die jeweils unterschiedliche Methoden zur Rangordnung von Lösungen verwenden. Einige davon sind NSGA-II, SPEA2 und MOMBI2.

Problembeschreibung

Die Studie betrachtet ein normatives Multi-Value-Multi-Agenten-System, das aus regulären Agenten und einem regulativen Agenten besteht, der für die Schaffung von Normen verantwortlich ist. Jeder Agent hat sein eigenes Set an Werten, Eigenschaften, Aktionen und angenommenen Normen. Der regulative Agent hat auch eigene Werte, die er bei seinen Entscheidungen berücksichtigen muss.

Die Hauptherausforderungen für den regulativen Agenten bestehen darin, die besten Normen zu synthetisieren, die mit den Werten aller regulären Agenten übereinstimmen, während sie optimiert werden – selbst wenn diese Werte inkompatibel sind.

Steuersystem-Szenario

Um das Modell zu veranschaulichen, wurde ein Steuersystem als Testfall verwendet. Hier repräsentieren reguläre Agenten Bürger, und der regulative Agent steht für die Regierung. Die Regierung erhebt Steuern basierend auf dem Wohlstand der Bürger. Einige Bürger umgehen Steuern, und wenn sie erwischt werden, müssen sie mit Strafen rechnen.

In diesem Szenario hat die Regierung ihre eigenen Werte zu berücksichtigen, wie Fairness und Gleichheit. Die Herausforderung besteht darin, die Steuererhebung mit den Werten der Bürger in Einklang zu bringen. Die Bürger haben auch ihre Werte, die mit Wohlstand und Fairness zu tun haben.

Experimentelle Bewertung

Die Studie bewertete vier verschiedene Algorithmen – NSGA-II, MOEA/DD, SPEA2 und MOMBI2 – wobei das Steuerszenario als Grundlage für die Analyse diente. Es wurden zwei verschiedene Zielsets getestet: das erste umfasste zwei Ziele, während das zweite fünf Ziele basierend auf den Werten der Bürger integrierte.

Bei der Vergleich der Algorithmusleistung wurden Metriken wie Hypervolume und IGD+ verwendet, um die Qualität zu messen. Hypervolume bietet eine Möglichkeit, den Raum zu visualisieren, den die Lösungen einnehmen, während IGD+ bewertet, wie gut die Lösungen über die Ziele verteilt sind.

Ergebnisse

Die Bewertung zeigte, dass unterschiedliche Algorithmen unterschiedliche Ergebnisse produzierten. Im Zwei-Ziel-Setting schnitt NSGA-II konstant besser ab als die anderen in Bezug auf die Qualität. Als jedoch der Fünf-Ziel-Ansatz betrachtet wurde, zeigte MOEA/DD beeindruckende Stabilität und Qualität.

Eine tiefere Analyse der von jedem Algorithmus erzeugten Pareto-Fronten hob Unterschiede in der Verteilung und Qualität der Lösungen hervor. Im Zwei-Ziel-Fall erzielte NSGA-II viele nicht-dominierte Lösungen, was zu besserer Gesamtqualität führte. Im Gegensatz dazu hatte MOMBI2 viele dominierte Lösungen, was zu schlechterer Leistung führte.

Bei der Untersuchung der Leistung basierend auf verschiedenen Zielen wurde deutlich, dass die Priorisierung eines Ziels negative Auswirkungen auf andere haben kann. Zum Beispiel führte der Fokus auf Gleichheit zu einem Rückgang des Wohlstands einiger Bürger, während die Maximierung des Wohlstands die Fairness beeinträchtigen konnte.

Diskussion

Die Forschung zeigte die Fähigkeit von NAO, mehrere Werte effizient zu optimieren, unabhängig von deren Kompatibilität. Zudem wurden erfolgreich Normen ausgewählt, die einer vielfältigen Gruppe von Agenten gerecht werden. Durch die Trennung von Normen und Werten in ihrer Optimierung konnte NAO sie als unabhängige Entitäten behandeln.

Diese Studie hebt die Bedeutung des Verständnisses von Wertabhängigkeiten in einem System hervor und zeigt, wie die Priorisierung eines Wertes andere beeinflussen kann. Sie unterstreicht die Notwendigkeit eines ausgewogenen Ansatzes zur Wert-Ausrichtung in komplexen Systemen.

Fazit

Die Forschung präsentierte NAO, ein Modell, das darauf ausgelegt ist, verschiedene Normen mit mehreren Werten in Multi-Agenten-Systemen in Einklang zu bringen. Durch den Einsatz von Multi-Objective Evolutionary Algorithms adressierte NAO effektiv die Komplexitäten der Ausrichtung von vielfältigen und manchmal konfliktären Werten.

Zukünftige Arbeiten könnten die Integration von Denkmethoden umfassen, die bei der Auswahl der besten Lösungen aus den optimierten Mengen helfen. Ein Online-Mechanismus für die Echtzeit-Wert-Ausrichtung könnte ebenfalls entwickelt werden, um die Anwendbarkeit des Modells zu stärken.

Durch diese Studie haben wir Schritte unternommen, um komplexere Systeme zu schaffen, die in der Lage sind, das komplexe Geflecht von Werten und Normen in realen Szenarien zu bewältigen.

Originalquelle

Titel: Multi-Value Alignment in Normative Multi-Agent System: Evolutionary Optimisation Approach

Zusammenfassung: Value-alignment in normative multi-agent systems is used to promote a certain value and to ensure the consistent behavior of agents in autonomous intelligent systems with human values. However, the current literature is limited to incorporation of effective norms for single value alignment with no consideration of agents' heterogeneity and the requirement of simultaneous promotion and alignment of multiple values. This research proposes a multi-value promotion model that uses multi-objective evolutionary algorithms to produce the optimum parametric set of norms that is aligned with multiple simultaneous values of heterogeneous agents and the system. To understand various aspects of this complex problem, several evolutionary algorithms were used to find a set of optimised norm parameters considering two toy tax scenarios with two and five values are considered. The results are analysed from different perspectives to show the impact of a selected evolutionary algorithm on the solution, and the importance of understanding the relation between values when prioritising them.

Autoren: Maha Riad, Vinicius Renan de Carvalho, Fatemeh Golpayegani

Letzte Aktualisierung: 2023-05-12 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2305.07366

Quell-PDF: https://arxiv.org/pdf/2305.07366

Lizenz: https://creativecommons.org/licenses/by-nc-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel