Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Künstliche Intelligenz# Multiagentensysteme

DEAM: Fortschritte bei täuschenden Verstärkungslerntechniken

Hier ist DEAM, ein neues Modell, das täuschende Strategien im Reinforcement Learning verbessert.

― 6 min Lesedauer


Verstärkendes LernenVerstärkendes Lernenbekommt einenbetrügerischen BoostUmgebungen.Agenten zur Täuschung in verschiedenenDEAM verbessert die Fähigkeit von
Inhaltsverzeichnis

Reinforcement Learning (RL) ist eine Methode, bei der Agenten lernen, Entscheidungen zu treffen, indem sie mit ihrer Umgebung interagieren. Das Ziel dieser Agenten ist es, die höchsten möglichen Belohnungen zu bekommen. In bestimmten Situationen muss ein Agent jedoch seine Belohnungen geheim halten, während er trotzdem versucht, sie zu maximieren. Das kann wichtig sein, wenn das Offenbaren des echten Ziels oder der Belohnung zu negativen Folgen führen könnte, wie zum Beispiel im Militär, wo ein Kommandeur Truppenbewegungen geheim halten muss.

Eine Möglichkeit, Privatsphäre zu erreichen, ist durch Täuschung. Täuschung bedeutet, einen Beobachter über das, was wirklich passiert, in die Irre zu führen. Wenn der Kommandeur zum Beispiel Truppen auf ein falsches Ziel bewegt, kann er verhindern, dass der Feind das wahre Ziel kennt. Obwohl es Methoden für täuschende KI gibt, basieren viele oft auf dem Vorwissen über die Umgebung, was ihre Nützlichkeit in manchen Szenarien einschränkt.

Kürzlich wurde ein Modell namens Ambiguity Model (AM) für täuschendes Verhalten in RL eingeführt. Dieses Modell erlaubt es Agenten, Aktionen zu wählen, die Unsicherheit darüber schaffen, welche Belohnungsfunktion sie tatsächlich verfolgen. Tests haben jedoch gezeigt, dass AM in modellfreien Umgebungen nicht gut funktioniert, wo der Agent sich nicht auf ein bereits vorhandenes Modell der Umgebung verlassen kann.

Das Problem mit AM

AM hat einen signifikanten Fehler, wenn es in modellfreien Szenarien angewendet wird. Wenn ein Agent AM nutzt, hat er Schwierigkeiten, den Zustandsraum effektiv zu erkunden. Er konzentriert sich oft auf Wege, die ihm nicht helfen, sein finales Ziel zu erreichen. Das führt dazu, dass der Agent zu viel Zeit in Bereichen verbringt, die keinen Beitrag zu seinen Zielen leisten.

Die Erkundungsstrategie von AM ist nicht effizient. Sie führt zu einer schlechten Auswahl von Aktionen, was letztlich dazu führt, dass der Agent seine Ziele nicht erreicht. Diese Ineffizienz wird noch komplizierter, wenn man es mit kontinuierlichen Aktionsräumen zu tun hat, wo die Entscheidungen nicht diskret, sondern eine Reihe möglicher Werte sind.

Einführung von DEAM

Um diese Probleme anzugehen, schlagen wir ein neues Modell namens Deceptive Exploration Ambiguity Model (DEAM) vor. DEAM zielt darauf ab, die Art und Weise, wie Agenten lernen und die Umgebung erkunden, zu verbessern, indem es während der Trainingsphase auf Täuschung fokussiert. Dadurch kann DEAM Aktionen wählen, die besser darauf abgestimmt sind, seine täuschenden Ziele zu erreichen.

DEAM hat drei wesentliche Verbesserungen gegenüber AM:

  1. Training mit täuschenden Politiken: DEAM trainiert Agenten von Anfang an mit täuschenden Strategien, sodass sie Wege erkunden können, die täuschend sind und somit effektiver ihre wahren Absichten geheim halten.

  2. Erfahrungen Teilen: Im Gegensatz zu AM, das Agenten unabhängig trainiert, ermöglicht DEAM den Agenten, von den Erfahrungen anderer zu lernen. Dieses Teilen führt zu schnellerem und besserem Lernen, da alle Agenten von jeder Interaktion in der Umgebung profitieren.

  3. Umgang mit kontinuierlichen Aktionsräumen: DEAM ist so gestaltet, dass es in kontinuierlichen Aktionsumgebungen funktioniert. Es verwendet spezifische Techniken, um die Herausforderungen zu bewältigen, die mit diesen Arten von Aktionsräumen einhergehen.

Wie DEAM funktioniert

Wenn DEAM trainiert wird, erstellt es ein Set potenzieller Aktionen mit verschiedenen Agenten, die sich alle darauf konzentrieren, etwas über verschiedene Belohnungsfunktionen zu lernen. Jeder Agent trägt seine eigene Aktion zu diesem Set bei. Das Modell entfernt dann Optionen, die nicht zu zufriedenstellenden Belohnungen führen, basierend auf seinem Lernen, was den Entscheidungsprozess verfeinert.

Die Agenten in DEAM wechseln sich ab, um Aktionen einzureichen, und das Modell bewertet diese Optionen, um die auszuwählen, die die Unsicherheit rund um das beabsichtigte Ziel maximiert. Das ist wichtig, weil es dem Agenten ermöglicht, seine Täuschung aufrechtzuerhalten und gleichzeitig Fortschritte in Richtung seiner tatsächlichen Ziele zu machen.

Bewertung von DEAM

Wir haben eine Reihe von Experimenten durchgeführt, um DEAM gegen andere Agenten zu testen, darunter einen ehrlichen Agenten, der direkt das Ziel verfolgt, und AM selbst. Der Zweck war zu sehen, wie gut DEAM in Bezug auf Täuschung, Pfadkosten und Trainingseffizienz abschneidet.

Experiment mit passivem Beobachter

In unserem ersten Experiment haben wir beobachtet, wie gut die Agenten einen passiven Beobachter täuschen konnten. Das ist wichtig, um zu verstehen, wie wahrscheinlich es ist, dass der Beobachter das echte Ziel während der Bewegungen der Agenten identifiziert.

Wir haben Agenten in verschiedenen Umgebungen platziert und ihre Fähigkeit gemessen, die Täuschung aufrechtzuerhalten, während sie vorankamen. Die Ergebnisse zeigten, dass DEAM ein hohes Mass an Täuschung während der gesamten Reise aufrechterhielt und die anderen Agenten übertraf.

Experiment mit aktivem Gegner

Das zweite Experiment beinhaltete einen aktiven Gegner, der eine Situation simulierte, in der ein Gegner versucht, das Ziel des Agenten vorherzusehen. Hier muss der Agent Täuschung mit dem effizienten Vorankommen zu seinem echten Ziel in Einklang bringen.

DEAM war auch in diesem Szenario überlegen, sowohl gegenüber dem ehrlichen Agenten als auch AM. Durch effektive Täuschung des Gegners konnte DEAM sein Ziel erreichen, während der Gegner in die Irre geführt wurde.

Trainingseffizienz

Einer der Hauptvorteile von DEAM ist seine Fähigkeit, effizienter zu lernen. In unseren Experimenten erreichte DEAM schneller einen stabilen Leistungsstand als AM. Es benötigte konstant weniger Schritte, um das echte Ziel zu erreichen, was darauf hindeutet, dass es nicht nur effektiver lernte, sondern auch bessere Entscheidungen während seiner Reise traf.

Leistung in kontinuierlichen Umgebungen

DEAM zeigte auch seine Fähigkeit in kontinuierlichen Umgebungen. Durch Anpassungen, wie Aktionen ausgewählt und Belohnungen bewertet werden, meisterte DEAM erfolgreich Szenarien, die AM nicht bewältigen konnte. Das zeigt, dass DEAM sich an verschiedene Arten von Herausforderungen anpassen kann und dennoch gut abschneidet.

Fazit

Zusammenfassend stellt DEAM einen bedeutenden Fortschritt im Bereich des täuschenden Reinforcements Learning dar. Durch den Fokus auf täuschende Politiken während des Trainings, das Teilen von Erfahrungen unter Agenten und die Anpassung an kontinuierliche Aktionsräume bietet DEAM einen robusten Ansatz, um Privatsphäre zu wahren und gleichzeitig Ziele zu erreichen.

Die Ergebnisse unserer Experimente zeigen, dass DEAM nicht nur die Leistung der besten bestehenden Methoden erreicht, sondern sie auch in entscheidenden Bereichen wie Effizienz und Anpassungsfähigkeit übertrifft. Das positioniert DEAM als ein mächtiges Werkzeug in Bereichen, wo Täuschung notwendig sein könnte, und hebt sein Potenzial für praktische Anwendungen hervor.

Originalquelle

Titel: Deceptive Reinforcement Learning in Model-Free Domains

Zusammenfassung: This paper investigates deceptive reinforcement learning for privacy preservation in model-free and continuous action space domains. In reinforcement learning, the reward function defines the agent's objective. In adversarial scenarios, an agent may need to both maximise rewards and keep its reward function private from observers. Recent research presented the ambiguity model (AM), which selects actions that are ambiguous over a set of possible reward functions, via pre-trained $Q$-functions. Despite promising results in model-based domains, our investigation shows that AM is ineffective in model-free domains due to misdirected state space exploration. It is also inefficient to train and inapplicable in continuous action space domains. We propose the deceptive exploration ambiguity model (DEAM), which learns using the deceptive policy during training, leading to targeted exploration of the state space. DEAM is also applicable in continuous action spaces. We evaluate DEAM in discrete and continuous action space path planning environments. DEAM achieves similar performance to an optimal model-based version of AM and outperforms a model-free version of AM in terms of path cost, deceptiveness and training efficiency. These results extend to the continuous domain.

Autoren: Alan Lewis, Tim Miller

Letzte Aktualisierung: 2023-03-19 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2303.10838

Quell-PDF: https://arxiv.org/pdf/2303.10838

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel