Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Rechnen und Sprache

Agent Workflow Gedächtnis: Verbesserung der digitalen Aufgabenleistung

Eine neue Methode verbessert die Fähigkeiten von Agenten, komplexe digitale Aufgaben effizient zu erledigen.

― 7 min Lesedauer


Effizienz von AgentenEffizienz von AgentensteigernAgenten für komplexe digitale Aufgaben.Neue Methode verbessert das Lernen von
Inhaltsverzeichnis

Modellbasierte Agenten haben die Fähigkeit, im digitalen Raum Aufgaben zu erledigen, wie Webseiten zu durchsuchen oder mobile Anwendungen zu nutzen. Allerdings haben die meisten dieser Agenten Schwierigkeiten, wenn sie mit komplexen Aufgaben konfrontiert werden, die eine Reihe von Aktionen über einen längeren Zeitraum erfordern. Im Gegensatz dazu lösen Menschen solche Aufgaben oft, indem sie erlernte Routinen aus vergangenen Erfahrungen anwenden.

Um Agenten beim Lernen und Verbessern ihrer Aufgabenleistung zu helfen, schlagen wir eine Methode namens Agent Workflow Memory (AWM) vor. Dieser Ansatz ermöglicht es Agenten, gängige Routinen oder Workflows zu identifizieren und wiederzuverwenden, um ihre Fähigkeiten bei der Problemlösung zu verbessern.

Agenten können diese Methode sowohl in Offline- als auch in Onlineszenarien anwenden. In Offline-Szenarien können sie Workflows aus Trainingsbeispielen lernen, bevor sie neuen Aufgaben gegenüberstehen. In Onlineszenarien können sie Workflows spontan aus den Aufgaben erstellen, die sie antreffen.

Web-Navigationsaufgaben

Wir haben AWM an zwei Web-Navigationsbenchmarks getestet: Mind2Web und WebArena. Diese Benchmarks umfassen eine Vielzahl von Aufgaben in verschiedenen Bereichen, wie Reisen und Einkaufen. Insgesamt verbessert AWM die Leistung der Agenten beim Abschluss von Aufgaben erheblich.

Verbesserungsbedarf

Die meisten aktuellen Agenten verlassen sich auf einen festen Satz von Beispielen, was sie weniger anpassungsfähig an neue Situationen macht. Sie schneiden in der Regel gut ab bei Aufgaben, die ihren Trainingsbeispielen ähnlich sind, haben jedoch Schwierigkeiten mit Änderungen im Kontext. Im Grunde genommen erkennen und lernen sie keine wiederverwendbaren Aufgaben-Workflows, die ihnen helfen könnten, komplexe Aufgaben effektiver zu bewältigen.

Darüber hinaus lernen Agenten, wenn sie Aufgaben nacheinander abschliessen, nicht aus ihren früheren Erfolgen oder Fehlern, was sie daran hindert, sich im Laufe der Zeit zu verbessern. Ohne die Fähigkeit, aus Erfahrungen zu lernen, verpassen Agenten wertvolles Wissen, das ihre zukünftigen Handlungen leiten könnte.

Lernen aus Erfahrung

Um Agenten zu verbessern, schauen wir uns an, wie Menschen lernen, Aufgaben zu bewältigen, indem sie Routinen aus ihren bisherigen Erfahrungen abstrahieren. Indem wir diese Idee auf Agenten anwenden, hilft AWM ihnen, gängige Workflows aus früheren Aufgaben zu identifizieren und diese Lerninhalte in ihr Gedächtnis zu integrieren. Jeder Workflow repräsentiert ein Ziel und enthält eine Reihe von Schritten, die die erforderlichen Handlungen zur Erreichung dieses Ziels skizzieren.

Zum Beispiel könnten Agenten einen Workflow lernen, um „einen Ort nach seinem Namen zu finden“, was eine häufige Aufgabe beim Suchen nach Standorten online sein könnte. Sobald dieser Workflow etabliert ist, können Agenten komplexere Workflows darauf basierend aufbauen, wie „den PLZ eines Ortes herausfinden“.

Dieser Ansatz ermöglicht es Agenten, kontinuierlich zu lernen und ihre Fähigkeit zu verbessern, zunehmend komplexere Aufgaben zu bewältigen, während sie ein reichhaltigeres Gedächtnis nützlicher Workflows entwickeln.

Offline- und Online-Szenarien

AWM kann sowohl in Offline- als auch in Online-Umgebungen funktionieren. In Offline-Szenarien können Agenten wiederverwendbare Workflows aus hochwertigen Beispielen extrahieren, die ihnen in der Testphase helfen. Umgekehrt können Agenten in Online-Umgebungen, in denen es keine vorherigen Beispiele gibt, Workflows aus ihren Handlungen und früheren Vorhersagen generieren und ihr Gedächtnis in Echtzeit aufbauen, während sie Aufgaben angehen.

Experimentierung und Ergebnisse

In unseren Experimenten verwenden wir WebArena und Mind2Web zur Bewertung von AWM. Wir beobachten eine erhebliche Verbesserung der Leistung im Vergleich zu bestehenden Methoden. Auf WebArena übertrifft AWM frühere beste Methoden und erhöht die Erfolgsquote der Agenten erheblich.

Im Kontext von Mind2Web verbessert unsere Methode den Aufgabenerfolg in verschiedenen Aufgaben und Bereichen, was auf ihre starken Verallgemeinerungsfähigkeiten hinweist. Wir stellen auch fest, dass AWM Agenten ermöglicht, effektiv aus begrenzten anfänglichen Erfahrungen zu lernen und effiziente Lernfähigkeiten zu zeigen.

WebArena-Benchmark

WebArena besteht aus verschiedenen Aufgaben auf unterschiedlichen Webseiten. Es bewertet die Leistung der Agenten basierend auf ihrer Fähigkeit, Aufgaben effektiv zu navigieren und abzuschliessen. Wir vergleichen AWM mit anderen Methoden, einschliesslich solcher, die menschlich generierte Workflows verwenden. Unsere Ergebnisse zeigen, dass AWM sowohl in Erfolgsquoten als auch in der Effizienz hervorragend abschneidet, wodurch Agenten Aufgaben in weniger Schritten abschliessen können.

Eine bemerkenswerte Beobachtung ist, dass AWM durchgehend gut auf allen getesteten Webseiten abschneidet, was seine Anwendbarkeit in verschiedenen Kontexten und Formaten bestätigt.

Mind2Web-Benchmark

Mind2Web umfasst verschiedene Web-Navigationsaufgaben, die mehrere Bereiche abdecken. Hier werden Agenten basierend auf ihrer Fähigkeit bewertet, Aktionen effektiv vorherzusagen, während sie die Webseite navigieren. Durch die Anwendung von AWM erreichen wir höhere Erfolgsquoten, nicht nur in der schrittweisen Leistung, sondern auch in den Gesamtaufgabenabschlussraten.

Wenn wir AWM mit anderen führenden Methoden vergleichen, stellen wir fest, dass es signifikante Verbesserungen sowohl in der Genauigkeit als auch in der Effizienz erzielt. AWM ermöglicht es Agenten, besser durch die Komplexität unterschiedlicher Webumgebungen zu navigieren und sich an sich ändernde Szenarien anzupassen.

Workflow-Darstellung

Der Kern von AWM ist seine Fähigkeit, Workflows effektiv darzustellen. Jeder Workflow besteht aus zwei Hauptkomponenten: einer übergeordneten Beschreibung des Ziels und einer detaillierten Reihe von umsetzbaren Schritten, um es zu erreichen. Diese Workflows werden durch einen Induktionsprozess generiert, der wiederverwendbare Routinen aus den Erfahrungen der Agenten extrahiert.

Durch die konsequente Erstellung von Workflows, die gängige Verfahren darstellen, stärkt AWM die Fähigkeiten der Agenten bei der Durchführung ähnlicher Aufgaben. Zum Beispiel können Workflows Agenten helfen, E-Commerce-Seiten oder soziale Medienplattformen effektiver zu navigieren, indem sie strukturierte Anleitungen bereitstellen.

Workflow-Induktionsmechanismus

Der Workflow-Induktionsprozess umfasst die Analyse vergangener Erfahrungen, um häufige Handlungsmuster zu identifizieren. Dies beinhaltet das Extrahieren von Aktionsfolge aus früheren Aufgaben und das Umformulieren zu verallgemeinerten Workflows.

Wenn Agenten auf eine neue Aufgabe stossen, können sie auf ihr Workflow-Gedächtnis zugreifen und den entsprechenden Workflow anwenden, wodurch die Zeit zum Abschluss der Aufgaben erheblich verkürzt wird. Diese Anpassungsfähigkeit verbessert ihre Leistung in verschiedenen Umgebungen.

Kontinuierliches Lernen

AWM fördert einen kontinuierlichen Lernansatz, der es Agenten ermöglicht, ihr Gedächtnis für Workflows während des Fortschreitens durch Aufgaben zu entwickeln. Dieser Prozess schafft eine Rückkopplungsschleife, in der Agenten aus erfolgreichen und erfolglosen Versuchen lernen, um ihre Workflows weiter zu verfeinern.

Wenn ein Agent zum Beispiel einen Workflow lernt, um „ein Produkt auf Amazon zu suchen“, kann er diesen Workflow später verwenden, um seine Effizienz bei nachfolgenden Suchen zu verbessern und sich anzupassen, während neue Informationen und Erfahrungen gesammelt werden.

Quellaufgabenverallgemeinerung

Ein bedeutender Vorteil von AWM ist die Fähigkeit, über verschiedene Aufgaben hinweg zu verallgemeinern. Indem Workflows induziert werden, die gängige Routinen erfassen, können Agenten diese Workflows auf neue Aufgaben anwenden, die ähnliche Merkmale aufweisen, was die Erfolgsquoten verbessert.

Diese Quellaufgabenverallgemeinerungsfähigkeit ist besonders wertvoll in Umgebungen, in denen Aufgaben variieren können, die zugrunde liegenden Handlungsmuster aber konstant bleiben. Zum Beispiel können Workflows, die für die Produktsuche auf einer E-Commerce-Seite entwickelt wurden, bei der Navigation auf einer anderen ähnlichen Plattform anwendbar sein.

Verbesserungen der Aufgabenleistung

Durch die Nutzung von AWM übertreffen Agenten konstant frühere Benchmarks in verschiedenen Bewertungen. Sie zeigen eine gesteigerte Effizienz durch schnellere Aufgabenabschlüsse und weniger erforderliche Schritte, um Ziele zu erreichen.

Unsere Ergebnisse zeigen, dass Agenten mit AWM in der Lage sind, ein breiteres Spektrum an Aufgaben zu bewältigen, wodurch erhöhte Flexibilität und Anpassungsfähigkeit demonstriert werden. Dies führt zu höheren Gesamterfolgsquoten im Vergleich zu denen, die sich ausschliesslich auf traditionelle Methoden verlassen.

Fazit

Agent Workflow Memory stellt einen bedeutenden Schritt zur Verbesserung der Fähigkeiten von modellbasierten Agenten dar, die Komplexität der digitalen Welt zu navigieren. Indem Agenten ermöglicht wird, aus Erfahrungen zu lernen und häufig verwendete Workflows zu abstrahieren, stattet AWM sie mit den Werkzeugen aus, um eine breitere Vielfalt von Aufgaben effizienter zu lösen.

Die Experimente, die an WebArena und Mind2Web durchgeführt wurden, verdeutlichen weiter das Potenzial von AWM, die Leistung der Agenten erheblich zu verbessern. Während wir diese Methode weiterentwickeln, glauben wir, dass sie zu weiteren Fortschritten in den Fähigkeiten von Agenten führen wird und eine effektivere Interaktion mit der sich ständig wandelnden Landschaft digitaler Aufgaben ermöglicht.

Zusammenfassend bietet AWM einen strukturierten Ansatz, der es Agenten ermöglicht, kontinuierlich zu lernen und ihr Wissen über verschiedene Aufgaben hinweg anzuwenden, wodurch letztlich die Kluft zwischen menschlicher und maschineller Leistung im digitalen Bereich überbrückt wird.

Originalquelle

Titel: Agent Workflow Memory

Zusammenfassung: Despite the potential of language model-based agents to solve real-world tasks such as web navigation, current methods still struggle with long-horizon tasks with complex action trajectories. In contrast, humans can flexibly solve complex tasks by learning reusable task workflows from past experiences and using them to guide future actions. To build agents that can similarly benefit from this process, we introduce Agent Workflow Memory (AWM), a method for inducing commonly reused routines, i.e., workflows, and selectively providing workflows to the agent to guide subsequent generations. AWM flexibly applies to both offline and online scenarios, where agents induce workflows from training examples beforehand or from test queries on the fly. We experiment on two major web navigation benchmarks -- Mind2Web and WebArena -- that collectively cover 1000+ tasks from 200+ domains across travel, shopping, and social media, among others. AWM substantially improves the baseline results by 24.6% and 51.1% relative success rate on Mind2Web and WebArena while reducing the number of steps taken to solve WebArena tasks successfully. Furthermore, online AWM robustly generalizes in cross-task, website, and domain evaluations, surpassing baselines from 8.9 to 14.0 absolute points as train-test task distribution gaps widen.

Autoren: Zora Zhiruo Wang, Jiayuan Mao, Daniel Fried, Graham Neubig

Letzte Aktualisierung: Sep 11, 2024

Sprache: English

Quell-URL: https://arxiv.org/abs/2409.07429

Quell-PDF: https://arxiv.org/pdf/2409.07429

Lizenz: https://creativecommons.org/licenses/by-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel