Verbesserung von narrativ gesteuerten Empfehlungen mit Sprachmodellen
Eine Methode, um Empfehlungen durch synthetische Anfragen aus Nutzerdaten zu verbessern.
― 6 min Lesedauer
Inhaltsverzeichnis
Narrative-driven recommendation (NDR) ist ein Ansatz, bei dem Nutzer um Vorschläge auf der Grundlage detaillierter Beschreibungen ihrer Interessen und Umstände bitten. Zum Beispiel könnte ein Reisender seine Vorlieben beschreiben, wenn er nach Orten sucht, die er besuchen möchte. Diese Art von Anfrage wird immer häufiger, da immer mehr Leute Sprachassistenten und Chatbots nutzen, um nach Informationen zu suchen. Allerdings hat NDR Herausforderungen, weil nicht genug Trainingsdaten vorhanden sind, um Modellen zu helfen, diese komplexen Anfragen zu verstehen. Aktuelle Systeme unterstützen diese Arten von Anfragen oft nicht effektiv. Glücklicherweise können bestehende Datensätze mit Nutzerinteraktionen, wie zum Beispiel Bewertungen, wertvolle Einblicke in Nutzerpräferenzen und Kontexte liefern.
In diesem Artikel wird ein Ansatz besprochen, der grosse Sprachmodelle (LLMs) nutzt, um NDR zu verbessern, indem synthetische Nutzeranfragen erstellt werden. Durch die Simulation von Nutzeranfragen basierend auf zuvor gesammelten Daten können wir den Trainingsprozess für NDR-Systeme verbessern.
Hintergrund
Empfehlungssysteme sind für viele Online-Plattformen essentiell. Diese Systeme lernen aus den vergangenen Interaktionen der Nutzer, was sie mögen und was nicht, und bieten personalisierte Vorschläge an. Während diese Systeme gut mit historischen Daten funktionieren, haben Nutzer oft nur vage Vorstellungen davon, was sie wollen, was es schwierig macht, gute Empfehlungen zu geben. In diesen Fällen schreiben Nutzer oft längere Beschreibungen dessen, was sie suchen.
NDR wurde untersucht, um diese Bedürfnisse zu adressieren, indem verschiedene Gegenstände wie Bücher, Filme und Orte zum Besuchen abgedeckt werden. Aktuelle Empfehlungssysteme sind jedoch nicht dafür ausgestattet, diese komplexen Anfragen zu bearbeiten. Da konversationalen Schnittstellen immer häufiger genutzt werden, wird es zunehmend wichtig, NDR zu unterstützen. Jüngste Fortschritte im Bereich des Sprachverständnisses deuten darauf hin, dass LLMs möglicherweise bei der Erfüllung dieser komplexen Anfragen helfen können.
Methodologie
Der vorgeschlagene Ansatz zielt darauf ab, vorhandene Nutzer-Item-Interaktionsdaten in eine nützliche Trainingsressource für NDR umzuwandeln. Der erste Schritt besteht darin, Nutzerinteraktionen zu sammeln, die Textbeschreibungen von Gegenständen enthalten, die Nutzer mochten. Ein grosses Sprachmodell, speziell InstructGPT, wird dann narrative Anfragen aus diesen Interaktionen generieren.
Um sicherzustellen, dass die generierten Anfragen relevant sind, filtert die Methode die Gegenstände basierend darauf, wie gut sie mit den vorherigen Interaktionen des Nutzers übereinstimmen. Die gefilterten Daten werden dann verwendet, um Retrieval-Modelle zu trainieren, die bei der Generierung von Empfehlungen auf Basis der neu erstellten synthetischen Anfragen helfen.
Generierung narrativer Anfragen
Um eine narrative Anfrage für einen Nutzer zu erstellen, verwenden wir InstructGPT. Wir geben ihm Beispiele für Nutzerinteraktionen, um einen Kontext für die Anfrage-Generierung zu setzen. Das hilft dem Modell, kohärentere und relevantere Anfragen zu produzieren. Durch die Einbeziehung tatsächlicher Bewertungen und Nutzererfahrungen machen wir die generierten Anfragen repräsentativer für die realen Nutzerbedürfnisse.
Da nicht alle Nutzergegenstände das volle Spektrum ihrer Interessen erfassen, filtern wir die Gegenstände, bevor wir unsere Modelle trainieren. Wir verwenden ein anderes Modell, um die Angemessenheit jedes Gegenstands im Verhältnis zur generierten Anfrage zu bewerten. Dieses Filtern führt zu einem saubereren und fokussierteren Datensatz für das Training.
Training von Retrieval-Modellen
Sobald wir den synthetischen Datensatz haben, trainieren wir Modelle, die speziell für Retrieval-Aufgaben entwickelt wurden. Wir nutzen zwei Arten von Modellen: Bi-Encoder und Cross-Encoder. Bi-Encoder verarbeiten die Anfrage und die Gegenstände unabhängig, was hilft, die Gegenstände schnell basierend auf ihrer Relevanz zu ranken. Cross-Encoder hingegen nimmt sowohl die Anfrage als auch die Eingaben der Gegenstände zusammen, was komplexere Verbindungen während des Ranking-Prozesses ermöglicht.
In unseren Experimenten verfeinern wir diese Modelle durch einen Prozess, der ihre Leistung durch iteratives Training verbessert. Wir bewerten, wie gut diese Modelle abschneiden, wenn es darum geht, Empfehlungen auf Basis der narrativen Anfragen, die wir erstellt haben, zu generieren.
Bewertung und Ergebnisse
Um die Effektivität unserer Methode zu bewerten, haben wir sie mit einem Datensatz getestet, der für Empfehlungen zu Interessenspunkten gedacht war. Dieser Datensatz enthielt realistische narrative Anfragen zusammen mit einem grossen Pool annotierter Gegenstände. Die Qualität unserer synthetischen Anfragen war hier entscheidend, da sie beeinflusste, wie gut die Trainingsmodelle die Nutzerbedürfnisse verstehen und verarbeiten konnten.
Unser experimentelles Setup umfasste die Generierung einer beträchtlichen Anzahl synthetischer Anfragen basierend auf Nutzerinteraktionen von einer Plattform wie Yelp. Nutzer, die reichhaltige Beschreibungen gaben, wurden für die Anfrage-Generierung ausgewählt, um sicherzustellen, dass der resultierende Datensatz robust war. Nach dem Filtern und Vorbereiten der Daten trainierten wir sowohl Bi-Encoder als auch Cross-Encoder-Modelle auf den synthetischen Daten.
Die Ergebnisse zeigten, dass unsere Modelle signifikant besser abschnitten als Standard-Benchmarks. Sie übertrafen nicht nur viele bestehende Empfehlungssysteme, sondern zeigten auch die Fähigkeit, die Leistung von viel grösseren Sprachmodellen zu erreichen oder sogar zu übertreffen. Dies zeigt, dass unser Ansatz zur Erstellung narrativer Empfehlungen sowohl effektiv als auch effizient ist.
Diskussion
Die Ergebnisse legen nahe, dass die Nutzung von LLMs zur Erstellung synthetischer narrativer Anfragen aus vorhandenen Nutzer-Item-Interaktionsdaten ein wertvoller Ansatz zur Verbesserung von NDR-Systemen ist. Indem wir historische Daten in bedeutungsvolle Anfrageformate umwandeln, können wir Modelle trainieren, die akkurat auf komplexe Nutzeranfragen reagieren.
Darüber hinaus heben unsere Ergebnisse die Bedeutung der Datenqualität beim Trainieren von Modellen hervor. Weniger relevante Gegenstände herauszufiltern führt zu besseren Ergebnissen und verstärkt die Idee, dass die Daten, die in diese Systeme eingespeist werden, entscheidend für die Leistung sind.
Zukünftige Richtungen
Wenn wir nach vorne schauen, gibt es mehrere potenzielle Wege, um diese Arbeit zu verbessern. Ein Bereich ist das Experimentieren mit kleineren Sprachmodellen zur Generierung von Anfragen. Während unser primärer Ansatz ein sehr grosses Modell verwendete, könnte es möglich sein, spezielle Modelle zu entwickeln, die sich auf die Erstellung narrativer Anfragen spezialisieren.
Ein weiterer Ansatz besteht darin, Methoden zu entwickeln, um Gegenstände und Nutzer aktiver während der Anfrage-Generierung auszuwählen. Dies könnte die Nutzung grosser Sprachmodelle optimieren und gleichzeitig hochwertige Daten sicherstellen. Darüber hinaus könnte unsere Technik zur Generierung synthetischer Anfragen aus Nutzerdokumenten auf andere Retrieval-Aufgaben angewendet werden, wodurch ihr Einfluss über NDR hinaus erweitert wird.
Schliesslich wird es vorteilhaft sein, umfassendere Testkollektionen speziell für NDR zu erstellen. Aktuelle Datensätze sind oft begrenzt, daher würden neu systematisch gesammelte Datensätze umfassendere Bewertungen von Empfehlungssystemen ermöglichen.
Fazit
Zusammenfassend stellt dieser Artikel einen neuartigen Ansatz zur Verbesserung narrativer Empfehlungen vor, indem er Datenaugmentation durch grosse Sprachmodelle nutzt. Durch die Generierung synthetischer Anfragen, die echte Nutzeranfragen nachahmen, verbessern wir das Training von Retrieval-Modellen. Die Ergebnisse zeigen, dass unsere Methode effektiv ist und dass es möglich ist, qualitativ hochwertige Empfehlungen selbst mit der Komplexität narrativer Anfragen zu erstellen. Diese Arbeit legt den Grundstein für zukünftige Erkundungen zur Schaffung intelligenter Empfehlungssysteme, die besser auf die Bedürfnisse der Nutzer durch das Verständnis natürlicher Sprache eingehen können.
Titel: Large Language Model Augmented Narrative Driven Recommendations
Zusammenfassung: Narrative-driven recommendation (NDR) presents an information access problem where users solicit recommendations with verbose descriptions of their preferences and context, for example, travelers soliciting recommendations for points of interest while describing their likes/dislikes and travel circumstances. These requests are increasingly important with the rise of natural language-based conversational interfaces for search and recommendation systems. However, NDR lacks abundant training data for models, and current platforms commonly do not support these requests. Fortunately, classical user-item interaction datasets contain rich textual data, e.g., reviews, which often describe user preferences and context - this may be used to bootstrap training for NDR models. In this work, we explore using large language models (LLMs) for data augmentation to train NDR models. We use LLMs for authoring synthetic narrative queries from user-item interactions with few-shot prompting and train retrieval models for NDR on synthetic queries and user-item interaction data. Our experiments demonstrate that this is an effective strategy for training small-parameter retrieval models that outperform other retrieval and LLM baselines for narrative-driven recommendation.
Autoren: Sheshera Mysore, Andrew McCallum, Hamed Zamani
Letzte Aktualisierung: 2023-07-21 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2306.02250
Quell-PDF: https://arxiv.org/pdf/2306.02250
Lizenz: https://creativecommons.org/licenses/by-nc-sa/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.