Sci Simple

New Science Research Articles Everyday

# Computerwissenschaften # Rechnen und Sprache

Benutzerengagement mit AI-Fragen verbessern

Lern, wie KI bessere Fragenvorschläge für Nutzer machen kann.

Xiaobin Shen, Daniel Lee, Sumit Ranjan, Sai Sree Harsha, Pawan Sevak, Yunyao Li

― 8 min Lesedauer


AI-Fragevorschläge in AI-Fragevorschläge in Unternehmen Fragenvorschlägen. Steigere die Nutzerbindung mit cleveren
Inhaltsverzeichnis

Unternehmens-Chatbot-Programme sind wie nützliche Büro-Kumpels, die den Mitarbeitern bei Aufgaben wie Marketing und Kundenmanagement helfen. Wenn neue Benutzer dazukommen, fühlen sie sich manchmal verloren, was sie fragen sollen. Das kann besonders bei komplexen Systemen, die sich ständig ändern, eine Herausforderung sein. Um dieses Problem anzugehen, wird ein Rahmen vorgeschlagen, der die Fragevorschläge in solchen Systemen verbessern soll. Dieser Rahmen soll den Benutzern smarte, kontextbasierte Fragen liefern, die ihnen helfen, das zu finden, was sie brauchen, und das Beste aus den verfügbaren Funktionen herauszuholen.

Der Aufstieg der KI-Assistenten

Mit dem Fortschritt der Technologie sind grosse Sprachmodelle in den Vordergrund gerückt und machen KI-Systeme leistungsfähiger. Heute fügen viele Unternehmen KI-Assistenten zu ihren Tools hinzu, um Gespräche zu automatisieren und das Nutzererlebnis zu verbessern. Diese Assistenten sind wie versierte Empfangsdamen, aber für digitale Aufgaben, die Benutzer durch strukturierte Abläufe führen und die Gesamterfahrung auf den Plattformen verbessern.

Typischerweise beschäftigen sich Unternehmens-KI-Assistenten mit zwei Hauptbereichen: dem Teilen von Produktinformationen und dem Bereitstellen von betrieblichen Einblicken. Unser Fokus liegt darauf, den Nutzern Dinge zu erklären, Klarheit zu schaffen und sie sanft durch die Plattform zu leiten. Obwohl KI viel gelernt hat, reicht es oft nicht aus, einfach nur Fragen zu beantworten. Nutzer können unsicher sein, was sie nach den Antworten fragen sollen. Das ist besonders bei Neulingen der Fall, die sich noch mit den Funktionen des Systems vertrautmachen.

Das Dilemma der Nutzer

Stell dir vor, ein neuer Mitarbeiter in der Marketingabteilung fragt: „Wie wird die Profilanreicherung berechnet?“ Er bekommt eine ausführliche Erklärung über die Metriken in der Adobe Experience Platform (AEP). Obwohl diese Antwort Licht auf die Profilanreicherung wirft, könnte der Nutzer trotzdem darüber nachgrübeln, wie er diese Infos im echten Leben nutzen kann. Was soll er als Nächstes tun? Wie passt das in seine übergeordneten Aufgaben? Diese Verwirrung weist auf die Herausforderung hin, Folgefragen zu formulieren, die das volle Potenzial des Systems ausschöpfen.

Fragevorschläge können hier eingreifen und diese Lücke schliessen. Sie reagieren nicht nur auf die Nutzer, sondern lenken sie auch zu relevanten Anfragen, die sie vielleicht nicht bedacht haben. Zum Beispiel helfen Vorschläge wie „Was sind die Auswirkungen einer Überschreitung der Profilanreicherung?“ oder „Wie kann ich die Profilanreicherung effektiv überwachen und verwalten?“ dem Nutzer, breitere Aspekte der Profilanreicherung zu erkennen und Neugier auf verwandte Funktionen zu wecken.

Die Herausforderung der Fragevorschläge

Allerdings ist es nicht ohne Schwierigkeiten, gute Fragevorschläge in diesen Systemen zu generieren. Viele Unternehmenssysteme verfügen nicht über ausreichende historische Daten, was es traditionellen Modellen schwer macht, Abfragen vorherzusagen. Manchmal stellen Nutzer skurrile oder chaotische Fragen, die nicht in gängige Muster passen, was den Prozess kompliziert. Ausserdem entsteht, während KI-Assistenten weiter wachsen und sich verändern, eine Kluft zwischen dem, was das System leisten kann, und dem, was die Nutzer darüber wissen. Diese Kluft kann zu weniger Nutzerengagement und weniger Leuten führen, die die Plattform voll ausnutzen.

Um diese Herausforderungen anzugehen, wird ein Rahmen vorgeschlagen, der die Fragevorschläge in Unternehmens-Chatbot-KI-Systemen verbessert. Dieser Ansatz nutzt reale Daten vom KI-Assistenten in der Adobe Experience Platform (AEP). Der Fokus liegt darauf, proaktive und kategorisierte Fragevorschläge zu generieren, um den Nutzern zu helfen, mehr über die Plattform zu entdecken.

Der Beitrag

Zusammengefasst beinhalten die Verbesserungen, die in dieser Studie skizziert werden:

  • Einen neuen Ansatz zur Generierung von Folgefragen in der Unternehmens-KI, der die Analyse der Nutzerabsicht mit den Interaktionen im Chat verbindet.
  • Die Nutzung fortgeschrittener Sprachmodelle zur Erstellung kontextfreundlicher Fragen basierend auf aktuellen Anfragen und vergangenen Interaktionen.
  • Durchführung von menschlichen Bewertungen zur Beurteilung der Effektivität der Fragevorschläge anhand verschiedener Kriterien wie Relevanz und Nützlichkeit.

Diese Forschung markiert einen ersten Schritt, um die Auswirkungen von Fragevorschlägen in einem praktischen Unternehmens-KI-System zu untersuchen.

Verwandte Konzepte

Techniken zur Fragevorschlag

In der Tech-Welt haben traditionelle Methoden zur Fragevorschlag die Nutzererfahrung in Suchmaschinen erheblich verbessert. Durch das Vorhersagen und Empfehlen von Fragen basierend auf den früheren Aktivitäten der Nutzer sind diese Techniken die Suche benutzerfreundlicher geworden. Verschiedene Ansätze, von grundlegender Datenanalyse bis hin zu komplexen neuronalen Netzwerken, wurden eingesetzt, um die Erkundung in grossangelegten Internetsuchen zu verbessern.

Einige Bemühungen zielen sogar darauf ab, die Fragevorschläge zu diversifizieren, um sicherzustellen, dass die Nutzer unterschiedliche, aber relevante Optionen erhalten. Diese Methoden benötigen jedoch typischerweise eine Menge aufgabenbezogener Daten, um effektive Modelle zu trainieren. Mit den Fortschritten in grossen Sprachmodellen und der retrieval-unterstützten Generierung hat der Bedarf an aufgabenbezogenen Daten abgenommen. Stattdessen nutzen vortrainierte Modelle bestehendes Wissen, um relevante Fragen vorzuschlagen.

Entdeckbarkeit in KI-Assistenten

Entdeckbarkeit bezieht sich darauf, wie einfach es für Nutzer ist herauszufinden, welche Aktionen sie innerhalb eines Systems ausführen können. Während dieses Konzept in traditionellen Softwareanwendungen untersucht wurde, bleibt es oft in komplexen KI-Systemen auf der Strecke. Wenn Plattformen reichhaltiger in Funktionen werden, können Nutzer Schwierigkeiten haben, neue Möglichkeiten zu erkennen, was zu einer verringerten Nutzung führt.

Frühere Studien zur Entdeckbarkeit konzentrierten sich hauptsächlich auf Desktop-Software, mobile Apps und Sprachschnittstellen. Viele dieser Studien fokussierten sich darauf, relevante Befehle für die Nutzer vorzuschlagen, um ihr Gesamterlebnis zu verbessern. Neueste Arbeiten erkunden auch die Vorteile proaktiver Interaktionen in conversational AI. Studien haben gezeigt, dass zeitnahe Vorschläge zu besseren Interaktionen und höherer Nutzerzufriedenheit führen können.

Trotz des Fokus auf verschiedene Bereiche bleibt die Entdeckbarkeit in Unternehmens-Chatbot-KI weitgehend unerforscht. Nutzer, die sich in komplexen Geschäftskontexten wie dem Kundenmanagement bewegen, stossen häufig auf Schwierigkeiten. Diese Nutzer kommen aus unterschiedlichen Hintergründen, was es entscheidend macht, dass Systeme sofortiges Engagement und kontinuierliches Lernen über Plattformfunktionen unterstützen.

Der Rahmen für Fragevorschläge

Der Rahmen für die Vorschläge zur nächsten Frage in Unternehmens-Chatbot-KI-Systemen besteht aus zwei Hauptkomponenten:

  1. Nutzerabsichtsanalyse: Wird über die gesamte Nutzerbasis durchgeführt, um Trends und Bedürfnisse unter den Nutzern zu identifizieren.
  2. Fragegenerierung auf Chat-Sitzungsebene: Konzentriert sich darauf, Fragen basierend auf der Geschichte eines einzelnen Nutzers innerhalb einer bestimmten Chat-Sitzung zu formulieren.

Dieser zweigleisige Ansatz ermöglicht es dem System, sowohl Veränderungen im Nutzerverhalten zu verstehen als auch relevante Fragen zu generieren, die auf die Interaktionsgeschichte jedes Nutzers zugeschnitten sind.

Nutzerabsichtsanalyse

In diesem Abschnitt werden gängige Muster in den Nutzeranfragen im gesamten System identifiziert. Durch das Verständnis, warum Nutzer bestimmte Fragen stellen, kann das System die Nutzerabsichten kategorisieren.

Wenn ein Nutzer beispielsweise verstehen möchte, wie ein Prozess funktioniert, könnte das System Muster erkennen, die zu Folgeanfragen führen. Diese Analyse ermöglicht die Generierung von Fragekategorien, die den Nutzern helfen können, auf verwandte, aber weniger bekannte Funktionen der Plattform zuzugreifen.

Fragegenerierung auf Chat-Sitzungsebene

Dieser Teil nutzt die aktuelle Interaktionshistorie, um Fragevorschläge für den Nutzer zu erstellen. Eingaben für diese Phase umfassen die zuletzt gestellte Nutzeranfrage, die Antwort des KI-Assistenten auf diese Anfrage und alle vorherigen Fragen, die in derselben Sitzung gestellt wurden. Indem diese Echtzeit-Interaktionen genutzt werden, zielt der Rahmen darauf ab, Vorschläge zu erstellen, die nicht nur relevant, sondern auch proaktiv sind, um die Nutzer zur Erkundung von Funktionen zu leiten.

Evaluierung des Rahmens

Die Evaluierung der Effektivität der verbesserten Entdeckbarkeit ist eine komplexe Aufgabe, insbesondere weil es an standardisierten Datensätzen oder Metriken fehlt, um den Erfolg in diesem Bereich zu messen. Um den Rahmen zu bewerten, wurden Daten aus verschiedenen Interaktionen zwischen Nutzern und dem KI-Assistenten gesammelt. Menschliche Bewertungen wurden durchgeführt, um eine gründliche Beurteilung des Rahmens sicherzustellen.

Ergebnisse der Nutzerabsichtsanalyse

Die Ergebnisse zeigen, dass über 35 % der Nutzeranfragen keinen Bezug zu vorherigen Interaktionen in derselben Sitzung hatten. Dies verdeutlicht die Komplexität, Muster in den Nutzeranfragen zu bilden. Es wurde auch festgestellt, dass Nutzer häufig Erweiterungsfragen oder Folgeanfragen stellen, die helfen können, die Vielfalt der Nutzerabsichten besser zu erfassen.

Menschlicher Bewertungsprozess

Um die Leistung des neuen Rahmens mit dem Basiswert zu vergleichen, wurden beide Sätze von Fragevorschlägen bewertet. Die Fragen wurden anhand mehrerer Kriterien bewertet: Verwandtschaft, Validität, Nützlichkeit, Diversität und Potenzial zur Entdeckbarkeit. Die Prüfer wurden damit beauftragt, die Vorschläge zu bewerten, ohne zu wissen, welcher Satz welcher war, was der Bewertung einen zusätzlichen Aspekt der Unparteilichkeit verleiht.

Allgemeine Erkenntnisse

Die Ergebnisse verdeutlichen die Herausforderungen, die spärliche Daten in Unternehmens-KI-Systemen darstellen. Traditionelle Methoden zum Trainieren von Modellen funktionieren hier nicht immer gut. Stattdessen können grosse Sprachmodelle eine effektive Lösung zur Generierung von Fragevorschlägen bieten.

Ausserdem zeigen die Ergebnisse, dass ein Einheitsansatz nicht der richtige Weg ist. Verschiedene Nutzer haben unterschiedliche Absichten, wenn sie mit dem System interagieren, und diese unterschiedlichen Perspektiven sollten bei der Bewertung der Fragevorschläge berücksichtigt werden.

Fazit

Dieser Rahmen hebt die Notwendigkeit für anpassungsfähige Strategien zur Fragevorschlag hervor, die mit Veränderungen im Nutzerverhalten und den Systemfähigkeiten Schritt halten können. Er zielt darauf ab, den Nutzern zu helfen, komplexe Plattformen zu navigieren und sie gleichzeitig zu ermutigen, weniger genutzte Funktionen zu erkunden.

Zukünftige Bemühungen können sich darauf konzentrieren, zu untersuchen, wie verbesserte Fragevorschläge das Nutzerverhalten in realen Umgebungen beeinflussen. Metriken wie die Häufigkeit, mit der Nutzer auf Funktionen klicken, und wie oft sie diese erkunden, werden entscheidend sein, um die Effektivität dieser verfeinerten Vorschläge zu messen.

Kurz gesagt, effiziente Fragevorschläge können der freundliche Reiseführer sein, den Nutzer brauchen, um die umfangreiche Landschaft ihrer Unternehmens-KI-Systeme voll zu geniessen. Hoffen wir, dass diese Systeme bald so beliebt werden wie Kaffeepausen im Büro!

Originalquelle

Titel: Enhancing Discoverability in Enterprise Conversational Systems with Proactive Question Suggestions

Zusammenfassung: Enterprise conversational AI systems are becoming increasingly popular to assist users in completing daily tasks such as those in marketing and customer management. However, new users often struggle to ask effective questions, especially in emerging systems with unfamiliar or evolving capabilities. This paper proposes a framework to enhance question suggestions in conversational enterprise AI systems by generating proactive, context-aware questions that try to address immediate user needs while improving feature discoverability. Our approach combines periodic user intent analysis at the population level with chat session-based question generation. We evaluate the framework using real-world data from the AI Assistant for Adobe Experience Platform (AEP), demonstrating the improved usefulness and system discoverability of the AI Assistant.

Autoren: Xiaobin Shen, Daniel Lee, Sumit Ranjan, Sai Sree Harsha, Pawan Sevak, Yunyao Li

Letzte Aktualisierung: 2024-12-14 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2412.10933

Quell-PDF: https://arxiv.org/pdf/2412.10933

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel