Sci Simple

New Science Research Articles Everyday

# Informática # Computación y lenguaje

Mejorando el compromiso del usuario con sugerencias de preguntas de IA

Descubre cómo la IA puede ofrecer mejores sugerencias de preguntas para los usuarios.

Xiaobin Shen, Daniel Lee, Sumit Ranjan, Sai Sree Harsha, Pawan Sevak, Yunyao Li

― 10 minilectura


Sugerencias de preguntas Sugerencias de preguntas de IA en empresas inteligentes. con sugerencias de preguntas Aumenta la interacción de los usuarios
Tabla de contenidos

Los programas de IA conversacional para empresas son como compañeros de oficina útiles que ayudan a los trabajadores con tareas como marketing y gestión de clientes. Sin embargo, cuando nuevos usuarios se unen a la fiesta, a veces se sienten perdidos sobre qué preguntas hacer. Esto puede ser un reto en sistemas avanzados que están en constante cambio. Para abordar este problema, se sugiere un marco para mejorar las sugerencias de preguntas en estos sistemas. Este marco está diseñado para darle a los usuarios preguntas inteligentes y basadas en el contexto que les ayuden a encontrar lo que necesitan y sacar el máximo provecho de las características disponibles.

El Auge de los Asistentes de IA

A medida que la tecnología avanza, los grandes modelos de lenguaje han tomado protagonismo, haciendo que los sistemas de IA sean más capaces. Hoy en día, muchas empresas están añadiendo asistentes de IA a sus herramientas para automatizar conversaciones y mejorar la experiencia de los usuarios. Estos asistentes son como recepcionistas expertos, pero para tareas digitales, guiando a los usuarios a través de tareas estructuradas y mejorando el funcionamiento general de las plataformas.

Normalmente, los asistentes de IA en empresas manejan dos áreas principales: compartir información sobre productos y ofrecer información operativa. El enfoque de nuestra discusión está en explicar las cosas a los usuarios, ayudándolos a obtener claridad y guiándolos suavemente a través de la plataforma. Aunque la IA ha aprendido mucho, simplemente responder preguntas a menudo no es suficiente. Los usuarios pueden quedar atascados en qué preguntar después de recibir respuestas. Esto es especialmente cierto para los recién llegados que aún se están familiarizando con las características del sistema.

El Dilema del Usuario

Imagina un escenario donde un nuevo empleado en el departamento de marketing pregunta: "¿Cómo se calcula la riqueza del perfil?" Recibe una explicación larga sobre las métricas en Adobe Experience Platform (AEP). Aunque esta respuesta arroja luz sobre la riqueza del perfil, el usuario aún puede preguntarse cómo usar esta información en la vida real. ¿Qué debería hacer a continuación? ¿Cómo encaja esto en sus tareas más amplias? Esta confusión resalta el desafío de formular preguntas de seguimiento que desbloqueen el potencial completo del sistema.

Las sugerencias de preguntas pueden intervenir para cerrar esta brecha. No solo responden a los usuarios, sino que también los empujan hacia consultas relevantes que quizás no habían pensado. Por ejemplo, después de recibir una respuesta, sugerencias como “¿Cuáles son las implicaciones de exceder el derecho de riqueza del perfil?” o “¿Cómo puedo monitorear y gestionar la riqueza del perfil de manera efectiva?” ayudan al usuario a ver aspectos más amplios de la riqueza del perfil y despiertan curiosidad sobre características relacionadas.

El Reto de las Sugerencias de Preguntas

Sin embargo, generar buenas sugerencias de preguntas en estos sistemas no está exento de problemas. Muchos sistemas empresariales carecen de datos históricos sustanciales, lo que dificulta a los modelos tradicionales predecir consultas. A veces, los usuarios hacen preguntas raras o confusas que no se ajustan a patrones comunes, complicando el proceso. Además, a medida que los asistentes de IA siguen creciendo y cambiando, aparece una brecha entre lo que el sistema puede hacer y lo que los usuarios saben sobre él. Esta brecha puede llevar a menos participación de los usuarios y a que menos personas aprovechen al máximo la plataforma.

Para abordar estos desafíos, se propone un marco que mejora las sugerencias de preguntas en los sistemas de IA conversacional para empresas. Este enfoque emplea datos de la vida real del Asistente de IA en la Adobe Experience Platform (AEP). El enfoque se centra en generar sugerencias de preguntas proactivas y categorizadas para ayudar a los usuarios a descubrir más sobre la plataforma.

La Contribución

En resumen, las mejoras descritas en este estudio implican:

  • Un nuevo enfoque para generar preguntas de seguimiento en IA empresarial, vinculando el análisis de intenciones de los usuarios con las interacciones de las sesiones de chat.
  • Usar modelos de lenguaje avanzados para crear preguntas amigables con el contexto basadas en consultas actuales e interacciones pasadas.
  • Realizar evaluaciones humanas para juzgar la efectividad de las sugerencias de preguntas basándose en varios criterios como relevancia y utilidad.

Esta investigación marca un hito en el estudio del impacto de las sugerencias de preguntas en un sistema práctico de IA empresarial.

Conceptos Relacionados

Técnicas de Sugerencia de Preguntas

En el mundo tech, los métodos tradicionales de sugerencia de preguntas han mejorado significativamente las experiencias de usuario en motores de búsqueda. Al predecir y recomendar preguntas basadas en las actividades pasadas de los usuarios, estas técnicas han hecho que buscar sea más amigable. Se han utilizado diversos enfoques, desde análisis de datos básicos hasta redes neuronales complejas, para mejorar la exploración en búsquedas web a gran escala.

Al algunos esfuerzos incluso buscan diversificar las sugerencias de preguntas, asegurando que los usuarios reciban opciones diferentes pero relevantes. Sin embargo, estos métodos suelen requerir muchos datos específicos de tareas para entrenar modelos efectivos. Con los avances en modelos de lenguaje grandes y generación aumentada por recuperación, la necesidad de datos específicos de tareas ha disminuido. En su lugar, los modelos preentrenados aprovechan el conocimiento existente para sugerir preguntas relevantes.

Descubribilidad en Asistentes de IA

La descubribilidad se refiere a qué tan fácil es para los usuarios averiguar qué acciones pueden realizar dentro de un sistema. Si bien esta idea se ha estudiado en software tradicional, a menudo se pasa por alto en sistemas de IA complejos. A medida que las plataformas se enriquecen en características, los usuarios pueden luchar por reconocer nuevas capacidades, lo que lleva a un uso disminuido.

Los estudios pasados sobre descubribilidad se centraron principalmente en software de escritorio, aplicaciones móviles e interfaces de voz. Muchos se enfocaron en sugerir comandos relevantes para los usuarios, mejorando su experiencia general. Trabajos recientes también exploran los beneficios de interacciones proactivas en la IA conversacional. Los estudios han demostrado que sugerencias oportunas pueden llevar a mejores interacciones y mayor satisfacción del usuario.

A pesar del enfoque en varios campos, la descubribilidad en la IA conversacional empresarial sigue siendo poco explorada. Los usuarios que navegan en contextos empresariales complejos, como la gestión de clientes, a menudo enfrentan dificultades. Estos usuarios provienen de diversos antecedentes, lo que hace esencial que los sistemas apoyen el compromiso inmediato y el aprendizaje continuo sobre las características de la plataforma.

El Marco para Sugerencias de Preguntas

El marco para la sugerencia de la siguiente pregunta en sistemas de IA conversacional empresariales consta de dos componentes principales:

  1. Análisis de Intenciones del Usuario: Realizado en toda la base de usuarios para identificar tendencias y necesidades entre los usuarios.
  2. Generación de Preguntas en la Sesión de Chat: Enfocado en crear preguntas basadas en el historial de un usuario individual dentro de una sesión de chat específica.

Este enfoque de dos frentes permite que el sistema entienda los cambios en el comportamiento del usuario y genere preguntas relevantes adaptadas al historial de interacción de cada usuario.

Análisis de Intenciones del Usuario

Esta etapa identifica patrones comunes en las consultas de los usuarios a través del sistema. Al entender por qué los usuarios hacen ciertas preguntas, el sistema puede categorizar las intenciones de los usuarios.

Por ejemplo, si un usuario busca entender un proceso, el sistema puede notar patrones que conducen a consultas de seguimiento. Este análisis permite generar categorías de preguntas que pueden ayudar a dirigir a los usuarios hacia características relacionadas pero menos conocidas en la plataforma.

Generación de Preguntas a Nivel de Sesión de Chat

Esta parte utiliza el historial de interacción actual para crear sugerencias de preguntas para el usuario. Las entradas para esta fase incluyen la consulta más reciente del usuario, la respuesta de la IA a esa consulta y cualquier pregunta anterior hecha en esa misma sesión. Al aprovechar estas interacciones en tiempo real, el marco busca crear sugerencias que no solo sean relevantes sino también proactivas al guiar a los usuarios hacia la exploración de funciones.

Evaluando el Marco

Evaluar la efectividad de la descubriilidad mejorada es una tarea compleja, especialmente porque hay una falta de conjuntos de datos o métricas estándar para medir el éxito en esta área. Para evaluar el marco, se recopilaron datos de diversas interacciones entre los usuarios y el Asistente de IA. Se realizaron evaluaciones humanas para asegurar una evaluación exhaustiva del marco.

Hallazgos del Análisis de Intenciones del Usuario

Los hallazgos revelan que más del 35% de las consultas de los usuarios no tenían conexión con interacciones anteriores en la misma sesión. Esto resalta la complejidad de formar patrones en las consultas de los usuarios. También se descubrió que los usuarios a menudo hacen preguntas de expansión o consultas de seguimiento, lo que puede ayudar a captar mejor la variedad de intenciones de los usuarios.

Proceso de Evaluación Humana

Para comparar el rendimiento del nuevo marco contra la línea base, se evaluaron ambos conjuntos de sugerencias de preguntas. Las preguntas se calificaron en función de varios criterios: relación, validez, utilidad, diversidad y potencial de descubribilidad. Se encargó a los anotadores evaluar las sugerencias sin saber cuál era cuál, lo que añadió un elemento de imparcialidad a la evaluación.

Perspectivas Generales

Los hallazgos subrayan los desafíos que plantea la escasez de datos en los sistemas de IA empresarial. Los métodos tradicionales de entrenamiento de modelos no siempre funcionan bien aquí. En su lugar, el uso de grandes modelos de lenguaje puede proporcionar una solución efectiva para generar sugerencias de preguntas.

Además, los resultados indican que un enfoque uniforme no es la solución. Los diferentes usuarios tienen intenciones diversas al interactuar con el sistema, y estas diversas perspectivas deberían tenerse en cuenta al evaluar las sugerencias de preguntas.

Conclusión

Este marco enfatiza la necesidad de estrategias de sugerencia de preguntas adaptables que puedan mantenerse al día con los cambios en el comportamiento del usuario y las capacidades del sistema. Busca ayudar a los usuarios a navegar plataformas complejas mientras también los anima a explorar características menos frecuentadas.

Los esfuerzos futuros pueden centrarse en investigar cómo las sugerencias de preguntas mejoradas impactan en el comportamiento del usuario en entornos del mundo real. Métricas como cuántas veces los usuarios hacen clic en funciones y con qué frecuencia las exploran serán cruciales para evaluar la efectividad de estas sugerencias refinadas.

En resumen, sugerencias de preguntas eficientes pueden ser el guía amigable que los usuarios necesitan para disfrutar plenamente del vasto paisaje de sus sistemas de IA empresariales. ¡Esperemos que estos sistemas se vuelvan pronto tan populares como los descansos para café en la oficina!

Fuente original

Título: Enhancing Discoverability in Enterprise Conversational Systems with Proactive Question Suggestions

Resumen: Enterprise conversational AI systems are becoming increasingly popular to assist users in completing daily tasks such as those in marketing and customer management. However, new users often struggle to ask effective questions, especially in emerging systems with unfamiliar or evolving capabilities. This paper proposes a framework to enhance question suggestions in conversational enterprise AI systems by generating proactive, context-aware questions that try to address immediate user needs while improving feature discoverability. Our approach combines periodic user intent analysis at the population level with chat session-based question generation. We evaluate the framework using real-world data from the AI Assistant for Adobe Experience Platform (AEP), demonstrating the improved usefulness and system discoverability of the AI Assistant.

Autores: Xiaobin Shen, Daniel Lee, Sumit Ranjan, Sai Sree Harsha, Pawan Sevak, Yunyao Li

Última actualización: 2024-12-14 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2412.10933

Fuente PDF: https://arxiv.org/pdf/2412.10933

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares