Avanzando en las recomendaciones de próxima cesta para la equidad y la diversidad
Aprende cómo el marco TREx mejora las recomendaciones de compras en línea.
― 6 minilectura
Tabla de contenidos
- Recomendación de Siguiente Canasta (NBR)
- Enfoque Histórico
- Avance en la Comprensión de las Necesidades del Usuario
- La Necesidad de un Enfoque Equilibrado
- El Marco TREx
- Componentes de TREx
- Experimentos y Hallazgos
- Rendimiento en Precisión
- Rendimiento en Métricas Más Allá de la Precisión
- Equilibrando la Precisión con Diversidad y Equidad
- Reflexionando sobre Prácticas Actuales
- Reevaluando el Éxito en las Recomendaciones
- Conclusión
- Direcciones Futuras
- Fuente original
- Enlaces de referencia
En los últimos años, las compras en línea se han vuelto una parte importante de nuestras vidas. La gente suele comprar varios artículos a la vez, creando lo que llamamos una "canasta". La Recomendación de Siguiente Canasta (NBR) se centra en predecir qué artículos comprarán los usuarios a continuación, basándose en sus compras pasadas. Tradicionalmente, el objetivo ha sido ofrecer recomendaciones precisas. Sin embargo, hay una creciente conciencia de que también deberíamos prestar atención a la equidad y la diversidad en las recomendaciones.
Recomendación de Siguiente Canasta (NBR)
NBR es un tipo único de recomendación que busca ayudar a los usuarios a elegir su próximo conjunto de artículos. Este método analiza la secuencia de compras pasadas de un usuario para hacer sugerencias para futuras compras. Por ejemplo, si un comprador compra pasta con frecuencia, es probable que la vuelva a comprar y también podría estar interesado en artículos complementarios como salsa de pasta o queso.
Enfoque Histórico
Antes, la investigación en NBR se concentraba principalmente en hacer recomendaciones precisas. La idea era simple: si un sistema podía sugerir lo que los clientes probablemente comprarían a continuación, sería exitoso. Sin embargo, este enfoque pasa por alto otros factores importantes como la equidad, que asegura que todos los artículos tengan una oportunidad justa de ser recomendados, y la diversidad, que garantiza que los usuarios vean una gama variada de productos.
Avance en la Comprensión de las Necesidades del Usuario
Hallazgos recientes muestran que las recomendaciones pueden dividirse en dos tipos: recomendar artículos repetidos (artículos que el usuario ha comprado antes) y explorar nuevos artículos (artículos que el usuario aún no ha comprado). El desafío es que, aunque recomendar artículos repetidos suele ser más fácil y produce mayor precisión, recomendar artículos de exploración es más complejo y menos efectivo en términos de satisfacción del usuario.
La Necesidad de un Enfoque Equilibrado
Este desequilibrio plantea una pregunta crucial: ¿cómo podemos lograr un equilibrio entre la precisión y otras métricas importantes como la equidad y la diversidad? Para abordar esto, es necesario un nuevo enfoque, uno que permita tanto una alta precisión como métricas mejoradas más allá de la precisión.
El Marco TREx
Para abordar los problemas en NBR, proponemos un nuevo marco llamado TREx. Este marco separa las recomendaciones en dos partes: una para artículos repetidos y otra para artículos de exploración. Al manejar estas dos recomendaciones de manera diferente, podemos asegurarnos de que se consideren tanto la precisión como las métricas más allá de la precisión.
Componentes de TREx
Módulo de Repetición: Esta parte se centra en predecir con precisión artículos que el usuario ha comprado anteriormente. Se basa en la frecuencia de compras y el interés del usuario para hacer predicciones informadas.
Módulo de Exploración: Este módulo tiene como objetivo introducir nuevos productos al usuario. Las estrategias para este módulo priorizan la equidad y la diversidad. Por ejemplo, podría recomendar artículos que son menos populares para evitar sesgos hacia artículos comprados con frecuencia.
Generación de Canasta: El conjunto final de artículos recomendados se crea combinando la salida de ambos módulos. El objetivo aquí es asegurarse de que la canasta tenga una mezcla de artículos repetidos y de exploración, equilibrando la familiaridad del usuario con nuevas opciones.
Experimentos y Hallazgos
Para probar la efectividad del marco TREx, realizamos experimentos utilizando datos de dos conjuntos de datos de compras de supermercado bien conocidos.
Rendimiento en Precisión
Nuestros experimentos mostraron que TREx pudo lograr un rendimiento de última generación en términos de precisión solo al centrarse en artículos repetidos. Esto se alinea con nuestra hipótesis de que recomendar artículos repetidos es una tarea más sencilla.
Rendimiento en Métricas Más Allá de la Precisión
Cuando dirigimos nuestra atención hacia la equidad y la diversidad, TREx nuevamente entregó resultados impresionantes. Vimos mejoras en varias métricas de equidad, lo que significa que nuestras recomendaciones no solo eran precisas, sino que también distribuyeron la exposición de manera más equitativa entre los artículos menos populares. Este es un paso significativo hacia la creación de un sistema de recomendación más justo.
Equilibrando la Precisión con Diversidad y Equidad
Nuestros hallazgos sugieren que, usando TREx, podemos ofrecer mejores recomendaciones que son tanto precisas como diversas. En términos más simples, es posible ayudar a los usuarios a descubrir nuevos artículos sin sacrificar la familiaridad de las compras repetidas.
Reflexionando sobre Prácticas Actuales
Aunque nuestro marco muestra promesa, también resalta las limitaciones de los métodos de evaluación existentes en NBR. Muchos de estos métodos dependen en gran medida del rendimiento general, lo que puede ocultar la verdadera efectividad de un sistema de recomendación.
Reevaluando el Éxito en las Recomendaciones
Al reflexionar sobre los resultados de nuestros experimentos, se hace evidente que simplemente lograr mejores puntuaciones generales no es suficiente. Necesitamos considerar qué tan bien se desempeña el sistema en diferentes tipos de artículos, tanto repetidos como de exploración. Un análisis detallado podría revelar problemas ocultos en los enfoques tradicionales.
Conclusión
El marco TREx representa un paso significativo hacia adelante en NBR, permitiéndonos afinar las recomendaciones tanto para la precisión como para las métricas más allá de la precisión. Al entender que recomendar artículos familiares es diferente de introducir nuevos, podemos crear una mejor experiencia de compra para los usuarios.
Direcciones Futuras
De cara al futuro, se necesita más investigación para explorar el equilibrio entre la precisión y las métricas más allá de la precisión en NBR. A medida que el comportamiento del consumidor continúa evolucionando, también deben hacerlo nuestros enfoques hacia NBR. El objetivo siempre debe ser crear un sistema de recomendación que ayude a los usuarios a encontrar lo que necesitan, mientras promueve la equidad y la diversidad en el mercado.
En resumen, el marco TREx no solo transforma cómo pensamos sobre las recomendaciones, sino que también allana el camino hacia una experiencia de compra más justa y diversa en el comercio en línea.
Título: Are We Really Achieving Better Beyond-Accuracy Performance in Next Basket Recommendation?
Resumen: Next basket recommendation (NBR) is a special type of sequential recommendation that is increasingly receiving attention. So far, most NBR studies have focused on optimizing the accuracy of the recommendation, whereas optimizing for beyond-accuracy metrics, e.g., item fairness and diversity remains largely unexplored. Recent studies into NBR have found a substantial performance difference between recommending repeat items and explore items. Repeat items contribute most of the users' perceived accuracy compared with explore items. Informed by these findings, we identify a potential "short-cut" to optimize for beyond-accuracy metrics while maintaining high accuracy. To leverage and verify the existence of such short-cuts, we propose a plug-and-play two-step repetition-exploration (TREx) framework that treats repeat items and explores items separately, where we design a simple yet highly effective repetition module to ensure high accuracy, while two exploration modules target optimizing only beyond-accuracy metrics. Experiments are performed on two widely-used datasets w.r.t. a range of beyond-accuracy metrics, viz. five fairness metrics and three diversity metrics. Our experimental results verify the effectiveness of TREx. Prima facie, this appears to be good news: we can achieve high accuracy and improved beyond-accuracy metrics at the same time. However, we argue that the real-world value of our algorithmic solution, TREx, is likely to be limited and reflect on the reasonableness of the evaluation setup. We end up challenging existing evaluation paradigms, particularly in the context of beyond-accuracy metrics, and provide insights for researchers to navigate potential pitfalls and determine reasonable metrics to consider when optimizing for accuracy and beyond-accuracy metrics.
Autores: Ming Li, Yuanna Liu, Sami Jullien, Mozhdeh Ariannezhad, Mohammad Aliannejadi, Andrew Yates, Maarten de Rijke
Última actualización: 2024-05-02 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2405.01143
Fuente PDF: https://arxiv.org/pdf/2405.01143
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.