Avanzare i sistemi di raccomandazione con i modelli linguistici
Un nuovo sistema migliora le raccomandazioni dei prodotti usando i dati degli utenti e le intuizioni degli esperti.
― 7 leggere min
Indice
- Come Funzionano i Sistemi di Raccomandazione
- Sfide
- La Soluzione: Sistema Basato su Modelli di Linguaggio Ampi
- Caratteristiche Chiave del Nuovo Sistema
- Panoramica del Sistema
- Modulo di Raccomandazione Tradizionale
- Potenziamento della Conoscenza Complementare Basato su LLM
- Estrazione e Costruzione di Entità
- Costruzione del Grafo Complementare
- Utilizzo di Modelli di Linguaggio Ampi
- Aggiornamenti Automatici
- Modello di Decisione dei Pesi
- Fase di Classificazione
- Fase di Integrazione
- Test e Risultati
- Confronto delle Prestazioni Offline
- Confronto delle Prestazioni Online
- Contributo dei Moduli Individuali
- Impatto di Diversi Modelli di Linguaggio
- Conclusione
- Fonte originale
- Link di riferimento
I sistemi di raccomandazione aiutano gli utenti a trovare prodotti che potrebbero piacergli, soprattutto sui siti di e-commerce. Questi sistemi utilizzano il comportamento passato degli utenti per suggerire articoli che corrispondono ai loro interessi. Tuttavia, molti sistemi esistenti affrontano sfide quando si tratta di capire cosa un utente potrebbe voler in quel momento, specialmente con l'introduzione di nuovi prodotti.
Per migliorare come vengono fatte le raccomandazioni, alcuni ricercatori hanno introdotto modelli basati su Knowledge Base (KB) che incorporano intuizioni da esperti. Ma questi modelli hanno ancora difficoltà ad adattarsi ai nuovi prodotti e al sempre mutevole ambiente dello shopping online.
In risposta a queste sfide, è stato proposto un nuovo approccio chiamato Large Language Model Complementary Knowledge Enhanced Recommendation System. Questo sistema mira a fornire raccomandazioni migliori utilizzando un mix di dati degli utenti e conoscenze sui prodotti.
Come Funzionano i Sistemi di Raccomandazione
I sistemi di raccomandazione sono ampiamente utilizzati su piattaforme online come Amazon e Taobao. L'obiettivo principale di questi sistemi è prevedere cosa gli utenti preferiranno in base alle loro interazioni passate, aiutandoli a trovare prodotti adatti.
Tuttavia, i sistemi di raccomandazione tradizionali si basano principalmente su:
- Raccomandare articoli alternativi basati sui clic degli utenti o sugli acquisti passati.
- Raccomandare articoli complementari in base al fatto che gli utenti acquistino altri prodotti correlati.
- Cercare potenziali interessi esplorando ulteriormente il comportamento degli utenti.
Anche se i metodi tradizionali che utilizzano modelli di previsione del tasso di clic (CTR) hanno mostrato miglioramenti nelle raccomandazioni, ci sono ancora limitazioni significative.
Sfide
Dipendenza dal Comportamento Passato: Molti sistemi hanno bisogno di dati passati degli utenti per fare buone raccomandazioni. Questa dipendenza può portare a problemi, specialmente quando vengono introdotti nuovi prodotti e non ci sono dati sufficienti per supportarli.
Dati di Interazione Limitati: Molti sistemi sono migliori nel suggerire articoli alternativi piuttosto che complementari. Questo è in parte dovuto a una mancanza di dati di interazione per gli articoli complementari.
Le regole elaborate da esperti possono assistere nelle raccomandazioni, ma potrebbero non tenere il passo con i cambiamenti rapidi nel panorama dell'e-commerce.
La Soluzione: Sistema Basato su Modelli di Linguaggio Ampi
Per affrontare questi problemi, è stato introdotto un nuovo sistema che combina i punti di forza dei metodi tradizionali con le capacità dei modelli di linguaggio ampi (LLM). L'idea è creare un sistema di raccomandazione più efficace che utilizzi le conoscenze degli esperti, pur essendo adattabile ai nuovi prodotti.
Caratteristiche Chiave del Nuovo Sistema
Estrazione di entità: Il sistema estrae prima termini chiave o entità dalle informazioni sui prodotti e dai dati degli utenti. Questo aiuta a creare una comprensione comune di ciò che un utente potrebbe voler.
Generazione di Coppie di Entità: Considerando quanto siano popolari certi articoli, il sistema crea coppie di prodotti correlati.
Costruzione di un Grafo di Conoscenza Complementare: Il modello di linguaggio ampio analizza queste coppie per capire come gli articoli si completano a vicenda, aiutando a creare un grafo che mostra queste relazioni.
Modulo di Richiamo: Un nuovo modulo che si concentra sul portare avanti articoli complementari basati sul comportamento degli utenti.
Modello di Decisione dei Pesi: Questo modello affina il modo in cui gli articoli vengono valutati e classificati in base alle interazioni reali degli utenti, garantendo che il sistema apprenda e migliori continuamente.
Panoramica del Sistema
Il sistema comprende due parti principali: il modulo di raccomandazione tradizionale e il potenziamento basato su LLM.
Modulo di Raccomandazione Tradizionale
Questa parte del sistema invia automaticamente richieste basate sulle azioni degli utenti. I passaggi sono i seguenti:
- Il server attiva un modulo di richiamo che restituisce molte potenziali raccomandazioni di articoli.
- Un modello di classificazione grossolana filtra queste raccomandazioni a un numero gestibile.
- Infine, un modello di classificazione fine ordina questi articoli per determinare quali debbano essere visualizzati all'utente.
Potenziamento della Conoscenza Complementare Basato su LLM
Questo modulo si basa sulle raccomandazioni tradizionali ma aggiunge la capacità di elaborare molti segnali e comprendere relazioni complesse tra gli articoli. Collegando le azioni degli utenti e le informazioni sui prodotti, aiuta a creare un sistema di raccomandazione più coeso.
Estrazione e Costruzione di Entità
Nel mondo reale, gli utenti interagiscono con vari prodotti, quindi è essenziale avere una comprensione unificata degli articoli. Il processo di estrazione dell'entità identifica concetti specifici come “telefono” o “cola”. Questo viene aggiornato regolarmente per garantire che nuovi articoli siano inclusi.
Costruzione del Grafo Complementare
Il grafo complementare aiuta a comprendere i modelli di acquisto degli utenti. Ad esempio, se qualcuno acquista utensili, di cosa avrà bisogno? Il sistema costruisce questo grafo in due passaggi:
- Generare coppie di articoli in modo efficiente.
- Utilizzare il modello di linguaggio ampio per analizzare queste coppie e vedere quali articoli in genere si completano a vicenda.
Utilizzo di Modelli di Linguaggio Ampi
I modelli di linguaggio ampi hanno guadagnato popolarità grazie alla loro capacità di comprendere il linguaggio e ragionare attraverso le relazioni. In questo sistema, gli LLM vengono utilizzati per determinare se c'è una relazione complementare tra coppie di articoli.
Il modello utilizza tecniche per formulare prompt che guidano l'LLM nell'esecuzione dei compiti in modo efficiente. Facendo così, può analizzare e fornire approfondimenti su come i prodotti siano connessi, migliorando le raccomandazioni date agli utenti.
Aggiornamenti Automatici
L'ambiente dello shopping online è dinamico, quindi è cruciale mantenere il sistema aggiornato. Il sistema revisiona automaticamente il grafo complementare ogni giorno, assicurandosi che rifletta le tendenze di mercato attuali e gli interessi degli utenti.
Modello di Decisione dei Pesi
Ora, l'attenzione si sposta su come raccomandare articoli complementari basati sugli acquisti degli utenti. Il modello di decisione dei pesi E-E-I (entità-entità-articolo) gioca un ruolo critico qui.
Fase di Classificazione
Il modello utilizza una struttura a doppia torre in cui le due uscite rappresentano l'articolo complementare e l'acquisto dell'utente. L'obiettivo è valutare efficacemente le preferenze degli utenti.
La fase di classificazione consiste in:
- Costruzione del Grafo: Crea una struttura che include le interazioni degli utenti e le dipendenze degli articoli.
- Vista Sostituibile di Primo Ordine: Comprendere le relazioni tra articoli simili.
- Vista Complementare di Secondo Ordine: Analizzare le relazioni basate sui dati del grafo complementare e sul comportamento degli utenti.
Fase di Integrazione
Questa fase assicura che il modulo di richiamo principale e i modelli di classificazione lavorino insieme in modo efficace. Un nuovo percorso di richiamo complementare consente al sistema di fornire articoli che si abbinano bene in base alle richieste in tempo reale degli utenti, superando così le limitazioni dei modelli precedenti.
Test e Risultati
Per valutare l'efficacia del nuovo sistema, sono stati condotti test utilizzando dati reali degli utenti da una piattaforma online. I risultati hanno mostrato che il nuovo sistema ha costantemente superato i metodi tradizionali.
Confronto delle Prestazioni Offline
I test offline hanno confrontato il nuovo sistema con modelli esistenti, misurando i tassi di clic e i tassi di conversione attraverso più set di dati. Il nuovo sistema ha mostrato metriche migliori in quasi tutti gli scenari.
Confronto delle Prestazioni Online
Sono stati effettuati test A/B in ambienti reali. Gli utenti sono stati assegnati casualmente a gruppi di test per vedere quale sistema producesse risultati migliori in termini di clic e conversioni. Il nuovo sistema ha dimostrato miglioramenti notevoli, portando a un aumento dell'engagement degli utenti e delle vendite.
Contributo dei Moduli Individuali
Uno sguardo più da vicino ai singoli componenti del nuovo sistema ha rivelato che sia il modulo di richiamo che il modello di classificazione hanno contribuito significativamente a una migliore prestazione. Quando uno dei due è stato rimosso, i risultati hanno mostrato un calo nell'efficacia.
Impatto di Diversi Modelli di Linguaggio
Ulteriori analisi sono state condotte confrontando vari modelli di linguaggio ampi come ChatGPT e altri. L'obiettivo era determinare quale modello fornisse i migliori approfondimenti per raccomandare prodotti complementari. I risultati hanno indicato che alcuni modelli erano migliori nell'identificare relazioni pertinenti rispetto ad altri.
Conclusione
Questo nuovo approccio ai sistemi di raccomandazione rappresenta un passo significativo avanti nell'aiutare gli utenti a trovare prodotti che soddisfino le loro esigenze. Integrando un'ampia gamma di dati degli utenti con le conoscenze degli esperti e le capacità dei modelli di linguaggio ampi, il sistema si adatta continuamente a un mercato in cambiamento.
I test completi condotti dimostrano l'efficacia del sistema, aprendo la strada a soluzioni di raccomandazione più sofisticate nell'e-commerce e oltre. Questo approccio mira infine a migliorare le esperienze degli utenti, aumentare l'engagement e migliorare le conversioni di vendita nel mercato digitale.
Titolo: Breaking the Barrier: Utilizing Large Language Models for Industrial Recommendation Systems through an Inferential Knowledge Graph
Estratto: Recommendation systems are widely used in e-commerce websites and online platforms to address information overload. However, existing systems primarily rely on historical data and user feedback, making it difficult to capture user intent transitions. Recently, Knowledge Base (KB)-based models are proposed to incorporate expert knowledge, but it struggle to adapt to new items and the evolving e-commerce environment. To address these challenges, we propose a novel Large Language Model based Complementary Knowledge Enhanced Recommendation System (LLM-KERec). It introduces an entity extractor that extracts unified concept terms from item and user information. To provide cost-effective and reliable prior knowledge, entity pairs are generated based on entity popularity and specific strategies. The large language model determines complementary relationships in each entity pair, constructing a complementary knowledge graph. Furthermore, a new complementary recall module and an Entity-Entity-Item (E-E-I) weight decision model refine the scoring of the ranking model using real complementary exposure-click samples. Extensive experiments conducted on three industry datasets demonstrate the significant performance improvement of our model compared to existing approaches. Additionally, detailed analysis shows that LLM-KERec enhances users' enthusiasm for consumption by recommending complementary items. In summary, LLM-KERec addresses the limitations of traditional recommendation systems by incorporating complementary knowledge and utilizing a large language model to capture user intent transitions, adapt to new items, and enhance recommendation efficiency in the evolving e-commerce landscape.
Autori: Qian Zhao, Hao Qian, Ziqi Liu, Gong-Duo Zhang, Lihong Gu
Ultimo aggiornamento: 2024-02-21 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2402.13750
Fonte PDF: https://arxiv.org/pdf/2402.13750
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.