Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Apprendimento automatico# Recupero delle informazioni

Sviluppi nei sistemi di recupero con miscela di logits

Nuove tecniche migliorano l'accuratezza e l'efficienza del recupero nei sistemi di raccomandazione.

― 6 leggere min


Rivoluzionare i sistemiRivoluzionare i sistemidi raccomandazionerecupero dei dati.l'accuratezza e il coinvolgimento nelI nuovi modelli migliorano
Indice

I sistemi di Recupero vengono usati per trovare un numero ridotto di elementi rilevanti da un set di dati molto ampio. Per esempio, quando cerchi un film o un prodotto, il sistema deve scegliere alcune opzioni che corrispondono meglio a quello che stai cercando. Una parte fondamentale di questi sistemi è come misurano la Somiglianza tra l'utente e gli oggetti. Di solito, questo viene fatto calcolando un punteggio basato su due insiemi di rappresentazioni apprese, spesso chiamate embeddings. Questo processo di trovare le migliori corrispondenze si chiama recupero.

L'importanza della somiglianza nel recupero

Per rendere le raccomandazioni rilevanti, il sistema deve catturare con precisione quanto l'utente sia simile agli oggetti disponibili. Questa somiglianza può variare molto a seconda del contesto. Per esempio, un utente può cercare articoli di notizie seri al mattino ma preferire programmi leggeri alla sera. Quindi, il sistema di recupero deve essere flessibile e adattarsi a queste esigenze in cambiamento.

Approcci tradizionali al recupero

Storicamente, molti sistemi di recupero si basano sul calcolo di un punteggio basato sul prodotto scalare di due embeddings. Questo metodo è stato efficace per grandi set di dati ed è efficiente in termini di potenza di elaborazione necessaria. Tuttavia, ha delle limitazioni perché spesso non tiene conto delle interazioni complesse tra utenti e oggetti. Di conseguenza, le raccomandazioni potrebbero non essere sempre buone come potrebbero.

La necessità di modelli migliorati

A causa delle loro limitazioni, i ricercatori hanno cercato metodi alternativi che possano gestire interazioni più complesse. Un approccio promettente è modellare le interazioni utente-oggetto usando un metodo chiamato mixture of logits. Questa tecnica consente una comprensione più sfumata delle somiglianze tra utenti e oggetti. Suddividendo la somiglianza in più componenti, il sistema può catturare meglio le relazioni intricate che esistono nei dati reali.

Mixture of Logits (MoL)

MoL è un nuovo modo di pensare a come modelliamo le somiglianze in un sistema di recupero. Invece di fare affidamento su un singolo calcolo del prodotto scalare, MoL utilizza una combinazione di diverse funzioni di somiglianza più semplici. Questo consente al modello di adattarsi e apprendere da interazioni di alto rango, il che significa che può catturare relazioni più complesse che un prodotto scalare da solo non riuscirebbe a vedere.

Vantaggi di MoL

Uno dei principali vantaggi di MoL è la sua capacità di funzionare bene anche quando ci sono meno esempi di addestramento per alcuni oggetti. Questo lo rende particolarmente utile per comprendere la lunga coda dei dati, dove hai molti oggetti che non vengono spesso interagiti. Utilizzando un metodo adattivo, MoL può regolare i suoi calcoli per migliorare le raccomandazioni su tutto il set di dati, piuttosto che concentrarsi solo sugli oggetti più popolari.

Recupero efficiente sugli Acceleratori

Un'altra innovazione nei sistemi di recupero è l'attenzione all'elaborazione efficiente, in particolare attraverso l'uso di acceleratori come le GPU. Questi dispositivi consentono calcoli più veloci e possono gestire i grandi volumi di dati richiesti dai moderni sistemi di recupero. Utilizzando una configurazione gerarchica, dove il primo step consiste nel trovare rapidamente un ampio set di Candidati prima di applicare i calcoli più complessi di MoL, il sistema può mantenere alte prestazioni con minore latenza.

Combinare MoL con il recupero gerarchico

Il design gerarchico funziona in due fasi. La prima fase identifica rapidamente un ampio pool di potenziali candidati usando un metodo di punteggio semplice. La seconda fase affina questi candidati utilizzando il metodo più complesso di MoL per selezionare le migliori opzioni. Questo processo in due step evita la necessità di calcolare punteggi complessi per ogni oggetto nel set di dati, rendendolo molto più veloce ed efficiente.

Superare le sfide con metodi non basati sul prodotto scalare

Anche se MoL mostra promettente, ci sono sfide per implementarlo efficacemente. Allenare modelli che si generalizzano bene su nuovi dati può essere difficile e i metodi tradizionali possono avere difficoltà con i costi computazionali elevati coinvolti. Per questo motivo, i ricercatori hanno lavorato per creare nuovi algoritmi che addestrano e servono questi modelli complessi senza mettere a dura prova le risorse.

Validazione sperimentale di MoL

Numerosi esperimenti sono stati condotti per convalidare l'efficacia di MoL rispetto ai metodi tradizionali. I risultati hanno mostrato che MoL può migliorare significativamente la qualità delle raccomandazioni su diversi set di dati. Infatti, miglioramenti di oltre il 77% in alcuni metriche mostrano il potenziale di questo nuovo approccio. Questi esperimenti sono stati eseguiti sia su set di dati pubblici che su sistemi proprietari, confermando la robustezza dei risultati.

Affrontare il bias di popolarità

Uno dei problemi significativi con molti sistemi di raccomandazione è la tendenza a favorire oggetti popolari. Questo può portare a una mancanza di diversità nelle raccomandazioni. MoL ha dimostrato di mitigare questo problema, poiché consente al modello di fornire raccomandazioni più equilibrate su un insieme più ampio di oggetti. Questo è particolarmente importante per creare un'esperienza più centrata sull'utente, dove le persone possono scoprire contenuti che corrispondono meglio ai loro interessi.

Applicazioni e risultati nel mondo reale

Le implicazioni pratiche di questi progressi nei metodi di recupero sono significative. Per esempio, grandi aziende come Meta hanno testato questi nuovi metodi all'interno dei loro sistemi di raccomandazione. I test A/B effettuati su più giorni hanno dimostrato che i modelli che utilizzano MoL hanno fornito un miglior coinvolgimento degli utenti e un tasso di completamento più alto rispetto ai sistemi precedenti. Inoltre, la misurazione della latenza è rimasta competitiva, indicando che i nuovi modelli possono fornire risultati in tempo reale senza compromettere le prestazioni.

Direzioni future per i sistemi di recupero

Man mano che i sistemi di recupero continuano ad evolversi, ci sono varie direzioni per la ricerca futura. Un'idea è quella di perfezionare i componenti della miscela all'interno di MoL, permettendo loro di rappresentare relazioni ancora più complesse. C'è anche il potenziale di sviluppare sistemi completamente end-to-end apprendibili che possano ottimizzare il recupero in modo più integrato.

Conclusione

In sintesi, il passaggio dai metodi tradizionali basati sul prodotto scalare a tecniche più adattive come MoL rappresenta un significativo avanzamento nei sistemi di recupero. Migliorando il modo in cui viene modellata la somiglianza e utilizzando in modo efficiente le risorse informatiche moderne, questi sistemi possono fornire raccomandazioni migliori e più diverse. Questo progresso non solo migliora l'esperienza dell'utente, ma apre anche nuove strade per l'esplorazione nella tecnologia dei dati. Con la continua ricerca e sviluppo, il potenziale per soluzioni ancora più innovative nel recupero è vasto.

Fonte originale

Titolo: Revisiting Neural Retrieval on Accelerators

Estratto: Retrieval finds a small number of relevant candidates from a large corpus for information retrieval and recommendation applications. A key component of retrieval is to model (user, item) similarity, which is commonly represented as the dot product of two learned embeddings. This formulation permits efficient inference, commonly known as Maximum Inner Product Search (MIPS). Despite its popularity, dot products cannot capture complex user-item interactions, which are multifaceted and likely high rank. We hence examine non-dot-product retrieval settings on accelerators, and propose \textit{mixture of logits} (MoL), which models (user, item) similarity as an adaptive composition of elementary similarity functions. This new formulation is expressive, capable of modeling high rank (user, item) interactions, and further generalizes to the long tail. When combined with a hierarchical retrieval strategy, \textit{h-indexer}, we are able to scale up MoL to 100M corpus on a single GPU with latency comparable to MIPS baselines. On public datasets, our approach leads to uplifts of up to 77.3\% in hit rate (HR). Experiments on a large recommendation surface at Meta showed strong metric gains and reduced popularity bias, validating the proposed approach's performance and improved generalization.

Autori: Jiaqi Zhai, Zhaojie Gong, Yueming Wang, Xiao Sun, Zheng Yan, Fu Li, Xing Liu

Ultimo aggiornamento: 2023-06-06 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2306.04039

Fonte PDF: https://arxiv.org/pdf/2306.04039

Licenza: https://creativecommons.org/licenses/by-nc-sa/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili