Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Calcolo e linguaggio# Intelligenza artificiale

Dynosauro: Innovare l'Addestramento dell'Istruzione per i Modelli Linguistici

Dynosaur automatizza la creazione di dati per il tuning delle istruzioni, offrendo vantaggi in termini di qualità e costi.

― 5 leggere min


Dynosaur Trasforma ilDynosaur Trasforma ilTuning delle Istruzionimigliora le prestazioni degli LLM.La creazione automatizzata di dati
Indice

Il tuning delle istruzioni è diventato importante per migliorare come i grandi modelli di linguaggio (LLMs) capiscono e rispondono alle istruzioni. I metodi attuali spesso si basano su annotazioni manuali o sull'uso di LLMs esistenti per creare dati. Anche se questi metodi puntano a fornire dataset Di alta qualità per il tuning delle istruzioni, affrontano delle sfide, come il non riuscire a collegare le istruzioni con dataset già annotati in modo efficace.

Cos'è Dynosaur?

Dynosaur è un nuovo approccio che si concentra sulla creazione automatica di dati per il tuning delle istruzioni. Utilizzando dataset esistenti e i loro Metadati, Dynosaur può identificare i campi di dati rilevanti e generare istruzioni adatte. Questo metodo ha diversi vantaggi, inclusi costi più bassi per la generazione delle istruzioni, dati di alta qualità e la capacità di continuare a migliorare man mano che nuovi dati diventano disponibili.

Vantaggi di Dynosaur

Economico

Dynosaur riduce i costi associati alla generazione di dati per il tuning delle istruzioni. Per esempio, generare 800.000 campioni utilizzando GPT-3.5-turbo costa circa 11,5 dollari, rispetto ai circa 500 dollari per dataset più piccoli creati attraverso altri metodi.

Alta Qualità

Dynosaur fornisce anche dati di alta qualità per il tuning delle istruzioni. Quando i modelli addestrati con Dynosaur sono stati valutati, hanno ottenuto risultati migliori in vari compiti rispetto ai modelli addestrati con dataset più costosi. Ad esempio, i modelli T5-3B e LLAMA-7B affinati con Dynosaur hanno mostrato miglioramenti significativi nelle prestazioni rispetto ad altri modelli addestrati con vari dataset.

Miglioramento Continuo

Man mano che nuovi dataset annotati vengono rilasciati, Dynosaur può adattarsi generando più dati per il tuning delle istruzioni. La piattaforma vede in media 143,6 nuovi dataset aggiunti ogni giorno, permettendo a Dynosaur di crescere e migliorare le prestazioni dei modelli nel tempo.

Come Funziona Dynosaur

Raccolta di Metadati

Il primo passo per creare i dati di Dynosaur coinvolge la raccolta di metadati dai dataset esistenti. I metadati contengono informazioni chiave su ogni dataset, inclusi nome, descrizione, campi di dati e annotazioni. Questi metadati fungono da base per generare compiti rilevanti.

Generazione di Dati per il Tuning delle Istruzioni

Utilizzando i metadati raccolti, gli LLM generano più compiti associati a ciascun dataset. Comprendendo i metadati, l'LLM può creare istruzioni specifiche e designare i campi di input/output contemporaneamente. Ad esempio, da un dataset con dettagli sui libri, il modello potrebbe generare istruzioni come "Predici l'anno in cui il libro è pubblicato sulla base del titolo e degli autori."

Filtrazione dei Compiti Non Validi

I compiti generati dagli LLM vengono filtrati per garantirne la validità. I compiti che non soddisfano determinati criteri-come avere campi di dati inesistenti o campi di input/output sovrapposti-vengono rimossi dal dataset finale.

Organizzazione dei Dati

Una volta filtrati i compiti validi, i dati delle istruzioni vengono organizzati in un formato che include l'istruzione, i campi di input e l'output. Questa struttura rende più facile per i modelli utilizzare i dati in modo efficace durante l'addestramento.

Valutazione di Dynosaur

Prestazioni su Compiti di Riferimento

Dynosaur è stato testato su vari compiti di riferimento per valutarne l'efficacia. I modelli addestrati utilizzando i dati di Dynosaur hanno superato quelli addestrati con altri dataset di tuning delle istruzioni in varie valutazioni. Ad esempio, T5-3B e LLAMA-7B addestrati su Dynosaur hanno mostrato risultati migliori nei compiti Super-NI e LongForm.

Valutazione Umana

Oltre alle valutazioni automatiche, i valutatori umani hanno esaminato la qualità degli output generati dai modelli addestrati con Dynosaur. I feedback hanno indicato una preferenza per gli output generati con i dati di Dynosaur rispetto a quelli prodotti utilizzando altri dataset.

Apprendimento Continuo con Dynosaur

La natura dinamica di Dynosaur consente anche ai modelli di apprendere continuamente. Il concetto di apprendimento continuo si concentra sull'addestramento dei modelli su nuovi compiti senza dimenticare quelli già appresi. Questo è particolarmente importante man mano che diventano disponibili più dati.

Strategie di Replay

Nell'apprendimento continuo, ripetere compiti precedenti può aiutare i modelli a mantenere le prestazioni su quei compiti mentre apprendono nuovi. Possono essere utilizzate diverse strategie per selezionare quali compiti ripetere. Ad esempio, i compiti possono essere scelti in base a quanto sono simili ai nuovi compiti. Esperimenti hanno mostrato che utilizzare rappresentazioni diverse delle istruzioni per il replay ha migliorato le prestazioni.

Affrontare le Limitazioni

Anche se Dynosaur presenta un approccio promettente, ci sono alcune limitazioni. Attualmente si concentra solo su dataset in inglese, lasciando poco esplorati i dataset multilingue. Inoltre, anche se la qualità complessiva dei dati di Dynosaur è alta, alcune voci non valide rimangono. Un lavoro continuo mira a risolvere questi problemi e a migliorare ulteriormente la qualità dei dati.

Conclusione

Dynosaur rappresenta un significativo avanzamento nel campo della cura dei dati per il tuning delle istruzioni. Sfruttando i dataset esistenti e i loro metadati, può produrre in modo efficiente dati di alta qualità per il tuning delle istruzioni a un costo inferiore. La capacità di crescere e adattarsi a nuovi dati lo rende uno strumento prezioso per migliorare le prestazioni dei modelli linguistici nella comprensione e nell'esecuzione delle istruzioni. Man mano che il panorama del NLP continua a evolversi, innovazioni come Dynosaur saranno cruciali nel plasmare il futuro del tuning delle istruzioni.

Fonte originale

Titolo: Dynosaur: A Dynamic Growth Paradigm for Instruction-Tuning Data Curation

Estratto: Instruction tuning has emerged to enhance the capabilities of large language models (LLMs) to comprehend instructions and generate appropriate responses. Existing methods either manually annotate or employ LLM (e.g., GPT-series) to generate data for instruction tuning. However, they often overlook associating instructions with existing annotated datasets. In this paper, we propose Dynosaur, a dynamic growth paradigm for the automatic curation of instruction-tuning data. Based on the metadata of existing datasets, we use LLMs to automatically construct instruction-tuning data by identifying relevant data fields and generating appropriate instructions. By leveraging the existing annotated datasets, Dynosaur offers several advantages: 1) it reduces the API cost for generating instructions (e.g., it costs less than $12 USD by calling GPT-3.5-turbo for generating 800K instruction tuning samples; 2) it provides high-quality data for instruction tuning (e.g., it performs better than Alpaca and Flan on Super-NI and Longform with comparable data sizes); and 3) it supports the continuous improvement of models by generating instruction-tuning data when a new annotated dataset becomes available. We further investigate a continual learning scheme for learning with the ever-growing instruction-tuning dataset, and demonstrate that replaying tasks with diverse instruction embeddings not only helps mitigate forgetting issues but generalizes to unseen tasks better. Code and data are available at https://github.com/WadeYin9712/Dynosaur.

Autori: Da Yin, Xiao Liu, Fan Yin, Ming Zhong, Hritik Bansal, Jiawei Han, Kai-Wei Chang

Ultimo aggiornamento: 2023-10-26 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2305.14327

Fonte PDF: https://arxiv.org/pdf/2305.14327

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili