Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica # Calcolo e linguaggio # Intelligenza artificiale

Sviluppare un modello linguistico finanziario tailandese

Creare un modello specialistico per la finanza thailandese tramite tecniche innovative.

KBTG Labs, Atthakorn Petchsod, Pornchanan Balee, Danupat Khamnuansin, Anuruth Lertpiya, Chanatip Saetia, Tawunrat Chalothorn, Thadpong Pongthawornkamol, Monchai Lertsutthiwong

― 9 leggere min


Sviluppo del Modello Sviluppo del Modello Finanziario Thailandese per la finanza tailandese. Un approccio mirato per addestrare LLM
Indice

I Grandi Modelli Linguistici (LLM) sono i supereroi delle faccende testuali. Se la cavano benissimo con tante cose. Però, quando si tratta di campi di nicchia come la finanza, inciampano sul gergo complicato e sulle regole locali. Modelli come FinGPT e BloombergGPT non sono adatti per la scena finanziaria thailandese. Non sanno come gestire il linguaggio del denaro locale.

Per risolvere questo problema, abbiamo creato un LLM Finanziario Thailandese speciale utilizzando le domande d’esame dell’esame di Consulente per gli Investimenti in Thailandia. Dato che il nostro dataset era più piccolo di quanto avremmo voluto, l’abbiamo arricchito con alcune tecniche fighissime come l’auto-augmentazione dei dati, ReLoRA per un training veloce, e altre per assicurarci che capisse meglio la finanza thailandese. Abbiamo messo il modello a confronto con degli esami simulati per vedere come si comportava, e ha fatto abbastanza bene, ottenendo il 72% nei primi due livelli e l’84% nel terzo.

L’Ascesa dei Grandi Modelli Linguistici

Negli ultimi anni, gli LLM sono diventati bravi in molte cose, soprattutto nelle conversazioni. Questi modelli imparano robe generali da un sacco di testo. Una delle star di questo show è Llama 3.1. Ha fatto il botto nei compiti di conversazione senza bisogno di un aiuto.

Ma ecco il punto: gli LLM possono avere difficoltà con termini complicati e specializzati in certi campi. Si perdono di fronte al linguaggio finanziario, che è qualcosa di cui abbiamo davvero bisogno in finanza. Devono capire il significato dietro ai termini e ai calcoli complessi, tutto mentre seguono le regole locali. Ma niente panico!

Modelli più recenti, come FinGPT e BloombergGPT, stanno alzando il livello. Tuttavia, non capiscono del tutto il panorama finanziario thailandese. C’è un vuoto da riempire.

Riempire il Vuoto

Abbiamo notato questo vuoto e abbiamo pensato: "Perché non costruire un modello che capisca davvero la finanza thailandese?" Così, abbiamo preso l’esame di Consulente per gli Investimenti dalla Borsa Thailandese come terreno di addestramento. Ma dato che stavamo lavorando con un dataset piccolo, abbiamo esagerato con l’auto-augmentazione dei dati. Questo trucco magico moltiplica i nostri dati per rendere il modello più intelligente.

Abbiamo usato un metodo chiamato ReLoRA per rendere l’addestramento più veloce ed efficiente. Inoltre, abbiamo progettato due sessioni di formazione speciali per preparare il modello a situazioni di esame reali. I risultati sono stati impressionanti: il nostro modello ha passato l’esame con ottimi risultati!

Come Abbiamo Fatto

Costruire il Modello

Siamo partiti da zero e abbiamo costruito un modello linguistico focalizzato sul dominio finanziario thailandese. Per diversificare un po’, abbiamo preso il dataset dell’esame da Consulente per gli Investimenti e abbiamo aggiunto più dati tramite tecniche di augmentazione intelligenti.

Migliorare l’Addestramento

Abbiamo reso più facile per il modello imparare usando ReLoRA. Questa tecnica ci consente di addestrare modelli grandi più rapidamente senza compromettere la loro forza. Utilizzando un pre-addestramento continuo, ci siamo assicurati che il modello fosse ben informato sulle basi della finanza prima di approfondire argomenti specifici. E per il fine-tuning, abbiamo usato Rank-Stabilized LoRA, che è solo un modo figo per dire che abbiamo mantenuto le cose stabili mentre facevamo miglioramenti.

Abbiamo anche creato due modalità di addestramento: una che simulava le condizioni reali dell’esame e un'altra che aiutava il modello a imparare dai propri errori. Con queste strategie, il nostro modello è stato perfezionato per affrontare qualsiasi domanda gli venisse proposta.

Una Panoramica del Nostro Lavoro

  1. Sviluppo del LLM Finanziario Thailandese: Abbiamo costruito un modello solo per la finanza thailandese utilizzando l’esame di Consulente per gli Investimenti.

  2. Auto-Augmentazione dei Dati: Abbiamo impiegato tecniche per aumentare il nostro dataset limitato, rendendo il nostro modello più intelligente.

  3. Addestramento Efficiente: Abbiamo usato ReLoRA per ottenere il massimo dal nostro tempo e risorse di addestramento assicurando che il modello apprendesse in modo efficace.

  4. Simulazione dell’Esame e Feedback: Abbiamo creato un ambiente d’esame realistico e utilizzato il feedback per migliorare continuamente il modello.

Con queste tecniche combinate, abbiamo creato un LLM che può affrontare domande di consulenza finanziaria come un professionista!

LLM nel Dominio Finanziario

Gli LLM sono utili per compiti finanziari poiché riescono a gestire diverse sfide linguistiche. Ogni modello ha i suoi punti di forza, come supportare più lingue o essere veloce. Ma non basta. Devono adattarsi per soddisfare le esigenze specifiche del mondo della finanza.

Alcuni modelli come FinBERT si concentrano esclusivamente sull’analisi del sentiment nei testi finanziari. FLUE e il suo derivato FLANG-BERT fungono da riferimenti per la comprensione finanziaria. BloombergGPT detiene tesori di dati finanziari per affrontare compiti finanziari, mentre FinGPT è tutto incentrato sull’aprire l’accesso alla finanza attraverso tecniche open-source.

Tuttavia, molti modelli esistenti non riescono quando si tratta di conoscenze specifiche thailandesi. Spesso non colgono le regole locali e l’accettazione, il che può portare a incomprensioni imbarazzanti.

Cos’è l’Esame per la Licenza di Consulente per gli Investimenti?

L’Esame per la Licenza di Consulente per gli Investimenti è un test obbligatorio per i professionisti che vogliono dare consigli d’investimento in Thailandia. Ha tre livelli: P1, P2 e P3. Ogni livello si basa sul precedente, assicurando che i candidati sappiano cosa stanno facendo.

Prodotto Base (P1)

Questo livello base guarda a tre aree chiave:

  • Conoscenze Fondamentali: Cose come ambienti d’investimento e rischi.
  • Regole e Regolamenti Correlati: Comprensione del lato legale.
  • Conoscenza del Prodotto: Questo copre diversi prodotti finanziari come azioni e obbligazioni.

Si compone di 100 domande a scelta multipla, e devi ottenere almeno il 70% per passare.

Prodotto Complesso 1 (P2)

Questo livello va più a fondo, concentrandosi su prodotti finanziari complessi come obbligazioni strutturate e fondi comuni. Ha 25 domande a scelta multipla e richiede anche almeno il 70% per passare.

Prodotto Complesso 2 (P3)

Qui siamo nei grandi campionati, coprendo derivati come futures e opzioni. Si compone di 50 domande a scelta multipla, e hai di nuovo bisogno di almeno il 70% per passare.

La Meccanica Dietro ReLoRA

ReLoRA è un modo intelligente per addestrare grandi modelli senza sprecare risorse. Funziona utilizzando aggiornamenti a bassa dimensione, che suona complicato ma significa semplicemente che il modello migliora senza sfinire il tuo computer.

Come Funziona?

  • Fase di Addestramento Iniziale: Inizia con l’addestramento a piena dimensione per stabilire una base solida.
  • Aggiornamenti a Bassa Dimensione: Applica aggiornamenti più leggeri per mantenere il flusso.
  • Piano di Apprendimento: Ripristina il ritmo di apprendimento per mantenere un’addestramento fluido.
  • Ripristini dell’Ottimizzatore: Rinfresca parti dell’ottimizzatore per evitare di arenarsi.

Questo sistema astuto non solo accelera il processo di addestramento, ma lo rende anche meno intensivo in termini di risorse, il che fa felice chiunque voglia risparmiare soldi.

Preparare i Dati

Gestire documenti grandi può essere complicato, soprattutto quando si prepara il dato per l’addestramento. Abbiamo usato una tecnica chiamata Dynamic Markdown Chunking. Questo metodo suddivide documenti lunghi in pezzi più piccoli e gestibili mantenendo tutto logico e pertinente.

Scomposizione

  1. Chunking Iniziale: Suddividiamo il documento in base alle sue intestazioni, assicurandoci che ogni pezzo sia completo nel suo contesto.

  2. Ulteriore Suddivisione: Se un chunk diventa troppo grande, lo riduciamo ulteriormente utilizzando divisioni logiche come i paragrafi.

In questo modo, il nostro modello può digerire le informazioni più facilmente, mantenendo tutto rilevante.

Auto-Augmentazione Intelligente dei Dati

Con il nostro dataset di addestramento pieno di domande d’esame e un buon numero di materiali di studio, dovevamo assicurarci che il nostro modello rimanesse sveglio e pronto per qualsiasi cosa. Quindi, abbiamo impiegato diversi trucchi di auto-augmentazione dei dati.

Auto-Augmentazione dei Dati Auto-Supervisionata

Per creare dati di ragionamento per le domande d’esame, abbiamo fatto in modo che il modello producesse ragioni per ogni opzione di risposta. In questo modo, poteva imparare dalle risposte corrette e anche da quelle sbagliate.

Augmentazione dei Prompt di Sistema Multipli

Abbiamo presentato lo stesso contenuto d’esame in modi diversi. Questo approccio ha abituato il modello a una varietà di scenari, preparandolo per diversi tipi di domande.

Mischiare le Risposte a Scelta Multipla

Per mantenere il modello concentrato sulle domande e non sull’ordine delle risposte, abbiamo mescolato le opzioni di risposta. In questo modo, doveva prestare attenzione al contenuto piuttosto che ai modelli.

Generazione di Risposte Multi-LLM

Abbiamo sfruttato il potere di più modelli per produrre diverse risposte per ogni domanda, arricchendo il nostro dataset e migliorando l’apprendimento del modello.

Generazione di Domande-Risposte da Markdown

Utilizzando la struttura dei documenti markdown, abbiamo generato coppie di domande-risposte basate sulle intestazioni e sui loro contenuti corrispondenti. Questo ci ha fornito un tesoro di domande e risposte significative per l’addestramento.

Ottimizzare il Modello

Pre-Addestramento Continuo

Abbiamo pre-addestrato il modello su una parte dei nostri materiali di studio utilizzando chunk di dati markdown per aiutarlo a comprendere le basi della finanza.

Fine-Tuning Supervisato

Abbiamo usato due metodi:

  1. CoT sul Ragionamento: Questo metodo ha potenziato le abilità di ragionamento del modello facendogli spiegare le risposte corrette.

  2. Fine-Tuning Domanda-Risposta: Qui, abbiamo addestrato con diverse coppie di domanda-risposta, migliorando la sua adattabilità e generalizzazione.

Ottimizzazione Diretta delle Preferenze

Abbiamo applicato due varianti di DPO per affinare le abilità di ragionamento del modello:

  1. CoT sul Ragionamento: Questa variante ha aiutato il modello a generare le migliori spiegazioni.

  2. Apprendimento Zero-shot con Mischiamento: Qui, ci siamo concentrati sulla priorità dei contenuti rispetto alla posizione.

Configurazione Sperimentale

Per vedere quanto bene funzionava il nostro modello, abbiamo effettuato test su esami pubblici IC. Abbiamo usato vari modelli commerciali disponibili e modelli fondamentali ottimizzati per confronto delle prestazioni.

Dataset di Addestramento

Il nostro dataset conteneva:

  • Esami Simulati: Un numero limitato di test simulati che coprivano tutti e tre i livelli d’esame.

  • Materiali di Studio: Oltre 1,3 milioni di token di contenuti su molti argomenti finanziari importanti.

Esame di Pratica Pubblica per Consulenti d’Investimenti

Abbiamo scelto gli esami di pratica forniti dal SET come nostri dati di test. Questo ci ha permesso di confrontare i nostri risultati con benchmark noti senza problemi.

Risultati

Dopo aver eseguito i nostri test, i risultati mostrano una performance viva tra i modelli. API commerciali come gpt-4o hanno mostrato punteggi robusti in tutti i test. Ma ciò che è stato ancora più emozionante è che il nostro modello fatto in casa, THaLLE-IC, si è difeso bene, soprattutto nell’esame più difficile P3.

Conclusione

In questo report, abbiamo coperto il percorso di creazione di THaLLE-IC, un modello progettato specificamente per il dominio finanziario thailandese. Grazie a strategie di dati e addestramento intelligenti, siamo riusciti a dotarlo delle competenze necessarie per affrontare domande d’esame del mondo reale.

Mentre i modelli commerciali tendono a brillare in tutto, THaLLE-IC dimostra che modelli open-source ben ottimizzati possono competere, offrendo prestazioni promettenti a una frazione del costo. Mentre andiamo avanti, è chiaro che con l’approccio giusto, possiamo rendere modelli intelligenti ancora più intelligenti senza spendere una fortuna.

Riconoscimenti

Grazie a tutti coloro che ci hanno supportato nel portare questo progetto alla vita, specialmente ai nostri project manager e membri principali del team.

Fonte originale

Titolo: Thai Financial Domain Adaptation of THaLLE -- Technical Report

Estratto: Large Language Models (LLMs) excel in general tasks but struggle with domain-specific challenges, such as specialized terminology and localized regulations. Existing financial LLMs, like FinGPT and BloombergGPT, lack support for the Thai financial domain. We developed a Thai Financial LLM using the Investment Consultant (IC) exam dataset from the Stock Exchange of Thailand. To address dataset limitations, we applied data augmentation, ReLoRA for efficient training, Continued Pretraining (CPT) for domain knowledge, and Rank-Stabilized LoRA (rsLoRA) for fine-tuning. Supervised Fine-Tuning (SFT) simulated exam scenarios, while Direct Preference Optimization (DPO) refined the model using feedback. The model achieved scores of 72%, 72%, and 84% on IC exam levels P1, P2, and P3, respectively, demonstrating its effectiveness in Thai financial advisory tasks and its potential for specialized applications.

Autori: KBTG Labs, Atthakorn Petchsod, Pornchanan Balee, Danupat Khamnuansin, Anuruth Lertpiya, Chanatip Saetia, Tawunrat Chalothorn, Thadpong Pongthawornkamol, Monchai Lertsutthiwong

Ultimo aggiornamento: 2024-11-27 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2411.18242

Fonte PDF: https://arxiv.org/pdf/2411.18242

Licenza: https://creativecommons.org/licenses/by-sa/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Articoli simili