Entwicklung eines thailändischen Finanz-Sprachmodells
Ein spezialisiertes Modell für thailändische Finanzen mit innovativen Techniken erstellen.
KBTG Labs, Atthakorn Petchsod, Pornchanan Balee, Danupat Khamnuansin, Anuruth Lertpiya, Chanatip Saetia, Tawunrat Chalothorn, Thadpong Pongthawornkamol, Monchai Lertsutthiwong
― 9 min Lesedauer
Inhaltsverzeichnis
- Der Aufstieg der grossen Sprachmodelle
- Die Lücke füllen
- So haben wir's gemacht
- Das Modell erstellen
- Training verbessern
- Ein kurzer Überblick über unsere Arbeit
- Finanzbereich LLMs
- Was ist die Investment Consultant Lizenzprüfung?
- Grundlagenprodukt (P1)
- Komplexes Produkt 1 (P2)
- Komplexes Produkt 2 (P3)
- Die Technik hinter ReLoRA
- Daten vorbereiten
- Aufschlüsselung
- Smarte Datenaugmentation
- Selbstüberwachende Datenaugmentation
- Mehrere Systemaufforderungen zur Augmentation
- Multiple-Choice-Mischung
- Multi-LLM-Antwortgenerierung
- Frage-Antwort-Generierung aus Markdown
- Das Modell optimieren
- Fortlaufendes Pre-Training
- Überwachtes Feintuning
- Direkte Präferenzoptimierung
- Experimentelle Einrichtung
- Trainingsdatensatz
- Öffentliche Praxisprüfung für Investment Consultants
- Ergebnisse
- Fazit
- Danksagungen
- Originalquelle
Grosse Sprachmodelle (LLMs) sind die Superhelden der Textaufgaben. Die können ziemlich viel gut. Aber wenn's um Nischenbereiche wie Finanzen geht, stolpern die über fancy Fachbegriffe und lokale Regeln. Modelle wie FinGPT und BloombergGPT sind für die thailändische Finanzszene nicht gemacht. Die wissen nicht, wie man mit dem lokalen Geldgespräch umgeht.
Um das zu beheben, haben wir ein spezielles thailändisches Finanz-LLM zusammengebastelt, und zwar mit Prüfungsfragen aus dem Investment Consultant Examen in Thailand. Da unser Datensatz kleiner war als erhofft, haben wir ihn mit ein paar coolen Tricks wie Datenaugmentation, ReLoRA für schnelles Training und anderen Methoden aufgepeppt, damit das Modell thailändische Finanzen besser versteht. Wir haben das Modell durch Probeprüfungen geschickt, um zu sehen, wie es abschneidet, und es hat ziemlich gut abgeschnitten: 72 % in den ersten beiden Levels und 84 % im dritten.
Der Aufstieg der grossen Sprachmodelle
In den letzten Jahren haben LLMs bei vielen Aufgaben ordentlich aufgeholt, besonders bei Gesprächen. Diese Modelle lernen allgemeine Sachen aus einer Menge Text. Ein Star in diesem Bereich ist Llama 3.1. Der hat bei Gesprächsaufgaben ohne Spickzettel abgeräumt.
Aber hier ist der Haken: LLMs haben bei kniffligen, spezialisierten Begriffen in bestimmten Bereichen ihre Schwierigkeiten. Die verlieren sich im finanziellen Jargon, was wir in der Finanzwelt wirklich brauchen. Die müssen den Sinn hinter komplexen Begriffen und Berechnungen verstehen und dabei die lokalen Regeln einhalten. Aber hey, kein Stress!
Neuere Modelle wie FinGPT und BloombergGPT versuchen, besser zu werden. Trotzdem verstehen die nicht wirklich die thailändische Finanzlandschaft. Da gibt's eine Lücke, die gefüllt werden muss.
Die Lücke füllen
Wir haben diese Lücke gesehen und dachten: "Warum nicht ein Modell erstellen, das thailändische Finanzen wirklich versteht?" Also haben wir das Investment Consultant Examen von der thailändischen Börse als Trainingsgrundlage genommen. Da wir mit einem kleinen Datensatz gearbeitet haben, haben wir bei der Datenaugmentation richtig Gas gegeben. Dieser Zaubertrick multipliziert unsere Daten, damit unser Modell schlauer wird.
Wir haben eine Methode namens ReLoRA verwendet, um das Training schneller und effizienter zu machen. Ausserdem haben wir zwei spezielle Trainingssessions entworfen, um das Modell auf realistische Prüfungssituationen vorzubereiten. Die Ergebnisse waren beeindruckend – unser Modell hat mit Bravour bestanden!
So haben wir's gemacht
Das Modell erstellen
Wir haben von Grund auf ein Sprachmodell aufgebaut, das sich auf den thailändischen Finanzbereich konzentriert. Um etwas Abwechslung reinzubringen, haben wir den Datensatz des Investment Consultant Examens genommen und durch clevere Augmentationstechniken noch mehr Daten hinzugefügt.
Training verbessern
Wir haben es dem Modell leichter gemacht zu lernen mit ReLoRA. Diese Technik erlaubt uns, grosse Modelle schneller zu trainieren, während sie stark bleiben. Durch fortlaufendes Pretraining haben wir sichergestellt, dass das Modell die Grundlagen der Finanzen gut beherrscht, bevor es tiefer in spezielle Themen eintaucht. Und zum Feintuning haben wir Rank-Stabilized LoRA verwendet, was fancy klingt, aber einfach nur bedeutet, dass wir die Stabilität während der Verbesserungen gewahrt haben.
Wir haben auch zwei Trainingsmethoden entwickelt: Eine, die reale Prüfungsbedingungen nachahmt, und eine andere, die dem Modell hilft, aus seinen Fehlern zu lernen. Mit diesen Strategien wurde unser Modell so optimiert, dass es jede Frage bewältigen kann, die man ihm stellt.
Ein kurzer Überblick über unsere Arbeit
-
Entwicklung des thailändischen Finanz-LLMs: Wir haben ein Modell speziell für die thailändischen Finanzen mit dem Investment Consultant Examen gebaut.
-
Datenaugmentation: Wir haben Techniken eingesetzt, um unseren begrenzten Datensatz zu vergrössern und unser Modell klüger zu machen.
-
Effizientes Training: Wir haben ReLoRA verwendet, um das Beste aus unserer Trainingszeit und -ressourcen herauszuholen, während wir sicherstellten, dass das Modell effektiv lernt.
-
Prüfungssimulation und Feedback: Wir haben eine realistische Prüfungsumgebung geschaffen und Feedback genutzt, um das Modell kontinuierlich zu verbessern.
Mit diesen kombinierten Techniken haben wir ein LLM entworfen, das finanzielle Beratungsfragen wie ein Profi angeht!
Finanzbereich LLMs
LLMs sind nützlich für Finanzaufgaben, weil sie verschiedene Sprachherausforderungen bewältigen können. Jedes Modell hat seine Stärken, wie Unterstützung mehrerer Sprachen oder Schnelligkeit. Aber das reicht nicht aus. Die müssen sich anpassen, um den spezifischen Bedürfnissen der Finanzwelt gerecht zu werden.
Einige Modelle wie FinBERT konzentrieren sich nur auf Sentiment-Analyse in Finanztexten. FLUE und sein Ableger FLANG-BERT dienen als Benchmarks für finanzielles Verständnis. BloombergGPT hat zugängliche Schatztruhen mit Finanzdaten, um Finanzaufgaben zu meistern, während FinGPT alles dafür tut, um Finanzen durch Open-Source-Techniken zugänglicher zu machen.
Allerdings sind viele bestehende Modelle, wenn's um thailandspezifisches Wissen geht, nicht gut genug. Die verfehlen häufig die lokalen Regeln und Akzeptanz, was zu etwas peinlichen Missverständnissen führen kann.
Was ist die Investment Consultant Lizenzprüfung?
Die Investment Consultant Lizenzprüfung ist ein erforderlicher Test für Fachleute, die in Thailand Anlageberatung geben wollen. Sie hat drei Stufen: P1, P2 und P3. Jede Stufe baut auf der vorherigen auf, damit die Kandidaten wissen, was sie tun.
Grundlagenprodukt (P1)
Diese Basisstufe behandelt drei zentrale Bereiche:
- Fundamentales Wissen: Dinge wie Investitionsumgebungen und Risiko.
- Verwandte Regeln und Vorschriften: Verständnis der rechtlichen Seite.
- Produktwissen: Hier geht’s um verschiedene Finanzprodukte wie Aktien und Anleihen.
Sie besteht aus 100 Multiple-Choice-Fragen, und man muss mindestens 70 % erreichen, um zu bestehen.
Komplexes Produkt 1 (P2)
Diese Stufe geht tiefer und konzentriert sich auf komplexe Finanzprodukte wie strukturierte Anleihen und Investmentfonds. Sie hat 25 Multiple-Choice-Fragen und erfordert ebenfalls mindestens 70 %, um zu bestehen.
Komplexes Produkt 2 (P3)
Hier geht's in die Vollen, es werden Derivate wie Futures und Optionen behandelt. Sie besteht aus 50 Multiple-Choice-Fragen, und auch hier braucht man mindestens 70 %, um zu bestehen.
Die Technik hinter ReLoRA
ReLoRA ist eine clevere Methode, um grosse Modelle zu trainieren, ohne Ressourcen zu verschwenden. Es funktioniert durch low-rank Updates, was fancy klingt, aber letztlich heisst, dass das Modell sich verbessert, ohne den Computer zu überfordern.
Wie funktioniert's?
- Initiale Trainingsphase: Man startet mit vollem Rangtraining, um eine solide Basis zu schaffen.
- Low-Rank Updates: Leichtere Updates werden angewendet, um den Prozess am Laufen zu halten.
- Lernratenplan: Der Lernrhythmus wird zurückgesetzt, um ein flüssiges Training zu gewährleisten.
- Optimizer-Rücksetzungen: Teile des Optimizers werden aufgefrischt, um nicht festzustecken.
Dieses clevere System beschleunigt nicht nur den Trainingsprozess, sondern macht ihn auch ressourcenschonender, was Musik in den Ohren von jeden ist, der Geld sparen will.
Daten vorbereiten
Mit grossen Dokumenten umzugehen, kann knifflig sein, besonders bei der Vorbereitung von Daten für das Training. Wir haben eine Technik namens Dynamic Markdown Chunking verwendet. Diese Methode schneidet grosse Dokumente in kleinere, handhabbare Teile, während alles logisch und thematisch bleibt.
Aufschlüsselung
-
Erste Chunking: Wir teilen das Dokument basierend auf seinen Überschriften, damit jedes Stück im Kontext vollständig ist.
-
Weiteres Teilen: Wenn ein Chunk zu gross wird, teilen wir ihn weiter unter Verwendung logischer Unterteilungen wie Absätze.
So kann unser Modell die Informationen leichter verarbeiten und bleibt dabei relevant.
Smarte Datenaugmentation
Mit unserem Trainingsdatensatz, der aus Prüfungsfragen und einer Menge Studienmaterial besteht, mussten wir sicherstellen, dass unser Modell scharf und bereit für alles bleibt. Also haben wir mehrere Datenaugmentierungstricks angewendet.
Selbstüberwachende Datenaugmentation
Um Gründe für Prüfungsfragen zu erstellen, hat das Modell Gründe für jede Antwortwahl produziert. So konnte es aus richtigen und sogar falschen Antworten lernen.
Mehrere Systemaufforderungen zur Augmentation
Wir haben denselben Prüfungsinhalt auf verschiedene Arten präsentiert. Dieser Ansatz hat das Modell an verschiedene Szenarien gewöhnt, um es auf unterschiedliche Fragetypen vorzubereiten.
Multiple-Choice-Mischung
Um das Modell auf die Fragen zu konzentrieren und nicht auf die Reihenfolge der Antworten, haben wir die Antwortmöglichkeiten gemischt. So musste es auf den Inhalt achten und nicht auf Muster.
Multi-LLM-Antwortgenerierung
Wir haben die Power mehrerer Modelle genutzt, um verschiedene Antworten auf jede Frage zu erzeugen, was unseren Datensatz bereichert und das Lernen des Modells verbessert hat.
Frage-Antwort-Generierung aus Markdown
Mit der Struktur von Markdown-Dokumenten haben wir Frage-Antwort-Paare basierend auf den Überschriften und den entsprechenden Inhalten erstellt. So hatten wir einen Schatz an sinnvollen Fragen und Antworten für das Training.
Das Modell optimieren
Fortlaufendes Pre-Training
Wir haben das Modell auf einem Teil unserer Studienmaterialien mit Chunks von Markdown-Daten vortrainiert, damit es die Grundlagen der Finanzen versteht.
Überwachtes Feintuning
Wir haben zwei Methoden verwendet:
-
CoT auf Reasoning: Diese Methode hat die Denkfähigkeiten des Modells verbessert, indem sie es dazu brachte, die richtigen Antworten zu erklären.
-
Frage-Antwort-Feintuning: Hier haben wir mit mehreren Frage-Antwort-Paaren trainiert, um seine Anpassungsfähigkeit und Generalisierung zu verbessern.
Direkte Präferenzoptimierung
Wir haben zwei Varianten von DPO angewendet, um die Denkfähigkeiten des Modells zu schärfen:
-
CoT auf Reasoning: Diese Variante half dem Modell, die besten Erklärungen zu generieren.
-
Zero-shot-Lernen mit Shuffle: Der Fokus hier lag darauf, den Inhalt über die Position zu priorisieren.
Experimentelle Einrichtung
Um zu sehen, wie gut unser Modell funktioniert, haben wir Tests an öffentlichen IC-Prüfungen durchgeführt. Wir haben verschiedene kommerziell verfügbare Modelle und anweisungsgetunte Basis-Modelle verwendet, um die Leistung zu benchmarken.
Trainingsdatensatz
Unser Datensatz enthielt:
-
Probeprüfungen: Eine begrenzte Anzahl von simulierten Tests, die alle drei Prüfungsstufen abdeckten.
-
Studienmaterialien: Über 1,3 Millionen Tokens an Inhalten, die viele wichtige finanzielle Themen behandeln.
Öffentliche Praxisprüfung für Investment Consultants
Wir haben die von der SET bereitgestellten Übungsexamen als unsere Testdaten ausgewählt. So konnten wir unsere Ergebnisse nahtlos mit bekannten Benchmarks vergleichen.
Ergebnisse
Nach unseren Tests zeigte sich eine lebhafte Leistung unter den Modellen. Kommerzielle APIs wie gpt-4o erzielten robuste Ergebnisse in allen Tests. Aber was noch aufregender war, war, dass unser hauseigenes Modell, THaLLE-IC, ebenfalls gut abschnitt, besonders in der kniffligen P3-Prüfung.
Fazit
In diesem Bericht haben wir den Weg zur Erstellung von THaLLE-IC behandelt, einem Modell, das speziell für den thailändischen Finanzbereich entwickelt wurde. Durch clevere Daten- und Trainingsstrategien haben wir es ausgestattet, um mit echten Prüfungsfragen umzugehen.
Während kommerzielle Modelle tendenziell überall glänzen, beweist THaLLE-IC, dass gut abgestimmte Open-Source-Modelle mithalten können und vielversprechende Leistungen zu einem Bruchteil der Kosten bieten. Klar ist, dass wir mit dem richtigen Ansatz smarte Modelle noch smarter machen können, ohne das Budget zu sprengen.
Danksagungen
Danke an alle, die uns unterstützt haben, dieses Projekt zum Leben zu erwecken, besonders an unsere Projektmanager und leitenden Teammitglieder.
Titel: Thai Financial Domain Adaptation of THaLLE -- Technical Report
Zusammenfassung: Large Language Models (LLMs) excel in general tasks but struggle with domain-specific challenges, such as specialized terminology and localized regulations. Existing financial LLMs, like FinGPT and BloombergGPT, lack support for the Thai financial domain. We developed a Thai Financial LLM using the Investment Consultant (IC) exam dataset from the Stock Exchange of Thailand. To address dataset limitations, we applied data augmentation, ReLoRA for efficient training, Continued Pretraining (CPT) for domain knowledge, and Rank-Stabilized LoRA (rsLoRA) for fine-tuning. Supervised Fine-Tuning (SFT) simulated exam scenarios, while Direct Preference Optimization (DPO) refined the model using feedback. The model achieved scores of 72%, 72%, and 84% on IC exam levels P1, P2, and P3, respectively, demonstrating its effectiveness in Thai financial advisory tasks and its potential for specialized applications.
Autoren: KBTG Labs, Atthakorn Petchsod, Pornchanan Balee, Danupat Khamnuansin, Anuruth Lertpiya, Chanatip Saetia, Tawunrat Chalothorn, Thadpong Pongthawornkamol, Monchai Lertsutthiwong
Letzte Aktualisierung: 2024-11-27 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2411.18242
Quell-PDF: https://arxiv.org/pdf/2411.18242
Lizenz: https://creativecommons.org/licenses/by-sa/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.