Textklassifikation mit LLMs verbessern
Diese Studie verbessert die Genauigkeit der Textklassifizierung mit einem neuen Framework für LLMs.
― 4 min Lesedauer
Inhaltsverzeichnis
Textklassifizierung ist eine gängige Aufgabe in der Verarbeitung natürlicher Sprache, bei der Texte in Kategorien sortiert werden. Obwohl diese Aufgabe in vielen praktischen Fällen wichtig ist, bleibt sie herausfordernd, insbesondere wenn es um grosse Sprachmodelle (LLMs) geht. Diese Studie untersucht, wie LLMs bei der Textklassifizierung Schwierigkeiten haben, weil es Variationen in der Anzahl und Anordnung der Optionen gibt, was zu Genauigkeitsproblemen führt.
Die Herausforderungen bei der Textklassifizierung
LLMs stehen bei der Textklassifizierung vor zwei Hauptproblemen: mehrdeutige Entscheidungsgrenzen und inhärente Vorurteile. Mehrdeutige Entscheidungsgrenzen treten auf, wenn Optionen einander zu ähnlich sind, was es den Modellen schwer macht, die richtige zu wählen. Inherente Vorurteile entwickeln sich, wenn Modelle dazu neigen, bestimmte Tokens oder Positionen basierend auf vorherigen Datenbegegnungen zu bevorzugen.
Zum Beispiel könnte ein Modell gut abschneiden, wenn es die richtige Antwort aus zwei Optionen ermittelt, aber erheblich Schwierigkeiten haben, wenn die Optionen auf zehn oder mehr steigen. Unsere Ergebnisse deuten darauf hin, dass viele LLMs erhebliche Einschränkungen haben, wenn die Anzahl der Optionen steigt oder wenn diese Optionen eng miteinander verwandt sind.
Vorgeschlagene Lösung
Um LLMs bei der Textklassifizierung effektiver zu machen, schlagen wir ein neues zweistufiges Framework vor. Dieser Ansatz konzentriert sich darauf, die Anzahl der Optionen zu reduzieren und sie dann paarweise zu vergleichen. Unser Framework besteht aus zwei Hauptphasen: Reduzierung und Vergleich.
Reduzierungsphase
In dieser Phase zielen wir darauf ab, die Anzahl der Wahlmöglichkeiten durch zwei Techniken zu minimieren: Iterative Top Reduktion (ITR) und Cluster-basierte Fensterreduktion (CBWR).
- Iterative Top Reduktion (ITR) konzentriert sich darauf, die wahrscheinlichsten Optionen aus einer grösseren Menge durch mehrere Filterrunden auszuwählen.
- Cluster-basierte Fensterreduktion (CBWR) gruppiert Optionen basierend auf ihren Ähnlichkeiten, was Verwirrung bei eng verwandten Auswahlmöglichkeiten verhindert. Diese Technik hilft, die Optionen effektiv einzugrenzen.
Vergleichsphase
In der Vergleichsphase verwenden wir eine Methode namens Contrastive Chain-of-Thought (PC-CoT). Diese Methode vergleicht Optionen paarweise, sodass das Modell Ähnlichkeiten und Unterschiede tiefgründig analysieren kann. Auf diese Weise kann das Modell informiertere Entscheidungen treffen, anstatt sich auf oberflächliche Vorurteile wie die Positionen der Optionen zu verlassen.
Experimentelle Einrichtung
Wir haben unser Framework über mehrere Datensätze getestet, einschliesslich bekannter Benchmarks wie Banking77, HWU64, LIU54 und Clinic150. Diese Datensätze bieten eine vielfältige Palette an Klassifizierungsherausforderungen, die sie zur Bewertung der Effektivität unseres Ansatzes geeignet machen.
Unsere Experimente umfassten den Vergleich verschiedener LLMs, darunter GPT-3.5, LLaMA2 und Qwen. In jedem Szenario bewerteten wir sowohl die traditionellen Methoden der Klassifizierung als auch unser vorgeschlagenes Framework und notierten die Unterschiede in der Leistung.
Ergebnisse und Erkenntnisse
Aus unseren Experimenten haben wir festgestellt, dass LLMs generell besser mit weniger Optionen abschneiden. Wenn sie einer grösseren Anzahl eng verwandter Wahlmöglichkeiten ausgesetzt sind, sinkt die Leistung vieler Modelle stark.
Wichtige Beobachtungen
- Der Einfluss der Ähnlichkeit der Optionen: Höhere Ähnlichkeit unter den Optionen führte konsequent zu einem Leistungsabfall bei verschiedenen LLM-Typen.
- Zunehmende Optionen stellen Herausforderungen dar: Mit steigender Anzahl der Optionen nahm die Leistung über alle LLMs ab, selbst bei denen mit längeren Kontextfähigkeiten.
- Vorurteile aufgrund von Positionsoptionen: Bestimmte Modelle zeigten merkliche Vorurteile gegenüber bestimmten Positionen der richtigen Antworten, was zu schwankender Leistung je nach Platzierung der Antwort führte.
Diskussion
Unsere Ergebnisse zeigen, dass LLMs Schwächen im Entscheidungsprozess bei der Textklassifizierung haben. Die Unfähigkeit, mehrdeutige Grenzen zu handhaben und inhärente Vorurteile zu überwinden, kann die Klassifikationsgenauigkeit erheblich beeinträchtigen.
Durch die Implementierung unseres zweistufigen Frameworks können wir die Stabilität und Zuverlässigkeit von LLMs bei Klassifizierungsaufgaben erheblich verbessern. Die Reduzierungsmethoden helfen, den Entscheidungsprozess zu vereinfachen, während paarweise Vergleiche eine tiefere Analyse der Optionen ermöglichen.
Fazit
Zusammenfassend lässt sich sagen, dass Textklassifizierung eine wesentliche Aufgabe ist, mit der LLMs konfrontiert sind, die jedoch Herausforderungen mit sich bringt. Unser vorgeschlagenes Framework geht auf diese Herausforderungen ein, indem es sich auf die Reduzierung der Optionen und die Nutzung paarweiser Vergleiche zur zuverlässigeren Entscheidungsfindung konzentriert. Umfangreiche experimentelle Ergebnisse unterstützen die Effektivität unseres Ansatzes über verschiedene LLMs hinweg.
Durch diese Arbeit hoffen wir, zur kontinuierlichen Verbesserung von LLMs in praktischen Anwendungen beizutragen, damit sie zuverlässiger und effektiver bei der Textklassifizierung abschneiden können.
Titel: Mitigating Boundary Ambiguity and Inherent Bias for Text Classification in the Era of Large Language Models
Zusammenfassung: Text classification is a crucial task encountered frequently in practical scenarios, yet it is still under-explored in the era of large language models (LLMs). This study shows that LLMs are vulnerable to changes in the number and arrangement of options in text classification. Our extensive empirical analyses reveal that the key bottleneck arises from ambiguous decision boundaries and inherent biases towards specific tokens and positions. To mitigate these issues, we make the first attempt and propose a novel two-stage classification framework for LLMs. Our approach is grounded in the empirical observation that pairwise comparisons can effectively alleviate boundary ambiguity and inherent bias. Specifically, we begin with a self-reduction technique to efficiently narrow down numerous options, which contributes to reduced decision space and a faster comparison process. Subsequently, pairwise contrastive comparisons are employed in a chain-of-thought manner to draw out nuances and distinguish confusable options, thus refining the ambiguous decision boundary. Extensive experiments on four datasets (Banking77, HWU64, LIU54, and Clinic150) verify the effectiveness of our framework. Furthermore, benefitting from our framework, various LLMs can achieve consistent improvements. Our code and data are available in \url{https://github.com/Chuge0335/PC-CoT}.
Autoren: Zhenyi Lu, Jie Tian, Wei Wei, Xiaoye Qu, Yu Cheng, Wenfeng xie, Dangyang Chen
Letzte Aktualisierung: 2024-06-11 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2406.07001
Quell-PDF: https://arxiv.org/pdf/2406.07001
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.