Verbesserung der Übersetzungsgenauigkeit mit Aufmerksamkeitsanpassungen
Methoden zur Verbesserung der Übersetzungsqualität in grossen Sprachmodellen.
― 5 min Lesedauer
Inhaltsverzeichnis
Grosse Sprachmodelle (LLMs) sind ziemlich beliebt geworden für Übersetzungen in verschiedenen Sprachen. Die können Übersetzungen produzieren, die auf den ersten Blick gut aussehen, aber viele machen sich Sorgen um ihre Genauigkeit. Im Gegensatz zu traditionellen Maschinenübersetzungssystemen haben diese Modelle keinen klaren Weg, den Text, von dem sie übersetzen, mit dem Text zu verbinden, in den sie übersetzen. Das kann zu Problemen führen, wo die Ausgabe nicht mit der ursprünglichen Bedeutung übereinstimmt.
Wenn diese Modelle Übersetzungen erstellen, schenken sie manchmal Wörtern, die sie vorher generiert haben, mehr Bedeutung, anstatt sich auf den ursprünglichen Text zu konzentrieren. Das kann zu Übersetzungen führen, die falsch oder irreführend sind. In diesem Artikel werden wir besprechen, wie wir dieses Problem angehen und die Qualität der von LLMs produzierten Übersetzungen verbessern können.
Übersetzung
Das Problem mit derLLMs können effektiv erscheinen, aber sie können auch Übersetzungen erzeugen, die den Quelltext nicht genau widerspiegeln. Ein Hauptgrund dafür ist, dass sie keine Methode haben, um nachzuhalten, welche Teile des ursprünglichen Textes für die Übersetzungen, die sie erstellen, wichtig sind. Diese fehlende direkte Verbindung kann dazu führen, dass die Modelle von der ursprünglichen Bedeutung abweichen.
Während des Übersetzungsprozesses neigen die Modelle dazu, sich auf die Wörter zu konzentrieren, die sie bereits produziert haben, anstatt konsistent zum Quelltext in Beziehung zu stehen. Das kann zu "Halluzinationen" führen, wo die Übersetzung Informationen enthält, die im ursprünglichen Text nie vorhanden waren, was Verwirrung stiftet und die übersetzte Ausgabe unzuverlässig macht.
Vorgeschlagene Lösungen
Um Übersetzungen zu verbessern, schlagen wir ein paar verschiedene Methoden vor, die LLMs dazu ermutigen, sich mehr auf den Quelltext zu konzentrieren. Diese Methoden können helfen, Fehler zu reduzieren und die Genauigkeit der Übersetzungen zu erhöhen.
1. Anpassung der Aufmerksamkeit auf den Quelltext
Eine Möglichkeit, dieses Problem anzugehen, besteht darin, zu ändern, wie viel Aufmerksamkeit das Modell dem Quelltext schenkt. Indem wir die Gewichtungen der Aufmerksamkeit, die das Modell verschiedenen Teilen des Quelltextes gibt, ändern, können wir ihm helfen, sich während der Übersetzung mehr auf die ursprünglichen Informationen zu konzentrieren. Das bedeutet, dass das Modell mehr auf die Wörter aus dem Quelltext achtet, die mit der Übersetzung zusammenhängen.
2. Reduzierung des Einflusses des Ziels
Ein anderer Ansatz ist, den Einfluss von zuvor generierten Wörtern auf die neuen Übersetzungen zu verringern. Das kann durch Techniken wie kontrastive Decodierung geschehen. Indem wir die Beziehung zwischen dem Quelltext und der Übersetzung betonen, können wir das Modell leiten, Entscheidungen zu treffen, die mehr mit dem ursprünglichen Text in Verbindung stehen, und somit die Gesamtqualität der Übersetzung verbessern.
3. Zielbeschränkte Anweisungstuning
Ausserdem können wir die Art und Weise, wie das Modell trainiert wird, verbessern, indem wir eine Methode verwenden, die es ermutigt, sich auf den gesamten Quelltext zu verlassen, anstatt nur auf Teile des Zielpräfixes. In diesem Fall trainieren wir das Modell, während wir ihm Anweisungen geben, die sowohl den kompletten Quelltext als auch nur Teile des Zieltextes einbeziehen. Das hilft dem Modell, den Fokus auf die ursprünglichen Informationen zu behalten, wenn es Übersetzungen generiert.
Experimentelle Ergebnisse
Wir haben mehrere Experimente durchgeführt, um die Effektivität unserer vorgeschlagenen Lösungen zu testen. Indem wir uns auf ungenaue Übersetzungen konzentriert haben, haben wir verschiedene Übersetzungsmodelle und ihre Leistung mit verschiedenen Techniken bewertet.
Die Ergebnisse zeigten, dass die Modifikation der Aufmerksamkeit auf den Quelltext sich positiv auf die Qualität der Übersetzungen auswirkte. Die angepasste Aufmerksamkeit half den Modellen, Übersetzungen zu produzieren, die treuer zum ursprünglichen Text waren. Ebenso führte die Reduzierung des Einflusses des Ziels zu einer besseren Übersetzungsqualität, insbesondere in Fällen, in denen es dem Modell schwerfiel, die ursprüngliche Bedeutung zu bewahren.
Als wir diese Strategien in die Methode des zielbeschränkten Anweisungstunings kombinierten, beobachteten wir weitere Verbesserungen. Diese Methode leitete das Modell dazu, Übersetzungen zu generieren, die genauer und kontextuell besser mit dem Quelltext verbunden waren.
Menschliche Bewertung
Während automatisierte Kennzahlen einige Einblicke in die Übersetzungsqualität bieten, wollten wir unsere Erkenntnisse durch menschliche Bewertungen validieren. Wir haben eine Reihe von Übersetzungen gesammelt und die Gutachter die Qualität bewerten lassen. Sie haben die Übersetzungen in drei Hauptkategorien klassifiziert: korrekt, Fehler und Halluzinationen.
Die menschlichen Bewertungen bestätigten, dass unsere vorgeschlagenen Methoden die Häufigkeit fehlerhafter Übersetzungen signifikant reduzierten. Die Verringerung der "halluzinatorischen" Übersetzungen war bemerkenswert, was darauf hindeutet, dass unser Ansatz das Kernproblem ungenauer Übersetzungen effektiv angegangen ist.
Verallgemeinerung auf andere Einstellungen
Unsere Methoden haben sich nicht nur beim Umgang mit ungenauen Übersetzungen als vielversprechend erwiesen, sondern auch bei allgemeinen Übersetzungsaufgaben. Wir haben die Leistung der Modelle auf standardisierten offenen Datensätzen wie Flores-101 und WMT22 bewertet, um zu sehen, ob sich die Verbesserungen in verschiedenen Szenarien bestätigen.
Die Ergebnisse zeigen, dass die vorgeschlagenen Anpassungen auch bei einfacheren Übersetzungsaufgaben vergleichbare Leistungen erzielen. Wir haben die Methoden auch über verschiedene Modelle ähnlicher Grössen evaluiert und bestätigt, dass die vorgeschlagenen Strategien konsistent angewendet werden können, was zu besseren Ergebnissen führt.
Fazit
Zusammenfassend lässt sich sagen, dass der Fokus auf den Quelltext entscheidend ist, um die Qualität der von grossen Sprachmodellen produzierten Übersetzungen zu verbessern. Durch die Anpassung der Aufmerksamkeitsmechanismen, die Reduzierung des Einflusses von Zielpräfixen und die Implementierung von zielbeschränktem Anweisungstuning haben wir bedeutende Fortschritte bei der Bewältigung der Herausforderungen ungenauer Übersetzungen erzielt.
Die positiven Ergebnisse unserer Experimente und menschlichen Bewertungen zeigen, dass unser Ansatz effektiv sein kann, um die Genauigkeit von Übersetzungen zu verbessern. Diese Methoden verbessern nicht nur die Leistung, sondern bieten auch Einblicke, wie LLMs besser für Übersetzungsaufgaben trainiert werden können. Zukünftige Forschung könnte diese Strategien erweitern und ihre Anwendbarkeit auf verschiedene Aufgaben der natürlichen Sprachverarbeitung über Übersetzungen hinaus erkunden.
Titel: Paying More Attention to Source Context: Mitigating Unfaithful Translations from Large Language Model
Zusammenfassung: Large language models (LLMs) have showcased impressive multilingual machine translation ability. However, unlike encoder-decoder style models, decoder-only LLMs lack an explicit alignment between source and target contexts. Analyzing contribution scores during generation processes revealed that LLMs can be biased towards previously generated tokens over corresponding source tokens, leading to unfaithful translations. To address this issue, we propose to encourage LLMs to pay more attention to the source context from both source and target perspectives in zeroshot prompting: 1) adjust source context attention weights; 2) suppress irrelevant target prefix influence; Additionally, we propose 3) avoiding over-reliance on the target prefix in instruction tuning. Experimental results from both human-collected unfaithfulness test sets focusing on LLM-generated unfaithful translations and general test sets, verify our methods' effectiveness across multiple language pairs. Further human evaluation shows our method's efficacy in reducing hallucinatory translations and facilitating faithful translation generation.
Autoren: Hongbin Zhang, Kehai Chen, Xuefeng Bai, Yang Xiang, Min Zhang
Letzte Aktualisierung: 2024-06-11 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2406.07036
Quell-PDF: https://arxiv.org/pdf/2406.07036
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://www.latex-project.org/help/documentation/encguide.pdf
- https://github.com/AzureStarz/paying_attention_to_the_source.git
- https://github.com/mjpost/sacrebleu
- https://github.com/Unbabel/COMET
- https://huggingface.co/Unbabel/wmt22-comet-da
- https://github.com/mt-upc/transformer-contributions-nmt
- https://opus.nlpl.eu
- https://github.com/huggingface/transformers
- https://huggingface.co/meta-llama/Llama-2-7b-chat-hf
- https://huggingface.co/bigscience/bloomz-7b1-mt
- https://huggingface.co/THUDM/chatglm3-6b
- https://huggingface.co/liuhaotian/llava-v1.6-vicuna-7b
- https://github.com/tatsu-lab/stanford
- https://github.com/tloen/alpaca-lora
- https://github.com/microsoft/DeepSpeed