Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Rechnen und Sprache# Künstliche Intelligenz

Verbesserung der Wissensgraph-Vervollständigung mit LLMs

Ein neues Framework verbessert die Effizienz und Genauigkeit der Wissensgraph-Vervollständigung mithilfe grosser Sprachmodelle.

― 8 min Lesedauer


LLMs verwandelnLLMs verwandelnWissensgraphen.LLMs.Wissensgraph-Vervollständigung mitNeue Methoden für effiziente
Inhaltsverzeichnis

Wissen Grafen (KGs) sind Strukturen, die reale Informationen speichern und verschiedene Datenstücke durch festgelegte Beziehungen verbinden. In einem KG werden Entitäten, wie Leute oder Orte, als Knoten dargestellt, während die Beziehungen zwischen ihnen als Kanten gezeigt werden. Diese Beziehung bildet Fakten im Triplet-Format: (Hauptentität, Beziehung, Nebentität).

Zum Beispiel könnte ein einfaches Faktum so dargestellt werden: (Eiffelturm, gelegen_in, Paris). KGs sind in vielen Anwendungen nützlich, wie etwa beim Beantworten von Fragen und beim Machen von Empfehlungen, aber sie haben oft ein Problem, das als Unvollständigkeit bekannt ist. Das bedeutet, dass nicht alle Fakten im Graphen erfasst werden können, was zu Fehlern in der Nutzung des KGs führen kann.

Das Problem der Unvollständigkeit

Unvollständigkeit in KGs kann die Leistung von Anwendungen, die auf ihnen basieren, beeinträchtigen. Wenn zum Beispiel eine Frage zu einem fehlenden Fakt gestellt wird, gibt das KG möglicherweise keine genaue Antwort, weil die benötigten Informationen einfach fehlen. Um dieses Problem zu lösen, haben Forscher Modelle entwickelt, die versuchen, fehlende Fakten vorherzusagen, indem sie aus dem schöpfen, was im KG bereits bekannt ist. Diese Modelle nennt man KG-Vervollständigungsmodelle.

Traditionelle Ansätze zur KG-Vervollständigung

Traditionell beruht KG-Vervollständigung auf Einbettungsmethoden. Diese Methoden berechnen einen Score für potenziell fehlende Entitäten basierend auf ihren Beziehungen zu bekannten Entitäten und ranken sie, um die wahrscheinlichsten Kandidaten auszuwählen. Entitäts- und Beziehungs-Einbettungen können mit der Struktur des KGs oder durch Textdaten, die für die Entitäten relevant sind, erlernt werden.

Kürzlich hat der Aufstieg grosser Sprachmodelle (LLMs) die Art und Weise, wie KGs vervollständigt werden, verändert. LLMs werden mit grossen Datenmengen trainiert und können Text generieren, was sie nützlich macht, um Vervollständigungen basierend auf dem Kontext des KGs zu erzeugen.

Übergang zu grossen Sprachmodellen

Einige moderne Ansätze wandeln KG-Vervollständigungsaufgaben in ein Textgenerierungsformat um. Das bedeutet, dass sich die Modelle zunächst nicht nur auf die Beziehungen innerhalb des KGs konzentrieren, sondern die Vervollständigungsanfrage in einen natürlichen Sprachstil umwandeln. Dann nutzen sie ein LLM, um eine Antwort zu generieren, die später wieder mit den Entitäten im KG verknüpft werden muss. Diese Re-Linkung kann jedoch Fehler einführen, weil der generierte Text nicht immer perfekt mit den vordefinierten Entitäten übereinstimmt.

Wenn zum Beispiel ein LLM eine Antwort generiert, die keine KG-Entität erwähnt, muss die Verbindung zum KG durch zusätzliche Schritte hergestellt werden, was potenziell zu falschen Vorhersagen führen kann.

Der Bedarf nach Verbesserung

Viele der bestehenden Methoden, die LLMs für die KG-Vervollständigung nutzen, maximieren nicht die Denkfähigkeiten dieser Modelle. Sie beinhalten oft mehrere Interaktionsrunden und können in Bezug auf Rechenressourcen kostspielig sein. Das liegt daran, dass sie auf iterativen Abfragen basieren, bei denen das Modell ständig nach Klarstellungen oder mehr Informationen fragen muss.

Unsere vorgeschlagene Methode zielt darauf ab, den Ansatz zur Vervollständigung von KGs zu verfeinern, indem der Prozess effizienter und genauer gestaltet wird, ohne stark auf diese ständigen Interaktionen angewiesen zu sein.

Ein neues Framework zur KG-Vervollständigung

Wir stellen ein neues Framework vor, das die Fähigkeit von LLMs verbessert, Lücken in Wissensgraphen effektiv zu schliessen. Dieses Framework verwendet eine Methode namens Diskriminationsinstruktions-Tuning, die es LLMs ermöglicht, zu lernen, wie sie die richtige Antwort aus einem Pool von Kandidaten auswählen.

Das Framework funktioniert, indem es zunächst eine Reihe möglicher Entitäten identifiziert, die einen fehlenden Fakt vervollständigen könnten, unter Verwendung eines leichtgewichtigen Einbettungsmodells. Dieses Modell bewertet die Kandidaten basierend auf ihrer Relevanz zum unvollständigen Fakt. Danach feintunen wir das LLM auf diese Kandidaten mit spezifischen Anweisungen, die dazu dienen, das LLM bei der richtigen Wahl zu leiten.

Der Feintuning-Prozess erklärt

Der Feintuning-Prozess beinhaltet, dem LLM Eingaben zu geben, die aus dem unvollständigen Fakt, Beschreibungen der Entitäten und verwandten Fakten bestehen. Das hilft dem LLM, den Kontext besser zu verstehen und seine Entscheidungsfähigkeiten zu verbessern. Ziel ist es, das Modell so zu trainieren, dass es Antworten strikt aus den vorgelegten Optionen generiert und die Fehler zu vermeiden, die in früheren Modellen manchmal zu irrelevanten oder falschen Ausgaben führten.

Um diesen Prozess effizienter zu gestalten, nutzen wir eine Sampling-Methode. Anstatt alle Daten zu verwenden, wählen wir nur die relevantesten Fakten für das Training aus. Das reduziert die Arbeitslast und stellt sicher, dass das LLM weiterhin effektiv lernt.

Wissen in das LLM injizieren

In unserem Ansatz integrieren wir auch Einbettungen aus dem Wissensgraphen in das LLM. Das gibt dem Modell zusätzlichen Kontext und verbindet die generierten Antworten wieder mit der Struktur des KGs. Die Einbettungen dienen als Leitfaden und helfen dem Modell, mit den im Graphen vorhandenen Informationen in Einklang zu bleiben.

Experimente und Ergebnisse

Wir haben umfangreiche Experimente mit Benchmark-Datensätzen durchgeführt, um die Effektivität unseres vorgeschlagenen Frameworks zu bewerten. Diese Datensätze bestehen aus realen Beziehungen und sind darauf ausgelegt, die Fähigkeiten unseres Modells zur KG-Vervollständigung herauszufordern.

In unseren Tests haben wir die Leistung unseres Frameworks mit traditionellen Einbettungsmodellen und anderen aktuellen Methoden, die LLMs nutzen, verglichen. Die Ergebnisse zeigten eine deutlich verbesserte Fähigkeit, fehlende Entitäten korrekt zu identifizieren. Insbesondere fanden wir heraus, dass unser Framework nicht nur KGs genauer vervollständigte, sondern dies auch mit grösserer Effizienz tat, wobei weniger Rechenleistung erforderlich war als bei Methoden, die auf mehreren Runden von Fragen basieren.

Die Bedeutung von Sampling-Methoden

Die Sampling-Methode, die wir verwendet haben, erwies sich als entscheidend für die Verbesserung der Leistung unseres Modells. Indem wir hochgradig vertrauenswürdige Fakten für das Feintuning selektiv verwendeten, stellten wir sicher, dass das LLM aus den relevantesten Beispielen lernte. Das führte zu einer besseren Gesamtleistung, da das Modell sich auf die informativsten Datenpunkte konzentrieren konnte, anstatt von zu vielen Informationen überwältigt zu werden.

Konstruktion der Anweisungen

Die Konstruktion der Diskriminationsanweisungen ist grundlegend für unser Framework. Jede Anweisung wird sorgfältig formuliert, um das LLM zu leiten, wie es eine Antwort aus den präsentierten Kandidaten wählen soll. Es wird ein natürlicher Sprachsatz erstellt, der den unvollständigen Fakt, Beschreibungen der Entitäten und verwandte Nachbarfakten enthält. Dieses konsolidierte Prompt hilft dem LLM, die Informationen effizient zu verarbeiten und eine informierte Entscheidung zu treffen.

Analyse der Leistungsmetriken

Um die Leistung unseres Frameworks zu bewerten, setzten wir verschiedene Metriken ein, die im Bereich der KG-Vervollständigung häufig verwendet werden. Die Hits@K-Metrik gibt an, wie hoch der Anteil der Abfragen ist, die die korrekte Entität innerhalb der top K Ergebnisse erfolgreich abgerufen haben. Wir verwendeten auch den Mean Reciprocal Rank (MRR), um das durchschnittliche Ranking der korrekten Entitäten zu bewerten.

Unser Framework erzielte in diesen Metriken die besten Ergebnisse im Vergleich zu traditionellen Einbettungsmodellen und anderen LLM-basierten Ansätzen. Dies zeigt nicht nur die Genauigkeit unserer Vorhersagen, sondern auch die Robustheit des Frameworks über verschiedene Datensätze hinweg.

Vergleich verschiedener Ansätze

In unserer Analyse haben wir darauf geachtet, verschiedene Modelltypen einzubeziehen, um die Wirksamkeit unseres Ansatzes zu vergleichen. Die Ergebnisse zeigten, dass traditionelle Methoden zwar nach wie vor ihre Stärken hatten, die Integration von LLMs mit einem strukturierten Ansatz zur Steuerung ihrer Ausgaben jedoch deutlich bessere Ergebnisse lieferte.

Während einbettungsbasierte Modelle dazu neigen, sich auf starre Strukturen zu verlassen, ermöglicht unser Ansatz Flexibilität und Anpassung basierend auf den kontextuellen Informationen, die in den Trainingsdaten bereitgestellt werden. Diese Anpassungsfähigkeit ist ein wesentlicher Vorteil in realen Anwendungen, bei denen Daten unordentlich und variabel sein können.

Zukünftige Perspektiven

In der Zukunft ist es unser Ziel, dieses Framework über die KG-Vervollständigung hinaus auszubauen. Es gibt andere Aufgaben im Bereich der Wissensgraphen, die von dieser Technik profitieren könnten, wie etwa die Beantwortung von Fragen zu Wissensgraphen und Entitätsausrichtung. Durch die Anwendung ähnlicher Methoden zur Diskriminationsanweisung können wir auch die Leistung in diesen Bereichen verbessern.

Während wir unseren Ansatz weiter verfeinern, werden wir weiterhin Möglichkeiten erkunden, die Effizienz zu steigern und die Rechenkosten zu senken. Das ist entscheidend, um sicherzustellen, dass unser Framework in praktischen Anwendungen eingesetzt werden kann, insbesondere wenn Ressourcen begrenzt sind.

Fazit

Zusammenfassend lässt sich sagen, dass unser vorgeschlagener Ansatz zur Vervollständigung von Wissensgraphen mit einem Framework, das LLMs feintunt, vielversprechend ist, um die Herausforderungen der Unvollständigkeit in KGs anzugehen. Die Integration von Einbettungsinformationen und die effiziente Konstruktion von Anweisungen in Verbindung mit sorgfältigem Sampling haben sich als effektiv erwiesen, um die Genauigkeit und Effizienz der KG-Vervollständigungen zu verbessern.

Während sich das Feld weiterentwickelt, bleiben wir optimistisch hinsichtlich der potenziellen Anwendungen unseres Frameworks in verschiedenen wissensbasierten Aufgaben und freuen uns auf weitere Fortschritte in diesem Bereich.

Originalquelle

Titel: Finetuning Generative Large Language Models with Discrimination Instructions for Knowledge Graph Completion

Zusammenfassung: Traditional knowledge graph (KG) completion models learn embeddings to predict missing facts. Recent works attempt to complete KGs in a text-generation manner with large language models (LLMs). However, they need to ground the output of LLMs to KG entities, which inevitably brings errors. In this paper, we present a finetuning framework, DIFT, aiming to unleash the KG completion ability of LLMs and avoid grounding errors. Given an incomplete fact, DIFT employs a lightweight model to obtain candidate entities and finetunes an LLM with discrimination instructions to select the correct one from the given candidates. To improve performance while reducing instruction data, DIFT uses a truncated sampling method to select useful facts for finetuning and injects KG embeddings into the LLM. Extensive experiments on benchmark datasets demonstrate the effectiveness of our proposed framework.

Autoren: Yang Liu, Xiaobin Tian, Zequn Sun, Wei Hu

Letzte Aktualisierung: 2024-07-22 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2407.16127

Quell-PDF: https://arxiv.org/pdf/2407.16127

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel