Le­ver­a­ging Lar­ge Lan­gua­ge Mo­dels for KG Con­struc­ti­on and Re­a­so­ning

Große Sprachmodelle (Large Language Models, LLMs) haben in letzter Zeit bei verschiedenen Aufgaben der natürlichen Sprachverarbeitung (Natural Language Processing, NLP) beeindruckende Leistungen gezeigt und ihre Fähigkeit unter Beweis gestellt, menschenähnliche Texte zu verstehen und zu erzeugen. Ihr Potenzial für die Konstruktion von Wissensgraphen (Knowledge Graphs, KGs) und die Schlussfolgerungen daraus ist jedoch noch nicht ausreichend erforscht. KGs sind strukturierte Darstellungen von Wissen, die Entitäten und ihre Beziehungen in Form eines Graphen miteinander verbinden. Diese Graphen können in zahlreichen Anwendungen genutzt werden, darunter Frage-Antwort-Systeme und Empfehlungsmaschinen.

Zielsetzung:
Ziel dieser Arbeit ist es, die Verwendung von LLMs bei der Konstruktion von KGs aus Text und bei der Durchführung von Schlussfolgerungsaufgaben zu untersuchen. Die Konstruktion von KGs umfasst Aufgaben wie Named Entity Recognition (NER), Relationsextraktion (RE), Ereignisextraktion (EE) und Entity Linking (EL). Darüber hinaus gehören zu den Aufgaben des KG-Reasonings die Link-Prädiktion, bei der fehlende Beziehungen zwischen Entitäten vorhergesagt werden, und andere Aufgaben, die das KG durch die Aufdeckung von verborgenem Wissen bereichern und tiefere Einblicke ermöglichen. Ziel ist es, die fortgeschrittenen Fähigkeiten von LLMs zu nutzen, um diese Prozesse zu verbessern und die KG-Konstruktion und die Schlussfolgerungsaufgaben zu automatisieren und zu verbessern.

Voraussetzungen:

  • Gute Kenntnisse in Methoden der Verarbeitung natürlicher Sprache (z. B. Erkennung benannter Entitäten, Texteinbettung, große Sprachmodelle)
  • Beherrschung von Python und Deep-Learning-Frameworks (z. B. PyTorch oder TensorFlow)
  • Kenntnisse von Wissensgraphen und semantischen Webdaten

Aufgaben:

  • Entwicklung von Methoden zur Konstruktion von KGs aus Textdaten unter Verwendung von LLMs
  • Benchmarking der Leistung dieser Methoden gegenüber bestehenden Ansätzen
  • Benchmarking der Leistung von LLMs in KG Reasoning Aufgaben
  • Zusammenfassen der Auswirkungen von LLMs auf die Genauigkeit und Effizienz von KG-Konstruktions- und Schlussfolgerungsaufgaben

Verwandtes Material:

  1. LLMs for Knowledge Graph Construction and Reasoning: Recent Capabilities and Future Opportunities (https://arxiv.org/abs/2305.13168)
  2. Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction (https://arxiv.org/abs/2307.01128)
  3. Complex Logical Reasoning over Knowledge Graphs using Large Language Models (https://arxiv.org/abs/2305.01157)

Be­treu­er