Erklärbares Maschinelles Lernen
Seminar: Master
Sprache Englisch
Die Erklärbarkeit von Modellen des maschinellen Lernens (ML) ist entscheidend, um zu verstehen, warum Modelle bestimmte Entscheidungen treffen. Ohne Erklärungen ist es schwer, diesen Modellen zu vertrauen, und ihre Nutzbarkeit wird in Frage gestellt. Da es sich bei herkömmlichen ML-Modellen oft um Black Boxes handelt, sind ihre Vorhersagen für den Menschen kaum nachvollziehbar. Im Gegensatz dazu machen White-Box-Modelle ihre Vorhersagen auf transparente Weise. Solche White-Box-Modelle sind besonders vielversprechend für die Anwendung auf Wissensgraphen (KG) und Beschreibungslogik (DL), um Wissen in einer für Menschen lesbaren Form darzustellen. Die Beschreibungslogik kann verwendet werden, um die Semantik von Entitäten und Beziehungen in einem Wissensgraphen zu definieren, was seine Ausdruckskraft erhöht und anspruchsvollere Argumentationsfähigkeiten ermöglicht. Betrachten wir z. B. die Tripel (Calculus, hasPrerequisite, Algebra), (Calculus, hasPrerequisite, Trigonometry) und (CS, hasPrerequisite, Calculus). Die DL-Axiome (MathCourse isSubClassOf hasPrerequisite some (Algebra oder Trigonometry)) und (ScienceCourse isSubClassOf hasPrerequisite some Calculus) repräsentieren dann die Beziehungen zwischen den Kurskategorien „MathCourse“ und „ScienceCourse“.
Um die Erklärbarkeit von ML-Modellen besser zu verstehen, werden in diesem Seminar die bestehenden Ansätze im Kontext von Modellen des maschinellen Lernens untersucht, die auf Wissensgraphen und Beschreibungslogiken angewendet werden. Insbesondere werden wir uns auf (1) Lernen von Klassenausdrücken, (2) Argumentation und dialogbasierte Ansätze und (3) Abduktion konzentrieren.
Verwandte Arbeiten
- Kakas, A. C., & Michael, L. (2020). Abduction and Argumentation for Explainable Machine Learning: A Position Survey. CoRR abs/2010.12896 (2020)
- Kouagou, N. J., Heindorf, S., Demir, C., & Ngomo, A. N. (2023). Neural Class Expression Synthesis in description logic ALCHIQ(D). ECML PKDD 2023