Prof. Dr. Mathias Klier
+49 (0) 7 31 50-3 23 12
mathias.klier(at)uni-ulm.de
Moderne E-Commerce-Plattformen setzen zunehmend auf hochentwickelte, KI-basierte Recommender Systeme, um NutzerInnen bei der Bewältigung der Informationsüberflutung durch personalisierte Produktvorschläge zu unterstützen. Diese Systeme erzielen insbesondere dann sehr hohe Empfehlungsgüten, wenn sie unstrukturierte, textuelle Kundenrezensionen (Reviews) mittels Deep Learning oder moderner Text-Mining-Verfahren verarbeiten. Der technologische Fortschritt hat jedoch eine Kehrseite: Die zugrundeliegenden Modelle fungieren meist als hochkomplexe „Blackboxes“. Für NutzerInnen ist die Systemlogik völlig intransparent, was unweigerlich zu Skepsis und mangelndem Vertrauen in die algorithmischen Entscheidungen führt. Um die Akzeptanz solcher Systeme zu gewährleisten, ist es unabdingbar, sie aus einer nutzerzentrierten Perspektive erklärbar zu machen. Genau hier setzt das aufstrebende Forschungsfeld der Erklärbaren KI (Explainable Artificial Intelligence – XAI) an. Bislang fehlen in der Forschung jedoch geeignete XAI-Methoden, die in der Lage sind, komplexe, auf unstrukturierten Textdaten basierende Empfehlungen adäquat und verständlich zu erklären.
Vor diesem Hintergrund widmet sich dieses Forschungsprojekt der algorithmischen Entwicklung innovativer, modell-agnostischer Erklärmethoden für Review-basierte Recommender Systeme. Der methodische Schwerpunkt liegt dabei auf der Konzeption neuartiger XAI-Ansätze für unstrukturierte Textdaten. Die Herausforderung besteht darin, den Empfehlungsprozess nicht nur technisch zu durchdringen, sondern Erklärungen zu generieren, die sich an menschlichen Erklärungsmustern orientieren. Dazu strukturiert die neu entwickelte Methode zunächst unstrukturierte Reviews automatisiert in für Menschen relevante Konzepte (z. B. Aspekt/Opinion-Paare zu konkreten Produkteigenschaften). Durch die systematische Variation dieser Textbausteine lassen sich die kausalen Einflüsse einzelner Review-Inhalte auf den Output des Recommender Systems quantifizieren. Auf dieser Basis generiert der Algorithmus nutzerzentrierte Erklärungen – beispielsweise durch kontrafaktische Ansätze oder visuelle SHAP-Werte –, die den NutzerInnen transparent darlegen, warum genau ein spezifisches Produkt anstelle eines anderen vorgeschlagen wurde.
Ein zentrales Ziel des Projekts ist es, diese neuen algorithmischen XAI-Artefakte iterativ zu evaluieren und weiterzuentwickeln. In funktionalen Analysen und kontrollierten Online-Experimenten wird untersucht, inwiefern die algorithmischen Designentscheidungen (z. B. textuelle vs. visuelle Darstellung, kontrafaktische vs. Feature-Importance-Erklärungen) Anforderungen wie Relevanz, Verständlichkeit und Modelltreue erfüllen und das Systemvertrauen der NutzerInnen messbar steigern. Abschließend wird die entwickelte Erklärmethode in Kooperation mit einem Praxispartner in eine reale E-Commerce-Plattform integriert, um in einem Feldexperiment den tatsächlichen Einfluss der generierten Erklärungen auf das ökonomische Entscheidungsverhalten der NutzerInnen summatorisch zu validieren.
Kooperationspartner: Deutsche Forschungsgemeinschaft (DFG)
Projektzeitraum: 2024 - 2026