Projekt 6: Erklärungen von Klassifikationsentscheidungen hybrider Systeme (verfügbar)

Projektbeschreibung

In der Künstlichen Intelligenz kommen sowohl Ansätze des Maschinellen Lernens zum Einsatz als auch Ansätze, die auf modelliertem Wissen z.B. in Form von Ontologien basieren. Das modellierte Wissen kann zur Erklärung der Systementscheidungen herangezogen werden. Lernbasierte Ansätze bieten sich dagegen an, wenn regelhaftes Wissen zur Entscheidungsfindung (noch) nicht oder nur teilweise vorliegt; eine direkte Ableitung von Erklärungen ist allerdings meist nicht möglich. Ziel des vorgeschlagenen Promotionsprojekts ist die Entwicklung von Methoden zur Generierung von Erklärungen für hybride Systeme, die sowohl über eine lernbasierte Komponente (z.B. zur Klassifikation von Sensordaten) als auch über eine wissensbasierte Komponente (z.B. zur Ableitung von Handlungsempfehlungen aus den interpretierten Sensordaten) verfügen. Es stellt sich insbesondere die Frage, wie die mit Wahrscheinlichkeiten behafteten Entscheidungen aus maschinellen Lernverfahren geeignet in kohärente Erklärungen eines hybriden Systems eingebunden und an menschliche Nutzer*innen kommuniziert wenden können.
 

Betreuer

Erstbetreuer:

Prof. Dr. Birte Glimm, Institut für Künstliche Intelligenz, Universität Ulm

 

Tandempartner:

Prof. Dr. Michael Munz, Technische Hochschule

 

Beratende Experten:

Prof. Dr. Hans Kestler, Institut für Medizinische Systembiologie, Universität Ulm

Prof. Dr. Matthias Klier, Institut für Business Analytics, Universität Ulm

Prof. Dr. Manfred Reichert, Institut für Datenbanken und Informationssysteme, Universität Ulm

Prof. Dr. Christian Schlegel, Technische Hochschule Ulm