Projekt 11: Verbesserung von automatisiertem Maschinellem Lernen durch Erklärbarkeitsmethoden (verfügbar)

Projektbeschreibung

Wie viele Machine Learning-Modelle selbst, gehören auch einige Verfahren zur Hyperparameter-Optimierung zu den Black-Box-Algorithmen (insbesondere Neural Architecture Search-Modelle). Da bislang unklar ist, wie diese Modelle den Suchraum bearbeiten, könnten wichtige Erkenntnisse über die Anpassung der Hyperparameter verloren gehen. Forschungsgegenstand dieser Arbeit ist daher die Untersuchung von AutoML-Algorithmen mittels geeigneter Explainability-Methoden. Es sollen vom Menschen verwertbare Erkenntnisse über die interne Funktionsweise der Hyperparameter-Suche eines BlackBox-Modells gewonnen werden. Ein Ziel ist die Schaffung eines Feedback-Loops, bei dem Menschen diese Erkenntnisse wiederum für das Design neuartiger Architekturen verwerten können. Im Zuge der Forschungsarbeit soll auch die Entwicklung und Anwendung eines Trust-Scores untersucht werden. Mithilfe dessen soll die Vertrauenswürdigkeit eines ML-Modells quantifiziert werden. Eine Integration des Trust-Scores in die Objective Function von ML-Modellen soll evaluiert werden, damit dieser schon während des Trainingsprozesses optimiert wird.
 

Betreuer

Erstbetreuer:

Prof. Dr. Volker Herbort, Technische Hochschule Ulm

 

Tandempartner:

Prof. Dr. Manfred Reichert, Institut für Datenbanken und Informationssysteme

 

Beratende Experten:

Prof. Dr. Matthias Klier, Institut für Business Analytics, Universität Ulm

Prof. Dr. Michael Munz, Technische Hochschule Ulm

Prof. Dr. Reinhold von Schwerin, Technische Hochschule Ulm

Prof. Dr. Karsten Urban, Institut für Numerische Mathematik, Universität Ulm