Jun.-Prof. Dr. Gesina Schwalbe

Seit April 2026 bin ich als Juniorprofessorin für Explainable Artificial Intelligence am Institut tätig. Mein Forschungsinteresse gilt insbesondere Methoden zur besseren Interpretation, Verifikation, Nutzung und Korrektur des von neuronalen Lernverfahren erlernten symbolischen Wissens. Zuvor war ich Postdoktorandin in der Gruppe Hybride KI von Prof. Diedrich Wolter an der Universität zu Lübeck, wo ich beim BMFTR Förderung für meine eigene Nachwuchsgruppe zum Thema korrigierbare hybride KI (chAI; start September 2024) eingeworben habe. Meine Promotion an der Universität Bamberg befasste sich mit konzeptbasierter Erklärbarkeit zur Sicherheitsverifikation und -argumentation tiefer neuronaler Netze. Während meiner Tätigkeit als industrielle Doktorandin bei Continental AG lag mein Anwendungsschwerpunkt im Bereich des automatisierten Fahrens. Dieser wurde inzwischen auf weitere sicherheitskritische Domänen, insbesondere das Gesundheitswesen, sowie auf zusätzliche Aspekte vertrauenswürdiger KI, wie etwa IT-Sicherheit, erweitert.

Meine persönliche Webseite ist hier zu finden.

Forschung

  • Erklärbare KI, insbesondere konzeptbasierte sowie Latentraum-Interpretierbarkeit tiefer neuronaler Netze (DNNs)
  • Extraktion, Verifikation und Integration symbolischen Wissens aus bzw. in DNNs
  • Sicherheit und Verifikation tiefer neuronaler Netze

Publikationen

Siehe Google Scholar; ORCID: 0000-0003-2690-2478

Lehre

Bei Interesse an einem Bachelor- oder Masterarbeitsthema im Bereich erklärbare, vertrauenswürdige oder neuro-symbolische KI nehmen Sie gerne Kontakt mit mir auf.

Projekte

Studierende mit soliden mathematischen Grundlagen, guten Programmierkenntnissen in Python sowie Interesse an oder Erfahrung im Bereich Machine Learning sind eingeladen, sich für eine Tätigkeit als studentische Hilfskraft (HiWi) zur Unterstützung unserer Forschung zu bewerben. Für eine Bewerbung werden ein Motivationsschreiben, ein Lebenslauf sowie ein aktueller Notenauszug benötigt.