Unsicherheiten sichtbar machen: Uncertainty-aware AI

Unsicherheiten sichtbar machen: Uncertainty-aware AI 

Künstliche Intelligenz (Artificial Intelligence, AI) wird zunehmend zur Unterstützung menschlicher Entscheidungen eingesetzt – etwa in Medizin, Wirtschaft oder Verwaltung. Moderne AI-Systeme können jedoch auch bei hochwertigen Daten und leistungsfähigen Modellen keine vollständige Sicherheit garantieren. Unsicherheiten entstehen sowohl durch Mängel in den zugrunde liegenden Daten (z. B. Unvollständigkeit oder Ungenauigkeit) als auch durch Modellunsicherheit. Werden diese Unsicherheiten nicht explizit erfasst und kommuniziert, besteht die Gefahr eines unreflektierten (Nicht-)Vertrauens in AI-basierte Empfehlungen und damit fehlerhafter Entscheidungen.

Das im Rahmen der Anschubfinanzierung A der Universität Ulm geförderte Projekt zielt darauf ab, Unsicherheiten in AI-gestützten Entscheidungsszenarien systematisch sichtbar zu machen und nutzerzentriert aufzubereiten. Im Mittelpunkt steht die Entwicklung und Evaluation sogenannter uncertainty-aware AI-Ansätze, die EntscheidungsträgerInnen dabei unterstützen, AI-Empfehlungen besser einzuordnen und reflektierter zu nutzen.

Ziel des Projekts ist es, Methoden zur modellagnostischen Quantifizierung von Daten- und Modellunsicherheit zu entwickeln und geeignete Mechanismen zu erarbeiten, mit denen diese Unsicherheiten verständlich und wirksam kommuniziert werden können. Ein besonderer Fokus liegt dabei auf der Gestaltung der Mensch-AI-Interaktion: Untersucht wird, wie unterschiedliche Formen der Offenlegung von Unsicherheit das Entscheidungsverhalten beeinflussen und inwieweit sie dazu beitragen können, Fehlentscheidungen zu reduzieren.

Die entwickelten Ansätze werden prototypisch implementiert und in empirischen Nutzerstudien evaluiert. Dabei wird insbesondere analysiert, wie sich die explizite Offenlegung von Unsicherheiten auf Vertrauen, Entscheidungsqualität und Fehlerraten in AI-unterstützten Entscheidungsszenarien auswirkt.

Zentrale Forschungsfragen sind:

  1. Wie lassen sich Unsicherheiten in AI-Systemen, die aus Daten- und Modellunsicherheit resultieren, modellagnostisch quantifizieren?
  2. Wie können diese Unsicherheiten nutzerzentriert kommuniziert werden, um reflektierte AI-gestützte Entscheidungen zu fördern und Fehlentscheidungen zu reduzieren?

Fördergeber: Universität Ulm (ProTrainU , Anschubfinanzierung A)

Projektzeitraum: bis 2025