Erklärbarkeit, Fairness und Akzeptanz intelligenter Systeme (EFA)

Der erfolgreiche Einsatz von Verfahren der Künstlichen Intelligenz, insbesondere maschinellem Lernen, sowie aktuelle Entwicklungen in Bereichen wie Sensorik, Compressed Sensing, Big Data und Digitalisierung führen zu einer zunehmenden Verbreitung intelligenter Systeme. Letztere sind modell- und datengetrieben und werden durch ihre Fähigkeiten, ihre Umgebung wahrzunehmen sowie selbständig zu lernen, zu entscheiden und zu handeln, zunehmend autonom. Daher werden intelligente Systeme zukünftig immer mehr Entscheidungsgewalt in vielen Bereichen unseres gesellschaftlichen und wirtschaftlichen Lebens ausüben. Sie nutzen dafür große Datenmengen, um z.B. Kunden automatisch in verschiedene Konsumententypen zu gruppieren, die Kreditwürdigkeit eines Antragstellers einzuschätzen oder Prognosen für Geschäftsprozesse zu treffen und notwendige Handlungen abzuleiten. Die damit verbundenen Risiken liegen auf der Hand und werden derzeit breit diskutiert.

Derzeit ist die Akzeptanz intelligenter Systeme aufgrund ihrer Unfähigkeit, Entscheidungen bzw. Aktionen dem menschlichen Benutzer zu erklären, noch stark limitiert. Es ist oft weder nachvollziehbar, wie eine automatisierte Entscheidung zustande gekommen ist (Erklärbarkeit) noch, ob diese fair im Sinne rechtlicher, moralischer und ethischer Kriterien ist (Fairness). Aufgrund der Wirkmacht intelligenter Systeme werden Erklärbarkeit, Fairness und Akzeptanz für deren Nutzung und Verbreitung aber essentiell sein.

Ziel des Kompetenzzentrums ist es, Erklärbarkeit, Fairness und Akzeptanz intelligenter Systeme interdisziplinär wissenschaftlich zu untersuchen und Beiträge zu deren Erforschung und Weiterentwicklung zu leisten.