Bias und Fairness von KI

Eine interaktive E-Learning-Einheit inklusive realer Fallstudie

Schon heute setzen viele Unternehmen und Verwaltungen datengetriebene, algorithmische Entscheidungssysteme ein. Absehbar wird es kaum eine Branche oder einen Bereich des täglichen Lebens geben, in dem Systeme aus dem Bereich der Künstlichen Intelligenz (KI) nicht allgegenwärtig sein werden. Immer öfter liest man jedoch negative Schlagzeilen, weil KI-Systeme unsachgemäß eingesetzt werden und diskriminierende Entscheidungen treffen. Beispielsweise wurde in der US-Justiz jahrelang eine Software namens COMPAS eingesetzt, die anhand verschiedener Faktoren das Rückfallrisiko von Straftäter*innen berechnen soll. Allerdings zeigt sich, dass COMPAS abhängig von der Ethnie unterschiedliche Fehler macht. So werden Afroamerikaner*innen häufiger mit einem zu hohen Risiko einer erneuten Straffälligkeit eingeschätzt.

Die Problematik dahinter ist, dass nicht nur in der Bevölkerung, sondern auch unter denjenigen, die KI-Systeme entwickeln und einsetzen, viele noch immer pauschal von einer Objektivität und Neutralität algorithmischer Entscheidungen ausgehen. Doch weder ist dies gegeben, noch ist eine Entscheidung allein anhand objektiver Merkmale notwendigerweise fair und nicht-diskriminierend. Angesichts dieser Situation besteht ein großer Bedarf, ein tiefes Verständnis für die Herausforderungen in der Nutzung und Implementierung von KI-Systemen und möglichen Lösungsansätzen zu erlangen. Vor diesem Hintergrund wurde an der Universität Ulm die interaktive E-Learning-Einheit „Bias und Fairness algorithmischer Entscheidungssysteme“ entwickelt, die Studierenden, Berufstätigen und der interessierten Öffentlichkeit ein umfassendes anwendungsorientiertes Verständnis zu Fairness und Bias von KI-Systemen vermittelt. Kern der Lerneinheit ist – neben der Vermittlung von Grundlagen – die Anwendung und Vertiefung des Erlernten anhand interaktiver Übungsaufgaben und die Bearbeitung einer realen Fallstudie aus der Praxis. Das Projekt wurde gefördert von der Péter Horváth-Stiftung.

Fördergeber: Péter Horváth-Stiftung

Projektzeitraum: Januar 2022 – August 2022

Weiterführende Links: https://bias-and-fairness-in-ai-systems.de/

Transfer

Mit Hilfe der E-Learning-Einheit soll ein Beitrag zur Wissensvermittlung geleistet werden, um den Einsatz ethisch einwandfreier KI-Systeme zu gewährleisten. Die Lehreinheit vermittelt Interessierten kurzweilig Grundlagen und Beispiele aus der Praxis sowie Impulse für kritisches Denken im Umgang und der Implementierung ethisch einwandfreier KI. Zunächst lernen die Teilnehmenden die Konzepte „Bias“ und „Fairness“ in KI-Systemen kennen, welche anhand praxisnaher, interaktiver Übungsaufgaben vertieft werden können. Die neu erlernten Fähigkeiten können dann in einer Fallstudie aus der Praxis angewendet werden.

Die Lerneinheit ist in das Lehrangebot für Studierende im Masterstudium der Universität Ulm eingebettet, steht aber auch der breiten Öffentlichkeit zur Verfügung. Sie wird als Basis für den Wissenstransfer in die Praxis und in der Folge auch als Ausgangspunkt für die Akquise anwendungsorientierter Forschungsprojekte in Kooperation mit Unternehmen oder öffentlicher Verwaltungen genutzt. Die Lerneinheit soll einem fundierten gesellschaftlichen Diskurs über Potenziale und Grenzen von KI dienlich sein.