Anwendungfach: Mensch-Computer-Interaktion, Wintersemester 2022/23

Einführungsveranstaltung

Für die Themenvorstellung, Gruppeneinteilung und Anrechnungsmöglichkeiten gibt es eine gemeinsame Einführung für die Projekte bzw. Projekte innerhalb eines Anwendungsfachs User Centered DesignDesign Thinking und Mensch-Computer Interaktion.

Die Veranstaltungen findet in Präsenz statt. Der Kick-Off ist am 18.10.22 von 12:15 - 13:45 Uhr im H21.

Die genauen Informationen und weiteren Termine entnehmt bitte dem Moodle-Kurs. Hierüber erfolgt auch die generelle Koordination.

Sollte jemand beim Kick-off verhindert gewesen sein, so kommt gerne zum ersten Design Thinking Termin am 28.10.22 von 14:15 - 15:45 Uhr im H21.

Bei Fragen wendet euch bitte an tobias.drey(at)uni-ulm.de.

Inhalt

Im Rahmen diese Projektes soll innerhalb eines Jahres ein umfangreiches Projekt aus dem Bereich Mensch-Computer-Interaktion zunächst theoretisch unter Berücksichtigung existierender Arbeiten konzipiert und anschließend die praktische Realisierung detailliert geplant werden. Die Projekte werden jeweils in Kleingruppen von 3 bis 4 Studierenden umgesetzt. 
Die Teilnehmer erhalten zunächst in Mensch-Computer-Interaktion I eine Einführung in die Projektarbeit. Anschließend sollen sie in kleinen Teams selbständig mit Hilfestellung durch den Dozenten ein lohnendes Projektthema aus dem Bereich der Mensch-Computer-Interaktion entwickeln und unter Berücksichtigung existierenden Arbeiten eine entsprechende Umsetzung planen. Diese Arbeit wird im Rahmen eines schriftlichen Projektvorschlags ausführlich dokumentiert. Folgende Bearbeitungsschritte sind für den ersten Teil der Projektphase vorgesehen: Themenfindung, Literaturrecherche / Related Work, Konzeptentwurf, Planung der Nutzerevaluation, Evaluierung potentieller Basistechnologien, selbständiges Erarbeiten technischer Grundlagen, Architekturentwurf, erster Prototyp, Bestellung notwendiger Hard- und Software, konkrete Planung der folgenden Projektphase. 
In dem zweiten Teil der Veranstaltung (Mensch-Computer-Interaktion II) steht die praktische Umsetzung (Implementation) und ggf. Evaluation im Vordergrund. Weiterhin ist das Projekt zu dokumentieren.

Themenbereiche

Die einzelnen Teams werden im Rahmen der Themenfindung individuelle Aufgabenstellungen erarbeiten. Die diesjährigen Themenbereiche sind (wird noch erweitert):

  • Move correctly! - Supporting Physical Activity with Motion Tracking and Virtual Reality
    Durch den Corona Lockdown beschleunigt, aber auch schon davor, hat Training im Eigenheim über Videos immer mehr an Interesse gewonnen. Während aktuell Fernseher, Handys oder Spiegelsysteme noch den Nutzer dabei unterstützen wollen ist die Interesse der Forschung bei immersiveren Systemen wie Virtual Reality (VR) angelangt. Der Vorteil von VR besteht nicht nur in einem 360 Grad Bildschirm sondern daran, dass auch Feedback wie falsche Positionierung o.ä. direkt am Körper angezeigt werden können.
    Das Ziel diese Projektes soll es es sein auf Basis von vorheriger Forschung eine unterstützende Trainingsumgebung in Virtual Reality mit Motion Tracking zu implementieren und diese nach verschiedenen Nutzungs- und Performanceaspekten zu evaluieren.

  • Anthropomorphism in Highly Automated Vehicles
    Vertrauen ist ein wichtiger Faktor in Bezug auf die Akzeptanz hochautomatisierter Fahrzeuge (HAV). Es wurde ein positiver Zusammenhang zwischen erhöhtem Vertrauen und der Verwendung von anthropomorphen Merkmalen in fahrzeuginternen Schnittstellen festgestellt. Die meisten Arbeiten in diesem Bereich beschäftigen sich mit einem Fahrzeugagenten/Avatar, der das Aussehen eines Menschen annimmt. Ziel dieser Arbeit ist es, zu untersuchen, welche anderen anthropomorphen Merkmale in fahrzeuginternen Schnittstellen verwendet werden können. Diese identifizierten Merkmale sollen prototypisch in einer VR-Umgebung mit Unity implementiert werden. Anschließend soll in einer Nutzerstudie untersucht werden, ob diese identifizierten Merkmale einen positiven Einfluss auf das Vertrauen in HAVs haben. Beispiele für anthropomorphe Merkmale ist der Herzschlag, der durch Ambient Light realisiert werden könnte, oder ein Anstupsen des Fahrer durch das Fahrzeug, realisiert durch einen Aktuator im Sitz.

  • Avatars & AI
    Avatare sind digitale Repräsentationen eines Benutzers oder einer Automation. Die Verkörperung steht hierbei im Vordergrund. Sie können verschiedene Darstellungsformen annehmen, also zum Beispiel fotorealistisch sein oder abstrakt. Im Rahmen des Metaverse-Booms haben sich eine Menge an Unternehmen mit dem Thema Avatarentwicklung auseinandergesetzt (z.B. https://mixed.de/meta-launcht-neue-metaverse-avatare/). Ziel des Projektes soll es sein unter der Verwendung verschiedener Frameworks u.Ä. eine Pipeline für die Erstellung von Avataren (im Fahrzeugkontext) zu entwickeln, die eine Personalisierung zulässt (Geschlecht, Realismus, Ähnlichkeit mit dem Benutzer). Technologien, die hierzu verwendet werden können sind z.B. stable diffusion (https://www.youtube.com/watch?v=nVhmFski3vg) und bayesian optimization. Kenntnisse in ML sind von Vorteil aber nicht nötig.

  • Design von Expositionsszenarien in VR
    Virtual Reality (VR) etabliert sich zunehmend in der Therapie von Ängsten und Traumata. Neben geringeren Kosten und höherer Flexibilität bietet VR vor allem den Vorteil Konfrontation gezielt staffeln zu können. Bislang wenig erforscht ist jedoch, wie realistisch solche Szenarien gestaltet werden müssen um Ängste effektiv zu adressieren. Ziel dieses Projekts/Anwendungsfachs wird es sein, ein Konfrontationsszenario für eine typische Angststörung zu entwickeln und durch gezielte Variation des Detaillierungsgrads von VR-Aspekten zu untersuchen welche relevant sind, um den Nutzer in eine solche Konfrontationssituation versetzen zu können.

  • Truly Intelligent Interfaces: Optimizing (Micro-)Interactions for Everyday Devices
    Die Interaktion mit alltäglichen Geräten (z. B. Kaffeemaschine, Smartphone, Monitor, Smartwatches, etc.) erfordert häufig viele kleine Interaktionsschritte, bei denen sich der Nutzer an das System anpasst, auch wenn dadurch teilweise wiederkehrende oder überflüssige Schritte ausführt werden müssen. In Summe beanspruchen diese kleinen Interaktionen Zeit und Nerven der Nutzer. Um stattdessen eine vom System ausgehende Anpassung an den Nutzer zu erreichen, wurden in bisheriger Forschung oft regelbasierte Ansätze verwendet, wodurch aber nicht individuelles Nutzerverhalten berücksichtigt werden kann. Aktuelle Sensorik und Optimierungsmethoden ermöglichen es jedoch, dass Systeme dynamisch auf den Nutzungskontext reagieren und so die Interaktion individuell anpassen. Ziel des Projektes ist, zunächst anhand einer Nutzerstudie sinnvolle Anwendungsfälle im Alltag für Interaktionsoptimierung zu identifizieren. Mithilfe von Optimierungsmethoden soll dann ein Prototyp implementiert und evaluiert werden.

  • Vehicle Motion Simulation in VR
    Während dem Fahren wirken Trägheitskräfte auf Hände und Arme, sodass Interaktionen mit UIs erschwert werden. In einem Fahrsimulator können solche Stimuli für empirische Untersuchungen erzeugt werden. Dafür benötigte High-Fidelity-Bewegungssimulatoren sind aber teuer und mit hohem Wartungsaufwand verbunden. Eine Lösung wäre die Kombination von kostengünstigen motorisierter Bewegungsplattformen und Virtual Reality. Das Ziel dieses Projekts ist es, in Nutzerstudien, Auswirkungen und Effektivität solcher Bewegungssimulatoren zu untersuchen.

  • Shaping the Vehicle (Interior) of Your Dreams
    Der Fahrzeuginnenraum der Zukunft könnte wie eine leere Leinwand oder ein Sandkasten frei nach den Vorstellungen der Passagiere geformt werden. So könnten in ride-sharing Szenarien Passagiere vor dem Einstieg per Knopfdruck ihre gewohntes Design “laden” und benutzerdefinierte Kombinationen von Sitzen, Tischen, Bildschirmen, etc. definieren. Zudem können Designer früh in der Entwicklung anstelle von Papierprototypen, ganze Fahrzeuginnenräume erlebbar evaluieren. Ziel dieses Projekts ist, auf vorhandenen Prototypen aufzubauen und Interaktionskonzepte für eine solche formverändernde Schnittstelle zu untersuchen.

  • Asymmetric Multi-User Interactions for AR / VR
    Bei der Benutzung von Augmented/Virtual Reality (AR/VR) Head-Mounted Displays (HMDs) entsteht eine Asymmetrie zwischen dem HMD Nutzer und Leuten in der Umgebung, wie Freunde oder Familie, welche von der AR/VR Experience ausgeschlossen werden. Zudem wird auch der HMD Nutzer von Aktivitäten von Personen in der Umgebung ausgeschlossen, da sich diese für gewöhnlich nicht auf die unsichtbaren AR/VR Inhalte beziehen. Ziel dieses Projekts ist es, Konzepte, Herausforderungen, oder Prototypen für asymmetrische Interaktionen zwischen HMD Nutzern und Nicht-HMD Nutzern zu entwickeln und zu evaluieren.

  • Avoiding the Dangers of VR
    In zahlreichen YouTube-Videos von VR-Fails ist zu erkennen, welche Gefahren durch VR für den Nutzer selbst und dessen Umgebung entstehen können. Die Videos zeigen eine Vielzahl von Fehlschlägen, darunter Kollisionen mit der Umgebung und Zusammenstöße mit Zuschauern. Frühwarnsysteme könnten drohende VR-Fails erkennen und dann Vermeidungsstrategien anwenden. Beispielsweise flexiblere Grenzen zwischen der realen und der virtuellen Welt, Einbeziehung der Zuschauer und Interaktionendesigns, die Gefahren vermeiden. Ziel dieses Projekts ist, ein Frühwarnsystem für drohende VR-Fails zu entwicklen und nötige Vermeidungsstrategien zu evaluieren.

  • Design und Implementation von Beruhigungsübungen in VR
    In manchen Berufen gehört eine Konfrontation mit starken Stresssituationen zum Alltag. Die Fähigkeit dennoch Ruhe bewahren und Aufgaben erfüllen zu können ist hierbei meist essenziell. Beispielsweise könnte Panik bei einer Reanimation Leben kosten. Daher müssen Fachkräfte fachspezifische Stresskonfrontationstrainings absolvieren, welche sie darin Schulen sollen in solchen Situationen durch gezielte Gegenmaßnahmen Ruhe zu bewahren. Immer öfter wird bei solchen Trainings auch VR eingesetzt. Stresssituationen können hierdurch nicht nur günstiger sondern auch individueller erstellt werden. Ziel dieses Projekts ist es, eine Stressreduktionsübung in VR zu realisieren, welche Nutzern bei Erkennen von erhöhtem Stress eingeblendet wird. Es soll dann untersucht werden, ob Nutzer in einer Stresssituation in VR mit Übung weniger Stress empfinden als ohne Übung.

  • Designing Peripheral Calls for Action in Highly Demanding Scenarios
    In unserem Alltag sind Informationen, die in der Peripherie wahrgenommen werden, ein wichtiger Bestandteil, um unbewusst Entscheidungen zu treffen und entsprechend zu handeln. Zum Beispiel fokussieren wir uns als Fußgänger im Straßenverkehr auf den vor uns liegenden Weg, aber das Auto, dass über Rot über die Ampel fährt, erkennen wir trotzdem im Augenwinkel und können schnell darauf reagieren. In diesem Projekt werdet ihr euch mit der Gestaltung und Untersuchung von Handlungsaufforderungen in dem peripheren Sichtfeld beschäftigen. Ziel ist es dem Nutzer während kognitiv anstrengenden Aufgaben, die ihre volle Aufmerksamkeit benötigen, Handlungsaufforderungen zu übermitteln, ohne sie von der Hauptaufgabe abzulenken. Dies kann zum Beispiel während einer Präsentation nützlich sein. Während des Präsentierens neigen viele Menschen aufgrund von Nervosität dazu, zu schnell zu sprechen, den Blickkontakt zum Publikum zu vergessen, oder unbewusst zu gestikulieren. Handlungsaufforderungen könnten hier mittels Augmented Reality Brillen direkt in die Peripherie projiziert werden und unbewusst helfen, um die Symptome der Nervosität zu reduzieren, ohne dabei die Präsentation zu unterbrechen.

Lernziele

Die Studierenden sind in der Lage eine projektorientierte wissenschaftliche Arbeit im Bereich der Mensch-Computer-Interaktion detailliert zu planen. Sie besitzen die Fähigkeit ein innovatives Projektthema zu definieren und sich in die damit verbundenen Konzepte und Technologien einzuarbeiten. Sie können verwandte Arbeiten eigenständig recherchieren und ggf. aufgreifen. Die Studierenden sind zudem in der Lage selbständig im Team und unter Verwendung modernen Methoden neue Lösungen und Konzepte zur Realisierung des Projektthemas zu finden. Sie sind ferner in der Lage, ihre Ergebnisse angemessen zu dokumentieren und im Rahmen von Vorträgen überzeugend zu präsentieren. 

Hinweise

  • Das Anwendungsfach erstreckt sich i.d.R. über zwei Semester, kann aber auf Wunsch auch in einem Semester absolviert werden.
Einordnung

12 LP, 8 SWS

Software Engineering (FSPO 2014/2017) 

  • B.Sc., Anwendungsprojekt SoftwareEngineering

Medieninformatik (FSPO 2014/2017)

  • B.Sc., Anwendungsfach:  Mensch-Computer-Interaktion
  • M.Sc., Anwendungsfach: Mensch-Maschine-Interaktion

Siehe auch Modulhandbücher Ihres Studiengangs.