Projekt: User-Centered Design for Interactive Systems, Wintersemester 2021/22

Einführungsveranstaltung

Für die Themenvorstellung, Gruppeneinteilung und Anrechnungsmöglichkeiten gibt es eine gemeinsame Einführung für die Projekte bzw. Projekte innerhalb eines Anwendungsfachs User Centered DesignDesign Thinking und Mensch-Computer Interaktion.

Die Veranstaltungen findet in Präsenz statt. Der Kick-Off ist am 19.10.21 von 10:00 - 12:00 Uhr im H20.

Die genauen Informationen und weiteren Termine entnehmen Sie bitte dem Moodle-Kurs. Hierüber erfolgt auch die generelle Koordination.

Sollte jemand beim Kick-off verhindert gewesen sein, so kommt gerne zum ersten Design Thinking Termin am 22.10. 14:00 - 16:00 Uhr im H21.

Bei Fragen wenden Sie sich bitte an tobias.drey(at)uni-ulm.de

Inhalt

Die Veranstaltung bildet einen Rahmen, um den Prozess des User Centered Designs am Beispiel eines Projekts zu erlernen. Insbesondere soll sich dieses Projekt mit der Entwicklung und Erweiterung neuartiger Interaktionstechniken befassen. Ziel ist jeweils, ein lauffähiges, prototypisches System zu schaffen und zu evaluieren. Das auf zwei Semester angelegte Projekt startet mit einer Einführung in User Centered Design und zugehörige Methoden. Desweiteren werden aktuelle Technologien vorgestellt und praktisch erfahrbar gemacht.

User Centered Design umfasst die folgenden Schritte:

  • Analyse
  • Design
  • Implementierung
  • Evaluation

Während des Projekts soll außerdem eine Projektwebseite und ein kurzes Projekt-Demovideo erstellt werden.

Themenbereiche

Die einzelnen Teams werden im Rahmen der Themenfindung individuelle Aufgabenstellungen erarbeiten. Die diesjährigen Themenbereich sind:

  • In-situ Surface-supported Texturing in VR
    Games und 3D Umgebungen für VR werden immer noch ausschließlich am PC erstellt. Jedoch bietet eine direkte Erstellung dieser Inhalte in VR selbst, was in-situ Authoring genannt wird, einige Vorteile wie eine höhere Immersion, schnelleres und direktes Betrachten der erzeugten Inhalte im Zielmedium sowie fortgeschrittene Device-basierte Interaktion. VRSketchIn ist ein solcher Ansatz, der die Kombination von 3D mid-air Drawing mit 2D surface-supported Drawing untersucht hat. Hierbei besteht jedoch, genauso wie bei ähnlichen Apps wie TiltBrush, keine Möglichkeit nachträglich die Textur anzupassen. Das Projekt soll sich genau damit beschäftigen, wie mit der Kombination von 2D und 3D Input ein „Blender“ für VR aussehen könnte. Bei der Implementierung kann auf bestehende Vorarbeiten wie VRSketchIn aufgebaut werden.

  • Personal Fabrication
    In diesem Themengebiet geht es um neuartige Interaktions-, Design-, und Fertigungsmethoden, welche es Nutzern ermöglichen sollen, personalisierte Objekte zu gestalten und zu fertigen. Mit immer erschwinglicher werdenden Geräten für Personal Fabrication (z.B. Laserschneider, 3D Drucker), könnten immer mehr Nutzer Objekte mit Präzision auf Industrieniveau erstellen. Dies scheitert jedoch oft an der Komplexität von Soft- und Hardware, die dafür nötig ist.Im Rahmen von Projekten sollen Design und Fertigung auf verschiedene Arten für Laien zugänglicher und einfacher gemacht werden. Technologien wie beispielsweise Augmented Reality, Machine Learning oder generatives Design können bei Projekten in diesem Forschungsgebiet in Kombination mit Hardware wie 3D-Druckern zum Einsatz kommen.

  • Understanding Motivations for digital Sport and Games
    In dem Projekt geht es darum zuerst mit Nutzerstudien und Evaluationen herauszufinden, was Gamer dazu motiviert Sportspiele (Fußball o.ä) zu spielen bzw. davon abhält Sport "draußen" und mit körperlicher Bewegung zu absolvieren, obwohl diese Bewegung und frische Luft wichtig ist für die Gesundheit. Anschließend sollen die Erkenntnisse genutzt werden um genau diese Probleme zu adressieren. Wie könnte man durch diese Erkenntnisse die Spiele mit mehr Sport/ Bewegung/ Gesundheit verbessern?

  • Movement Metrics for VR Games and Interactions
    Wie kann man zuverlässig Bewegungsmetriken in VR Interaktionen messen. Hierzu gehört eine Recherche auch in Richtung Medizin: "Wie wird dort Bewegung und Kalorienverbrach gemessen? Wie wird mit Bias durch unterschiedliche Körperstaturen o. Ä. umgegangen? Auf Basis dieser Fragen und den gefunden Antworten, soll anschließend eine Metrik entwickelt und implementiert werden um möglichst präzise den Grad der Anstrengung in VR Interaktionen messen zu können und für ein beispielhaftes Portfolio mit Nutzern getestet werden.

  • Driver Vehicle Interaction in Automated Driving
    Bis zur Einführung autonomer Fahrzeuge wird vermutlich noch Zeit vergehen. Trotzdem können auch niedrigere Automationsstufen genutzt werden, um das Fahren sicherer zu machen. Im Vordergrund steht die Entwicklung von Interaktionskonzepten und deren Evaluierung um diese Potenziale nutzbar zu machen. Hierfür können verschiedene Technologien wie etwa AR, VR, oder ein Moderner Fahrsimulator verwendet werden. Des Weiteren wird die Interaktion mit den (Entertainment-)Systemen im Fahrzeug mit höheren Automationsstufen immer relevanter. Auch hier steht die Entwicklung von Interaktionskonzepten und deren Evaluierung im Vordergrund.
     
  • External Communication of Autonomous Vehicles
    Das Themengebiet untersucht inwiefern automatisierte Fahrzeuge mit ihrer Umwelt, also Fußgängern, Fahrradfahrern, oder anderen Autofahrern kommunizieren soll. Im Vordergrund steht die Entwicklung von Interaktionskonzepten und deren Evaluierung. Hierfür können verschiedene Technologien wie etwa AR oder VR verwendet werden.
     
  • Implicit Interaction in Autonomous Vehicles
    Mit einer zunehmenden Anzahl verbauter Sensoren in Fahrzeugen und sich ständig verbessernden Methoden des MLs, kann der Zustand von Mitfahrern immer genauer bestimmt werden. So kann mittlerweile z.B. erkannt werden, ob Mitfahrer müde oder gestresst sind. Anhand dieser Informationen kann eine implizite Interaktion stattfinden. Wird ein Mitfahrer zum Beispiel als gestresst erkannt, könnte das Fahrzeug Musik abspielen, die ihn normalerweise beruhigt. Eine solche implizite Interaktion wirft einige (konzeptionelle) Fragen auf, die betrachtet und anhand prototypischer Implementierungen evaluiert werden sollen.

  • Personalised In-Vehicle Avatar
    Einige Automobilhersteller verwenden als Bedienungsassistent im Fahrzeug virtuelle Avatare (z.B.: Nomi von Nio), mit dem Ziel einer natürlicheren Interaktion. Einige Arbeiten beschäftigen sich momentan außerdem mit der Personalisierung solcher Avatare. In dem Zusammenhang soll untersucht werden, welche Einflüsse auf den Fahrer wirken, wenn Gesichtszüge des Fahrers auf den Avatar gemappt werden. Hierfür wird ein Konzept erstellt, das anschließend prototypisch implementiert und evaluiert werden soll.

  • Adaptive Autonomous Vehicle Driving Style
    Die Anpassung des Fahrstils autonomer Fahrzeuge an den eigenen Fahrstil des Nutzers kann die Akzeptanz und das Vertrauen in das autonome Fahrzeug unterstützen. Ziel ist es, das Konzept zu einem autonomen Fahrzeug zu entwickeln, das den Fahrstil des Benutzers erlernen kann. Zusätzlich soll sich der Fahrstil während der Fahrt an den Zustand des Fahrers anpassen können. Beispiel: Ist der Benutzer ängstlich, sollte das Fahrzeug die Geschwindigkeit verringern und den Abstand zum vorherigen Fahrzeug vergrößern. Das Konzept soll prototypisch implementiert und evaluiert werden.

  • Vehicle Motion Simulation in Virtual Reality
    Während dem Fahren wirken Trägheitskräfte auf Hände und Arme, sodass Interaktionen mit UIs erschwert werden. In einem Fahrsimulator können solche Stimuli für empirische Untersuchungen erzeugt werden. Dafür benötigte High-Fidelity-Bewegungssimulatoren sind aber teuer und mit hohem Wartungsaufwand verbunden. Eine Lösung wäre ein kostengünstiger motorisierter Rollstuhl in Kombination mit einer 3-DoF-Bewegungsplattform in Virtual Reality. Das Ziel dieses Projekts ist es, einen Prototyp auf der Basis vorhandener Hardware zu entwickeln, welcher in einer Nutzerstudie evaluiert werden soll.

  • In-Vehicle User Intention Prediction
    Durch die Vorhersage von Benutzer Interaktionen/Absichten können Fahrzeug UIs und Eingabe-/Ausgabemodalitäten optimiert werden. Dabei kann Machine/Deep Learning, Sensoreingaben (z. B. Herzfrequenz, Augenbewegung oder Hautleitwert), und Umgebungszustände (z. B. Points of Interest, Parkplätze, oder Geschwindigkeit) verwendet werden. Ziel dieses Projekts ist es, ein auf Machine Learning basierendes Vorhersagemodell zu erstellen. Das System soll Daten (selbst erhoben oder existierende Datensätze) mit vorhandenen Open-Source Machine Learning Software auswerten und in einer Nutzerstudie evaluiert werden.

  • Shape Changing In-Vehicle Interfaces
    Im Fahrzeug bieten formverändernde Schnittstellen eine dynamische Form als physische Eingabe und Ausgabe. Allerdings ist die Nutzbarkeit solcher Schnittstellen weitgehend unbekannt und es gibt offene Fragen bei der Gestaltung von formverändernden Schnittstellen zur Verbesserung der Kommunikation zwischen Fahrzeug und Fahrgast, z. B. bei der Signalisierung eines Fahrzeugzustands. Das Ziel dieses Projekts ist es, einen geeigneten Anwendungsfall für formverändernde Schnittstellen in Fahrzeugen zu untersuchen und dazu einen Prototyp zu entwickeln, welcher in einer Virtual Reality Nutzerstudie evaluiert werden kann.

 

Hinweise

  • Das Projekt erstreckt sich i.d.R. über zwei Semester, kann aber auf Wunsch auch in einem Semester absolviert werden.
Einordnung

8+8 LP, 5+5 SWS

Informatik (FSPO 2014/2017)

  • M.Sc., Projekt

Medieninformatik (FSPO 2014/2017)

  • M.Sc., Projekt

Software Engineering (FSPO 2014/2017)

  • M.Sc., Projekt

siehe auch Modulhandbuch