Please write me an e-mail if you are English speaking and want to participate: tobias.drey(at)uni-ulm.de
Anwendungfach: Mensch-Computer-Interaktion, Wintersemester 2021/22
Für die Themenvorstellung, Gruppeneinteilung und Anrechnungsmöglichkeiten gibt es eine gemeinsame Einführung für die Projekte bzw. Projekte innerhalb eines Anwendungsfachs User Centered Design, Design Thinking und Mensch-Computer Interaktion.
Die Veranstaltungen findet in Präsenz statt. Der Kick-Off ist am 19.10.21 von 10:00 - 12:00 Uhr im H20.
Die genauen Informationen und weiteren Termine entnehmen Sie bitte dem Moodle-Kurs. Hierüber erfolgt auch die generelle Koordination.
Sollte jemand beim Kick-off verhindert gewesen sein, so kommt gerne zum ersten Design Thinking Termin am 22.10. 14:00 - 16:00 Uhr im H21.
Bei Fragen wenden Sie sich bitte an tobias.drey(at)uni-ulm.de
Inhalt
Im Rahmen diese Projektes soll innerhalb eines Jahres ein umfangreiches Projekt aus dem Bereich Mensch-Computer-Interaktion zunächst theoretisch unter Berücksichtigung existierender Arbeiten konzipiert und anschließend die praktische Realisierung detailliert geplant werden. Die Projekte werden jeweils in Kleingruppen von 3 bis 4 Studenten umgesetzt.
Die Teilnehmer erhalten zunächst in Mensch-Computer-Interaktion I eine Einführung in die Projektarbeit. Anschließend sollen sie in kleinen Teams selbständig mit Hilfestellung durch den Dozenten ein lohnendes Projektthema aus dem Bereich der Mensch-Computer-Interaktion entwickeln und unter Berücksichtigung existierenden Arbeiten eine entsprechende Umsetzung planen. Diese Arbeit wird im Rahmen eines schriftlichen Projektvorschlags ausführlich dokumentiert. Folgende Bearbeitungsschritte sind für den ersten Teil der Projekt-Phase vorgesehen: Themenfindung, Literaturrecherche / Related Work, Konzeptentwurf, Planung der Nutzerevaluation, Evaluierung potentieller Basistechnologien, Selbständiges Erarbeiten technischer Grundlagen, Architekturentwurf, erster Prototyp, Bestellung notwendiger Hard- und Software, konkrete Planung der folgenden Projektphase.
In dem zweiten Teil der Veranstaltung (Mensch-Computer-Interaktion II) steht die praktische Umsetzung (Implementation) und ggf. Evaluation im Vordergrund. Weiterhin ist das Projekt zu dokumentieren.
Themenbereiche
Die einzelnen Teams werden im Rahmen der Themenfindung individuelle Aufgabenstellungen erarbeiten. Die diesjährigen Themenbereich sind:
-
In-situ Surface-supported Texturing in VR
Games und 3D Umgebungen für VR werden immer noch ausschließlich am PC erstellt. Jedoch bietet eine direkte Erstellung dieser Inhalte in VR selbst, was in-situ Authoring genannt wird, einige Vorteile wie eine höhere Immersion, schnelleres und direktes Betrachten der erzeugten Inhalte im Zielmedium sowie fortgeschrittene Device-basierte Interaktion. VRSketchIn ist ein solcher Ansatz, der die Kombination von 3D mid-air Drawing mit 2D surface-supported Drawing untersucht hat. Hierbei besteht jedoch, genauso wie bei ähnlichen Apps wie TiltBrush, keine Möglichkeit nachträglich die Textur anzupassen. Das Projekt soll sich genau damit beschäftigen, wie mit der Kombination von 2D und 3D Input ein „Blender“ für VR aussehen könnte. Bei der Implementierung kann auf bestehende Vorarbeiten wie VRSketchIn aufgebaut werden. -
Personal Fabrication
In diesem Themengebiet geht es um neuartige Interaktions-, Design-, und Fertigungsmethoden, welche es Nutzern ermöglichen sollen, personalisierte Objekte zu gestalten und zu fertigen. Mit immer erschwinglicher werdenden Geräten für Personal Fabrication (z.B. Laserschneider, 3D Drucker), könnten immer mehr Nutzer Objekte mit Präzision auf Industrieniveau erstellen. Dies scheitert jedoch oft an der Komplexität von Soft- und Hardware, die dafür nötig ist.Im Rahmen von Projekten sollen Design und Fertigung auf verschiedene Arten für Laien zugänglicher und einfacher gemacht werden. Technologien wie beispielsweise Augmented Reality, Machine Learning oder generatives Design können bei Projekten in diesem Forschungsgebiet in Kombination mit Hardware wie 3D-Druckern zum Einsatz kommen. -
Understanding Motivations for digital Sport and Games
In dem Projekt geht es darum zuerst mit Nutzerstudien und Evaluationen herauszufinden, was Gamer dazu motiviert Sportspiele (Fußball o.ä) zu spielen bzw. davon abhält Sport "draußen" und mit körperlicher Bewegung zu absolvieren, obwohl diese Bewegung und frische Luft wichtig ist für die Gesundheit. Anschließend sollen die Erkenntnisse genutzt werden um genau diese Probleme zu adressieren. Wie könnte man durch diese Erkenntnisse die Spiele mit mehr Sport/ Bewegung/ Gesundheit verbessern? -
Movement Metrics for VR Games and Interactions
Wie kann man zuverlässig Bewegungsmetriken in VR Interaktionen messen. Hierzu gehört eine Recherche auch in Richtung Medizin: "Wie wird dort Bewegung und Kalorienverbrach gemessen? Wie wird mit Bias durch unterschiedliche Körperstaturen o. Ä. umgegangen? Auf Basis dieser Fragen und den gefunden Antworten, soll anschließend eine Metrik entwickelt und implementiert werden um möglichst präzise den Grad der Anstrengung in VR Interaktionen messen zu können und für ein beispielhaftes Portfolio mit Nutzern getestet werden. - Driver Vehicle Interaction in Automated Driving
Bis zur Einführung autonomer Fahrzeuge wird vermutlich noch Zeit vergehen. Trotzdem können auch niedrigere Automationsstufen genutzt werden, um das Fahren sicherer zu machen. Im Vordergrund steht die Entwicklung von Interaktionskonzepten und deren Evaluierung um diese Potenziale nutzbar zu machen. Hierfür können verschiedene Technologien wie etwa AR, VR, oder ein Moderner Fahrsimulator verwendet werden. Des Weiteren wird die Interaktion mit den (Entertainment-)Systemen im Fahrzeug mit höheren Automationsstufen immer relevanter. Auch hier steht die Entwicklung von Interaktionskonzepten und deren Evaluierung im Vordergrund.
- External Communication of Autonomous Vehicles
Das Themengebiet untersucht inwiefern automatisierte Fahrzeuge mit ihrer Umwelt, also Fußgängern, Fahrradfahrern, oder anderen Autofahrern kommunizieren soll. Im Vordergrund steht die Entwicklung von Interaktionskonzepten und deren Evaluierung. Hierfür können verschiedene Technologien wie etwa AR oder VR verwendet werden.
-
Implicit Interaction in Autonomous Vehicles
Mit einer zunehmenden Anzahl verbauter Sensoren in Fahrzeugen und sich ständig verbessernden Methoden des MLs, kann der Zustand von Mitfahrern immer genauer bestimmt werden. So kann mittlerweile z.B. erkannt werden, ob Mitfahrer müde oder gestresst sind. Anhand dieser Informationen kann eine implizite Interaktion stattfinden. Wird ein Mitfahrer zum Beispiel als gestresst erkannt, könnte das Fahrzeug Musik abspielen, die ihn normalerweise beruhigt. Eine solche implizite Interaktion wirft einige (konzeptionelle) Fragen auf, die betrachtet und anhand prototypischer Implementierungen evaluiert werden sollen. -
Personalised In-Vehicle Avatar
Einige Automobilhersteller verwenden als Bedienungsassistent im Fahrzeug virtuelle Avatare (z.B.: Nomi von Nio), mit dem Ziel einer natürlicheren Interaktion. Einige Arbeiten beschäftigen sich momentan außerdem mit der Personalisierung solcher Avatare. In dem Zusammenhang soll untersucht werden, welche Einflüsse auf den Fahrer wirken, wenn Gesichtszüge des Fahrers auf den Avatar gemappt werden. Hierfür wird ein Konzept erstellt, das anschließend prototypisch implementiert und evaluiert werden soll. -
Adaptive Autonomous Vehicle Driving Style
Die Anpassung des Fahrstils autonomer Fahrzeuge an den eigenen Fahrstil des Nutzers kann die Akzeptanz und das Vertrauen in das autonome Fahrzeug unterstützen. Ziel ist es, das Konzept zu einem autonomen Fahrzeug zu entwickeln, das den Fahrstil des Benutzers erlernen kann. Zusätzlich soll sich der Fahrstil während der Fahrt an den Zustand des Fahrers anpassen können. Beispiel: Ist der Benutzer ängstlich, sollte das Fahrzeug die Geschwindigkeit verringern und den Abstand zum vorherigen Fahrzeug vergrößern. Das Konzept soll prototypisch implementiert und evaluiert werden. -
Vehicle Motion Simulation in Virtual Reality
Während dem Fahren wirken Trägheitskräfte auf Hände und Arme, sodass Interaktionen mit UIs erschwert werden. In einem Fahrsimulator können solche Stimuli für empirische Untersuchungen erzeugt werden. Dafür benötigte High-Fidelity-Bewegungssimulatoren sind aber teuer und mit hohem Wartungsaufwand verbunden. Eine Lösung wäre ein kostengünstiger motorisierter Rollstuhl in Kombination mit einer 3-DoF-Bewegungsplattform in Virtual Reality. Das Ziel dieses Projekts ist es, einen Prototyp auf der Basis vorhandener Hardware zu entwickeln, welcher in einer Nutzerstudie evaluiert werden soll. -
In-Vehicle User Intention Prediction
Durch die Vorhersage von Benutzer Interaktionen/Absichten können Fahrzeug UIs und Eingabe-/Ausgabemodalitäten optimiert werden. Dabei kann Machine/Deep Learning, Sensoreingaben (z. B. Herzfrequenz, Augenbewegung oder Hautleitwert), und Umgebungszustände (z. B. Points of Interest, Parkplätze, oder Geschwindigkeit) verwendet werden. Ziel dieses Projekts ist es, ein auf Machine Learning basierendes Vorhersagemodell zu erstellen. Das System soll Daten (selbst erhoben oder existierende Datensätze) mit vorhandenen Open-Source Machine Learning Software auswerten und in einer Nutzerstudie evaluiert werden. -
Shape Changing In-Vehicle Interfaces
Im Fahrzeug bieten formverändernde Schnittstellen eine dynamische Form als physische Eingabe und Ausgabe. Allerdings ist die Nutzbarkeit solcher Schnittstellen weitgehend unbekannt und es gibt offene Fragen bei der Gestaltung von formverändernden Schnittstellen zur Verbesserung der Kommunikation zwischen Fahrzeug und Fahrgast, z. B. bei der Signalisierung eines Fahrzeugzustands. Das Ziel dieses Projekts ist es, einen geeigneten Anwendungsfall für formverändernde Schnittstellen in Fahrzeugen zu untersuchen und dazu einen Prototyp zu entwickeln, welcher in einer Virtual Reality Nutzerstudie evaluiert werden kann.
Lernziele
Die Studierenden sind in der Lage eine projektorientierte wissenschaftliche Arbeit im Bereich der Mensch-Computer-Interaktion detailliert zu planen. Sie besitzen die Fähigkeit ein innovatives Projektthema zu definieren und sich in die damit verbundenen Konzepte und Technologien einzuarbeiten. Sie können verwandte Arbeiten eigenständig recherchieren und ggf. aufgreifen. Die Studierenden sind zudem in der Lage selbständig im Team und unter Verwendung modernen Methoden neue Lösungen und Konzepte zur Realisierung des Projektthemas zu finden. Sie sind ferner in der Lage, ihre Ergebnisse angemessen zu dokumentieren und im Rahmen von Vorträgen überzeugend zu präsentieren.
Hinweise
- Das Anwendungsfach erstreckt sich i.d.R. über zwei Semester, kann aber auf Wunsch auch in einem Semester absolviert werden.
12 LP, 8 SWS
Software Engineering (FSPO 2014/2017)
- B.Sc., Anwendungsprojekt SoftwareEngineering
Medieninformatik (FSPO 2014/2017)
- B.Sc., Anwendungsfach: Mensch-Computer-Interaktion
- M.Sc., Anwendungsfach: Mensch-Maschine-Interaktion
Siehe auch Modulhandbücher Ihres Studiengangs.