Anwendungfach/Projekt: Mensch-Computer-Interaktion, Wintersemester 2023/24

Einführungsveranstaltung

Informationen zum Ablauf, den Themen und Anrechnungsmöglichkeiten der Projekte und Anwendungsfächer User Centered Design, Design Thinking und Mensch-Computer Interaktion erhaltet ihr bei der Kick-Off Veranstaltung am 17.10.23 von 12:15 - 13:45 Uhr im H21.​​​​​ 
Bei Fragen wendet euch bitte an tobias.wagner(at)uni-ulm.de.

Inhalt

Im Rahmen diese Projektes soll innerhalb eines Jahres ein umfangreiches Projekt aus dem Bereich Mensch-Computer-Interaktion zunächst theoretisch unter Berücksichtigung existierender Arbeiten konzipiert und anschließend die praktische Realisierung detailliert geplant werden. Die Projekte werden jeweils in Kleingruppen von 3 bis 4 Studierenden umgesetzt. 
Die Teilnehmer erhalten zunächst in Mensch-Computer-Interaktion I eine Einführung in die Projektarbeit. Anschließend sollen sie in kleinen Teams selbständig mit Hilfestellung durch den Dozenten ein lohnendes Projektthema aus dem Bereich der Mensch-Computer-Interaktion entwickeln und unter Berücksichtigung existierenden Arbeiten eine entsprechende Umsetzung planen. Diese Arbeit wird im Rahmen eines schriftlichen Projektvorschlags ausführlich dokumentiert. Folgende Bearbeitungsschritte sind für den ersten Teil der Projektphase vorgesehen: Themenfindung, Literaturrecherche / Related Work, Konzeptentwurf, Planung der Nutzerevaluation, Evaluierung potentieller Basistechnologien, selbständiges Erarbeiten technischer Grundlagen, Architekturentwurf, erster Prototyp, Bestellung notwendiger Hard- und Software, konkrete Planung der folgenden Projektphase. 
In dem zweiten Teil der Veranstaltung (Mensch-Computer-Interaktion II) steht die praktische Umsetzung (Implementation) und ggf. Evaluation im Vordergrund. Weiterhin ist das Projekt zu dokumentieren.

Themenbereiche

Die einzelnen Teams werden im Rahmen der Themenfindung individuelle Aufgabenstellungen erarbeiten. Die diesjährigen Themen sind folgende (Änderungen möglich):

  • Karaoke in Cars
    Karaoke ist eine beliebte und unterhaltsame Aktivität, die Menschen zusammenbringt und ihnen die Bühne bietet lustige und unvergessliche Momente zu erschaffen. Mit der zunehmenden Vernetzung von Fahrzeugen und dem Aufkommen des autonomen Fahrens könnte Karaoke eine willkommene Abwechslung bieten, um Fahrtzeiten unterhaltsamer zu gestalten und bislang fremde Verkehrsteilnehmer auf humorvolle Art und Weise kennenzulernen. Die Herausforderung zur Realisierung einer solchen Anwendung liegt in der Dynamik des Verkehrs, in dessen Rahmen eine Vielzahl unterschiedlicher Situationen entstehen können. So gibt es beispielsweise oft nur kurze Momente, in denen zwei bestimmte Fahrzeuge nahe beieinander sind und Informationen objektbezogen präsentiert werden können. Die Hauptfragestellung des Projekts ist, wie effektive und ansprechende Interaktionen zwischen mehreren Fahrzeugen in solchen dynamischen Verkehrsszenarien ermöglicht werden können. Weiterführende Ziele bestehen darin, die Auswirkungen dynamischer Verkehrssituationen zu verstehen, eine AR-Karaoke-Anwendung zu entwickeln und diese mittels einer nutzerzentrierten Studie zu evaluieren. Durch die Untersuchung der Interaktionsmethoden und der Verkehrseinflüsse streben wir an, ein verbessertes Verständnis für die Gestaltung sozialer Interaktionsplattformen im Kontext des vernetzten Fahrens zu erlangen.

  • In-Car AR: Multi-User
    Die Implementierung von AR-basierten Multi-User Anwendungen im Auto soll die Kommunikation zwischen Fahrzeuginsassen bereichern, indem sowohl der gemeinsame Konsum von Inhalten als auch die kollaborative Bearbeitung von Aufgaben ermöglicht wird. Dieses Projekt beschäftigt sich mit dem Design entlang eines gemeinsam zu definierenden Use-Case, um herauszufinden, wie AR-basierte Multi-User-Anwendungen im Auto gestaltet werden müssen. Es soll untersucht werden, wie Inhalte geteilt werden können und welches Verhalten das System zeigen soll, wenn private und geteilte Inhalte gleichzeitig existieren. Weiter geht es um den Ein- und Austritt von Passagieren aus einer gemeinsamen Sitzung und darum, welche zusätzlichen Einschränkungen die Nutzung im Auto mit sich bringt. Das Ziel besteht darin, Richtlinien für die Gestaltung von Multi-User Anwendungen zu entwickeln, die die Kollaboration und den Austausch zwischen Passagieren fördern.

  • VR in Shared Mobility
    Die Nutzung von Virtual Reality (VR) in öffentlichen Verkehrsmitteln birgt sowohl Potenziale als auch Herausforderungen, insbesondere im Hinblick auf die Sicherheit und Kommunikation zwischen VR-Nutzern und Mitreisenden. Einer der kritischen Punkte ist die Interaktion mit Personen in der unmittelbaren Nähe des VR-Nutzers, während dieser sich in einer VR-Umgebung befindet. Die herkömmliche Kommunikation gestaltet sich in solchen Szenarien als problematisch, da der VR-Nutzer visuell und akustisch von der realen Umgebung entkoppelt ist. Das Ziel dieses Projekts ist ein tieferes Verständnis der genannten Probleme zu erlangen und durch die Untersuchung von Interface-Design und Verhaltensdynamiken, Lösungsansätze zu erarbeiten, um die Sicherheit und Kommunikation beider Parteien zu verbessern.

  • Enabling Low-Effort Design of Domestic Energy-Efficiency Retrofitting Strategies for Non-Experts
    Wohngebäude tragen mit einem Anteil von über 20% maßgeblich zum weltweiten Energieverbrauch bei. Trotz der klaren Vorteile energetischer Sanierungen, wie gesteigerter Lebensqualität und effektiver Reduzierung des CO2-Fußabdrucks, ist die Konversionsrate, selbst bei Nutzern, die eine solche Sanierung zu einem früheren Zeitpunkt in Erwägung gezogen haben gering. Gründe hierfür sind Planungsaufwand, unzureichendes Wissen und die wahrgenommene Komplexität des Prozesses, was insgesamt zu einer geringen Selbstwirksamkeit des Nutzers führt. Dieses Projekt fokussiert sich auf die Entwicklung eines Tools, das diese Barrieren adressiert. Es soll eine einfache Konzeption und Simulation verschiedener Strategien ermöglichen und dadurch sowohl das Wissen als auch das Kontrollgefühl der Nutzer erhöhen.

  • Community Participation in Future Smart Cities
    Aktuelle Pläne für zukünftige Städte sehen vor, dass intelligente Vernetzung und Autonomie zum Beispiel durch Automatisierung und vermehrtem Einsatz von Robotern eine wesentliche Rolle spielen wird. Eine ganzheitliche Automatisierung sämtlicher städtischer Prozesse hat allerdings zur Folge, dass Stadtbewohnern immer mehr die Anteilnahme an der Gestaltung ihres Umfeld verwehrt wird, was zunehmende Apathie und ein Gefühl von Hilflosigkeit zur Folge haben kann. Aus diesem Grund ist es wichtig, weiterhin Interaktionsmöglichkeiten anzubieten um Bewohnern ein Gefühl von wertvoller Anteilnahme an der Gestaltung ihrer Umwelt zu geben. In diesem Projekt sollen unterschiedliche Ansätze und Modalitäten der Anteilnahme mithilfe eines Roboters exploriert und evaluiert werden.

  • A Picture Says More Than a Thousand Words - Proactive Context Augmentation of Interpersonal Communication
    Die Kommunikation zwischen Menschen ist oft unklar, besonders wenn es um spezielle Objekte oder Ideen geht. Füllwörter wie “Ding” oder komplizierte Umschreibungen sind dann üblich, was in Gesprächen und Präsentationen zu Missverständnissen führt. In diesem Projekt soll untersucht werden, wie Aussagen, Gesten, Skizzen und vorgeführte Aktionen als Eingaben für ein Large Language Model (z.B. ChatGPT) dienen können. Ziel ist es, die Kommunikation durch ergänzende Texte, Bilder oder Audio zu verbessern, ohne den Gesprächsfluss zu stören. Für deren Anzeige können nahe Bildschirme und Augmented Reality Headsets verwendet werden.

  • AutoPilot Your Comfort - Implicit Personalization of In-Vehicle UIs
    Moderne Fahrzeugsysteme, wie beispielsweise adaptive Fahrassistenzsysteme, Infotainment-Anwendungen oder autonomes Fahren, die oft auf maschinellem Lernen basieren, können nicht alle subjektiven Bedürfnisse der Nutzer in allen möglichen Situationen berücksichtigen. Obwohl aktuelle Methoden zur Personalisierung gute Ergebnisse liefern, erfordern sie eine aktive Beteiligung des Nutzers, was beim Fahren stören kann. Dieses Projekt will Methoden entwickeln, die unbemerkt im Hintergrund arbeiten: Sie nutzen körperliche Messdaten, um die Benutzeroberfläche des Fahrzeugs individuell anzupassen. Dabei wird eine Software-Pipeline erstellt, die diese Messdaten mit bereits vorhandenen Algorithmen zur Optimierung verknüpft.

  • Universal Yet Unique - Optimizing In-Vehicle UIs for Diverse Abilities and Ages
    Menschen verschiedener Altersgruppen und mit unterschiedlichen körperlichen oder geistigen Fähigkeiten haben besondere Anforderungen an Fahrzeugsysteme. Dieses Projekt zielt darauf ab, eine anpassungsfähige Benutzeroberfläche zu entwickeln, die sich ohne separate Systeme an die Bedürfnisse jedes Einzelnen anpasst. Die ersten Schritte umfassen die Erforschung der Bedürfnisse der Zielgruppen, gefolgt von der Entwicklung einer optimierten Benutzeroberfläche unter Verwendung bestehender Algorithmen.

  • Touch & Feel - Combatting Driver Distraction with Dynamic Haptic Touchscreens
    Touchscreens in Autos sind zwar vielseitig und bieten eine breite Palette an Funktionen, jedoch stellt ihr Fehlen von haptischem Feedback ein Problem dar. Ohne physische Knöpfe oder andere taktil erfahrbare Elemente muss der Fahrer den Bildschirm visuell überwachen, was zu erhöhter Ablenkung und potenziellen Sicherheitsrisiken führen kann. Dieses Projekt zielt darauf ab, die Herausforderung zu adressieren, indem ein dynamischer, haptischer Touchscreen entwickelt wird. Der adaptive Bildschirm kann physische Bedienelemente wie Knöpfe oder Schalter je nach Fahrsituation und Fahrmodus generieren oder entfernen. Im Rahmen des Projekts wird ein “Wizard-of-Oz” Prototyp des dynamic haptic touchscreen in VR entwickelt.

  • VR Companion - Implementierung eines Begleiters zur Realisierung von Szenarien übergreifenden Aufgaben
    VR bietet nahezu unbegrenzte Gestaltungsmöglichkeiten für alternative Realitäten. Häufig gibt es jedoch Szenarien übergreifende Anforderungen an VR-Systeme, wie zum Beispiel dem Schutz des Nutzers vor Kollisionen mit realen Objekten. Aktuell werden hierzu meist standardisierte Lösungen eingesetzt. Durch mangelnde Anpassung an die jeweilige VR-Umgebung können diese jedoch einen Bruch in der Glaubwürdigkeit der virtuellen Erfahrung erzeugen. Im Rahmen dieses Projekts soll durch den Nutzerzentrierten Design Prozess, die Aufgaben, das Design, und die Umsetzung eines Begleiters in VR definiert und umgesetzt werden. Dieser Begleiter soll dann in der Lage sein sich an verschiedene VR-Szenarien anzupassen und dort dem Nutzer bei verschiedenen Aufgaben unterstützen.

  • Bye bye reality - Implementierung von surrealistischen VR-Games zur Untersuchung von Präsenz
    VR bietet die Möglichkeit die Realität zu vergessen und das Gefühl zu haben sich in einer virtuellen Welt zu befinden. Dies ermöglicht uns das Erleben vollkommen neuer Realitäten. Ziel des Projekts wird es sein ein surrealistisches VR-Game zu implementieren, welches in der Lage ist Nutzer die Realität vergessen zu lassen. Ziel ist es zu zeigen, dass es möglich ist auch surreale Erlebnisse als real wahrzunehmen.

  • Dreaming in VR - Implementierung von Traumwelten in Virtual Reality
    Wie fühlt es sich an bewusst zu träumen? Wo sind wir, wenn wir uns zwischen Realitäten bewegen? Ziel des Projekts wird es sein ein traum-ähnliches Erlebnis in VR zu simulieren. Hierfür sollen verschiedene VR-Szenarien sowie eine Übergangswelt realisiert werden, welche dem Nutzer den Eindruck vermitteln, er würde in verschiedene Traumwelten eintauchen. Nutzer sollen dann befragt werden, wo sie sich präsent gefühlt haben, also das Gefühl hatten sich tatsächlich zu befinden.

  • It's all about emotions - Können Emotionen als Manipulationstechnik in VR eingesetzt werden?
    Ziel des Projekts ist es, VR-Szenarien zu implementieren, welche verschiedene Emotionen triggern. Es soll dann untersucht werden, welchen Einfluss die jeweilige Emotion auf das VR-Erlebnis hat und somit, ob Emotionen gezielt eingesetzt werden könnten, um Nutzer von virtuellen Realitäten zu überzeugen.

Lernziele

Die Studierenden sind in der Lage eine projektorientierte wissenschaftliche Arbeit im Bereich der Mensch-Computer-Interaktion detailliert zu planen. Sie besitzen die Fähigkeit ein innovatives Projektthema zu definieren und sich in die damit verbundenen Konzepte und Technologien einzuarbeiten. Sie können verwandte Arbeiten eigenständig recherchieren und ggf. aufgreifen. Die Studierenden sind zudem in der Lage selbständig im Team und unter Verwendung modernen Methoden neue Lösungen und Konzepte zur Realisierung des Projektthemas zu finden. Sie sind ferner in der Lage, ihre Ergebnisse angemessen zu dokumentieren und im Rahmen von Vorträgen überzeugend zu präsentieren. 

Hinweise

  • Das Anwendungsfach erstreckt sich i.d.R. über zwei Semester, kann aber auf Wunsch auch in einem Semester absolviert werden.
Einordnung

12 LP, 8 SWS

Software Engineering

  • B.Sc., Anwendungsprojekt Software Engineering (FSPO 2014/2017) 
  • B.Sc., Projekt Software Engineering (FSPO 2022)

Medieninformatik 

  • B.Sc., Anwendungsfach Medieninformatik/Mensch-Computer-Interaktion (FSPO 2014/2021)
  • B.Sc., Projekt Medieninformatik (FSPO 2022)
  • M.Sc., Anwendungsfach Medieninformatik/Mensch-Maschine-Interaktion (FSPO 2014/2021)

Informationssystemtechnik (FSPO 2014/2017/2023)

  • M.Sc., Projekt Mensch-Computer-Interaktion

siehe auch Modulhandbuch, alle Angaben ohne Gewähr