Lecture: | Friday, 14:15 - 16:30 Room: Blauer Hörsaal |
Exercise: | -NA- |
Benutzerschnittstellen
Raumänderung
Die Vorlesung findet im blauen Hörsaal statt.
Hinweise zur Themenauswahl und Ausarbeitung
- Ansprechpartner sind Roman Sergienko und Maxim Sidorov
- Die Themenauswahl erfolgt per Email an Roman Sergienko oder Maxim Sidorov bis spätestens 02. Mai.
Es sind mindestens 3 Wunschthemen anzugeben. Jedes Thema wird von einer Person bearbeitet. Werden Themen von mehreren Personen gewünscht, entscheidet der Zufall. - Die Vorlage für die Ausarbeitung ist hier abrufbar: IEEEtran.zip
Für die Ausarbeitung sollte "bare_conf.tex" verwendet werden.
Inhalt
Diese Vorlesung führt in die Prinzipien der Mensch-Maschine-Interaktion ein, erklärt Gestaltungs- und Entwicklungsprinzipien multimodaler Benutzerschnittstellen und erläutert deren technische Realisierung. Grundlagen in Usability Engineering sowie die Evaluierung multimodaler Benutzerschnittstellen werden ebenfalls diskutiert.
- Einführung.
Was ist Interaktion? Erwartungen an die Benutzerschnittstelle; Gestaltungsraum der Mensch-Computer-Interaktion; Grundlagen interaktiver Benutzerschnittstellen; Innovation und Geschichte: Hard-/Software-Entwicklung, WIMP-Paradigma. - Gestaltungs- und Entwicklungsprinzipien für interaktive Benutzerschnittstellen.
Notwendigkeit des Interfacedesigns; Forschung vs. kommerzieller Einsatz; Interaktionsstilspezifische Grundlagen für graphische und sprachliche Interaktionen; Psychologie der Interaktion; Kognitive Grundlagen (menschliche Informationsverarbeitung, Aufmerksamkeit, Fehlertheorie); Allgemeine Gestaltungsregeln; Entwicklung von Interaktionsparadigmen (Time Sharing, Integrated Environments, Personal Computing, Hypertext, Multimodality, CSCW, WWW, Agent-based Interfaces, Emerging Technologies); Usability Engineering interaktiver Systeme - Prinzipien und Paradigmen; Entwicklungsumfeld (Virtual Reality, Forced-Feedback, Augmented Reality, Ubiquitous, Pervasive and Wearable Computing); Fallbeispiele. - Technische Realisierung multimodaler Benutzerschnittstellen.
Technische Grundlagen; Systementwurf; Visuell-haptische Benutzerschnittstellen (Eye-gazing/Eye-tracking, Lippenlesen, Gestenerkennung, Handschriftenerkennung, Gebärdenspracherkennung, biometrische Verfahren); Sprachdialogische Benutzerschnittstellen; Gegenständliche Benutzerschnittstellen (Überbrückung des physikalischen und digitalen Raumes, Virtualisierung, direkter Kontakt, Forced-Feedback Systeme); Kombination unterschiedlicher Modalitäten und Steuerung von multimedialen Systemausgaben (Modality Fusion and Fission); Anwendungsbeispiele; Spezialisierte Benutzerschnittstellen im Bereich PDA und mobiler Kommunikation.
- Usability und Evaluierung.
Beurteilung von Funktionen, Erlern- und Bedienbarkeit einer interaktiven Benutzerschnittstelle während des Entwurfs (analytisch-informell) und der Entwicklung (experimentell-formell); Evaluierungsformen (Laborstudien, Feldstudien, Entwurfsbeteiligung); Technische Evaluierung von Systemen und deren Komponenten (Black-box, Glass-box, objektiv, subjektiv); Usability und Evaluierung am Beispiel multimodaler sprachdialogischer Schnittstellen. - Seminar.
Im Seminar zur Vorlesung lernen und üben die Studierenden das selbstständige Aufbereiten von Informationen zu einem gestellten Thema aus dem Vorlesungsstoff. Jede Gruppe bzw. jeder Student trägt ein individuelles Thema vor. Die Betreuer stehen als Diskussionspartner bei der Vorbereitung zur Verfügung. Das Thema wird zu Vorlesungsbeginn gestellt. Einer zehnminütigen Zwischenpräsentation zur Orientierung folgt etwas später der abschließende Vortrag. Die Präsentation sowie eine schriftliche Ausarbeitung (ca. 5 Seiten) müssen dabei vorher abgegeben sein. Wird der Termin versäumt, wird hierfür einmalig ein Sondertermin anberaumt. Bei inhaltlich mangelhaftem Vortrag ist ebenso einmalig ein Wiederholungstermin vorgesehen. Die Anwesenheit während der Seminarvorträge ist obligatorisch. Die erfolgreiche Seminarteilnahme ist Voraussetzung für die mündliche Prüfung.
- A. Dix, J. Finlay, G. Abowd, R. Beale: Human-Computer-Interaction, Prentice Hall, 1998.
- Nielsen, J.: Usability Engineering, Academic Press, Inc., 1993.
- Folienkopien
SS 2016
- User Interfaces for Human-Robot Conversation
- Machine Learning for Dialogue Systems
- Human-like Spoken Dialogue Systems
- Telerobotic Systems
- Assistive Living Environments
- Off-talk Detection within an Automatic Spoken Dialogue System
- Mobile Speech Recognition
- Interaction with Intelligent Assistants
- Social Robotics
- A Future Generation of User Interfaces
- Biometrics in User Interfaces
- Eye- and Face-Tracking in Human-Computer Interactions
- Handling Non-Cooperative Users in Human-Computer Interfaces
- Human-Computer Interfaces for Educational Systems
- Advanced Driver Assistance Systems
- Internet of Things
- Augmented Reality
- Privacy and Security in User Interfaces
- Smart Watches and Bracelets
- User Interfaces across Generations
- Multimodal Emotion Recognition
SS 2015
- Smartphone security and privacy
- User's State Recognition: verbal intelligence
- Semantic Web Search
- User's state recognition: gender and age
- Speech recognition: feature extraction
- Emotion recognition for individuals with autism spectrum conditions
- Natural language call routing
- Smart Watches
- Adaptive dialogue modelling
- User's state recognition: emotions
- Speech recogniton: acoustic models
- Speech recognition: lexical and language models
- Speech recognition: classification methods
- Language recognition
- Multi-domain spoken dialogue systems
- Multi-user spoken dialogue systems
- Speaker verification
SS 2014
- Datensicherheit und Privacy in Benutzerschnittstellen
- Intelligente Wohnungen
- Multimodalitat: Agreement und Disagreement Erkennen
- Verbal Intelligenz Erkennung
- Virtual vs. Augmented Reality
- Fahrassistenzsysteme
- Sprecherentifikation
- Opinion-mining und Sentiment Detektion
- Automatische Ubersetzung
- Sprachsignalbasierte Emotionserkennung
- Visuelle signalbasierte Emotionserkennung
- Text-to-Speech Synthesis
SS 2013
- Eye-Tracking
- Situated Dialogue
- User Simulation
- Natural Language Understanding
- Metrics and Evaluation of Spoken Dialogue Systems
- Mobile Speech Recognition and Interaction (Siri, Google Voice)
- Multimodal Dialogue Systems
- Gestenerkennung in multimodalen Systemen
- Sprachein- und Ausgabe im Browser
- Sprechererkennung aus Sprache
SS 2012
- Modelling Probabilistic Knowledge
- Markov Logic Networks in Dialogue Systems
- Natural Language Generation Frameworks
- Avatars
- Dialogue Systems Architectures
- Multimodal Dialogue Systems Applications
- Evaluation in Dialogue Systems
SS 2011
- An Overview of Dialogue Modelling
- Decisions under Uncertainty
- Dialogue and Emotion
- Human Computer Trust
- Multimodal Dialogue Management - A Survey
- Natural Language Generation
- POMDP - Different Architectures
- User Modelling in Ontologies
SS 2010
- Affective Computing
- Augmented Reality
- Dialogue and Negotiation
- Emotional Intelligence in Spoken Language Dialogue Systems
- Empathy in Companion Systems
- Lumiere Project
- Multimodal Dialogue Modeling
- User Frustration
- User Modeling and Profiling
SS 2009
- Emotion Recognition in SpokenDialogueSystems
- Biometrics
- Evaluation
- Adaptive Interfaces
- Proactivity
- Complex Multimodal Systems
- Comparing User Interfaces
- 3D
- Virtual Humans
Lecturers:
Prof. Dr. Dr.-Ing. Wolfgang Minker
Supervisors:<link in nt staff senior-researchers sergienko.html internal-link>
Dr. Roman Sergienko<link in institute-of-communications-engineering staff research-assistants sidorov.html internal-link>
M. Sc. Maxim Sidorov
Deutsch
Keine Vorkenntnisse erforderlich.
Mündliche Prüfung und Seminarschein
Hours per Week: 2V + 2S
6 ECTS Credits
LSF - ENGC 4015