Seminar: Artificial Companions

Inhalt

Technische Systeme der Zukunft sind Companion-Systeme – kognitive technische Systeme, die ihre Funktionalität vollkommen individuell auf den jeweiligen Nutzer abstimmen: Sie orientieren sich an seinen Fähigkeiten, Vorlieben, Anforderungen und aktuellen Bedürfnissen und stellen sich auf seine Situation und emotionale Befindlichkeit ein. Dabei sind sie stets verfügbar, kooperativ und vertrauenswürdig und treten ihrem Nutzer als kompetente und partnerschaftliche Dienstleister gegenüber.

In diesem Seminar werden verschiedene technische Facetten bei der Realisierung von Companion-Systemen beleuchtet. Am Beispiel verschiedener Realisierungen von "Artificial Companions" werden Themen zu den Schwerpunkten Entscheidungsfindung, Dialogführung, Personalisierung und Affective Computing vergeben.

Die einzelnen Themen werden unter Anleitung selbstständig erarbeitet und recherchiert. Die Präsentation und abschließende Diskussion der Beiträge erfolgt im Rahmen eines Workshops am Ende des Semesters.

Termine

  • 24.10.13 Vorbesprechung
  • 14.11.13, 16:00 Uhr, O27/429
    • Kurzvorträge
    • Vortrag zur Erstellung einer Ausarbeitung
  • Do. 12.12.13, Abgabe der Ausarbeitung
  • Do. 19.12.13, 16:00 Uhr, O27/429
    • Besprechungen zum Peer-Review
    • Vortrag zur Erstellung einer Präsentation
  • Do. 23.1.14, Abgabe der Präsentation, Abgabe der überarbeiteten Ausarbeitung
  • Do. 06.02.14., 15:00 - 18:00 Uhr (s.t.) in O27/441, Abschluss-Vorträge

Verfügbare Themen

Das Lumière-Projekt

Lumière war ein Forschungsprojekt, im Rahmen dessen Microsoft in den 1990er Jahren versuchte, eine Architektur zum automatischen Erschließen von
Nutzerbedürfnissen zu entwickeln. Die Ergebnisse mündeten zum Teil in der Einführung von erweiterten Hilfedialogen und initiativen Hilfestellungsmechanismen in Microsoft Office 97®. Diese Arbeit soll eine Übersicht über die Ziele, die verwendeten Techniken und Methoden und die Ergebnisse dieses Forschungsprojekts geben.

Vertrauen in Mensch-Maschine-Interaktionen

Da mit der zunehmenden Durchdringung des Alltags technische Geräte auch immer öfter kritische Aufgaben übernehmen (z.B. selbstfahrende Autos) ist es wichtig, dass Menschen den Entscheidungen solcher Systeme vertrauen können. Im Rahmen dieses Themas soll daher eine Übersicht über die Problematik der Vertrauensbildung zwischen Menschen und technischen Systemen gegeben werden. Des weiteren sollen Aspekte aufgezeigt werden, die Einfluss auf die Vertrauensbildung besitzen.

Selbsterklärende Algorithmen

Von vielen Funktionen/Algorithmen technischer Systeme sind am Ende nur die berechneten Ergebnisse zu sehen. Oft ist der Grund, warum ein bestimmter Algorithmus zu seinem Ergebnis kommt nicht nachvollziehbar, entweder weil die Modellbildung nicht nachvollziehbar ist (z.B. Neuronale Netze) oder weil der enorme Rechenaufwand für einen Menschen nicht fassbar ist (z.B. Schachprogramme, Alpha-Beta-Suche). In dieser Arbeit soll nach Erklärungsansätzen für Algorithmen aus dem Bereich der Künstlichen Intelligenz recherchiert werden und am Ende eine Übersicht über die Bereiche gegeben werden, in denen solche Ansätze verfolgt werden.

POMDPs für die Steuerung von Sprachdialogen

Partially Observable Markov Decision Processes (POMDPs) erlauben die Formalisierung von sequentiellen Entscheidungsproblemen, sowohl in Domänen mit stochastischen Aktionsfolgen, als auch in Situationen in denen der relevante Weltzustand nicht direkt beobachtet werden kann (praktisch immer). Sie bieten sich deshalb zur Steuerung von Dialogen an; diese haben ja das Ziel, einen Wissensgewinn durch direktes Nachfragen zu erzielen. Im Rahmen dieser Arbeit soll die Anwendung von POMDP-Modellen zur Dialogsteuerung beleuchtet werden. Der Schwerpunkt liegt auf einer anwendungsorientierten Darstellung des State-of-the-Art zur Abbildung und Steuerung von Sprachdialogen mit POMDPs. (Achtung, evtl. große Literaturfülle)

Erheben von Nutzenfunktionen

Ein automatischer Entscheidungsalgorithmus hat zum Ziel, zu jeder Zeit die bestmögliche Entscheidung zu fällen. Dies erfordert ein
Gütemaß zur Bewertung der Folgen einer Entscheidung oder der Entscheidung selbst. Da Entscheidungen oft im Sinne eines Menschen getroffen werden sollen (z.B. Recommender-Systeme) ist es in diesen Fällen wichtig, das subjektive Gütemaß einer Person in Form einer Nutzenfunktion zu bestimmen. In dieser Arbeit soll eine Übersicht über die verwendeten Methoden zur systematischen Erhebung von Nutzenfunktionen gegeben werden, und die Problematik an sich diskutiert werden.

Dozent

Prof. Dr. Susanne Biundo-Stephan

Betreuer

Daniel Höller

Thomas Geier