Ziel dieses Teilprojektes ist die multimodale Erkennung von Emotionen, Dispositionen, Aktionen und Intentionen des menschlichen Nutzers in der Mensch-Computer Interaktion. Hierfür befassen wir uns mit der Theorie und den Methoden, Daten aus verschiedenen sensorischen und  symbolischen Informationsquellen raum-zeitlich zu erfassen und zu klassifizieren. Resultate der Informationsfusion  werden dann höhere Informationsverarbeitungsebenen genutzt, etwa  auf der Planungs- und Entscheidungsebene oder in der Dialog- und Interaktionssteuerung. Wichtiges Ziel ist die Informationsfusion auch unter Einbeziehung unsicherer und unvollständiger Daten, z.B. wenn Einzelmodalitäten gestört sind. Hierfür werden Klassifikatoren in geschichtete adaptive Fusionsarchitekturen integriert. Methoden der Mustererkennung und des maschinellen Lernens aus Daten werden in unserem Forschungsvorhaben eingesetzt.

Teilprojekt C5
Informationsfusion zur Emotions- und Dispositionserkennung

Inhalt

Ziel dieses Teilprojektes ist die multimodale Erkennung von Emotionen, Dispositionen, Aktionen und Intentionen des menschlichen Nutzers in der Mensch-Computer Interaktion. Hierfür befassen wir uns mit der Theorie und den Methoden, Daten aus verschiedenen sensorischen und  symbolischen Informationsquellen raum-zeitlich zu erfassen und zu klassifizieren. Resultate der Informationsfusion  werden dann höhere Informationsverarbeitungsebenen genutzt, etwa  auf der Planungs- und Entscheidungsebene oder in der Dialog- und Interaktionssteuerung. Wichtiges Ziel ist die Informationsfusion auch unter Einbeziehung unsicherer und unvollständiger Daten, z.B. wenn Einzelmodalitäten gestört sind. Hierfür werden Klassifikatoren in geschichtete adaptive Fusionsarchitekturen integriert. Methoden der Mustererkennung und des maschinellen Lernens aus Daten werden in unserem Forschungsvorhaben eingesetzt.

Projektleiter