(Anwendungs-)Projekte SE im Sommersemester 2024

Auf dieser Seite werden ab dem 5. Feburar 2024 kurz die im SoSe 2024 angebotenen Projekte beschrieben. Es wird dabei nicht zwischen Bachelor und Masterprojekten unterschieden, da wir gemischte Gruppen zu lassen.

Wenn Sie im nächsten Semester eines der unten stehenden Projekte belegen möchten, senden Sie bitte bis zum 21.02.24 eine E-Mail mit priorisierten Wünschen (3-5 Projekte) an Alexander Raschke.

Bitte auch die Buchstaben zur eindeutigen Kennzeichnung in der Mail mit angeben!

Bei Fragen zu den Projekten wenden Sie sich bitte ebenfalls an Alexander Raschke.

Weitere Informationen für den Studiengang Software Engineering

Eine Galerie der bisherigen Projekte finden Sie hier: Bisherige SE-Projekte

A: Software engineering for Data Science and Deep Learning

Software engineering for Data Science and Deep Learning is a new and emerging field. It aims with understanding and implementing algorithms, methods, and pipelines on a specific topic in the field of Data Science. Of particular interest are methods in machine learning including modern neural networks (Deep Learning) and its applications to the analysis, interlinkage, and enrichment of unstructured data like multimedia content and textual content as well as the analysis and use of open data on the web.

Ansprechpartner

B: Unterstützung der Münsterbauhütte bei Kartierungsarbeiten

Die Restauratoren der Münsterbauhütte müssen die Schäden an den zu restaurienden Gebäuden erfassen, um die Kosten und die Durchführung einer Restaurierung zu planen. Dabei wird Stein für Stein in Augenschein genommen und für jeden eine Menge an Daten erfasst, um den aktuellen Zustand und die notwendigen Restaurierungsarbeiten zu dokumentieren.

Um die sehr aufwändige Datenerfassung mit Fotoapparat, Papier und Bleistift zu verbessern, wurde in vergangenen Projekten eine Windows-App entwickelt, die es ermöglicht, die Daten direkt am Tablett zu erfassen. Dabei werden die Kamera des Tabletts benutzt, um Fotos zu machen, diese mit einer Stifteingabe zu markieren und zu bearbeiten. Zurück im Büro, werden die so integriert erfassten Daten direkt mit der zentralen Datenbank abgeglichen.

Da die App vor nun schon ca. acht Jahren gestartet wurde, soll im Rahmen dieses Projekts nun ein dringend notwendiger Overhaul stattfinden. Dabei ist noch offen, auf welcher Technologie aufgebaut werden soll. 

Die App ist in C# mit der Universal Windows Platform (UWP) entwickelt worden.

Ansprechpartner:

C: 3D-Roomtour durch KI

Die immersight GmbH entwickelt mit dem 3D-Showroom eine Cloud-Lösung für Virtuelle Ausstellung und mit dem 3D-Workroom zur Baustellendokumentation und -kommunikation. Die Kunden sind Handwerker oder Bauunternehmen, genau so wie Verwalter von Immobilien und Gebäuden. Das bedeutet, Mitarbeiter machen mit 360°-Kameras Panoramaaufnahmen von Räumen und laden diese in die cloud-basierte Anwendung hoch. Besonders im Fokus steht dabei das Vermessen im Raum. Hierfür hat die immersight GmbH ein Verfahren entwickelt, mit dem man in einem 360°-Panorama messen kann (siehe Webseite immersight.com). Ebenfalls bereits im BETA-Stadium ist eine KI, welche die Raumvermessung automatisch startet. Das Ergebnis ist die Raumgeometrie (Boden, Wände und Decke).

Die Kamera wird vom Nutzer in den Raum gestellt. Der Nutzer verlässt den Raum und löst vor der Türe über die Smartphone-App die 360°-Kamera aus. In größeren Räumen stellen Nutzer die Kamera auch mehrmals an verschiedenen Standpunkten im selben Raum auf. Häufig wollen die Kunden eine ganze Wohnung erfassen und machen min. 1 Aufnahme pro Raum. Das Ergebnis sind n Aufnahmen in m Räumen, die zu einer Wohnung gehören. Die Kunden möchten, dass diese Aufnahmen nun übersichtlich dargestellt werden, idealerweise in einem Grundriss und so eine Navigation per Grundriss möglich ist. Manchen Kunden würde eine Roomtour genügen, wo man durch Klicken auf eine Türe in den nächsten Raum gelangt.

Ziel dieses Projektes ist es, dass die Aufnahmen der einzelnen Räume automatisch verortet werden. Das heißt, der in einem 360°-Bild abgebildete Raum wird in Relation zu den anderen Räumen gesetzt. Hierbei ist nicht sicher, dass alle Räume einer Wohnung fotografiert wurden! Durch die bereits existierende, automatische Raumvermessung, können aus den 360°-Aufnahmen bereits Grundrisse der einzelnen Räume mittels KI generiert werden. Was fehlt ist eine KI welche Türen identifiziert und im 360°-Panorama lokalisiert, sowie ein Algorithmus, welcher die Aufnahmen resp. die Räume relativ zueinander verortet.

Ausgestaltung

  • In einer einfachen Lösung werden alle Türen erkannt und durch einen Marker auf der Türe wird die 360°-Aufnahme des dahinterliegenden Raumes geladen.
  • In einer mächtigeren Lösung werden alle Türen und Raumgrundrisse erkannt und durch einen automatisch generierten Grundriss navigierbar.
  • In der mächtigsten Lösung werden alle Türen und Raumgrundrisse erkannt und durch einen automatisch generierten Grundriss begehbar. Hierbei wird auf Basis des Gesamtgrundrisses ein Puppenhaus generiert und man kann sich in allen 3 Raumrichtungen frei durch die Räume bewegen.

Ansprechpartner

D: Mobile App zur interaktiven Planung von Sanierungsstrategien

Kontext

Gebäudesanierung spielt eine entscheidende Rolle im Umweltschutz und bei der Energieeffizienz, da sie dazu beiträgt, den Energieverbrauch zu reduzieren und den CO2-Ausstoß zu verringern. Viele Menschen zögern jedoch, Sanierungsprojekte in Angriff zu nehmen, oft aufgrund von Informationsmangel und mangelndem Vertrauen in ihre Fähigkeiten, solche Projekte zu leiten. Obwohl es bereits eine Vielzahl von Tools für Energieberater gibt (z.B. Ubakus), die darauf abzielen, den Prozess der Gebäudesanierung zu erleichtern, fehlt es oft an benutzerfreundlichen Lösungen für Laien.

Aufgabe/Ziel

Um diese Lücke zu schließen, ist das Ziel unseres Projektes die Entwicklung einer mobilen Applikation, die speziell auf die Bedürfnisse von Nicht-Experten zugeschnitten ist. Diese App soll Nutzer in zwei Schlüsselbereichen unterstützen: (1) bei der effizienten Aufnahme aller notwendigen Parameter zur Beurteilung des aktuellen Zustands des Gebäudes und (2) bei der Planung möglicher Sanierungsschritte (Fokus auf Dämmmaterialien). Damit wird ein wichtiger Beitrag geleistet, um Sanierungsprojekte zugänglicher für die breite Öffentlichkeit zu machen. Explizite Vorkenntnisse bezüglich Sanierungen sind bei diesem Projekt nicht zwingend erforderlich und bestehende Expertentools wie Ubakus können als Bespiel für einen möglichen Funktionsumfang genommen werden.

Die spezifischen Projektaufgaben sind:

  • Anwendung verschiedener Analysealgorithmen für Baupläne von Privatgebäuden zur effizienten Datenaufnahme.
  • Entwicklung eines Recommender Systems, dass mögliche Sanierungsstrategien (speziell Dämmung) basierend auf Nutzereingaben vorschlägt, visualisiert und erklärt. Dieses System wird für die Anwendung auf Smartphones entwickelt.

Ansprechpartner

E: Kamera-basiertes Eye-Tracking

Kontext

Eye Tracking ermöglicht die Erfassung der visuellen Aufmerksamkeit von Benutzern und wird im Bereich der Mensch-Computer-Interaktion (MCI) sowohl als methodisches Werkzeug zur Evaluation von Benutzerschnittstellen als auch zur augenbasierten Interaktion eingesetzt [1]. Allerdings ist die derzeit verfügbare Hard- und Software für Eye-Tracking kostenintensiv und nicht allgemein verfügbar, was eine breite Anwendung erheblich einschränkt. Obwohl Kamera-basiertes Eye-Tracking dank der Fortschritte im Bereich der Computer Vision bereits möglich ist [2, 3], fehlt es an einer einfach zu bedienenden, vielseitig einsetzbaren, leicht zu integrierenden und offenen Lösung hierfür.
Dieses Projekt zielt darauf ab, eine kostengünstige und einfache Kamera-basierte Eye-Tracking-Lösung bereitzustellen, die insbesondere im Bereich der MCI-Forschung für augenbasierte Interaktion und Datenerfassung einsetzbar ist und leicht in bestehende Systeme integriert werden kann.

Ziel

In einem früheren SE-Projekt wurde bereits erfolgreich ein Unity-Plugin implementiert, das Eye-Tracking auf Desktop- und Laptop-Computern ermöglicht. Ziel des aktuellen Projekts ist die Weiterentwicklung dieses Plugins. Dies beinhaltet die Optimierung der Benutzererfahrung, insbesondere im Bereich der Kalibrierung und Validierung des Eye Trackers. Darüber hinaus soll die ML-basierte Estimation Pipeline durch das modulare Hinzufügen weiterer Blickdatensätze, Estimations- und Face Recognition-Modelle verbessert werden. Weitere mögliche Ziele sind die Erweiterung der API um Funktionen für Entwicklende und Forschende sowie die Portierung des Plugins auf Android-Geräte, um Eye-Tracking auf Smartphones zu ermöglichen. Die Ziele werden im Rahmen der Projektplanung gemeinsam mit der Projektgruppe festgelegt.

Projektaufgaben

  • Erweiterung des bestehenden Unity-Plugins für Kamera-basiertes Eye-Tracking.
  • Optimierung der Eye Tracker Kalibrierung und Validierung.
  • Erweiterung der ML-basierten Estimation Pipeline (d.h. Hinzufügen von Estimations- und Face Recognition Modellen sowie Blickdatensätzen).
  • Erweiterung der API.
  • Portierung auf Android.

Technologien

  • Unity Engine (C#)
  • Python
  • Machine Learning

Ansprechpartner

Quellen

[1] Päivi Majaranta and Andreas Bulling. 2014. Eye Tracking and Eye-Based Human–Computer Interaction. In Advances in Physiological Computing, Stephen H. Fairclough and Kiel Gilleade (eds.). Springer, London, 39–65.

[2] Kyle Krafka, Aditya Khosla, Petr Kellnhofer, Harini Kannan, Suchendra Bhandarkar, Wojciech Matusik, and Antonio Torralba. 2016. Eye Tracking for Everyone. 2016. 2176–2184.

[3] Xucong Zhang, Yusuke Sugano, and Andreas Bulling. 2019. Evaluation of Appearance-Based Methods and Implications for Gaze-Based Applications. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (CHI ’19), May 02, 2019, New York, NY, USA. Association for Computing Machinery, New York, NY, USA, 1–13.

F: Karaoke Across Cars

Zielsetzung

Das Hauptziel dieses Projekts ist die Entwicklung einer Multiuser VR-Karaoke-App, die während der Fahrt in vernetzten und autonomen Fahrzeugen genutzt werden kann. Diese Anwendung zielt darauf ab, die Fahrtzeit unterhaltsamer zu gestalten und Interaktionen zwischen den Insassen verschiedener Fahrzeuge zu ermöglichen. Durch die Integration von Unterhaltungselementen in das Fahrerlebnis sollen neue soziale Verbindungen zwischen den Verkehrsteilnehmern geschaffen und die Fahrtzeit aufgewertet werden.

Herausforderungen

  • Dynamik des Verkehrs: Die Hauptherausforderung besteht darin, eine stabile und reaktionsfähige Anwendung zu entwickeln, die in der Lage ist, mit den dynamischen Bedingungen des Straßenverkehrs umzugehen. Dies umfasst die Berücksichtigung variabler Faktoren wie Fahrzeuggeschwindigkeiten, Distanzen zwischen Fahrzeugen und Netzwerklatenzen.

  • Interaktionsdesign: Die Entwicklung effektiver und ansprechender Interaktionsmechanismen für Benutzer in verschiedenen Fahrzeugen, insbesondere unter Berücksichtigung der kurzen Zeitfenster für Interaktionen, die sich aus der Bewegung der Fahrzeuge ergeben.

Technologien

  • Unity Engine (C#)
  • Networking Framework z.B Photon
  • 3D Modelling
  • UI Integration & Testing

Buzzwords

  • Cross-Car Multiplayer
  • Karaoke
  • VR App Development
  • Game Development

Ansprechpartner

G: Unity-PsyToolkit - Entwicklung eines Assets für die effiziente Integration standardisierter psychologische Studientasks in Unity

Kontext

Die Anwendung standardisierter psychologischer Experimente ist sowohl in der Psychologie als auch bei der Evaluation nutzerzentrierter technischer Systeme von zentraler Bedeutung. Diese Experimente, die Faktoren wie Aufmerksamkeit, kognitive Last, räumliche Vorstellungskraft oder Gedächtnis testen, sind essentiell für ein umfassendes Verständnis menschlichen Verhaltens und der Interaktion mit Technologie. Ihre Integration in Unity-Anwendungen, häufig verwendet in Bereichen wie Human-Computer Interaction und Human Factors für Fahrsimulatoren oder Virtual Reality, ist jedoch oft zeitaufwendig und fehleranfällig. Dies gilt besonders für Entwickler ohne umfangreiche Erfahrung in Unity, was das Risiko inkorrekter Implementierung und eine Beeinträchtigung der Validität der Experimente mit sich bringt.

Ziel

Entwicklung eines Unity Assets, das eine Sammlung standardisierter psychologischer Studienaufgaben enthält (z.B., Fitts's Law Task, N-Back Task, oder Tower of Hanoi). Dieses Asset soll leicht in bestehende Unity-Szenen integrierbar sein, ohne dass zusätzlicher Code geschrieben werden muss. Die Nutzerzielgruppe sind dabei Studierende und Forscher (z.B. Psychologen), mit keiner bis wenig Programmiererfahrung. Außerdem soll das Asset mit Studienaufgaben erweiterbar sein und eine standardisierte API für die Kommunikation mit der Unity-Anwendung bereitstellen.

Projektaufgaben

  1. Analyse und Auswahl standardisierter psychologischer Aufgaben
    • Identifizierung und Auswahl relevanter Aufgaben aus dem Bereich der Psychologie für die Integration in das Asset auf der Basis des PsyToolkit’s experiment library.
  2. Entwicklung des Unity Assets:
    • Erstellung einer benutzerfreundlichen "Unity Editor Application" in C# zur Integration der Aufgaben in Unity-Szenen.
    • Implementierung einer modularen Struktur, die zukünftige Erweiterungen ermöglicht.
    • Entwicklung einer standardisierten API zur Kommunikation zwischen den Studienaufgaben und der Unity-Anwendung.
    • Sicherstellung der Kompatibilität mit unterschiedlichen Unity-Versionen und anderen häufig genutzten Unity Assets.
  3. Validierung und Testen:
    • Sammlung von Nutzerfeedback zur iterativen Verbesserung des Assets.
    • Durchführung von Tests zur Überprüfung der Funktionalität und Benutzerfreundlichkeit.
  4. Dokumentation und Anleitung:
    • Erstellung umfassender Dokumentationen für Entwickler und Novizen zur Integration und Nutzung des Assets.
    • Bereitstellung von Anleitungen und Best Practices für die Erweiterung des Assets.

Ansprechpartner

H: GeMoA - Generative Agents für interaktive Simulation zukünftiger multimodaler Mobilität

Kontext

Die realitätsnahe Simulation von Mobilitätsszenarien ist ein Schlüsselaspekt in der Erforschung und Planung zukünftiger Verkehrssysteme. Aktuelle Herausforderungen umfassen die Darstellung komplexer, multimodaler Verhaltensmuster von verschiedenen Verkehrsteilnehmern, wie automatisierte Fahrzeuge, Fußgänger, E-Scooter, und die Integration neuer Mobilitätsformen wie Urban Air Mobility. Traditionelle Studien und Simulationsmethoden stoßen hierbei an ihre Grenzen, da sie kostenintensiv sind, oft ein begrenztes Verständnis für kulturelle und soziale Unterschiede bieten und neuartige Mobilitätsformen nicht ad-hoc berücksichtigen können.
Die Verwendung von Generative Agents (siehe 1), basierend auf Large Language Models (LLMs), bietet eine neuartige Herangehensweise zur Darstellung komplexer, multimodaler Verkehrsmuster. Diese Methodik geht über traditionelle Simulationsansätze hinaus, indem sie realistische, dynamische und anpassungsfähige Agenten generiert, die eine breite Palette von Verkehrsteilnehmern repräsentieren. Durch Prompt Engineering und Seed Memory werden die Anfangsbedingungen und Verhaltensparameter der Agenten festgelegt, wobei anschließend die Kontrolle an ein LLM abgegeben wird. Dies ermöglicht den Agenten, basierend auf diesen Vorgaben, eigenständige und möglicherweise unvorhersehbare Entscheidungen zu treffen, was die Komplexität menschlicher Entscheidungsfindung und Mobilitätsmuster simuliert.

Ziel

Das Hauptziel des Projekts "GeMoA - Generative Mobility Agents" ist es, ein Simulationsframework zu entwickeln, das Generative Agents nutzt, um realistische multimodale Mobilitätsszenarien in urbanen Kontexten zu simulieren. Das Framework wird durch Prompt Engineering und Seed Memory initialisiert, um spezifische Verhaltensweisen und Charakteristika der Agenten festzulegen, wobei ein LLM anschließend die dynamische Entwicklung der Agenten übernimmt. Dabei soll auf eine bestehende Implementierung der Generative Agents aufgebaut werden und in den Mobilitätskontext übertragen werden.

Projektaufgaben

  1. Definieren von Mobilitätsmodi und -szenarien:
    • Festlegen verschiedener Mobilitätsformen wie E-Scooter, Fahrrad, Shuttle usw. als Agenten.
    • Strukturierung von Umgebungen wie Restaurants, Arbeitsplätze, Wohnorte usw. in der Simulationswelt.
  2. Umwandlung der bestehenden Implementierung:
    • Analyse und Anpassung bestehender Generative Agent repositories (siehe github) für die Integration von Generative Agents in Mobilitätsszenarien.
    • Genutzt werden APIs zu bestehenden LLMs, Programmiersprache ist Python.
  3. Prompt Engineering und Seed Memory:
    • Erstellung verschiedener Ziele für die Agenten als Seed Memory.
    • Definieren von Hintergrundmerkmalen wie Rolle, Alter, Geschlecht, Beeinträchtigungen usw.
  4. Validierung und Analyse:
    • Bewertung und Validierung der Simulationsergebnisse.
    • Vergleich der Simulationen mit realen Mobilitätsszenarien aus der Vergangenheit in verschiedenen Städten.

Ansprechpartner

I: CaRdapt – Toolkit für das Design von personalisierten und adaptiven Automotive User Interfaces

Kontext

Im Bereich der Automotive User Interfaces (UIs) ist das Design von Benutzeroberflächen komplex und anspruchsvoll. Einflussfaktoren wie Sicherheit, Vertrauen in Automatisierungsfunktionen (ADAS, ABS, Einparkassistent, automatisiertes Fahren etc.), sowie körperliche Einschränkungen durch das Sitzen und die Fahrzeugbewegung erfordern spezifische Berücksichtigung. Diese Herausforderungen sind in anderen Bereichen der Mensch-Computer Interaktion nicht in gleicher Weise vorhanden und machen das Design von Automotive UIs zu einem komplexen Optimierungsproblem. Subjektive Zielkriterien, welche ein Design erfüllen soll, wie wahrgenommene Sicherheit, Vertrauen, Situationsbewusstsein, Nutzbarkeit und Technologieakzeptanz müssen in Einklang gebracht werden. Ein adaptives UI, das *optimal* auf den einzelnen Nutzer personalisiert ist, kann in diesem Kontext eine entscheidende Rolle spielen, um sowohl die Sicherheit als auch die Benutzererfahrung zu maximieren. Jedoch ist die Entwicklung von *optimalen* UIs mit traditionellen Entwicklungsmethoden in Nutzer-zentrierten Prozessen und A/B Systemvergleichen nahezu unmöglich aufgrund der Komplexität des UI Design Space und der damit verbundenen Unklarheit, ob andere Design Variationen noch bessere Ergebnisse liefern könnten. Entwicklungswerkzeuge, welche Optimierungstechnologien (z.B. Bayesian Optimization) anbieten, könnten den Prozess signifikant vereinfachen, Ressourcen einsparen, und effektivere Designergebnisse liefern.

Ziel

Entwicklung von CaRdapt, einem Toolkit zur Gestaltung personalisierter und adaptiver Automotive UIs. CaRdapt soll es Designern und Entwicklern komfortabel ermöglichen, Benutzeroberflächen zu schaffen, die sich dynamisch an die individuellen Bedürfnisse und Präferenzen der Nutzer anpassen, unter Berücksichtigung der einzigartigen Anforderungen des Automotive-Kontexts. Ziel ist es, eine optimale Balance zwischen den subjektiven Zielkriterien zu erreichen und die Benutzererfahrung zu verbessern, während gleichzeitig Sicherheit und Vertrauen in die Fahrzeugtechnologien gestärkt werden. Das Toolkit baut konzeptionell und Code-technisch stark auf bereits existierende Arbeiten auf.

Projektaufgaben

  1. Entwicklung des CaRdapt-Toolkits:
    • Implementierung einer Plattform für das Design adaptiver Automotive UIs mit der Unity Game Engine, C#, und einer Python Schnittstelle, da die zu nutzenden Optimierungsmethoden als Python Implementierungen vorliegen.
    • Integration von Methoden zur Personalisierung und dynamischen Anpassung der UI-Elemente basierend auf Nutzerpräferenzen und -verhalten.
  2. Berücksichtigung spezifischer Automotive-Anforderungen:
    • Analyse und Integration der Einflussfaktoren wie Sicherheit, Vertrauen in Automatisierungsfunktionen und körperliche Einschränkungen.
    • Entwicklung adaptiver Designstrategien, die die verschiedenen subjektiven Zielkriterien berücksichtigen.
  3. Durchführung von Nutzertests und Evaluierung:
    • Testen des Toolkits mit realen Nutzern unter verschiedenen Fahrszenarien und Bedingungen.
    • Sammeln und Auswerten von Feedback zur Feinabstimmung und Verbesserung der Toolkit-Funktionalität.
  4. Bereitstellung Dokumentationen und Anleitungen zur Nutzung von CaRdapt.

Ansprechpartner

J: Smart Office – IoT für Gesundheit und Wohlbefinden

Die Förderung von Gesundheit und Wohlbefinden der Mitarbeiter ist ein wesentlicher Faktor für eine effektive und angenehme Arbeitsatmosphäre. Im Rahmen des Projekts bei der Firma eXXcellent solutions GmbH wird die Erweiterung einer App mit dem Ziel verfolgt, die Arbeitsumgebung durch die Messung und Optimierung von grundlegenden Elementen wie Luftqualität, Lärmpegel und Beleuchtung zu verbessern.
Dabei setzen wir Sensortechnologie ein, um nicht nur Daten zu sammeln und auszuwerten, sondern diese auch aktiv zu nutzen. Dies ermöglicht es maßgeschneiderte Empfehlungen zu geben, wie zum Beispiel das Senken des Lärmpegels oder das Öffnen eines Fensters für bessere Luftqualität. Unser Bestreben ist es, ein Arbeitsumfeld zu gestalten, das sowohl die Gesundheit unterstützt als auch die Arbeitszufriedenheit verbessert.

Ziel

Das Ziel des Projekts ist es, passende Sensortechnologien zu identifizieren, diese in den IoT Broker einzubinden und Funktionen zu entwickeln, die in einer bereits bestehenden App benutzerfreundlich visualisiert werden. Diese Funktionen sollen nicht nur wichtige Informationen über das Arbeitsumfeld wie Luftqualität, Lärmpegel und Ergonomie abbilden, sondern auch handlungsorientierte Vorschläge zur Verbesserung dieser Bedingungen. Zusätzlich tragen sie indirekt zur Nachhaltigkeit bei, indem sie zum Beispiel darauf hinweisen, wenn eine Lampe unnötigerweise das ganze Wochenende brennt.
Dieses Vorhaben richtet sich insbesondere an Studierende mit einem Interesse an IoT-Technologien, Gesundheit am Arbeitsplatz sowie UI/UX-Design. Es bietet eine abwechslungsreiche Gelegenheit, hands-on Erfahrung in diesen Schlüsselbereichen zu sammeln und dabei direkten Einfluss auf die Schaffung gesünderer und produktiverer Arbeitsumgebungen zu nehmen.

Schlagwörter

  • IoT
  • ioBroker
  • App Development
  • Flutter/Dart
  • Sensorechnologie
  • UI/UX Design
  • Userzentriert
  • Testing
  • Gesundheit am Arbeitsplatz

Projektumfang

  • User Research: Durchführung von Umfragen und Interviews, um die spezifischen Anforderungen der Mitarbeiter an ihre Arbeitsumgebung zu ermitteln.
  • Architekturentwurf: Verschiedene Architekturmodelle sollen entworfen und in Abstimmung miteinander bewertet werden.
  • Evaluation von Sensoren: Die Auswahl und Bewertung von Sensoren, die zur Verbesserung der Arbeitsumgebung beitragen sollen. Dies eröffnet die Gelegenheit darüber nachzudenken, welche Sensoren (z.B. für Luftqualität, Lärmpegel, Beleuchtung usw.) am besten passen, um relevante Daten bereitzustellen. Außerdem bietet sich die Möglichkeit darüber zu reflektieren, wie diese Sensoren effektiv und visuell ansprechend in der Arbeitsumgebung platziert können.
  • Integration der Sensoren: Anpassung und Erweiterung der bestehenden IoT-Broker-Plattform zur Integration der ausgewählten Sensoren sowie Daten effizient zu sammeln und zu verarbeiten.
  • UI/UX-Design der Funktionalität: Entwurf und Gestaltung der Benutzeroberfläche und Benutzererfahrung für die neue Funktionalität innerhalb unserer bereits existierenden Flutter-App, um sicherzustellen, dass die neuen Funktionen benutzerfreundlich und intuitiv zugänglich sind.
  • Erweiterung der App: Implementierung der konzipierten Funktionen in die Flutter-App, inklusive der Programmierung der Schnittstellen zur IoT-Plattform für den Datenaustausch.
  • Testing: Um eine reibungslose Funktion der Anwendung zu sichern, sollen Tests auf einem Android und iOS-Gerät durchgeführt werden. Neben den technischen Tests wird ein Usability Testing mit Endnutzern durchgeführt, um die Benutzerfreundlichkeit und das Anwendererlebnis zu überprüfen.
Ansprechpartner:

K: Integrating Shopfloor Simulation Into a Manufacturing Execution System

Manufacturing Execution Systems (MES) sind Softwarelösungen, die zur Verwaltung und Überwachung des Produktionsprozesses in einer Fertigungsumgebung eingesetzt werden. Sie helfen dabei, den Produktionsprozess zu verfolgen und zu optimieren, indem sie Echtzeitdaten über den Status der Maschinen, die Lagerbestände und die Produktivität der Mitarbeiter liefern. MES werden in einer Vielzahl von Branchen eingesetzt, u. a. in der Automobilindustrie, der Luft- und Raumfahrt sowie der Pharmazie. Sie werden eingesetzt, um die Effizienz zu verbessern, den Ausschuss zu verringern, die Produktqualität sicherzustellen und die Rentabilität zu steigern.
Die Integration solcher Systeme in eine reale Fertigungsumgebung ist mit vielen Herausforderungen verbunden, insbesondere im Hinblick auf die Kommunikation mit Maschinen. Um den Entwicklern zu helfen, diese Herausforderungen vor der tatsächlichen Integration in einer realen Umgebung zu bewältigen, kann Simulationssoftware eingesetzt werden.
Visual Components ist eine Simulationssoftware, die eine breite Palette von Funktionen sowohl für die Simulation als auch für die Automatisierung bietet. Sie ermöglicht es den Benutzern, Fertigungsumgebungen vollständig zu modellieren. Mit Hilfe einer ereignisbasierten Architektur ist es möglich, auf jede Aktion innerhalb der modellierten und simulierten Umgebung zu reagieren und Informationen über das Ereignis an einen Webserver zur weiteren Verarbeitung zu senden.

Ziel

Das Ziel dieses Projekts ist die Entwicklung eines Konnektors, der die Integration der von Carl-Zeiss MES Solutions entwickelten MES-Lösung, mit Visual Components ermöglicht. Der Konnektor soll in der Lage sein, von einer Visual Components-Simulation gesendete Nachrichten zu empfangen, zu verarbeiten und relevante Informationen und Ereignisse an andere Microservices innerhalb des MES weiterzuleiten.

Verwendete Technologien

  • Python: Scripting innerhalb von Visual Components.
  • C# ASP .NET: Entwicklung des Konnektors.
  • Docker & docker-compose: Erzeugung des Service Artefakts.
  • Helm: Integration in ein Kubernetes-Cluster.

Voraussetzungen

  • Erfahrung in der Entwicklung mit einer objekt-orientierten Programmiersprache, z.B. Java, C#
Ansprechpartner:

L: Develop Visualization for Self-Adaptive Cloud Systems

Self-Adaptive systems are systems that adjust themselves to maintain or improve their performance in response to changes in their environment and operational conditions, thereby ensuring continued effectiveness, reliability, and efficiency. Self-adaptive systems are diverse and multifaceted, with applications extending across numerous fields. In our project, we concentrate on the cloud-native domain, with a special emphasis on the explainability aspect of self-adaptation. This involves delving into how these systems can not only adjust autonomously to changing conditions but also provide transparent and understandable explanations for their adaptations, ensuring clarity and trust in their operations.

Understanding the intricacies of self-adaptive systems, particularly in the cloud-native space, is a complex task. The autonomous adjustments these systems make in response to environmental changes can be intricate and opaque. This complexity underscores the necessity for effective visualization strategies. Visualizations can range from simple schematic diagrams that illustrate system workflows, to advanced interactive visualizations that provide real-time insights into system dynamics. By employing visualization techniques like this, we aim to make the processes of self-adaptation in cloud-native systems not only more transparent but also more accessible to a broader audience, enhancing comprehension and facilitating informed oversight.

In this project you will develop such an visualization approch. The implementation language is Typescript.

Verwendete Technologien

  • Typescript
Ansprechpartner:

M: Entwicklung eines IoT-basierenden Verleihsystems

In diesem Projekt soll ein Demonstrator für IoT-basierte Prozessmodelle entwickelt werden. Die Arbeit findet in Kooperation mit der Studierendenvertretung der Universität Ulm (StuVe) statt. Die dort angesiedelten Referate verwalten einen umfangreichen Katalog an Gerätschaften und Verbrauchsgegenständen, die an Studierende und MitarbeiterInnen ausgeliehen werden. Aktuell müssen diese händisch verwaltet und über Schränke mit Zahlenschlössern ausgegeben werden.

Es existiert eine Lücke zwischen einfacher Inventarsoftware und vollständigen ERP Systemen, welche für Vereine o.ä. Institutionen erschwinglich sind. Deshalb sollen im Rahmen dieses Projekts sowohl die Software als auch Hardware konzeptioniert und implementiert werden, um die Inventar- und Verleihprozesse zu automatisieren. Darüber hinaus, soll das System im realen Einsatz getestet werden und bei Erfolg in der Praxis dauerhaft eingesetzt werden.

Der konkrete Projektumfang wird an die Teamgröße angepasst.

Ziele

  • Anforderungsanalyse und -definition in Kooperation mit dem Computer- & Anlagenreferat der StuVe
  • Agile Entwicklung des Verleihsystems unter Nutzung von IoT-basierten Prozessmodellen
    • Modellierung des IoT-basierten Prozesses (mit dem am DBIS entwickelten BPMNE4IoT-Framewirk)
    • Entwicklung der Web Schnittstelle zur Verarbeitung von Verleihaufträgen
    • Erstellung der benötigten Hardware auf Basis von ESP32 zur Erstellung eines Smart Locks
  • Agile Entwicklung eines Inventarsystems
    • Datenbankmodell zur Inventarisierung
    • Web Schnittstelle zum Einblick des Inventars als Verleiher und Interessent
  • Deployment und Monitoring im laufenden Betrieb

Ansprechpartner

  • Pascal Schiessle, Inst. für Datenbanken und Informationssysteme
    Projekt in Kooperation mit der Studierendenvertretung der Universität Ulm (StuVe)

N: LLM-basierte Prozessmodelierung

Betriebliche Prozesse werden in Unternehmen häufig mittels grafischer Modellierungswerkzeuge (z.B. Signavio) erstellt und visualisiert. Die resultierenden Prozessmodelle sind dann Grundlage für die Prozessimplementierung durch die IT-Abteilung. In den Fachabteilungen dagegen wird Prozesswissen oftmals textuell dokumentiert, so dass vor der Prozessdigitalisierung zunächst eine Abbildung der natürlichsprachigen Prozessbeschreibung in ein graphisches Prozessmodell (z.B. BPMN-Diagramme) erforderlich wird.

Im Projekt soll ein Software-Demonstrator entwickelt werden, der natürlichsprachige Prozessbeschreibungen in entsprechende graphische Modelle abbildet. Dies soll auf der Grundlage eines Large Language Models (LLM) erfolgen, mit dessen Hilfe eine natürlichsprachige Prozessbeschreibung zunächst in ein für eine Modellierungs- bzw. Visualisierungssoftware verständliches Textformat (z.B. XML, JSON) transformiert werden kann. Davon ausgehend soll der Software-Demonstrator sowohl die natürlichsprachige Prozessbeschreibung als auch die hieraus erzeugte graphische Modelldarstellung anzeigen. Änderungen der textuellen Beschreibung sollen zudem in Echtzeit in entsprechende Anpassungen der visuellen Prozessmodelle umgesetzt werden.

Auf technischer Ebene soll ein Open Source LLM genutzt und übers seine API angesteuert werden. Ebenso soll ein bestehenden Open Source Werkzeug für die Visualisierung graphischer Prozessmodelle (in der BPMN Notation) eingebunden werden.

Studierende lernen im Projekt mit LLM eine anspruchsvolle KI-Technologie kennen und sind in der Lage, diese in eine neu zu entwickelnde Software-Anwendung zu integrieren. Ferner entwickeln sie einen innovativen Ansatz, um textuelle Prozessbeschreibungen in eine visuelle Darstellung zu transformieren. DBIS bietet zu diesen Themenfeldern auch Bachelor- und Masterarbeiten an.

Contact

  • Luca Hörner, Inst. für Datenbanken und Informationssysteme

O: Developing a Web-based Framework for Modeling Object-centric Business Processes

In the project, a web-based framework for modelling object-centric business processes shall be developed.
Object-centric business processes consist of multiple, interacting business objects (e.g., order, invoice, claim). The interactions of these objects are organised in a Relational Process Structure (RPS), which represents the semantic relations between the objects (including cardinalities). At run-time, multiple object instances may be created for the objects contained in the RPS. The run-time behaviour of each object instance is defined by a corresponding lifecycle process. Each lifecycle process has one start state and at least one end state as well as a number of intermediate states. Each state, in turn, may be refined by a number of steps, each referring to the update of a particular object attribute. Consequently, the execution of a lifecycle process is data-driven. Moreover, at run-time, form sheets are generated automatically for each state of an object type. Finally, a coordination process controls the interactions between multiple lifecycle processes.

Contact

  • Lisa Arnold, Inst. für Datenbanken und Informationssysteme

P: FHIR Questionnaire Editor in Flutter

FHIR (Fast Healthcare Interoperability Resource) ist ein von HL7 (Health Level 7 Standards Organization) entwickelter Interoperabilitätsstandard, der den elektronischen Austausch von Gesundheitsdaten zwischen verschiedenen Systemen im Gesundheitswesen ermöglichen soll. Auf Grundlage der FHIR-Questionnaire-Datenstruktur soll ein Fragebogeneditor im Stil von Microsoft Forms / Google Forms entwickelt werden. Für die Umsetzung ist das moderne Cross-Platform- Framework Flutter (Dart) angedacht. Flutter eignet sich zur Implementierung von Mobile, Desktop und Web-Anwendungen auf nahezu allen gängigen Plattformen.

Der konkrete Projektumfang wird an die Teamgröße angepasst.

Technologien

  • Flutter (Dart)
  • FHIR

Quellen

Ansprechpartner

  • Prof. Dr. Manfred Reichert, Inst. für Datenbanken und Informationssysteme
    Projekt in Kooperation mit dem Universitätklinikum Würzburg

Q: Biosensory Insights

The "Biosensory Insights" project utilizes biosensor technologies like eye-tracking and electrodermal activity monitoring to evaluate how individuals process information across various digital sectors, including business process management, information systems, and digital health. The aim is to gain a deeper understanding of the ways people interact with and react to different digital interfaces. By leveraging biosensors, the project focuses on the collection of real-time physiological data that mirrors the cognitive and emotional states of users during their interaction with digital media.

By offering new insights into aspects such as user engagement, cognitive burden, and emotional responses, the project provides significant value. These insights are critical for enhancing the user experience within a variety of digital contexts. "Biosensory Insights" represents a collaborative effort that merges the fields of psychological neuroscience and digital technology, ultimately contributing to the creation of digital systems that are more natural for humans to use and that can react more effectively to user needs.

Project Goals

To effectively analyze and interpret the vast amounts of data generated, there is a need for the development and implementation of specialized software. This software is designed to process the physiological data and present it in a format that is easy to understand, which is crucial for making sense of the cognitive and emotional feedback obtained from the users

Ansprechpartner

R: ENTE– Enabling Neural Networks for Tumor Exploration

  • Entwickelt werden soll ein Preprocessing Framework für die Arbeit mit histopathologischen Bildern im Machine Learning
  • Fokus auf Normalisierung, Qualitätskontrolle und Tiling der großen Bilder in kleinere Kacheln
  • Großes Eco-System in Python verfügbar, aber keine fertige Lösung
  • Verschiedene ML-Frameworks brauchen verschiedene Datensatzstrukturen

Ansprechpartner

  • Prof. Dr. Manfred Reichert, Inst. für Datenbanken und Informationssysteme
    Projekt in Kooperation mit der DigitalHealth AG von Prof. J. Schobel

S: VoiceREVIVE – eine Stimme für Laryngektomie Patienten

  • Laryngektomie = Entfernung des Kehlkopf zumeist bei Kehlkopfkrebs
  • Postoperative Stimme stark anders als präoperative Stimme
  • Ziel: Verwenden von Methoden aus dem Audio Engineering / Machine Learning, um die postoperative Stimme der präoperativen Stimme anzugleichen
  • Entwickelt werden soll ein prototypisches Software-System mit einem solchen KI-Modell

Ansprechpartner

T: Build your own SaaS - and automate it!

In this project the participants are tasked to build a cloud-native Software-as-a-Service (SaaS) platform that implements some basic portal features like user-registration, -authentication, and -management based on a ready-to-start backend-as-a-service implementation like appwrite or supabase.

There is no requirement to implement any kind of payment solutions, subscription models, or other payment-related services.

One of the teams core tasks will deal with the full automation of the development and qa process in a way that:

  • tests run automatically
  • builds are executed automatically
    • software packages
    • container images
  • deployments and releases *can* be triggered manually
    • optional: deployments to kubernetes
    • optional: deployment/releases work in a fully automated manner

Goals

The participants of the project will learn about the following topics:

  • cloud-native philosophy and development
  • Software-as-a-Service (SaaS)
  • first steps with DevOps/Platform Engineering:
    • project automation, CI/CD
    • platform engineering
    • platform automation
  • team collaboration
  • project management
    • requirements analysis/engineering

Technologies used

  • Web-Technologies (NodeJS, React & NextJS, NestJS)
  • Docker
  • GitLab CI
  • Kubernetes

Contact