Die Projektvorstellung der Projekte im SoSe 24 fand am Mittwoch, 07.02.2024 statt.
Über folgenden Link können Sie die Aufzeichnung ansehen:
Auf dieser Seite werden ab dem 5. Feburar 2024 kurz die im SoSe 2024 angebotenen Projekte beschrieben. Es wird dabei nicht zwischen Bachelor und Masterprojekten unterschieden, da wir gemischte Gruppen zu lassen.
Wenn Sie im nächsten Semester eines der unten stehenden Projekte belegen möchten, senden Sie bitte bis zum 21.02.24 eine E-Mail mit priorisierten Wünschen (3-5 Projekte) an Alexander Raschke.
Bitte auch die Buchstaben zur eindeutigen Kennzeichnung in der Mail mit angeben!
Bei Fragen zu den Projekten wenden Sie sich bitte ebenfalls an Alexander Raschke.
Weitere Informationen für den Studiengang Software Engineering
Eine Galerie der bisherigen Projekte finden Sie hier: Bisherige SE-Projekte
Die Projektvorstellung der Projekte im SoSe 24 fand am Mittwoch, 07.02.2024 statt.
Über folgenden Link können Sie die Aufzeichnung ansehen:
A: Software engineering for Data Science and Deep Learning
B: Unterstützung der Münsterbauhütte bei Kartierungsarbeiten
C: 3D-Roomtour durch KI
D: Mobile App zur interaktiven Planung von Sanierungsstrategien
E: Kamera-basiertes Eye-Tracking
F: Karaoke Across Cars
G: Unity-PsyToolkit - Entwicklung eines Assets für die effiziente Integration standardisierter psychologischer Studientasks in Unity
H: GeMoA - Generative Agents für interaktive Simulation zukünftiger multimodaler Mobilität
I: CaRdapt – Toolkit für das Design von personalisierten und adaptiven Automotive User Interfaces
J: Smart Office – IoT für Gesundheit und Wohlbefinden
K: Integrating Shopfloor Simulation Into a Manufacturing Execution System
L: Develop Visualization for Self-Adaptive Cloud Systems
M: Entwicklung eines IoT-basierenden Verleihsystems
N: LLM-basierte Prozessmodelierung
O: Developing a Web-based Framework for Modeling Object-centric Business Processes
P: FHIR Questionnaire Editor in Flutter
Q: Biosensory Insights
R: ENTE– Enabling Neural Networks for Tumor Exploration
S: VoiceREVIVE – eine Stimme für Laryngektomie Patienten
T: Build your own SaaS - and automate it!
Software engineering for Data Science and Deep Learning is a new and emerging field. It aims with understanding and implementing algorithms, methods, and pipelines on a specific topic in the field of Data Science. Of particular interest are methods in machine learning including modern neural networks (Deep Learning) and its applications to the analysis, interlinkage, and enrichment of unstructured data like multimedia content and textual content as well as the analysis and use of open data on the web.
Die Restauratoren der Münsterbauhütte müssen die Schäden an den zu restaurienden Gebäuden erfassen, um die Kosten und die Durchführung einer Restaurierung zu planen. Dabei wird Stein für Stein in Augenschein genommen und für jeden eine Menge an Daten erfasst, um den aktuellen Zustand und die notwendigen Restaurierungsarbeiten zu dokumentieren.
Um die sehr aufwändige Datenerfassung mit Fotoapparat, Papier und Bleistift zu verbessern, wurde in vergangenen Projekten eine Windows-App entwickelt, die es ermöglicht, die Daten direkt am Tablett zu erfassen. Dabei werden die Kamera des Tabletts benutzt, um Fotos zu machen, diese mit einer Stifteingabe zu markieren und zu bearbeiten. Zurück im Büro, werden die so integriert erfassten Daten direkt mit der zentralen Datenbank abgeglichen.
Da die App vor nun schon ca. acht Jahren gestartet wurde, soll im Rahmen dieses Projekts nun ein dringend notwendiger Overhaul stattfinden. Dabei ist noch offen, auf welcher Technologie aufgebaut werden soll.
Die App ist in C# mit der Universal Windows Platform (UWP) entwickelt worden.
Ansprechpartner:
Die immersight GmbH entwickelt mit dem 3D-Showroom eine Cloud-Lösung für Virtuelle Ausstellung und mit dem 3D-Workroom zur Baustellendokumentation und -kommunikation. Die Kunden sind Handwerker oder Bauunternehmen, genau so wie Verwalter von Immobilien und Gebäuden. Das bedeutet, Mitarbeiter machen mit 360°-Kameras Panoramaaufnahmen von Räumen und laden diese in die cloud-basierte Anwendung hoch. Besonders im Fokus steht dabei das Vermessen im Raum. Hierfür hat die immersight GmbH ein Verfahren entwickelt, mit dem man in einem 360°-Panorama messen kann (siehe Webseite immersight.com). Ebenfalls bereits im BETA-Stadium ist eine KI, welche die Raumvermessung automatisch startet. Das Ergebnis ist die Raumgeometrie (Boden, Wände und Decke).
Die Kamera wird vom Nutzer in den Raum gestellt. Der Nutzer verlässt den Raum und löst vor der Türe über die Smartphone-App die 360°-Kamera aus. In größeren Räumen stellen Nutzer die Kamera auch mehrmals an verschiedenen Standpunkten im selben Raum auf. Häufig wollen die Kunden eine ganze Wohnung erfassen und machen min. 1 Aufnahme pro Raum. Das Ergebnis sind n Aufnahmen in m Räumen, die zu einer Wohnung gehören. Die Kunden möchten, dass diese Aufnahmen nun übersichtlich dargestellt werden, idealerweise in einem Grundriss und so eine Navigation per Grundriss möglich ist. Manchen Kunden würde eine Roomtour genügen, wo man durch Klicken auf eine Türe in den nächsten Raum gelangt.
Ziel dieses Projektes ist es, dass die Aufnahmen der einzelnen Räume automatisch verortet werden. Das heißt, der in einem 360°-Bild abgebildete Raum wird in Relation zu den anderen Räumen gesetzt. Hierbei ist nicht sicher, dass alle Räume einer Wohnung fotografiert wurden! Durch die bereits existierende, automatische Raumvermessung, können aus den 360°-Aufnahmen bereits Grundrisse der einzelnen Räume mittels KI generiert werden. Was fehlt ist eine KI welche Türen identifiziert und im 360°-Panorama lokalisiert, sowie ein Algorithmus, welcher die Aufnahmen resp. die Räume relativ zueinander verortet.
Gebäudesanierung spielt eine entscheidende Rolle im Umweltschutz und bei der Energieeffizienz, da sie dazu beiträgt, den Energieverbrauch zu reduzieren und den CO2-Ausstoß zu verringern. Viele Menschen zögern jedoch, Sanierungsprojekte in Angriff zu nehmen, oft aufgrund von Informationsmangel und mangelndem Vertrauen in ihre Fähigkeiten, solche Projekte zu leiten. Obwohl es bereits eine Vielzahl von Tools für Energieberater gibt (z.B. Ubakus), die darauf abzielen, den Prozess der Gebäudesanierung zu erleichtern, fehlt es oft an benutzerfreundlichen Lösungen für Laien.
Um diese Lücke zu schließen, ist das Ziel unseres Projektes die Entwicklung einer mobilen Applikation, die speziell auf die Bedürfnisse von Nicht-Experten zugeschnitten ist. Diese App soll Nutzer in zwei Schlüsselbereichen unterstützen: (1) bei der effizienten Aufnahme aller notwendigen Parameter zur Beurteilung des aktuellen Zustands des Gebäudes und (2) bei der Planung möglicher Sanierungsschritte (Fokus auf Dämmmaterialien). Damit wird ein wichtiger Beitrag geleistet, um Sanierungsprojekte zugänglicher für die breite Öffentlichkeit zu machen. Explizite Vorkenntnisse bezüglich Sanierungen sind bei diesem Projekt nicht zwingend erforderlich und bestehende Expertentools wie Ubakus können als Bespiel für einen möglichen Funktionsumfang genommen werden.
Die spezifischen Projektaufgaben sind:
Eye Tracking ermöglicht die Erfassung der visuellen Aufmerksamkeit von Benutzern und wird im Bereich der Mensch-Computer-Interaktion (MCI) sowohl als methodisches Werkzeug zur Evaluation von Benutzerschnittstellen als auch zur augenbasierten Interaktion eingesetzt [1]. Allerdings ist die derzeit verfügbare Hard- und Software für Eye-Tracking kostenintensiv und nicht allgemein verfügbar, was eine breite Anwendung erheblich einschränkt. Obwohl Kamera-basiertes Eye-Tracking dank der Fortschritte im Bereich der Computer Vision bereits möglich ist [2, 3], fehlt es an einer einfach zu bedienenden, vielseitig einsetzbaren, leicht zu integrierenden und offenen Lösung hierfür.
Dieses Projekt zielt darauf ab, eine kostengünstige und einfache Kamera-basierte Eye-Tracking-Lösung bereitzustellen, die insbesondere im Bereich der MCI-Forschung für augenbasierte Interaktion und Datenerfassung einsetzbar ist und leicht in bestehende Systeme integriert werden kann.
In einem früheren SE-Projekt wurde bereits erfolgreich ein Unity-Plugin implementiert, das Eye-Tracking auf Desktop- und Laptop-Computern ermöglicht. Ziel des aktuellen Projekts ist die Weiterentwicklung dieses Plugins. Dies beinhaltet die Optimierung der Benutzererfahrung, insbesondere im Bereich der Kalibrierung und Validierung des Eye Trackers. Darüber hinaus soll die ML-basierte Estimation Pipeline durch das modulare Hinzufügen weiterer Blickdatensätze, Estimations- und Face Recognition-Modelle verbessert werden. Weitere mögliche Ziele sind die Erweiterung der API um Funktionen für Entwicklende und Forschende sowie die Portierung des Plugins auf Android-Geräte, um Eye-Tracking auf Smartphones zu ermöglichen. Die Ziele werden im Rahmen der Projektplanung gemeinsam mit der Projektgruppe festgelegt.
[1] Päivi Majaranta and Andreas Bulling. 2014. Eye Tracking and Eye-Based Human–Computer Interaction. In Advances in Physiological Computing, Stephen H. Fairclough and Kiel Gilleade (eds.). Springer, London, 39–65.
[2] Kyle Krafka, Aditya Khosla, Petr Kellnhofer, Harini Kannan, Suchendra Bhandarkar, Wojciech Matusik, and Antonio Torralba. 2016. Eye Tracking for Everyone. 2016. 2176–2184.
[3] Xucong Zhang, Yusuke Sugano, and Andreas Bulling. 2019. Evaluation of Appearance-Based Methods and Implications for Gaze-Based Applications. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (CHI ’19), May 02, 2019, New York, NY, USA. Association for Computing Machinery, New York, NY, USA, 1–13.
Zielsetzung
Das Hauptziel dieses Projekts ist die Entwicklung einer Multiuser VR-Karaoke-App, die während der Fahrt in vernetzten und autonomen Fahrzeugen genutzt werden kann. Diese Anwendung zielt darauf ab, die Fahrtzeit unterhaltsamer zu gestalten und Interaktionen zwischen den Insassen verschiedener Fahrzeuge zu ermöglichen. Durch die Integration von Unterhaltungselementen in das Fahrerlebnis sollen neue soziale Verbindungen zwischen den Verkehrsteilnehmern geschaffen und die Fahrtzeit aufgewertet werden.
Dynamik des Verkehrs: Die Hauptherausforderung besteht darin, eine stabile und reaktionsfähige Anwendung zu entwickeln, die in der Lage ist, mit den dynamischen Bedingungen des Straßenverkehrs umzugehen. Dies umfasst die Berücksichtigung variabler Faktoren wie Fahrzeuggeschwindigkeiten, Distanzen zwischen Fahrzeugen und Netzwerklatenzen.
Interaktionsdesign: Die Entwicklung effektiver und ansprechender Interaktionsmechanismen für Benutzer in verschiedenen Fahrzeugen, insbesondere unter Berücksichtigung der kurzen Zeitfenster für Interaktionen, die sich aus der Bewegung der Fahrzeuge ergeben.
Die Anwendung standardisierter psychologischer Experimente ist sowohl in der Psychologie als auch bei der Evaluation nutzerzentrierter technischer Systeme von zentraler Bedeutung. Diese Experimente, die Faktoren wie Aufmerksamkeit, kognitive Last, räumliche Vorstellungskraft oder Gedächtnis testen, sind essentiell für ein umfassendes Verständnis menschlichen Verhaltens und der Interaktion mit Technologie. Ihre Integration in Unity-Anwendungen, häufig verwendet in Bereichen wie Human-Computer Interaction und Human Factors für Fahrsimulatoren oder Virtual Reality, ist jedoch oft zeitaufwendig und fehleranfällig. Dies gilt besonders für Entwickler ohne umfangreiche Erfahrung in Unity, was das Risiko inkorrekter Implementierung und eine Beeinträchtigung der Validität der Experimente mit sich bringt.
Entwicklung eines Unity Assets, das eine Sammlung standardisierter psychologischer Studienaufgaben enthält (z.B., Fitts's Law Task, N-Back Task, oder Tower of Hanoi). Dieses Asset soll leicht in bestehende Unity-Szenen integrierbar sein, ohne dass zusätzlicher Code geschrieben werden muss. Die Nutzerzielgruppe sind dabei Studierende und Forscher (z.B. Psychologen), mit keiner bis wenig Programmiererfahrung. Außerdem soll das Asset mit Studienaufgaben erweiterbar sein und eine standardisierte API für die Kommunikation mit der Unity-Anwendung bereitstellen.
Die realitätsnahe Simulation von Mobilitätsszenarien ist ein Schlüsselaspekt in der Erforschung und Planung zukünftiger Verkehrssysteme. Aktuelle Herausforderungen umfassen die Darstellung komplexer, multimodaler Verhaltensmuster von verschiedenen Verkehrsteilnehmern, wie automatisierte Fahrzeuge, Fußgänger, E-Scooter, und die Integration neuer Mobilitätsformen wie Urban Air Mobility. Traditionelle Studien und Simulationsmethoden stoßen hierbei an ihre Grenzen, da sie kostenintensiv sind, oft ein begrenztes Verständnis für kulturelle und soziale Unterschiede bieten und neuartige Mobilitätsformen nicht ad-hoc berücksichtigen können.
Die Verwendung von Generative Agents (siehe 1), basierend auf Large Language Models (LLMs), bietet eine neuartige Herangehensweise zur Darstellung komplexer, multimodaler Verkehrsmuster. Diese Methodik geht über traditionelle Simulationsansätze hinaus, indem sie realistische, dynamische und anpassungsfähige Agenten generiert, die eine breite Palette von Verkehrsteilnehmern repräsentieren. Durch Prompt Engineering und Seed Memory werden die Anfangsbedingungen und Verhaltensparameter der Agenten festgelegt, wobei anschließend die Kontrolle an ein LLM abgegeben wird. Dies ermöglicht den Agenten, basierend auf diesen Vorgaben, eigenständige und möglicherweise unvorhersehbare Entscheidungen zu treffen, was die Komplexität menschlicher Entscheidungsfindung und Mobilitätsmuster simuliert.
Das Hauptziel des Projekts "GeMoA - Generative Mobility Agents" ist es, ein Simulationsframework zu entwickeln, das Generative Agents nutzt, um realistische multimodale Mobilitätsszenarien in urbanen Kontexten zu simulieren. Das Framework wird durch Prompt Engineering und Seed Memory initialisiert, um spezifische Verhaltensweisen und Charakteristika der Agenten festzulegen, wobei ein LLM anschließend die dynamische Entwicklung der Agenten übernimmt. Dabei soll auf eine bestehende Implementierung der Generative Agents aufgebaut werden und in den Mobilitätskontext übertragen werden.
Im Bereich der Automotive User Interfaces (UIs) ist das Design von Benutzeroberflächen komplex und anspruchsvoll. Einflussfaktoren wie Sicherheit, Vertrauen in Automatisierungsfunktionen (ADAS, ABS, Einparkassistent, automatisiertes Fahren etc.), sowie körperliche Einschränkungen durch das Sitzen und die Fahrzeugbewegung erfordern spezifische Berücksichtigung. Diese Herausforderungen sind in anderen Bereichen der Mensch-Computer Interaktion nicht in gleicher Weise vorhanden und machen das Design von Automotive UIs zu einem komplexen Optimierungsproblem. Subjektive Zielkriterien, welche ein Design erfüllen soll, wie wahrgenommene Sicherheit, Vertrauen, Situationsbewusstsein, Nutzbarkeit und Technologieakzeptanz müssen in Einklang gebracht werden. Ein adaptives UI, das *optimal* auf den einzelnen Nutzer personalisiert ist, kann in diesem Kontext eine entscheidende Rolle spielen, um sowohl die Sicherheit als auch die Benutzererfahrung zu maximieren. Jedoch ist die Entwicklung von *optimalen* UIs mit traditionellen Entwicklungsmethoden in Nutzer-zentrierten Prozessen und A/B Systemvergleichen nahezu unmöglich aufgrund der Komplexität des UI Design Space und der damit verbundenen Unklarheit, ob andere Design Variationen noch bessere Ergebnisse liefern könnten. Entwicklungswerkzeuge, welche Optimierungstechnologien (z.B. Bayesian Optimization) anbieten, könnten den Prozess signifikant vereinfachen, Ressourcen einsparen, und effektivere Designergebnisse liefern.
Entwicklung von CaRdapt, einem Toolkit zur Gestaltung personalisierter und adaptiver Automotive UIs. CaRdapt soll es Designern und Entwicklern komfortabel ermöglichen, Benutzeroberflächen zu schaffen, die sich dynamisch an die individuellen Bedürfnisse und Präferenzen der Nutzer anpassen, unter Berücksichtigung der einzigartigen Anforderungen des Automotive-Kontexts. Ziel ist es, eine optimale Balance zwischen den subjektiven Zielkriterien zu erreichen und die Benutzererfahrung zu verbessern, während gleichzeitig Sicherheit und Vertrauen in die Fahrzeugtechnologien gestärkt werden. Das Toolkit baut konzeptionell und Code-technisch stark auf bereits existierende Arbeiten auf.
Die Förderung von Gesundheit und Wohlbefinden der Mitarbeiter ist ein wesentlicher Faktor für eine effektive und angenehme Arbeitsatmosphäre. Im Rahmen des Projekts bei der Firma eXXcellent solutions GmbH wird die Erweiterung einer App mit dem Ziel verfolgt, die Arbeitsumgebung durch die Messung und Optimierung von grundlegenden Elementen wie Luftqualität, Lärmpegel und Beleuchtung zu verbessern.
Dabei setzen wir Sensortechnologie ein, um nicht nur Daten zu sammeln und auszuwerten, sondern diese auch aktiv zu nutzen. Dies ermöglicht es maßgeschneiderte Empfehlungen zu geben, wie zum Beispiel das Senken des Lärmpegels oder das Öffnen eines Fensters für bessere Luftqualität. Unser Bestreben ist es, ein Arbeitsumfeld zu gestalten, das sowohl die Gesundheit unterstützt als auch die Arbeitszufriedenheit verbessert.
Das Ziel des Projekts ist es, passende Sensortechnologien zu identifizieren, diese in den IoT Broker einzubinden und Funktionen zu entwickeln, die in einer bereits bestehenden App benutzerfreundlich visualisiert werden. Diese Funktionen sollen nicht nur wichtige Informationen über das Arbeitsumfeld wie Luftqualität, Lärmpegel und Ergonomie abbilden, sondern auch handlungsorientierte Vorschläge zur Verbesserung dieser Bedingungen. Zusätzlich tragen sie indirekt zur Nachhaltigkeit bei, indem sie zum Beispiel darauf hinweisen, wenn eine Lampe unnötigerweise das ganze Wochenende brennt.
Dieses Vorhaben richtet sich insbesondere an Studierende mit einem Interesse an IoT-Technologien, Gesundheit am Arbeitsplatz sowie UI/UX-Design. Es bietet eine abwechslungsreiche Gelegenheit, hands-on Erfahrung in diesen Schlüsselbereichen zu sammeln und dabei direkten Einfluss auf die Schaffung gesünderer und produktiverer Arbeitsumgebungen zu nehmen.
Manufacturing Execution Systems (MES) sind Softwarelösungen, die zur Verwaltung und Überwachung des Produktionsprozesses in einer Fertigungsumgebung eingesetzt werden. Sie helfen dabei, den Produktionsprozess zu verfolgen und zu optimieren, indem sie Echtzeitdaten über den Status der Maschinen, die Lagerbestände und die Produktivität der Mitarbeiter liefern. MES werden in einer Vielzahl von Branchen eingesetzt, u. a. in der Automobilindustrie, der Luft- und Raumfahrt sowie der Pharmazie. Sie werden eingesetzt, um die Effizienz zu verbessern, den Ausschuss zu verringern, die Produktqualität sicherzustellen und die Rentabilität zu steigern.
Die Integration solcher Systeme in eine reale Fertigungsumgebung ist mit vielen Herausforderungen verbunden, insbesondere im Hinblick auf die Kommunikation mit Maschinen. Um den Entwicklern zu helfen, diese Herausforderungen vor der tatsächlichen Integration in einer realen Umgebung zu bewältigen, kann Simulationssoftware eingesetzt werden.
Visual Components ist eine Simulationssoftware, die eine breite Palette von Funktionen sowohl für die Simulation als auch für die Automatisierung bietet. Sie ermöglicht es den Benutzern, Fertigungsumgebungen vollständig zu modellieren. Mit Hilfe einer ereignisbasierten Architektur ist es möglich, auf jede Aktion innerhalb der modellierten und simulierten Umgebung zu reagieren und Informationen über das Ereignis an einen Webserver zur weiteren Verarbeitung zu senden.
Das Ziel dieses Projekts ist die Entwicklung eines Konnektors, der die Integration der von Carl-Zeiss MES Solutions entwickelten MES-Lösung, mit Visual Components ermöglicht. Der Konnektor soll in der Lage sein, von einer Visual Components-Simulation gesendete Nachrichten zu empfangen, zu verarbeiten und relevante Informationen und Ereignisse an andere Microservices innerhalb des MES weiterzuleiten.
Self-Adaptive systems are systems that adjust themselves to maintain or improve their performance in response to changes in their environment and operational conditions, thereby ensuring continued effectiveness, reliability, and efficiency. Self-adaptive systems are diverse and multifaceted, with applications extending across numerous fields. In our project, we concentrate on the cloud-native domain, with a special emphasis on the explainability aspect of self-adaptation. This involves delving into how these systems can not only adjust autonomously to changing conditions but also provide transparent and understandable explanations for their adaptations, ensuring clarity and trust in their operations.
Understanding the intricacies of self-adaptive systems, particularly in the cloud-native space, is a complex task. The autonomous adjustments these systems make in response to environmental changes can be intricate and opaque. This complexity underscores the necessity for effective visualization strategies. Visualizations can range from simple schematic diagrams that illustrate system workflows, to advanced interactive visualizations that provide real-time insights into system dynamics. By employing visualization techniques like this, we aim to make the processes of self-adaptation in cloud-native systems not only more transparent but also more accessible to a broader audience, enhancing comprehension and facilitating informed oversight.
In this project you will develop such an visualization approch. The implementation language is Typescript.
In diesem Projekt soll ein Demonstrator für IoT-basierte Prozessmodelle entwickelt werden. Die Arbeit findet in Kooperation mit der Studierendenvertretung der Universität Ulm (StuVe) statt. Die dort angesiedelten Referate verwalten einen umfangreichen Katalog an Gerätschaften und Verbrauchsgegenständen, die an Studierende und MitarbeiterInnen ausgeliehen werden. Aktuell müssen diese händisch verwaltet und über Schränke mit Zahlenschlössern ausgegeben werden.
Es existiert eine Lücke zwischen einfacher Inventarsoftware und vollständigen ERP Systemen, welche für Vereine o.ä. Institutionen erschwinglich sind. Deshalb sollen im Rahmen dieses Projekts sowohl die Software als auch Hardware konzeptioniert und implementiert werden, um die Inventar- und Verleihprozesse zu automatisieren. Darüber hinaus, soll das System im realen Einsatz getestet werden und bei Erfolg in der Praxis dauerhaft eingesetzt werden.
Der konkrete Projektumfang wird an die Teamgröße angepasst.
Betriebliche Prozesse werden in Unternehmen häufig mittels grafischer Modellierungswerkzeuge (z.B. Signavio) erstellt und visualisiert. Die resultierenden Prozessmodelle sind dann Grundlage für die Prozessimplementierung durch die IT-Abteilung. In den Fachabteilungen dagegen wird Prozesswissen oftmals textuell dokumentiert, so dass vor der Prozessdigitalisierung zunächst eine Abbildung der natürlichsprachigen Prozessbeschreibung in ein graphisches Prozessmodell (z.B. BPMN-Diagramme) erforderlich wird.
Im Projekt soll ein Software-Demonstrator entwickelt werden, der natürlichsprachige Prozessbeschreibungen in entsprechende graphische Modelle abbildet. Dies soll auf der Grundlage eines Large Language Models (LLM) erfolgen, mit dessen Hilfe eine natürlichsprachige Prozessbeschreibung zunächst in ein für eine Modellierungs- bzw. Visualisierungssoftware verständliches Textformat (z.B. XML, JSON) transformiert werden kann. Davon ausgehend soll der Software-Demonstrator sowohl die natürlichsprachige Prozessbeschreibung als auch die hieraus erzeugte graphische Modelldarstellung anzeigen. Änderungen der textuellen Beschreibung sollen zudem in Echtzeit in entsprechende Anpassungen der visuellen Prozessmodelle umgesetzt werden.
Auf technischer Ebene soll ein Open Source LLM genutzt und übers seine API angesteuert werden. Ebenso soll ein bestehenden Open Source Werkzeug für die Visualisierung graphischer Prozessmodelle (in der BPMN Notation) eingebunden werden.
Studierende lernen im Projekt mit LLM eine anspruchsvolle KI-Technologie kennen und sind in der Lage, diese in eine neu zu entwickelnde Software-Anwendung zu integrieren. Ferner entwickeln sie einen innovativen Ansatz, um textuelle Prozessbeschreibungen in eine visuelle Darstellung zu transformieren. DBIS bietet zu diesen Themenfeldern auch Bachelor- und Masterarbeiten an.
In the project, a web-based framework for modelling object-centric business processes shall be developed.
Object-centric business processes consist of multiple, interacting business objects (e.g., order, invoice, claim). The interactions of these objects are organised in a Relational Process Structure (RPS), which represents the semantic relations between the objects (including cardinalities). At run-time, multiple object instances may be created for the objects contained in the RPS. The run-time behaviour of each object instance is defined by a corresponding lifecycle process. Each lifecycle process has one start state and at least one end state as well as a number of intermediate states. Each state, in turn, may be refined by a number of steps, each referring to the update of a particular object attribute. Consequently, the execution of a lifecycle process is data-driven. Moreover, at run-time, form sheets are generated automatically for each state of an object type. Finally, a coordination process controls the interactions between multiple lifecycle processes.
FHIR (Fast Healthcare Interoperability Resource) ist ein von HL7 (Health Level 7 Standards Organization) entwickelter Interoperabilitätsstandard, der den elektronischen Austausch von Gesundheitsdaten zwischen verschiedenen Systemen im Gesundheitswesen ermöglichen soll. Auf Grundlage der FHIR-Questionnaire-Datenstruktur soll ein Fragebogeneditor im Stil von Microsoft Forms / Google Forms entwickelt werden. Für die Umsetzung ist das moderne Cross-Platform- Framework Flutter (Dart) angedacht. Flutter eignet sich zur Implementierung von Mobile, Desktop und Web-Anwendungen auf nahezu allen gängigen Plattformen.
Der konkrete Projektumfang wird an die Teamgröße angepasst.
The "Biosensory Insights" project utilizes biosensor technologies like eye-tracking and electrodermal activity monitoring to evaluate how individuals process information across various digital sectors, including business process management, information systems, and digital health. The aim is to gain a deeper understanding of the ways people interact with and react to different digital interfaces. By leveraging biosensors, the project focuses on the collection of real-time physiological data that mirrors the cognitive and emotional states of users during their interaction with digital media.
By offering new insights into aspects such as user engagement, cognitive burden, and emotional responses, the project provides significant value. These insights are critical for enhancing the user experience within a variety of digital contexts. "Biosensory Insights" represents a collaborative effort that merges the fields of psychological neuroscience and digital technology, ultimately contributing to the creation of digital systems that are more natural for humans to use and that can react more effectively to user needs.
To effectively analyze and interpret the vast amounts of data generated, there is a need for the development and implementation of specialized software. This software is designed to process the physiological data and present it in a format that is easy to understand, which is crucial for making sense of the cognitive and emotional feedback obtained from the users
In this project the participants are tasked to build a cloud-native Software-as-a-Service (SaaS) platform that implements some basic portal features like user-registration, -authentication, and -management based on a ready-to-start backend-as-a-service implementation like appwrite or supabase.
There is no requirement to implement any kind of payment solutions, subscription models, or other payment-related services.
One of the teams core tasks will deal with the full automation of the development and qa process in a way that:
The participants of the project will learn about the following topics: