Seminar Customer Relationship Management und Social Media (Bachelor)

Das Seminar Customer Relationship Management und Social Media baut auf der Veranstaltung „Customer Relationship Management und Customer Analytics“ auf und ist inhaltlich dem Schwerpunkt „Business Analytics“ zugeordnet.

Im Rahmen des Seminars sollen Lösungsansätze für spezifische Fragestellungen aus den Bereichen Customer Relationship Management und Social Media beleuchtet und (weiter)entwickelt werden. Hierfür sind in der Regel zunächst ein strukturierter Literaturüberblick zum Thema zu erarbeiten und Best Practices zu recherchieren. Ein kritischer Vergleich von Theorie und Praxis, eigene Ideen und Handlungsempfehlungen sowie ggf. auch der Einsatz bzw. die Evaluation von Software-Tools runden das Seminar ab.

Themen

Wirtschaftliche Ungleichheit, Bildung, Einkommen oder Arbeitslosigkeit – all diese Faktoren beeinflussen, wie sehr Menschen ihren Regierungen vertrauen. Doch solche Zusammenhänge sind selten linear und entziehen sich einfachen Modellen. Neue Ansätze aus der KI-Forschung – insbesondere Erklärbare KI – ermöglichen es, komplexe ökonomische Zusammenhänge sichtbar zu machen und politisch wie gesellschaftlich besser zu verstehen.

Im Rahmen der Seminararbeit soll ein strukturierter Überblick über die wissenschaftliche Literatur zu XAI in volkswirtschaftlichen und politischen Analysen gegeben werden. Anschließend soll gezeigt werden, wie solche Methoden genutzt werden können, um wirtschaftliche Daten leichter verständlich zu machen und besser zu erklären, warum bestimmte Entwicklungen auftreten.

Literaturhilfe: Bellantuono, L., Palmisano, F., Amoroso, N., Monaco, A., Peragine, V., & Bellotti, R. (2023). Detecting the socio-economic drivers of confidence in government with eXplainable Artificial Intelligence. Scientific Reports, 13(1), 839.

Literaturhilfe: https://www.nature.com/articles/s41598-023-28020-5.pdf

Viele KI-Systeme werden nicht nur einmal trainiert, sondern im laufenden Betrieb durch menschliches Feedback weiterentwickelt. NutzerInnen markieren Fehler, korrigieren Vorschläge oder labeln neue Fälle – und beeinflussen damit direkt, wie sich das Modell verbessert. In der Praxis bleibt dieses Feedback jedoch häufig ungenau oder inkonsistent, weil NutzerInnen nicht nachvollziehen können, warum die KI zu einer bestimmten Ausgabe kommt. Erklärbare KI setzt genau hier an, indem sie die Entscheidungsgrundlagen eines Modells verständlich macht und so Orientierung für gezieltes Feedback bietet.

Im Rahmen dieser Seminararbeit soll ein strukturierter Überblick über die wissenschaftliche Literatur zu Erklärbarer KI im Kontext von Human-in-the-Loop-Lernsystemen erarbeitet und darauf aufbauend herausgearbeitet werden, wie Erklärbare KI konkret eingesetzt werden kann, um menschliches Feedback informativer und konsistenter zu machen.

Literaturhilfe: Kulesza, T., Burnett, M., Wong, W. K., & Stumpf, S. (2015, March). Principles of explanatory debugging to personalize interactive machine learning. In Proceedings of the 20th international conference on intelligent user interfaces (pp. 126-137).

 Literaturhilfe: https://doi.org/10.1145/2678025.270139

KI kommt immer häufiger in kritischen und komplexen Anwendungsfällen zum Einsatz (z.B. Medizin, Sicherheit). In diesen Bereichen liegt das relevante Fachwissen meist bei NutzerInnen und DomänenexpertInnen – nicht bei ProgrammiererInnen. Genau deshalb gewinnt die Frage an Bedeutung, wie nicht-technische NutzerInnen KI-Systeme ohne Programmierung mitgestalten können. Gemeint ist, dass Nutzerinnen ein System durch Interaktion, Korrekturen oder Feedback so beeinflussen, dass es besser zum realen Arbeitskontext passt, ohne Code zu schreiben oder Machine-Learning-Methoden im Detail zu verstehen. 

Im Rahmen dieser Seminararbeit soll anhand eines strukturierten Literaturüberblicks herausgearbeitet werden, welche Ansätze „KI-Entwicklung ohne Programmierung“ (z.B. interaktives Lernen und Human-in-the-Loop) ermöglichen und welche Gestaltungsprinzipien erforderlich sind, damit nicht-technische NutzerInnen KI-Systeme gezielt und verantwortungsvoll trainieren können.

Literaturhilfe: Mosqueira-Rey, E., Hernández-Pereira, E., Alonso-Ríos, D., Bobes-Bascarán, J., & Fernández-Leal, Á. (2023). Human-in-the-loop machine learning: a state of the art. Artificial Intelligence Review, 56(4), 3005-3054.

Literaturhilfe: https://doi.org/10.1007/s10462-022-10246-w

 

Der Film Mercy entwirft ein Justizsystem, in dem eine KI als Richterinstanz über Schuld und Strafe entscheidet. Damit greift er eine reale Entwicklung auf: In verschiedenen Bereichen der Justiz werden KI-gestützte Systeme bereits als Entscheidungshilfen diskutiert oder eingesetzt. Gleichzeitig berührt die Idee einer „KI als Richter“ zentrale rechtsstaatliche

Fragen wie Transparenz, Begründungspflicht, Verantwortlichkeit und Fairness. Daraus ergibt sich die Leitfrage, ob richterliches Entscheiden grundsätzlich automatisierbar ist – oder ob es unverzichtbar an menschliche Urteilskraft gebunden bleibt.

Im Rahmen dieser Seminararbeit soll anhand eines wissenschaftlich fundierten Literaturüberblicks analysiert werden, welche Chancen und Risiken der Einsatz von KI in der Rechtsprechung mit sich bringt und wo aus rechtsstaatlicher Perspektive Grenzen einer Delegation richterlicher Entscheidungen an KI liegen.

Literaturhilfe: Borgesano, F., De Maio, A., Laghi, P., & Musmanno, R. (2025). Artificial intelligence and justice: a systematic literature review and future research perspectives on Justice 5.0. European Journal of Innovation Management, 28(11), 349-385.

Literaturhilfe:  https://doi.org/10.1108/EJIM-01-2025-0117

KI kann Muster in Daten erkennen und daraus Vorhersagen ableiten. Diese Muster sind jedoch oft nur Korrelationen und sagen nichts darüber aus, was wirklich die Ursache ist. Ein bekanntes Beispiel: Ein Glas Wein pro Tag korreliert in vielen Datensätzen mit einer höheren Lebenserwartung. Daraus ließe sich vorschnell schließen, dass Wein das Leben verlängert. Möglich ist aber auch, dass Weintrinken häufiger bei Menschen vorkommt, die mehr soziale Kontakte haben oder ein höheres Einkommen – und dass diese Faktoren den Unterschied erklären. KI-Modelle sind damit stark in Prognosen, aber nur begrenzt geeignet, um verlässliche Handlungsempfehlungen abzuleiten. Causal AI setzt genau hier an und zielt darauf, neben Korrelationen auch Kausalitäten sichtbar zu machen.

Im Rahmen dieser Seminararbeit soll anhand eines strukturierten Literaturüberblicks gezeigt werden, warum korrelationsbasierte KI häufig keine verlässlichen Ursache-Wirkungs-Aussagen erlaubt, und welche Methoden der Causal AI genutzt werden, um kausale Effekte für belastbare Entscheidungen und Empfehlungen abzuleiten.

Literaturhilfe: Jiao, L., Wang, Y., Liu, X., Li, L., Liu, F., Ma, W., …& Hou, B. (2024). Causal inference meets deep learning: A comprehensive survey. Research, 7, 0467.

Literaturhilfe: DOI: 10.34133/research.0467

Anwendungen wie beispielsweise ChatGPT, die auf Generative Artificial Intelligence (GenAI) basieren, können den Alltag und die Berufswelt disruptiv verändern. GenAI umfasst Algorithmen, die in der Lage sind, neue Inhalte in Form von Audio, Code, Bildern, Texten, Simulationen und Videos zu generieren. Mit der steigenden Komplexität und Vielschichtigkeit der von GenAI entwickelten Lösungen entstehen fortlaufend neue Herausforderungen und Möglichkeiten – auch für das Forschungsfeld der Explainable Artificial Intelligence (XAI). XAI-Methoden für GenAI könnten Erklärungen bieten, die es ermöglichen, die Funktionsweise der GenAI besser zu verstehen, sei es durch die Analyse der Antworten auf spezifische Eingaben oder das Verständnis des Modells als Ganzes.

Im Rahmen der Seminararbeit soll ein Überblick über die wissenschaftliche Literatur zu XAI speziell für GenAI gegeben werden. Anschließend soll ein Szenario entworfen werden, wie GenAI-Systeme so gestaltet werden können, dass sie für die Nutzerinnen und Nutzer verständlich und nachvollziehbar sind..

Literaturhilfe: https://arxiv.org/abs/2404.09554

In Deutschland lehnt mehr als die Hälfte der Bevölkerung vollautomatisierte Entscheidungen ab. Der Mythos der unkontrollierbaren intelligenten Maschine existiert. Auf der anderen Seite werden algorithmische Entscheidungs(unterstützungs)systeme bereits in vielen Bereichen des Alltags erfolgreich eingesetzt, nicht zuletzt in der medizinischen Diagnostik oder bei der Beurteilung der Kreditwürdigkeit. Um die Akzeptanz von Algorithmen und intelligenten Systemen bei NutzerInnen zu erhöhen, hat das Forschungsfeld Explainable Artificial Intelligence (XAI) zum Ziel, automatisch Erklärungen für algorithmische Entscheidungen zu liefern. In Wissenschaft und Praxis werden kontrafaktische Erklärungen gehypt - aber wie gut sind sie wirklich?

Im Rahmen der Seminararbeit soll ein strukturierter Überblick über die wissenschaftliche Literatur zu XAI und insbesondere zu kontrafaktischen Erklärungen gegeben werden. Anschließend soll kritisch eingeordnet werden, welchen Mehrwert kontrafaktische Erklärungen den NutzerInnen von intelligenten Systemen bringen.

Literaturhilfe: https://arxiv.org/abs/2010.10596

People Analytics als eine Form des algorithmischen Managements gewinnt im Zuge der Dezentralisierung der Arbeit und der Suche nach Werkzeugen zur Unterstützung der (Selbst-)Organisation und Führung in verteilten Teams an Popularität. Allerdings besteht neben dem vermeintlichen Potenzial von People Analytics auch die inhärente Gefahr, dass es als Überwachungssoftware dient und bestehende Vorurteile und Diskriminierung verstärkt.

Im Rahmen dieser Seminararbeit soll ein umfassender Überblick über die wissenschaftliche Literatur zur Wahrnehmung von MitarbeiterInnen bezüglich People Analytics gegeben werden. Anschließend soll ein eigenes Szenario entworfen werden, wie die Wahrnehmung von MitarbeiterInnen hinsichtlich der Einführung von People Analytics im Arbeitsumfeld gemessen werden könnte.

Literaturhilfe: Klöpper, M. (2023). Every break you take, every click you make – empirical insights on employees’ perception of people analytics. aisel.aisnet.org/ecis2023_rp/356.

Literaturhilfe: https://aisel.aisnet.org/ecis2023_rp/356/

Artificial Intelligence (AI) hat den Menschen bei der Diagnose von Röntgenbildern oder beim Schachspiel überholt. Gleichzeitig liest man Schlagzeilen, weil AI-Systeme unsachgemäß eingesetzt werden und diskriminierende Entscheidungen treffen. Beispielsweise wenn Bewerbungen mit Hilfe eines AI-Systems gefiltert werden und als Ergebnis nur BewerberInnen des männlichen Geschlechts ausgewählt werden. Daher hat die Berücksichtigung von Fairness und Bias bei der Entwicklung solcher Systeme bereits erheblich an Bedeutung gewonnen. Es gibt verschiedene Möglichkeiten zu definieren, wann ein AI-System fair ist, unter anderem das Konzept der „Counterfactual Fairness“.

Im Rahmen dieser Seminararbeit soll ein umfassender Überblick über die wissenschaftliche Literatur zu Counterfactual Fairness gegeben werden. Anschließend soll ein eigenes Szenario entworfen werden, das aufzeigt, wie Counterfactual Fairness zur Fairness (mit Schwerpunkt auf Nachvollziehbarkeit) von AI-Systemen beitragen könnte.

Literaturhilfe: Kusner et al. (2017). Counterfactual fairness. Advances in neural information processing systems.

https://proceedings.neurips.cc/paper/2017/file/a486cd07e4ac3d270571622f4f316ec5-Paper.pdf

Die Post Merger Integration (PMI) umfasst den Prozess der organisatorischen Zusammenführung von mindestens zwei Unternehmen zu einer rechtlichen Einheit. Dieser Prozess wird fortgesetzt, bis eine einheitliche Struktur zwischen den beteiligten Unternehmen hergestellt ist. Ein wesentlicher Erfolgsfaktor in der PMI ist das effektive Zusammenarbeiten der neuen Kolleginnen und Kollegen. Dabei stellt das sogenannte „Relationship Risiko“ ein entscheidendes Integrationsrisiko dar.

Im Rahmen dieser Seminararbeit soll zunächst ein Überblick über die wissenschaftliche Literatur zu Analytics-Lösungen für evidenzbasierte PMI-Entscheidungen gegeben werden. Darauf aufbauend soll ein Szenario entworfen werden, das aufzeigt, wie im Allgemeinen die Ausprägungen und Entwicklungen der Aspekte von Relationship Risks aus Mitarbeitersicht erfasst werden können.

Literaturhilfe: Woehler et al. (2021). Turnover during a corporate merger: How workplace network change influences staying. Frantz, T.L. (2017). Dissecting Post-Merger Integration Risk: The PMI Risk Framework.

https://scholarworks.umt.edu/cgi/viewcontent.cgi?article=1013&context=manmark_pubs

Retrieval-Augmented Generation (RAG)-Modelle vereinen die Vorteile von Informationsabrufsystemen mit den Fähigkeiten von Generative Artificial Intelligence (GenAI), um präzise und kontextbezogene Antworten auf komplexe Fragen zu liefern. Diese innovative Technologie ermöglicht es, externe Wissensquellen dynamisch in den Generierungsprozess einzubinden, was insbesondere in datenintensiven Bereichen wie Bildung, Forschung und Unternehmenskommunikation vielfältige neue Anwendungsmöglichkeiten eröffnet. Gleichzeitig werfen RAG-Modelle wichtige Fragen zu Datenschutz, Verzerrungen und der Verlässlichkeit der abgerufenen Informationen auf.

Im Rahmen dieser Seminararbeit soll die aktuelle wissenschaftliche Literatur zu RAG-Modellen untersucht werden, um ihre Potenziale und Herausforderungen zu analysieren. Ziel ist es, praxisorientierte Anwendungsmöglichkeiten sowie die Grenzen dieser Technologie aufzuzeigen und ihre Bedeutung für zukunftsweisende Wissensverarbeitung zu bewerten.

Literaturhilfe: Gao, Yunfan, et al. “Retrieval-augmented generation for large language models: A survey.” arXiv preprint arXiv:2312.10997 (2023).

https://arxiv.org/pdf/2312.10997

Die Energieversorgung steht im Zentrum vieler gesellschaftlicher und politischer Diskussionen – sie ist grundlegend für Wirtschaft, Alltag und Klimaschutz. Mit dem steigenden Einsatz von Künstlicher Intelligenz (KI) zur Steuerung und Optimierung moderner Energiesysteme wächst jedoch auch die Herausforderung, diese komplexen Modelle nachvollziehbar und vertrauenswürdig zu gestalten. Genau hier setzt Explainable Artificial Intelligence (XAI) an: Sie macht die Entscheidungen von KI-Modellen verständlich – ein entscheidender Faktor für Sicherheit, Transparenz und Akzeptanz.

Im Rahmen der Seminararbeit soll ein strukturierter Überblick über die wissenschaftliche Literatur zu XAI im Energiesektor gegeben werden. Anschließend soll eine kritische Einordnung aktueller XAI-Ansätze anhand typischer Anwendungsbeispiele erfolgen.

Literaturhilfe: https://www.sciencedirect.com/science/article/pii/S2666546822000246

Autonome Agenten zählen seit Langem zu den grundlegenden Konzepten der Künstlichen Intelligenz. Aktuelle Entwicklungen – insbesondere durch große Sprachmodelle und moderne Lernverfahren – haben jedoch zu einer neuen Klasse autonomer Systeme geführt, die unter dem Begriff Agentic AI diskutiert werden. Diese Systeme sind in der Lage, komplexe Ziele zu verfolgen, eigenständig zu planen, externe Werkzeuge zu nutzen und über längere Zeiträume hinweg autonom zu agieren.

Im Rahmen der Seminararbeit soll ein strukturierter Überblick über die wissenschaftliche Literatur zu Agentic AI gegeben werden. Darauf aufbauend sollen zentrale Eigenschaften agentischer KI-Systeme sowie deren Potenziale für konkrete Anwendungsfälle – etwa in Wissensarbeit, Softwareentwicklung oder organisationalen Prozessen – herausgearbeitet und kritisch eingeordnet werden.

Literaturhilfe: https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=10849561 

Generative Künstliche Intelligenz (GenAI) wird zunehmend als Assistenzsystem in der Arbeitswelt eingesetzt, um Mitarbeitende bei wissensintensiven Tätigkeiten zu unterstützen. Empirische Studien zeigen, dass der Einsatz von GenAI die individuelle Produktivität deutlich steigern kann, insbesondere bei weniger erfahrenen oder geringer qualifizierten Beschäftigten. Gleichzeitig fallen die Effekte für erfahrene Mitarbeitende heterogen aus und können mit Veränderungen in Arbeitsqualität und Lernprozessen einhergehen.

Im Rahmen dieser Seminararbeit soll ein Überblick über die wissenschaftliche Literatur zu Produktivitätseffekten von Generativer KI gegeben werden. Anschließend soll kritisch eingeordnet werden, unter welchen Bedingungen GenAI-Systeme zu nachhaltigen Produktivitätsgewinnen beitragen können und welche Risiken für Arbeitsqualität und Kompetenzentwicklung bestehen

Literaturhilfe: https://academic.oup.com/qje/article/140/2/889/7990658 

Large Language Models (LLMs) haben in kurzer Zeit erhebliche Fortschritte erzielt und finden heute vielfältige Anwendung in Bereichen wie Textgenerierung, Programmierung, Wissensarbeit, Entscheidungsunterstützung und automatisierter Kommunikation. Aufgrund ihrer hohen Leistungsfähigkeit werden diese Modelle zunehmend auch in sensiblen und gesellschaftlich relevanten Anwendungsfeldern eingesetzt. Gleichzeitig gelten LLMs als schwer nachvollziehbar, da sowohl ihre internen Entscheidungsprozesse als auch die Grundlagen ihres Trainings nur eingeschränkt transparent sind. Insbesondere bei großen Modellen ist häufig unklar, auf welchen Daten sie trainiert wurden und wie sich diese Daten auf Verhalten, Verzerrungen und generierte Inhalte auswirken.

Im Rahmen der Seminararbeit soll ein strukturierter Überblick über den aktuellen Stand der Forschung zu Explainable Large Language Models gegeben werden. Dabei sollen bestehende Ansätze zur Erklärbarkeit von LLMs sowie typische Anwendungsszenarien dargestellt werden. Darauf aufbauend sollen zentrale Grenzen heutiger Erklärbarkeitsmethoden und offene Forschungsfragen kritisch diskutiert werden, insbesondere im Hinblick auf den Einsatz von LLMs in sensiblen Anwendungsbereichen.

Literaturhilfe: https://dl.acm.org/doi/pdf/10.1145/3639372 

Large Language Models (LLMs) werden zunehmend in gesellschaftlich und wirtschaftlich relevanten Anwendungsbereichen eingesetzt, etwa in der Entscheidungsunterstützung, im Wissensmanagement oder in automatisierten Dialogsystemen. Gleichzeitig ist häufig nur begrenzt bekannt, auf welchen – oftmals sehr großen und heterogenen – Datensätzen diese Modelle trainiert wurden. Dadurch besteht die Gefahr, dass LLMs bestehende gesellschaftliche Verzerrungen reproduzieren oder verstärken, selbst wenn diese nicht explizit in den Trainingsdaten enthalten sind.

Mit der Verbreitung von Retrieval-Augmented-Generation-Systemen (RAG) verschärft sich diese Problematik zusätzlich, da Verzerrungen nicht nur aus dem Sprachmodell selbst, sondern auch aus den angebundenen externen Datenquellen resultieren können. Bias und Fairness werden damit zu zentralen Herausforderungen datengetriebener generativer KI-Systeme.

Im Rahmen der Seminararbeit soll ein strukturierter Überblick über die wissenschaftliche Literatur zu Bias Detection und Bias Mitigation in generativen KI-Systemen gegeben werden. Dabei sollen bestehende Ansätze zur Erkennung und Reduktion von Verzerrungen in Large Language Models und RAG-Systemen dargestellt und kritisch eingeordnet werden. Besonderes Augenmerk liegt auf den zugrunde liegenden Ursachen von Bias, etwa der Zusammensetzung und Intransparenz der Trainingsdaten, der Modellarchitektur sowie der Auswahl und Struktur externer Datenquellen in RAG-Systemen. Abschließend sollen offene Forschungsfragen sowie Implikationen für den verantwortungsvollen Einsatz solcher Systeme in sensiblen Anwendungsbereichen diskutiert werden.

Literaturhilfe: https://dl.acm.org/doi/pdf/10.1145/3637528.3671458

Mit dem zunehmenden Einsatz komplexer KI-Systeme wächst der Bedarf an nachvollziehbaren und vertrauenswürdigen Entscheidungen. Während viele Ansätze der Explainable Artificial Intelligence (XAI) auf nachträgliche Erklärungen setzen, rückt zunehmend die Idee der Explainability by Design in den Fokus, bei der Erklärbarkeit bereits bei der Gestaltung von Modellen und Architekturen berücksichtigt wird.

Im Rahmen der Seminararbeit soll ein Überblick über die wissenschaftliche Literatur zu Explainability by Design gegeben werden. Dabei sollen erklärbare Modell- und Systemarchitekturen vorgestellt und den klassischen post-hoc-Erklärmethoden gegenübergestellt werden. Abschließend soll diskutiert werden, in welchen Anwendungsfällen Explainability by Design einen Mehrwert bietet.

Literaturhilfe: https://www.jair.org/index.php/jair/article/view/17970/27222

Dozierende

Prof. Dr. Mathias Klier, Institut für Business Analytics
Prof. Dr. Mathias Klier
Dr. Maximilian Förster, Institut für Business Analytics
Dr. Maximilian Förster
Mike Rothenhäusler, Institut für Business Analytics
Mike Rothenhäusler
Maximilian Buck, Institut für Business Analytics
Maximilian Buck

Inhaltliche Informationen

Die Studierenden erwerben im Rahmen dieses Moduls die Fähigkeit, ein Thema aus dem Gebiet Customer Relationship Management und Social Media selbständig und nach wissenschaftlichen Kriterien zu erarbeiten. Die Bearbeitung einer Seminararbeit mit anschließender Präsentation und Diskussion der Ergebnisse fördert die rhetorische Fertigkeit und soziale Kompetenz der teilnehmenden Studierenden.

In diesem Modul werden folgende fachliche Inhalte vermittelt:

  • Social Media - Digitale Plattformen
  • Social Media - Fake News
  • CRM - (Explainable) und (Generative) Artificial Intelligence

Je nach Themengebiet wird individuelle Literatur empfohlen.

Organisatorische Informationen

Nächster Veranstaltungsbeginn: WiSe 25/26

Ort: Auftaktveranstaltung (60 Minuten zu Beginn des Semesters) und Abschlusspräsentation (2-3 Stunden am Semesterende) in Präsenz. 

Termine: 

  • Abschlusspräsentation: Zeitpunkt und Ort werden in Abstimmung mit den Studierenden rechtzeitig bekannt gegeben
  • Abgabe der Seminararbeiten: eine Woche nach der Abschlusspräsentation

ECTS: 4

Seminar (2 SWS): Schriftliche Hausarbeit, Präsentationsunterlagen, Präsentation im Rahmen eines Seminarvortrags

Anmeldung über das zentrale Seminarvergabetool der Wirtschaftswissenschaften: econ.mathematik.uni-ulm.de/semapps/stud_de

Die Themen können nur alleine bearbeitet werden. Zur Erlangung des Leistungsnachweises ist die Anfertigung einer Seminararbeit sowie einer Präsentation (10 Minuten) mit anschließender Diskussion (5 Minuten) notwendig.

Schwerpunktfächer: Technologie- und Prozessmanagement, Business Analytics, sowie Unternehmensführung und Controlling, Wahlpflicht BWL

Studiengänge: B.Sc. Wirtschaftswissenschaften, B.Sc. Wirtschaftsmathematik, B.Sc. Wirtschaftschemie, B.Sc. Wirtschaftsphysik und Studiengänge mit Nebenfach Wirtschaftswissenschaften