Zielgruppe
Master
Turnus
Jedes Sommersemester
Termine
Vorbesprechung:
20.02.2026 um 15 Uhr
via Zoom
Dozenten
In diesem Seminar reproduzieren Sie eine veröffentlichte empirische Studie (Code & Daten), prüfen diese auf Robustheit und entwickeln eine eigene sinnvolle Erweiterung – mit sauberem Research-Workflow und einem Ergebnis, das Sie vorzeigen können. Sie lernen, wie Sie KI in Ihren Arbeitsprozess sinnvoll einbauen und dokumentieren können. Weiterhin arbeiten Sie in kleinen Teams zu aktuellen Themen.
Portfolio-Output: Replication Package + GitHub-Repo + Präsentation der Ergebnisse
Research Skills: Robustness Checks, saubere Dokumentation, reproduzierbare Analysen
Praxisnah & betreut: strukturierte Meilensteine und Feedback
Reproduzierbarkeit ist ein Kernprinzip guter Wissenschaft – und gleichzeitig eine der größten praktischen Hürden in datengetriebener Forschung. Im Seminar arbeiten Sie forschungsnah: Sie reproduzieren zentrale Ergebnisse einer veröffentlichten Studie, testen deren Robustheit und entwickeln eine eigene Erweiterung des Papers (z. B. neue Daten, neue Spezifikation oder methodische Verbesserung). Am Ende steht ein vollständiges, nachvollziehbares Replication Package.
Anmeldung (zentral): Bitte melden Sie sich über das Seminarmatchingtool im Zeitraum 26.–29.01.2026 an: Link zum Tool
Tipp: Setzen Sie eine hohe Präferenzgewichtung, wenn Sie sicher teilnehmen möchten.
Zielgruppe
Master
Turnus
Jedes Sommersemester
Termine
Vorbesprechung:
20.02.2026 um 15 Uhr
via Zoom
Dozenten
Nach dem Seminar können Sie nicht nur „Analysen ausführen“, sondern Forschung prüfen, verbessern und reproduzierbar dokumentieren.
Fremden Code ausführen, Abweichungen finden, Entscheidungen sauber dokumentieren.
Spezifikationen, Subsamples und Sensitivität systematisch testen – inkl. Plausibilitätschecks.
Neue Daten/Zeiträume/Länder ergänzen oder eine methodische Verbesserung umsetzen.
Strukturierte Projekte, Versionierung mit Git/GitHub, reproduzierbare Reports (Quarto/R Markdown).
Ergebnisse verständlich visualisieren, interpretieren und überzeugend präsentieren.
Transparent arbeiten: nachvollziehbare Entscheidungen, klare Dokumentation, respektvolle Diskussion.
ein sauberes GitHub-Repository (Code, Dokumentation, Reproduzierbarkeit)
ein vollständiges Replication Package (lauffähig, nachvollziehbar)
eine Präsentation inkl. Diskussion der Robustheit und Ihrer Extension
Das Seminar ist in fünf Phasen organisiert. Jede Phase endet mit einem klaren Meilenstein, damit Sie kontinuierlich Fortschritte machen.
Anmeldung (zentral)
Bitte melden Sie sich im Seminarmatchingtool für das Seminar an (26. - 29.01.2026): Link zum Tool
Kick-off & Paper-Matching am 20.02.2026
Tool-Setup (GitHub/Quarto), Erwartungsmanagement, Themen- & Paper-Auswahl → Hier eine Liste möglicher Paper
Reproduktion (Baseline) bis Mitte Mai 2026
Reproduktion der Hauptergebnisse, Dokumentation von Abweichungen, Klärung fehlender Details.
Robustness + Erweiterung bis Mitte Juni 2026
Systematische Robustheitschecks und Entwicklung einer eigenen Erweiterung (Daten oder Methode).
Finalisierung & Präsentation Mitte/Ende Juni 2026
Replikation und Erweiterung vorstellen und diskutieren.
Sie arbeiten in diesem Seminar in kleinen Teams mit klaren Fragestellungen und kurzen Feedback-Schleifen.
Wichtig: Die Anwesenheit beim Kick-off und der Präsentation der Ergebnisse ist unbedingt erforderlich!
Sie wählen ein Forschungspapier und definieren früh, welche Art von Erweiterung Sie umsetzen wollen.
Eine Übersicht mit Vorschlägen von möglichen Forschungspapieren finden Sie in dieser Liste. Sie können auch selbst ein Forschungspapier auswählen:
Alternative Spezifikationen, Placebos, Sensitivität, Subsamples
Neue Datenquelle, neuer Zeitraum, anderes Land / andere Gruppe
Verbesserte Identifikation, zusätzliche Kontrollen, alternative Modelle
In diesem Seminar arbeiten Sie mit aktuellen Tools und im Team – wie es in Forschungsteams und Data-Science-Jobs üblich ist.
Primär R, Python optional (für Teilaufgaben/Extensions)
Git/GitHub (Versionierung, Teamarbeit, Nachvollziehbarkeit)
Quarto / R Markdown (reproduzierbare Reports)
Docker & GitHub Actions (reproduzierbare Umgebungen, automatisierte Runs)
LLM/Coding Assistants (als Werkzeug – nicht als Blackbox)
Die Bewertung folgt dem, was im Seminar zählt: nachvollziehbare Ergebnisse, saubere Reproduktion und klare Kommunikation.
Bewertung:
40% Replication Package
(Kurzer Bericht: ca. 3-4 Seiten + Code/Output + Reproduzierbarkeit )
50% Präsentation
(20 Minuten + Q&A)
10% Mitarbeit & Kollaboration
(Peer-Feedback, konstruktive Diskussion)
Wichtig ist nicht „perfekt“, sondern transparent: Was hat funktioniert? Wo gab es Abweichungen? Welche Entscheidungen wurden getroffen?
Erforderlich:
Solide R (oder Python) Kenntnisse (Datenaufbereitung, Regressionen/Modelle, Visualisierung)
Grundverständnis empirischer Forschung (Interpretation von Schätzungen)
Bereitschaft, mit Git/GitHub zu arbeiten (Basics reichen)
Empfohlen:
Quarto/R Markdown oder ähnliche Report-Workflows
Interesse an Kausalinferenz / Panel / DiD (je nach Paper)
✅ Sie sind richtig, wenn Sie schon eigenständig kleine Analysen in R/Python umsetzen können.
⚠️ Wenn Sie R gerade erst lernen: bitte zuerst einen Grundlagenkurs/Projektkurs belegen.
In diesem Seminar werden Sie in kleinen Teams (meistens zu zweit) arbeiten. Teamarbeit ist realistisch und hilft, Code, Methoden und Schreiben zu trennen.
Nein. Viele Extensions nutzen zusätzliche Datenquellen, aber sie sind nicht zwingend nötig. Entscheidend ist, dass Ihr Projekt eine klare, prüfbare Erweiterung liefert.
Das ist Teil des Lernziels: Sie lernen, wie man fehlende Details identifiziert, Entscheidungen dokumentiert und trotzdem transparent zu einem reproduzierbaren Ergebnis kommt.
Primär arbeiten wir in R. Python ist für Teilaufgaben/Extensions möglich, wenn der Workflow reproduzierbar dokumentiert ist.