Vortrag zur Bachelorarbeit
Untersuchung des Einflusses des Guard-Intervalls
auf das Spitzenwertverhalten von OFDM
David Röder (Supervisor: Sebastian Stern)
Monday, October 28, 2013, 2:00 pm
Uni West, Room 43.2.101
In vielen modernen Kommunikationssystemen findet das digitale Modulationsverfahren Orthogonal Frequency-Division Multiplexing (OFDM) Verwendung. Beim Einsatz von OFDM wird der binäre Datenstrom auf eine große Anzahl paralleler Ströme aufgeteilt, bevor jeweils ein Mapping auf Symbole einer festgelegten Signalkonstellation (QAM, PSK) erfolgt. Diese Modulationssymbole werden anschließend mit Hilfe der inversen diskreten Fourier-Transformation (IDFT) zu einem Block (Rahmen) aus komplexen Sendesymbolen verrechnet.
In der Literatur ist häufig die Aussage zu finden, dass Real- und Imaginärteil der Sendesymbole wegen des Zentralen Grenzwertsatzes als nahezu gaußverteilt und statistisch unabhängig angenommen werden können. Dieser Umstand trifft jedoch nur dann zu, wenn vernachlässigt wird, dass nach Berechnung der IDFT gewöhnlicherweise eine zyklische Erweiterung der Rahmen erfolgt (Guard-Intervall), um Interferenzen zwischen verschiedenen Rahmen zu vermeiden. Es stellt sich daher die Frage, inwiefern ein Guard-Intervall Einfluss auf die statistischen Eigenschaften der Sendesymbole (z. B. Verteilungsfunktion) ausübt bzw. in welchem Ausmaß dadurch Abweichungen von einer Gaußverteilung auftreten.
Herr Röder erhält die Aufgabe, mit Hilfe von Monte-Carlo-Simulationen dieWahrscheinlichkeitsverteilung der Sendesymbole zu ermitteln. Dabei ist insbesondere zu berücksichtigen, dass das Guard-Intervall je nach konkretem Anwendungsfall bzw. vorliegender Kanalimpulsantwort eine unterschiedliche Länge besitzen kann. Auf Basis der Simulationen ist anschließend der Einfluss des Guard-Intervalls in Abhängigkeit von dessen Länge zu bewerten.
Als Hilfsmittel zur Durchführung der Simulationen steht MATLAB zur Verfügung. Auf eine klare und effiziente Programmierung und ausführliche Dokumentation wird besonderer Wert gelegt.