Woldsche Zerlegung

Woldsche Zerlegung

Die Woldsche Zerlegung geht auf Herman Wold (1938) zurück und besagt, dass jeder kovarianzstationäre, rein nichtdeterministische stochastische Prozess nach Abzug des Erwartungswertes als eine Linearkombination einer Folge unkorrelierter Zufallsvariablen mit Erwartungswert Null und konstanter Varianz dargestellt werden kann. Rein nichtdeterministisch bedeutet, dass alle linearen deterministischen Komponenten von x zuvor abgezogen wurden. Eine lineare deterministische Komponente kann aufgrund ihrer eigenen vergangenen Werte perfekt vorhergesagt werden. Dies gilt zum Beispiel für einen konstanten Mittelwert, periodische, polynomiale oder exponentielle Folgen in den Zeitpunkten t. Man kann daher schreiben:

 x_t - \mu_t =\sum_{j=0}^{\infty} \psi_ju_{t-j}\text{ mit }\psi_0=1\text{ und } \sum_{j=0}^{\infty}\psi^2_j < \infty.

Dabei ist ut ein reiner Zufallsprozess, das heißt es gilt

\operatorname{E}(u_t) = 0 und \operatorname{E}(u_tu_s) = \begin{cases} \sigma^2 & \mathrm{f\ddot{u}r} \quad t = s \\
0 & \text{sonst} \end{cases}

Die geforderte quadratische Konvergenz der Reihe der ψj garantiert die Existenz der zweiten Momente des Prozesses. Für die Gültigkeit dieser Zerlegung müssen keine Verteilungsannahmen getroffen werden und ut muss nicht unabhängig sein; es genügt Unkorreliertheit.

Für den Erwartungswert erhält man \operatorname{E}(x_t - \mu_t) = \operatorname{E} \left(\sum_{j=0}^{\infty} \psi_ju_{t-j}\right) = \sum_{j=0}^{\infty} \psi_j\operatorname{E}(u_{t-j})=0

das heißt es gilt:

 \operatorname{E}(x_t) = \mu_t

Die Varianz berechnet sich folgendermaßen:

\operatorname{V}(x_t) = \operatorname{E}[(x_t-\mu_t)^2] = \operatorname{E} [(u_t + \psi_1u_{t-1} + \psi_2u_{t-2} + \cdots)^2]

Wegen \operatorname{E}(u_tu_{t-j}) = 0 für j \ne 0 vereinfacht sich dieser Ausdruck zu

\operatorname{V}(x_t) = \operatorname{E}(u_t^2)+\psi_1^2\operatorname{E}(u_{t-1}^2)+\psi_2^2\operatorname{E}(u_{t-2}^2)+ \cdots = \sigma^2\sum_{j=0}^{\infty} \psi_j^2

Die Varianz ist somit endlich und zeitunabhängig. Entsprechend erhält man mit τ > 0 die Autokovarianzen


\begin{align}
& {} \qquad \operatorname{Cov}(x_t,x_{t+\tau}) = \operatorname{E}[(x_t - \mu_t)(x_{t+\tau} - \mu_{t+\tau})] \\
& = \operatorname{E}\left[(u_t + \psi_1u_{t-1} + \cdots + \psi_\tau u_{t-\tau} + \psi_{\tau + 1} u_{t - \tau - 1} + \cdots)\right. \\
& {} \qquad\qquad \left.(u_{t + \tau} + \psi_1u_{t + \tau - 1} + \cdots + \psi_\tau u_t + \psi_{\tau+1} u_{t-1} + \cdots)\right] \\
& = \sigma^2 (\psi_\tau + \psi_1 \psi_{\tau + 1} + \psi_2 \psi_{\tau + 2} + \cdots) \\
& = \sigma^2\sum_{j=0}^\infty \psi_j\psi_{\tau+j} < \infty
\end{align}

mit ψ0 = 1. Man sieht, dass die Autokovarianzen nur eine Funktion der Zeitdifferenz, das heißt des Abstands zwischen zwei Zufallsvariablen des Prozesses sind. Somit sind alle Bedingungen für die Kovarianzstationarität erfüllt. Die Autokorrelationsfunktion lässt sich wie folgt schreiben:

\rho(\tau) = \frac{\sum_{j=0}^{\infty} \psi_j \psi_{\tau + j}}{\sum_{j=0}^{\infty} \psi^2_j}\text{ mit }\tau = 1, 2, 3, \dots

AR- und MA-Prozesse lassen sich in die Woldsche Darstellung bringen. Diese Darstellung ist eher von theoretischem Interesse, denn in praxi sind Modelle mit unendlich vielen Parametern unbrauchbar.

Literatur

  • Herman Wold: A Study in the Analysis of Stationary Time Series. In: Almquist und Wicksell. , Stockholm1938.

Siehe auch


Wikimedia Foundation.

Игры ⚽ Поможем написать курсовую

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Herman Ole Andreas Wold — (* 25. Dezember 1908 in Skien; † 16. Februar 1992) war ein schwedischer Statistiker. Herman Wold wurde im südnorwegischen Skien als das jüngste von sechs Geschwistern geboren. Die Familie zog 1912 nach Schweden und nahm die schwedische… …   Deutsch Wikipedia

  • Herman Wold — Herman Ole Andreas Wold (* 25. Dezember 1908 in Skien; † 16. Februar 1992) war ein schwedischer Statistiker. Herman Wold wurde im südnorwegischen Skien als das jüngste von sechs Geschwistern geboren. Die Familie zog 1912 nach Schweden und nahm… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”