Konvergenz im p-ten Mittel

Konvergenz im p-ten Mittel

In der Stochastik existieren verschiedene Konzepte eines Grenzwertbegriffs für Zufallsvariablen. Anders als im Fall reeller Zahlenfolgen gibt es keine natürliche Definition für das Grenzverhalten von Zufallsvariablen bei wachsendem Stichprobenumfang, weil das asymptotische Verhalten der Experimente immer von den einzelnen Realisationen abhängt und wir es also formal mit der Konvergenz von Funktionen zu tun haben. Daher haben sich im Laufe der Zeit unterschiedlich starke Konzepte herausgebildet, die wichtigsten dieser Konvergenzarten werden im folgenden kurz vorgestellt.

Inhaltsverzeichnis

Voraussetzungen

Wir werden die klassischen Konvergenzbegriffe immer im folgenden Modell formulieren: Gegeben sei eine Folge X_n\; von Zufallsvariablen, die auf einem Wahrscheinlichkeitsraum (Ω,Σ,P) definiert ist. Eine Realisation dieser Folge wird üblicherweise mit X_n(\omega)\; bezeichnet.

Fast sichere Konvergenz

Der Begriff der fast sicheren Konvergenz ist am ehesten mit der Formulierung für Zahlenfolgen vergleichbar. Er wird vor allem bei der Formulierung von starken Gesetzen der großen Zahlen verwendet.

Man sagt, dass die Folge Xn fast sicher gegen eine Zufallsvariable X konvergiert, falls

P\left ( \lim_{n \rightarrow \infty} X_n = X\right) = P\left ( \left \{ \omega\in\Omega \left| \lim_{n \rightarrow \infty} X_n(\omega ) = X(\omega ) \right.\right \} \right ) = 1

gilt. Übersetzt bedeutet dies, dass für fast alle Realisationen der Folge der klassische Konvergenzbegriff aus der reellen Analysis gilt.

Schreibweise: X_n \xrightarrow {\text{ f. s. }} X.

Die fast sichere Konvegenz ist äquivalent zur punktweisen Konvergenz fast überall aus der Maßtheorie.

Konvergenz im p-ten Mittel

Ein integrationstheoretischer Ansatz wird mit dem Begriff der Konvergenz im p-ten Mittel verfolgt. Es werden dabei nicht einzelne Realisationen betrachtet, sondern Erwartungswerte der Zufallsvariablen.

Formal konvergiert X_n\; im p-ten Mittel gegen eine Zufallsvariable X, falls

 \lim_{n \rightarrow \infty} E[|X_n - X|^p] = 0

gilt. Dabei wird p \ge 1\; vorausgesetzt. Dies bedeutet, dass die Differenz X_n-X\; im Lp-Raum \mathcal L^p(P) gegen 0 konvergiert. Man bezeichnet diese Konvergenz daher auch als \mathcal L^p- Konvergenz.

Wegen der Ungleichung der verallgemeinerten Mittelwerte folgt für q>p\; aus der Konvergenz im q-ten Mittel die Konvergenz im p-ten Mittel.

Stochastische Konvergenz

Ein etwas schwächerer Konvergenzbegriff ist die stochastische Konvergenz oder Konvergenz in Wahrscheinlichkeit. Wie der Name bereits suggeriert, werden nicht spezielle Realisationen der Zufallsvariablen betrachtet, sondern Wahrscheinlichkeiten für bestimmte Ereignisse. Eine klassische Anwendung der stochastischen Konvergenz sind schwache Gesetze der großen Zahlen.

Die mathematische Formulierung lautet: Die Folge X_n\; konvergiert stochastisch gegen eine Zufallsvariable X, falls

\forall \varepsilon > 0:\lim_{n \rightarrow \infty} P(|X_n - X| > \varepsilon) = 0,

das heißt, die Wahrscheinlichkeit, dass der Abstand zwischen der beobachteten und der theoretischen Größe größer ist als jedes positive (insbesondere: jedes beliebig nahe an null liegende positive) ε, geht gegen null, wenn die Anzahl der Realisationen gegen unendlich geht.

Kürzere Schreibweisen: P\text{-}\lim_{n \rightarrow \infty} X_n = X\; oder  \text{p}\lim (X_n) = X oder X_n \stackrel{P}{\rightarrow} X.

Man kann zeigen, dass eine Folge X_n\; genau dann stochastisch gegen X konvergiert, falls

\lim_{n \rightarrow \infty} \int_\Omega \mathrm{min}(1,|X_n-X|) dP = 0,

d.h. die stochastische Konvergenz entspricht der Konvergenz bezüglich einer Metrik. Der Raum aller Zufallsvariablen versehen mit dieser Metrik bildet einen topologischen Vektorraum, der im Allgemeinen nicht lokal konvex ist.

Die stochastische Konvergenz entspricht der Konvergenz dem Maße nach aus der Maßtheorie.

Schwache Konvergenz

Der vierte prominente Konvergenzbegriff ist der der schwachen Konvergenz (für Maße) oder Konvergenz in Verteilung (für Zufallsvariablen).

Definition für Maße

Sei (Ω,d) ein metrischer Raum und Σ die dazugehörige Borelsche σ-Algebra. Eine Folge μn von endlichen Maßen auf dem Messraum (Ω,Σ) konvergiert schwach gegen ein Maß μ, falls für alle beschränkten und bzgl. (Ω,d) stetigen Funktionen f: \Omega \rightarrow \mathbb{R}

 \lim_{n \rightarrow \infty} \int f d\mu_n = \int f d\mu

gilt.[1]

Anwendung auf Zufallsvariablen

Eine Folge von Zufallsvariablen X_n\; konvergiert in Verteilung gegen die Zufallsvariable X, wenn die Folge der induzierten Bildmaße \mu_n(A):=P(X_n\in A) schwach gegen das Bildmaß \mu(A):=P(X\in A) konvergiert. Äquivalent dazu ist die Charakterisierung, dass für die Verteilungsfunktionen F_n(x)\; von X_n\; und F(x)\; von X\;

\lim_{n\to\infty}F_n(x)=F(x)

punktweise in allen Stetigkeitspunkten von F\; gilt [2]. Die wohl bekanntesten Anwendungen der Konvergenz in Verteilung sind zentrale Grenzwertsätze.

Da die Konvergenz in Verteilung ausschließlich durch die Bildmaße bzw. durch die Verteilungsfunktion der Zufallsvariablen definiert sind, ist es nicht notwendig, dass die Zufallsvariablen auf demselben Wahrscheinlichkeitsraum definiert sind.

Als Notation verwendet man in der Regel X_n \stackrel{w}{\rightarrow} X oder X_n \stackrel{\mathcal D}{\rightarrow} X. Die Buchstaben „W“ bzw. „D“ stehen dabei für die entsprechenden Begriffe im Englischen, also weak convergence bzw. convergence in distribution.

Zusammenhang mit charakteristischen Funktionen

Zwischen der punktweisen Konvergenz der charakteristischen Funktion \varphi_{X_n}(t) einer Folge von Zufallsvariablen Xn und der schwachen Konvergenz von Xn besteht folgender Zusammenhang:

X_n \stackrel{w}{\rightarrow} X \Rightarrow \varphi_{X_n}(t) \to \varphi_X(t) \;\; \text{punktweise} \;\; \forall t \in \R

Für die Gegenrichtung ist noch die Stetigkeit der Grenzfunktion im Nullpunkt nachzuweisen:

\varphi_{X_n}(t) \to \varphi_X(t) \;\; \text{punktweise} \;\; \forall t \in \R \;\; \and \;\; \varphi_X(t) \; \text{stetig in} \; t=0   \Rightarrow X_n \stackrel{w}{\rightarrow} X

Oftmals ist der Nachweis der punktweisen Konvergenz der charakteristischen Funktion einfacher als der direkte Nachweis der Konvergenz der Verteilungsfunktionen. Mit der Eindeutigkeit der charakteristischen Funktion lässt sich so auch der Grenzwert der Zufallsvariable Xn bestimmen.

Zusammenhang zwischen den einzelnen Konvergenzarten

In der Reihe der wichtigsten Konvergenzbegriffe in der Stochastik stellen die beiden zuerst vorgestellten Begriffe die stärksten Konvergenzarten dar. Sowohl aus fast sicherer Konvergenz [3] als auch aus Konvergenz im p-ten Mittel[4] lässt sich immer die stochastische Konvergenz einer Folge von Zufallsvariablen ableiten. Ferner folgt aus stochastischer Konvergenz automatisch auch die Konvergenz in Verteilung, die die schwächste der hier vorgestellten Konvergenzarten ist.[5]

In Ausnahmefällen gelten auch noch andere Implikationen: Wenn eine Folge von Zufallsvariablen in Verteilung gegen eine Zufallsvariable X konvergiert und X fast sicher konstant ist, dann konvergiert diese Folge auch stochastisch.

Aus der Konvergenz im p-ten Mittel folgt im Allgemeinen nicht die fast sichere Konvergenz. Es gilt bei Konvergenz im p-ten Mittel aber immer, dass es eine Teilfolge gibt, die fast sicher konvergiert.

Umgekehrt lässt sich aus fast sicherer Konvergenz im Allgemeinen auch keine Konvergenz im p-ten Mittel schließen. Allerdings ist dieser Schluss erlaubt, wenn es eine gemeinsame Majorante in Lp gibt (siehe Satz von der majorisierten Konvergenz)

Beispiel

Auf dem Wahrscheinlichkeitsraum (Ω,Σ,P) mit Ω = [0,1], Σ den Borelmengen und P dem Lebesgue-Maß betrachte man die Zufallsvariable X(ω) = 0 sowie die Folge Xn(ω) der Zufallsvariablen, die für n = 2k + m mit 0\le m < 2^k (jedes natürliche n besitzt eine eindeutige Zerlegung dieser Art) folgendermaßen definiert ist[6][7]:

X_n(\omega)= \left\{\begin{matrix}
 1 & \mbox{falls } \frac{m}{2^k} \le \omega \le \frac{m+1}{2^k}\\
 0 & \mbox{sonst.} \end{matrix}\right.

Wegen

E[|X_n - X|^p] = \int_0^1 |X_n(\omega)-0|^p d\omega = \frac{1}{2^k}\to 0

konvergiert Xn im p-ten Mittel gegen X. Aus dem oben beschriebenen Zusammenhang zwischen den einzelnen Konvergenzarten folgt, dass Xn ebenso stochastisch gegen X konvergiert, wie sich auch aus

P(|X_n - X| > \varepsilon) \leq \frac{1}{2^k}\to 0 für jedes \varepsilon>0

erkennen lässt.

Die Funktionen Xn sind sozusagen immer dünner werdende Zacken, die über das Intervall [0,1] laufen. Für jedes fixe \omega\in [0,1] gilt aber Xn(ω) = 1 für unendliche viele n, ebenso ist Xn(ω) = 0 für unendlich viele n, sodass also keine fast sichere Konvergenz von Xn vorliegt.

Zu jeder Teilfolge X_{n_i} von Xn lässt sich allerdings eine Teilteilfolge X_{n_{i_j}} finden, die gegen X konvergiert. Gäbe es eine Topologie der fast sicheren Konvergenz, so würde aus dieser Eigenschaft folgen, dass Xn fast sicher gegen X konvergiert. Dieses Beispiel zeigt also auch, dass es keine Topologie der fast sicheren Konvergenz geben kann.[8]

Einzelnachweise

  1. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972. ISBN 0-12-065201-3. Chapter 4.5
  2. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972. ISBN 0-12-065201-3. Theorem 4.5.4
  3. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972. ISBN 0-12-065201-3. Theorem 2.5.5
  4. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972. ISBN 0-12-065201-3. Theorem 2.5.1
  5. Virtual Laboratories in Probability and Statistics, Excercise 3.8.3
  6. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972. ISBN 0-12-065201-3. Examples 2.5.6
  7. Bernard R. Gelbaum, John M.H. Olmsted: Counterexamples in Analysis. Dover Publications, ISBN 0-486-42875-3. 40. Sequences of functions converging in different senses. p 109ff
  8. J. Cigler, H.-C. Reichel: Topologie. Eine Grundvorlesung. Bibliographisches Institut, Mannheim 1978, ISBN 3-411-00121-6, S. 88, Aufgabe 6.

Literatur

  • Heinz Bauer: Wahrscheinlickeitstheorie. 4 Auflage. De Gruyter, Berlin 1991, ISBN 3110121905, S. 34 (Konvergenz von Zufallsvariablen und Verteilungen). 
  • Heinz Bauer: Maß- und Integrationstheorie. 2. Auflage, De Gruyter, Berlin 1992, ISBN 3-11-013625-2, ab S.91 (§15 Konvergenzsätze) und ab S.128 (§20 Stochastische Konvergenz).
  • Jürgen Elstrodt: Maß- und Integrationstheorie. 4. Auflage, Springer, Berlin 2005, ISBN 3-540-21390-2, (beschreibt ausführlich die Zusammenhänge zwischen den verschiedennen Konvergenzarten).

Siehe auch


Wikimedia Foundation.

Игры ⚽ Нужна курсовая?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Konvergenz in Verteilung — In der Stochastik existieren verschiedene Konzepte eines Grenzwertbegriffs für Zufallsvariablen. Anders als im Fall reeller Zahlenfolgen gibt es keine natürliche Definition für das Grenzverhalten von Zufallsvariablen bei wachsendem… …   Deutsch Wikipedia

  • Konvergenz (Stochastik) — In der Stochastik existieren verschiedene Konzepte eines Grenzwertbegriffs für Zufallsvariablen. Anders als im Fall reeller Zahlenfolgen gibt es keine natürliche Definition für das Grenzverhalten von Zufallsvariablen bei wachsendem… …   Deutsch Wikipedia

  • Fast sichere Konvergenz — In der Stochastik existieren verschiedene Konzepte eines Grenzwertbegriffs für Zufallsvariablen. Anders als im Fall reeller Zahlenfolgen gibt es keine natürliche Definition für das Grenzverhalten von Zufallsvariablen bei wachsendem… …   Deutsch Wikipedia

  • Stochastische Konvergenz — In der Stochastik existieren verschiedene Konzepte eines Grenzwertbegriffs für Zufallsvariablen. Anders als im Fall reeller Zahlenfolgen gibt es keine natürliche Definition für das Grenzverhalten von Zufallsvariablen bei wachsendem… …   Deutsch Wikipedia

  • Gewichtetes Mittel — Mittelwerte treten in der Mathematik und insbesondere in der Statistik in inhaltlich unterschiedlichen Kontexten auf. In der Statistik ist ein Mittelwert ein sog. Lageparameter (Überbegriff Parameter (Statistik)), also ein aggregierender… …   Deutsch Wikipedia

  • Gewogenes arithmetisches Mittel — Mittelwerte treten in der Mathematik und insbesondere in der Statistik in inhaltlich unterschiedlichen Kontexten auf. In der Statistik ist ein Mittelwert ein sog. Lageparameter (Überbegriff Parameter (Statistik)), also ein aggregierender… …   Deutsch Wikipedia

  • Hölder'sches Mittel — Mittelwerte treten in der Mathematik und insbesondere in der Statistik in inhaltlich unterschiedlichen Kontexten auf. In der Statistik ist ein Mittelwert ein sog. Lageparameter (Überbegriff Parameter (Statistik)), also ein aggregierender… …   Deutsch Wikipedia

  • Höldersches Mittel — Mittelwerte treten in der Mathematik und insbesondere in der Statistik in inhaltlich unterschiedlichen Kontexten auf. In der Statistik ist ein Mittelwert ein sog. Lageparameter (Überbegriff Parameter (Statistik)), also ein aggregierender… …   Deutsch Wikipedia

  • Winsorisiertes Mittel — Mittelwerte treten in der Mathematik und insbesondere in der Statistik in inhaltlich unterschiedlichen Kontexten auf. In der Statistik ist ein Mittelwert ein sog. Lageparameter (Überbegriff Parameter (Statistik)), also ein aggregierender… …   Deutsch Wikipedia

  • Hölder-Mittel — In der Mathematik ist das Hölder Mittel oder der Höldersche Mittelwert (nach Otto Hölder, 1859–1937) (engl. u.A. (p th) power mean) ein (manchmal auch der) verallgemeinerte Mittelwert. Die Bezeichnung ist uneinheitlich, Bezeichnungen wie das p te …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”