- Zentraler Grenzwertsatz
-
Bei den Zentralen Grenzwertsätzen handelt es sich um eine Familie schwacher Konvergenzaussagen aus der Wahrscheinlichkeitstheorie. Allen gemeinsam ist die Aussage, dass die Summe einer großen Zahl von unabhängigen Zufallsvariablen asymptotisch eine stabile Verteilung befolgt.[1] Bei endlicher Varianz der Zufallsvariablen ist die Summe annähernd normalverteilt, was die Sonderstellung der Normalverteilung erklärt.
Die wichtigste und bekannteste Aussage wird auch einfach als Der Zentrale Grenzwertsatz bezeichnet und befasst sich mit unabhängigen, identisch verteilten Zufallsvariablen, deren Erwartungswert und Varianz endlich sind.
Es existieren verschiedene Verallgemeinerungen, für die eine identische Verteilung keine notwendige Voraussetzung ist. Stattdessen wird dann eine andere Voraussetzung gefordert, die sicherstellt, dass keine der Variablen zu großen Einfluss auf das Ergebnis erhält. Beispiele sind die Lindeberg-Bedingung und die Ljapunow-Bedingung. Darüber hinausgehende Verallgemeinerungen gestatten sogar „schwache“ Abhängigkeit der Zufallsvariablen.
Die Bezeichnung geht auf G. Pólyas Arbeit Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem von 1920 zurück.[2]
Inhaltsverzeichnis
Der Zentrale Grenzwertsatz der Statistik bei identischer Verteilung
(auch bekannt als Grenzwertsatz von Lindeberg/Levy)
Sei eine Folge von Zufallsvariablen, die auf demselben Wahrscheinlichkeitsraum alle dieselbe Verteilung D aufweisen und unabhängig sind (u.i.v. = unabhängig und identisch verteilt, engl. i.i.d. = independent and identically distributed). Sei weiter angenommen, dass sowohl der Erwartungswert μ als auch die Standardabweichung σ existieren und endlich sind.
Betrachten wir nun die n-te Teilsumme dieser Zufallsvariablen . Der Erwartungswert von Sn ist nμ und die Varianz ist nσ2. Bildet man daraus die standardisierte Zufallsvariable
dann besagt der Zentrale Grenzwertsatz, dass die Verteilung von Zn für n → punktweise gegen die Standardnormalverteilung N(0,1) konvergiert. Ist Φ(z) die Verteilungsfunktion von N(0,1), dann bedeutet dies, dass für jedes reelle z
In etwas anderer Schreibweise erhält man
wobei
der Mittelwert der ersten n Summanden der Zufallsvariablen ist.
Bemerkungen
- Ein Beweis des Satzes ist möglich mit Hilfe der Untersuchung der ersten Glieder der Taylor-Entwicklung der charakteristischen Funktion von Zn. Für einen Beweis sei auf den Artikel Kumulante unter Folgerungen verwiesen.
- Endliche Stichprobenumfänge lassen die Frage nach der Konvergenzgüte aufsteigen. Unter bestimmten Bedingungen liefert der Satz von Berry-Esseen eine Antwort: Existiert das dritte zentrierte Moment und ist es endlich, dann ist die Konvergenz zur Normalverteilung gleichmäßig und die Konvergenzgeschwindigkeit wenigstens von der Ordnung .
- Da für normalverteilte Zufallsvariablen die Summe wieder normalverteilt ist, gilt für diese der zentrale Grenzwertsatz im Endlichen, genauer ist Zn für jedes n bereits nach N(0,1) verteilt.
- Handelt es sich bei der Verteilung D um die diskrete Binomialverteilung, dann gelangt man zu einem Spezialfall des zentralen Grenzwertsatzes, der als Satz von Moivre-Laplace bekannt ist.
Einzelnachweise
- ↑ John P. Nolan: Stable Distributions - Models for Heavy Tailed Data. Birkhauser, Boston 2011, S. 22 (http://academic2.american.edu/~jpnolan/stable/stable.html).
- ↑ Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics.
George Pólya: Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem, Mathematische Zeitschrift, 8, 1920, S. 171-181 (online)
Siehe auch
Weblinks
Wikimedia Foundation.