Multivariate Normalverteilung

Multivariate Normalverteilung

Die gemeinsame Wahrscheinlichkeitsverteilung mehrerer Zufallsvariablen nennt man multivariate Verteilung oder auch mehrdimensionale Verteilung.

Inhaltsverzeichnis

Formale Darstellung

Um Verwechslungen zu vermeiden, werden im Folgenden skalare Zufallsvariablen groß geschrieben, Zufallsvektoren dagegen klein. Ferner werden jegliche Vektoren unterstrichen.

Man betrachtet p Zufallsvariablen X_j\ (j=1, \ldots, p), jeweils mit einem Erwartungswert E(Xj) und der Varianz V(Xj). Die Zufallsvariablen sind zudem paarweise korreliert mit der Kovarianz \operatorname{Cov}(X_j,X_k)\ (j,k=1,\ldots,p; j\ne k).

Die Verteilung ist nun die gemeinsame Wahrscheinlichkeit, dass alle Xj höchstens gleich einer jeweiligen Konstanten xj sind, also

P(X_1 \le x_1,X_2 \le x_2,\ldots, X_p \le x_p) = F_X(x_1,x_2,\ldots, x_p).

Multivariate Zufallsvariablen werden i.A. in einem Zufallsvektor \underline x zusammengefasst:

\underline x =
  \begin{pmatrix}
    X_1 \\
   X_2 \\
  \vdots\\
    X_p
  \end{pmatrix}
.

Die Verteilung ist somit

F_x(\underline x)=F_X(x_1, x_2, \ldots, x_p).

Die Erwartungswerte befinden sich im Erwartungswertvektor

E(\underline x)=
  \begin{pmatrix}
    E(X_1) \\
    E(X_2) \\
  \vdots\\
    E(X_p)
  \end{pmatrix}

der meist mit \underline \mu bezeichnet wird.

Die Varianzen werden zusammen mit den Kovarianzen in der (p\times p)-Kovarianzmatrix Σ aufgeführt:

\Sigma=
  \begin{pmatrix}
    V(X_1)             & {\rm Cov}(X_1,X_2) & {\rm Cov}(X_1,X_3) & \ldots & {\rm Cov}(X_1,X_p) \\
    {\rm Cov}(X_2,X_1) & V(X_2)             & {\rm Cov}(X_2,X_3) & \ldots & {\rm Cov}(X_2,X_p) \\
    {\rm Cov}(X_3,X_1) & {\rm Cov}(X_3,X_2) & V(X_3)             & \ldots & {\rm Cov}(X_3,X_p) \\
    \vdots             & \vdots             & \vdots             & \ddots & \vdots \\
    {\rm Cov}(X_p,X_1) & {\rm Cov}(X_p,X_2) & {\rm Cov}(X_p,X_3) & \ldots & V(X_p)  \\ 
\end{pmatrix}

Σ ist symmetrisch mit den Varianzen auf der Hauptdiagonalen. \underline x ist also verteilt mit dem Erwartungswertvektor E(\underline x) und der Kovarianzmatrix Σ.

Die Umformung zu den Korrelationskoeffizienten

\rho_{jk}={{\rm Cov}(X_j,X_k) \over\ \sqrt{V(X_j) \cdot V(X_k)}}

ergibt im Falle positiver Varianzen die Korrelationsmatrix

R =
  \begin{pmatrix}
    1         & \rho_{12} & \rho_{13} & \ldots & \rho_{1p} \\
    \rho_{21} & 1         & \rho_{23} & \ldots & \rho_{2p} \\
    \rho_{31} & \rho_{32} & 1         & \ldots & \rho_{3p} \\
    \vdots    & \vdots    & \vdots    & \ddots & \vdots \\
    \rho_{p1} & \rho_{p2} & \rho_{p3} & \ldots & 1\\  
\end{pmatrix}

Gemeinsame Wahrscheinlichkeiten sind häufig schwierig zu berechnen, vor allem, wenn schon die Einzelwahrscheinlichkeiten nicht analytisch bestimmbar sind. Man behilft sich dann gegebenenfalls mit Abschätzungen. Vor allem können die Auswirkungen der Kovarianz auf die Verteilung in der Regel nicht abgesehen werden.

Sind die Zufallsvariablen stochastisch unabhängig, ist die gemeinsame Verteilung gleich dem Produkt der entsprechenden Einzelverteilungen, den Rand- oder auch Marginalverteilungen.

F_x(\underline x) = F_X(x_1, x_2, \ldots, x_p) = F_{X_1}(x_1) F_{X_2}(x_2) \cdots F_{X_p}(x_p).

Ausgewählte multivariate Verteilungen

Von Bedeutung sind vor allem die

die multivariaten Verfahren zu Grunde liegen. Meistens ist es möglich, mittels einer linearen Transformation den Zufallsvektor in ein Skalar umzuwandeln, das dann univariat verteilt ist und so als Testprüfgröße fungiert.

Die multivariate Normalverteilung

Dichte der zweidimensionalen Standardnormalverteilung

Gegeben ist ein Vektor \underline x aus p gemeinsam normalverteilten Zufallsvariablen mit dem Erwartungswertvektor μ und der Kovarianzmatrix Σ mit Determinante | Σ | , d. h. die gemeinsame Dichtefunktion der Vektorkomponenten sei gegeben durch

f_x(\underline x)=\frac 1{(2\pi)^{\frac p2}|\Sigma|^{\frac 12}} \exp\left(-{\frac 12}(\underline x-\underline \mu)^T\Sigma^{-1}(\underline x-\underline \mu)\right)
.

Wir schreiben:

\underline x\sim \mathcal N_p(\underline \mu, \Sigma).

Die Kovarianzmatrix Σ ist positiv semidefinit. Die Werte der Verteilungsfunktion F müssen numerisch ermittelt werden.

Die multivariate Normalverteilung hat spezielle Eigenschaften:

  • Sind die Komponenten des Zufallsvektors \underline x paarweise unkorreliert, sind sie auch stochastisch unabhängig.
  • Die lineare Transformation \underline y = \underline a + B\underline x mit B als (q\times p)-Matrix (q \le p) und \underline a als Vektor der Länge q ist q-dimensional normalverteilt als \mathcal N_q(\underline a + B\underline \mu, B\Sigma B^T).
  • Die lineare Transformation
\underline y = \Sigma^{-\frac 12}(\underline x-\underline \mu)
standardisiert den Zufallsvektor x. Es ist
\underline Y \sim N_p(\underline 0,\underline 1).
also sind die Komponenten von y stochastisch unabhängig.
  • X kann auch eine singuläre Kovarianzmatrix besitzen. Man spricht dann von einer degenerierten oder singulären multivariaten Normalverteilung.

Beispiel für eine multivariate Normalverteilung

Betrachtet wird eine Apfelbaumplantage mit sehr vielen gleich alten, also vergleichbaren Apfelbäumen. Man interessiert sich für die Merkmale Größe der Apfelbäume, die Zahl der Blätter und die Erträge. Es werden also die Zufallsvariablen definiert:

X1: Höhe eines Baumes [m]; X2: Ertrag [100 kg]; X3: Zahl der Blätter [1000 Stück].

Die Variablen sind jeweils normalverteilt wie

X1˜N(4;1);X2˜N(20;100);X3˜N(20;225);

Die meisten Bäume sind also um 4 ± 1m groß, sehr kleine oder sehr große Bäume sind eher selten. Bei einem großen Baum ist der Ertrag tendenziell größer als bei einem kleinen Baum, aber es gibt natürlich hin und wieder einen großen Baum mit wenig Ertrag. Ertrag und Größe sind korreliert, die Kovarianz beträgt Cov(X1,X2) = 9 und der Korrelationskoeffizient ρ12 = 0,9.

Ebenso ist \operatorname{Cov}(X_1,X_3)=12{,}75 mit dem Korrelationskoeffizienten ρ13 = 0,85, und \operatorname{Cov}(X_2,X_3)=120 mit dem Korrelationskoeffzienten ρ23 = 0,8.

Fasst man die drei Zufallsvariablen im Zufallsvektor \underline x zusammen, ist \underline x multivariat normalverteilt mit

\underline \mu = 
  \begin{pmatrix}
     4\\
    20\\
    20
  \end{pmatrix}

und

\Sigma=
  \begin{pmatrix}
    1       &   9 & 12{,}75\\
    9       & 100 &  120\\
    12{,}75 & 120 &  225 
\end{pmatrix}
.

Die entsprechende Korrelationsmatrix ist

R=
  \begin{pmatrix}
    1      & 0{,}9 & 0{,}85\\
    0{,}9  & 1     & 0{,}8\\
    0{,}85 & 0{,}8 & 1 
\end{pmatrix}
.

Stichproben bei multivariaten Verteilungen

In der Realität werden in aller Regel die Verteilungsparameter einer multivariaten Verteilung nicht bekannt sein. Diese Parameter müssen also geschätzt werden.

Man zieht eine Stichprobe vom Umfang n. Jede Realisation i\in\{1,\ldots,n\} des Zufallsvektors \underline x könnte man als Punkt in einem p-dimensionalen Hyperraum auffassen. Man erhält so die (n\times p)-Datenmatrix X als

X=
\begin{pmatrix}
x_{11}& x_{12}& \cdots &x_{1j}&\cdots &x_{1p}\\
x_{21}& x_{22}& \cdots &x_{2j}&\cdots &x_{2p}\\
\vdots& & & & &\vdots \\
x_{i1}& x_{i2}& \cdots &x_{ij}&\cdots &x_{ip}\\
\vdots& & & & &\vdots \\
x_{n1}& x_{n2}& \cdots &x_{nj}&\cdots &x_{np}
\end{pmatrix}
,

die in jeder Zeile die Koordinaten eines Punktes enthält.

Der Erwartungswertvektor wird geschätzt durch den Mittelwertvektor der p arithmetischen Mittelwerte

\hat E(\underline x)=\underline{\bar x}=
  \begin{pmatrix}
\bar x_1\\
\bar x_2\\
\vdots\\
\bar x_j\\
\vdots\\
\bar x_p
  \end{pmatrix}

mit den Komponenten


\bar x_j =
\frac 1n\sum_{i=1}^n x_{ij}
.

Für die Schätzung der Kovarianzmatrix erweist sich die bezüglich der arithmetischen Mittelwerte zentrierte Datenmatrix X * als nützlich. Sie berechnet sich als

X^*=X-\underline 1\cdot\underline{\bar x}^T,

mit den Elementen x^*_{ij}, wobei \underline 1 einen Spaltenvektor der Länge n mit lauter Einsen darstellt.

Die (p\times p)-Kovarianzmatrix hat die geschätzten Komponenten

s_{jk}=\hat\operatorname{Cov}(X_j,X_k)=\frac 1{n-1}\sum_{i=1}^n x^*_{ij}x^*_{ik}.

Sie ergibt sich als

\widehat\Sigma = S = \frac 1{n-1}X^{*T}X^*.

Die Korrelationsmatrix R wird geschätzt durch die paarweisen Korrelationskoeffizienten

r_{jk} = \frac{\sum\limits_{i=1}^n x^*_{ij}x^*_{ik}} {\sqrt{\sum\limits_{i=1}^n {x^*_{ij}}^2}\sqrt{\sum\limits_{i=1}^n {x^*_{ik}}^2}},

auf ihrer Hauptdiagonalen stehen Einsen.

Beispiel zu Stichproben

Es wurden 10 Apfelbäume zufällig ausgewählt. Die 10 Beobachtungen werden in der Datenmatrix X zusammengefasst:

X=
\begin{pmatrix}
3{,}3&24& 27 \\
4{,}9& 41&55\\
5{,}9& 46&52 \\
5{,}2& 49&54\\
3{,}6& 29 &34 \\
4{,}2&33& 51 \\
5{,}0&42& 43\\
5{,}1&35& 54 \\
6{,}8&60& 70 \\
5{,}0&41&50
\end{pmatrix}
.

Die Mittelwerte berechnen sich, wie beispielhaft an \bar x_1 gezeigt, als

 \bar x_1=\frac{1}{10}(3{,}3+4{,}9+\ldots+5{,}0)=4{,}9.

Sie ergeben den Mittelwertvektor

\underline{\bar x}=
  \begin{pmatrix}
4{,}9\\
40\\
49
  \end{pmatrix}

Für die zentrierte Datenmatrix X * erhält man die zentrierten Beobachtungen, indem man von den Spalten den entsprechenden Mittelwert abzieht:

3,3 - 4,9 = -1,6; 24 – 40 = -16; 27 - 49 = -22
4,9 - 4,9 = 0; 41 - 40 = 1; 55 - 49 = 6
...

,

also

X^*=
\begin{pmatrix}
-1{,}6&-16& -22 \\
0{,}0& 1&6\\
1{,}0& 6&3 \\
0{,}3& 9&5\\
-1{,}3& -11 &-15 \\
-0{,}7&-7& 2 \\
0{,}1&2& -6\\
0{,}2&-5& 5 \\
1{,}9&20& 21 \\
0{,}1&1&1
\end{pmatrix}
.

Man berechnet für die Kovarianzmatrix die Kovarianzen, wie im Beispiel,

s_{12}=\hat\operatorname{Cov}(X_1,X_2)=\frac 19(-1{,}6 \cdot (-16)+0\cdot 1+\ldots+0{,}1\cdot 1) =\frac{91}{9}\approx 10{,}09

und entsprechend die Varianzen

s_{22}=\hat V(X_2)=\frac 19((-16)^2 +1^2+...+1^2) =\frac{974}{9}\approx 108{,}22 ,

so dass sich die Kovarianzmatrix

S=
\begin{pmatrix}
1{,}06&10{,}09&10{,}91 \\
10{,}09& 108{,}22&106{,}22\\
10{,}91& 106{,}22&142{,}89
\end{pmatrix}

ergibt.

Entsprechend erhält man für die Korrelationsmatrix zum Beispiel

 r_{12}=\frac{10{,}09}{\sqrt{1{,}06\cdot 108{,}22 }} \approx 0{,}9439

bzw. insgesamt

R=
\begin{pmatrix}
1&0{,}9439&0{,}8884 \\
0{,}9439& 1&0{,}8542\\
0{,}8884& 0{,}8542&1
\end{pmatrix}
.

Literatur

  • Mardia, KV, Kent, JT, Bibby, JM: Multivariate Analysis, New York 1979
  • Fahrmeir, Ludwig, Hamerle, Alfred, Tutz, Gerhard (Hrsg): Multivariate statistische Verfahren, New York 1996
  • Hartung, Joachim, Elpelt, Bärbel: Multivariate Statistik, München, Wien 1999

Wikimedia Foundation.

Игры ⚽ Поможем сделать НИР

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Multivariate Verteilung — Die Wahrscheinlichkeitsverteilung einer mehrdimensionalen Zufallsvariable nennt man multivariate Verteilung oder auch mehrdimensionale Verteilung. Inhaltsverzeichnis 1 Einführendes Beispiel 2 Zweidimensionale Verteilungsfunktion 3 Der allgemeine… …   Deutsch Wikipedia

  • multivariate normal distribution — normalusis daugiamatis skirstinys statusas T sritis fizika atitikmenys: angl. multivariate normal distribution vok. mehrdimensionale Normalverteilung, f rus. многомерное нормальное распределение, n pranc. distribution normale multivariée, f …   Fizikos terminų žodynas

  • Mehrdimensionale Normalverteilung — Die mehrdimensionale oder multivariate Normalverteilung ist ein Typ multivariater Wahrscheinlichkeitsverteilungen und stellt eine Verallgemeinerung der (eindimensionalen) Normalverteilung auf mehrere Dimensionen dar.[1] Bestimmt wird eine… …   Deutsch Wikipedia

  • Log-Normalverteilung — Die logarithmische Normalverteilung (kurz Log Normalverteilung) ist eine kontinuierliche Wahrscheinlichkeitsverteilung über der Menge der positiven reellen Zahlen. Sie beschreibt die Verteilung einer Zufallsvariablen X, wenn ln(X) normalverteilt… …   Deutsch Wikipedia

  • Log normalverteilung — Die logarithmische Normalverteilung (kurz Log Normalverteilung) ist eine kontinuierliche Wahrscheinlichkeitsverteilung über der Menge der positiven reellen Zahlen. Sie beschreibt die Verteilung einer Zufallsvariablen X, wenn ln(X) normalverteilt… …   Deutsch Wikipedia

  • mehrdimensionale Normalverteilung — normalusis daugiamatis skirstinys statusas T sritis fizika atitikmenys: angl. multivariate normal distribution vok. mehrdimensionale Normalverteilung, f rus. многомерное нормальное распределение, n pranc. distribution normale multivariée, f …   Fizikos terminų žodynas

  • Korrelationsmatrix — Die gemeinsame Wahrscheinlichkeitsverteilung mehrerer Zufallsvariablen nennt man multivariate Verteilung oder auch mehrdimensionale Verteilung. Inhaltsverzeichnis 1 Formale Darstellung 2 Ausgewählte multivariate Verteilungen 3 Die multivariate… …   Deutsch Wikipedia

  • Shapiro-Wilk-Test — Der Shapiro Wilk Test ist ein statistischer Signifikanztest, der die Hypothese überprüft, dass die zugrunde liegende Grundgesamtheit einer Stichprobe normalverteilt ist. Die Nullhypothese H0 nimmt an, dass eine Normalverteilung der… …   Deutsch Wikipedia

  • Bartlett-Test — Als Bartlett Test (auch: Bartlett s Test) werden zwei verschiedene Tests bezeichnet: der Bartlett Test auf Gleichheit der Varianzen in k Stichproben und der Bartlett Test auf Spherizität zur Durchführung einer Faktorenanalyse. Beide Tests beruhen …   Deutsch Wikipedia

  • Gauss-Verteilung — Dichten normalverteilter Zufallsgrößen Die Normal oder Gauß Verteilung (nach Carl Friedrich Gauß) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß Funktion, Gauß Kurve, Gauß… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”