Inferentielle Varianz

Inferentielle Varianz
Dichten zweier normalverteilter Zufallsvariablen mit gleichem Erwartungswert aber unterschiedlichen Varianzen. Die orange Kurve hat eine geringere Varianz (entsprechend der Breite) als die grüne. Die Wurzel der Varianz, die Standardabweichung, kann bei der Normalverteilung an den Wendepunkten ersehen werden.

Die Varianz ist ein Maß, das beschreibt, wie stark eine Messgröße (genauer eine Zufallsgröße) „streut“. Sie wird berechnet, indem man die Abstände der Messwerte vom Mittelwert quadriert, addiert und durch die Anzahl der Messwerte teilt.

In der Stochastik ist die Varianz ein Streuungsmaß, d. h. ein Maß für die Abweichung einer Zufallsvariable X von ihrem Erwartungswert \operatorname {E}(X). Die Varianz verallgemeinert das Konzept der Summe der quadrierten Abweichungen vom Mittelwert in einer Beobachtungsreihe. Die Varianz der Zufallsvariable X wird üblicherweise als \operatorname{V}(X), \operatorname{Var}(X) oder σ2 notiert. Ihr Nachteil für die Praxis ist, dass sie eine andere Einheit als die Daten besitzt. Dieser Nachteil kann behoben werden, indem man statt der Varianz die Standardabweichung benutzt. Die Standardabweichung ist die Quadratwurzel der Varianz. Eine einheitenlose Kennzahl für die Varianz ist der Variationskoeffizient, er macht auch die Varianz von Größen unterschiedlicher Einheit vergleichbar.

In der Praxis ist die Varianz der Grundgesamtheit häufig nicht bekannt. Sie muss dann mit einem Varianzschätzer, etwa der Stichprobenvarianz geschätzt werden.

Inhaltsverzeichnis

Definition

Wenn \mu = \operatorname E(X) der Erwartungswert der quadratisch integrierbaren Zufallsvariablen X ist, dann berechnet sich die Varianz sowohl für diskrete als auch stetige Zufallsvariablen zu


\operatorname{Var}(X) := \operatorname V(X) := \operatorname E\bigl((X-\mu)^2\bigr)

Die Varianz ist also das zweite zentrale Moment einer Zufallsvariablen.

Die Varianz ist der Durchschnitt der Abweichungsquadrate vom Durchschnitt eines statistischen Merkmals.

Die Quadratwurzel der Varianz heißt Standardabweichung (σ):


\sigma_X = \sqrt{\operatorname{Var}(X)}
bzw. 
\sigma_X^2= \operatorname E\bigl((X-\mu)^2\bigr)

Rechenregeln

Verschiebungssatz

\operatorname{Var}(X)=\operatorname{E}\left(\left(X-\operatorname{E}(X)\right)^2\right)=\operatorname{E}(X^2)-\left(\operatorname{E}(X)\right)^2

Lineare Transformation

\operatorname{Var}(aX+b) = a^2 \operatorname{Var}(X)

dies kann mittels des Verschiebungssatzes hergeleitet werden:

\begin{align}
 \operatorname{Var}(aX+b) &= 
 \operatorname{E}[ (aX + b - \operatorname{E}(aX + b))^2 ] =
 \operatorname{E}[ (aX + b - b - a \operatorname{E}(X))^2 ]\\
 &=
 \operatorname{E}[ a^2 (X - \operatorname{E}(X))^2 ] = 
 a^2 \operatorname{E}[ (X - \operatorname{E}(X))^2 ] =
 a^2 \operatorname{Var}(X)
\end{align}

Varianz von Summen von Zufallsvariablen

\operatorname{Var}\left(\sum_{i=1}^na_iX_i\right)=\sum_{i=1}^na_i^2\operatorname{Var}(X_i)+2\sum_{i=1}^{n-1}\sum_{j=i+1}^na_ia_j\operatorname{Cov}(X_i,X_j)

Hierin ist Cov(Xi,Xj) die Kovarianz der Größen Xi und Xj.

Sind die Zufallsvariablen paarweise unabhängig, so sind die Kovarianzen gleich Null und damit gilt:

\operatorname{Var}\left(\sum_{i=1}^na_iX_i\right)=\sum_{i=1}^na_i^2\operatorname{Var}(X_i)

Charakteristische Funktion

Die Varianz lässt sich mit dem Verschiebungssatz und der charakteristischen Funktion  \varphi der Zufallsvariablen X darstellen als:

\operatorname{Var}(X) 
= \frac{\varphi_X''(0)}{\mathrm{i}^{2}} - \left(\frac{\varphi_X'(0)}{\mathrm{i}}\right)^{2}
= \varphi_X'(0)^2 -\varphi_X''(0)

Momenterzeugende Funktion

Da zwischen der charakteristischen und der momenterzeugenden Funktion der Zusammenhang

\begin{align}
 \frac{\varphi_X'(0)}{\mathrm{i}} &= M_X'(0) = \operatorname{E}(X)\\
 \frac{\varphi_X''(0)}{\mathrm{i}^{2}} &= M_X''(0) = \operatorname{E}(X^{2})\\
 &\;\vdots \\
 \frac{\varphi_X^{(n)}(0)}{\mathrm{i}^{n}} &= M_X^{(n)}(0) = \operatorname{E}(X^{n})
\end{align}

gilt, lässt sich die Varianz auch in dieser Form ohne die Verwendung komplexer Zahlen abbilden: (Zur obigen Berechnung von  \varphi wird immer  \operatorname{i} benötigt.)

\operatorname{Var}(X) 
= M_X''(0) - M_X'(0)^2

Beispiele

Diskrete Zufallsvariable

Gegeben ist eine diskrete Zufallsvariable X mit den Wahrscheinlichkeiten

i 1 2 3
xi -1 1 2
f(xi) 0,5 0,3 0,2

wobei der Erwartungswert

\operatorname{E}(X) = -1 \cdot 0{,}5 + 1 \cdot 0{,}3 + 2 \cdot 0{,}2 = 0{,}2

beträgt.

Die Varianz ist demnach

\operatorname{V}(X) = (-1-0{,}2)^2 \cdot 0{,}5 +(1-0{,}2)^2 \cdot 0{,}3 +(2-0{,}2)^2 \cdot 0{,}2 = 1{,}56

Mit dem Verschiebungssatz erhält man entsprechend

\operatorname{V}(X) = (-1)^2 \cdot 0{,}5 +1^2 \cdot 0{,}3 +2^2 \cdot 0{,}2 - 0{,}2^2 = 1{,}56.

Für die Standardabweichung ergibt sich damit

\sigma_X = \sqrt{\operatorname{V}(X)} = \sqrt{1{,}56} = 1{,}249

Stetige Zufallsvariable

Eine stetige Zufallsvariable habe die Dichtefunktion

 f(x) =
\begin{cases} 
\frac {1}{x} & \mbox{ falls } 1 \le x \le e \\
0 & \mbox{ sonst }
\end{cases}

Mit dem Erwartungswert

\operatorname{E}(X) = \int_1^e x \cdot \frac {1}{x} dx = e - 1

berechnet sich die Varianz mit Hilfe des Verschiebungssatzes als

\operatorname{V}(X) = \int_{-\infty}^\infty x^2 \cdot f(x) dx - (\operatorname{E}(X))^2 = \int_1^e x^2 \cdot \frac {1}{x} dx - (e - 1)^2
\qquad = \left[ \frac{x^2}{2}\right] _1^e - (e - 1)^2 = \frac{e^2}{2} - \frac{1}{2} -(e-1)^2 \approx 0{,}242

Weblinks


Wikimedia Foundation.

Игры ⚽ Поможем написать курсовую

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Einfachregression — Die Regressionsanalyse ist ein statistisches Analyseverfahren. Ziel ist es, Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen festzustellen. Allgemein wird eine metrische Variable Y betrachtet, die von einer… …   Deutsch Wikipedia

  • Lineare Regression — Die lineare Regression ist ein Spezialfall des allgemeinen Konzepts der Regressionsanalyse, mit der versucht wird, eine abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären das Beiwort linear ergibt sich dabei daraus, dass …   Deutsch Wikipedia

  • Lineare Regressionsanalyse — Die Regressionsanalyse ist ein statistisches Analyseverfahren. Ziel ist es, Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen festzustellen. Allgemein wird eine metrische Variable Y betrachtet, die von einer… …   Deutsch Wikipedia

  • Multiple Regression — Die Regressionsanalyse ist ein statistisches Analyseverfahren. Ziel ist es, Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen festzustellen. Allgemein wird eine metrische Variable Y betrachtet, die von einer… …   Deutsch Wikipedia

  • OLS-Regression — Die Regressionsanalyse ist ein statistisches Analyseverfahren. Ziel ist es, Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen festzustellen. Allgemein wird eine metrische Variable Y betrachtet, die von einer… …   Deutsch Wikipedia

  • Ordinary Least Squares — Die Regressionsanalyse ist ein statistisches Analyseverfahren. Ziel ist es, Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen festzustellen. Allgemein wird eine metrische Variable Y betrachtet, die von einer… …   Deutsch Wikipedia

  • Regressions-Analyse — Die Regressionsanalyse ist ein statistisches Analyseverfahren. Ziel ist es, Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen festzustellen. Allgemein wird eine metrische Variable Y betrachtet, die von einer… …   Deutsch Wikipedia

  • Regressionsgerade — Die Regressionsanalyse ist ein statistisches Analyseverfahren. Ziel ist es, Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen festzustellen. Allgemein wird eine metrische Variable Y betrachtet, die von einer… …   Deutsch Wikipedia

  • Regressionskurve — Die Regressionsanalyse ist ein statistisches Analyseverfahren. Ziel ist es, Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen festzustellen. Allgemein wird eine metrische Variable Y betrachtet, die von einer… …   Deutsch Wikipedia

  • Regressionsrechnung — Die Regressionsanalyse ist ein statistisches Analyseverfahren. Ziel ist es, Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen festzustellen. Allgemein wird eine metrische Variable Y betrachtet, die von einer… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”