Multikollinearität

Multikollinearität

Multikollinearität ist ein Problem der Regressionsanalyse und liegt vor, wenn zwei oder mehr erklärende Variablen eine sehr starke Korrelation miteinander haben. Zum einen wird mit zunehmender Multikollinearität das Verfahren zur Schätzung der Regressionskoeffizienten instabil und Aussagen zur Schätzung der Regressionskoeffizienten zunehmend ungenau. Zum anderen ist die Modellinterpretation nicht mehr eindeutig.

Inhaltsverzeichnis

Probleme der Multikollinearität

Perfekte Kollinearität macht die rechnerische Durchführung der linearen Regressionsanalyse unmöglich und tritt meist als Folge der Fehlspezifikation des zu Grunde liegenden Modells auf.

Numerische Instabilität

Mathematisch lässt sich die Lösung des linearen Regressionsproblems yi = b0 + b1xi,1 + ... + bpxi,p für die Regressionkoeffizienten der mit der Kleinste-Quadrate-Methode darstellen als

\hat{b} = (X^\prime X)^{-1}X^\prime y.

Der Vektor \hat{b}=(\hat{b}_0, ..., \hat{b}_p) enthält die geschätzten Regressionsparameter, der Vektor y = (y1,...,yn) und die Matrix

X=\begin{pmatrix} 1 & x_{1,1} & \cdots & x_{1,p} \\  \vdots &  \vdots & &  \vdots\\ 1 & x_{n,1} & \cdots & x_{n,p} \end{pmatrix}

die n p-dimensionalen Beobachtungswerte. Das Problem ist die Berechnung der Inversen von X^\prime X; je stärker die Multikollinearität ist, desto mehr nähert sich X^\prime X einer singulären Matrix an, d.h. es existiert keine Inverse.

Modellinterpretation

Wenn das Regressionsmodell y = b0 + b1x1 + b2x2 ist und perfekte Multikollinearität vorliegt, d.h.

x_2=c_0+c_1 x_1\, oder umgestellt
 x_1 = \frac{1}{c_1} x_2 - \frac{c_0}{c_1}

und setzt beide Gleichungen jeweils in das Regressionmodell ein, so erhält man

(1) y = b_0+b_1 x_1 + b_2 (c_0+c_1 x_1) = (b_0 + b_2 c_0) + (b_1 +b_2 c_2) x_1\,
(2) y = b_0+b_1 \left(\frac{1}{c_1} x_2 - \frac{c_0}{c_1}\right) + b_2 x_2 = \left(b_0+\frac{b_1c_0}{c_1}\right) + \left(\frac{b_1}{c_1}+b_2\right) x_2

Im Modell (1) hängt y nur noch von x1 ab und im Modell (2) hängt y nur noch von x2 ab. Es stellt sich nun die Frage, welches Modell ist das "Richtige"? In der Ökonomie spricht man von nicht identifizierbaren Modellen.

Identifikation von Multikollinearität

Weil empirische Daten immer einen gewissen Grad an Multikollinearität aufweisen, wurden Kennzahlen entwickelt, die Hinweise auf Multikollinearität liefern. Einen eindeutigen Richtwert gibt es jedoch nicht.

Korrelation

Zur Aufdeckung von Multikollinearität dient z. B. die Analyse der Korrelationskoeffizienten der Regressoren. Sehr hohe positive oder negative Korrelationskoeffizienten zeigen einen starken Zusammenhang zwischen den Regressoren und damit Multikollinearität an. Eine niedrige Korrelation zwischen den Regressoren bedeutet jedoch nicht automatisch die Abwesenheit von Multikollinearität; auch lineare Kombinationen von Regressoren, die eine hohe positive oder negative Korrelation aufweisen, z.B. zwischen d1x1 + d2x2 und d3x3 + d4x4, führen zu den oben genannten Problemen.

Bestimmtheitsmaß

Ein hohes Bestimmtheitsmaß R_i^2 der linearen Regressionen x_i = d_{i0} + \sum_{j=1\atop j\neq i}^p d_{ji} x_j, d.h. der ite Regressor wird durch alle anderen Regressoren gut vorhergesagt, zeigt Multikollinearität an.

Toleranz

Die Toleranz T_i = 1-R_i^2 wird zur Einschätzung der Multikollinearität benutzt. Ein Wert von Ti < 0.2 deutet auf eine starke Multikollinearität hin.

Varianzinflationsfaktor

Wenn der Varianzinflationsfaktor VIF_i = \frac{1}{1-R_i^2} größer als 4 ist, ist dies ein Hinweis auf starke Multikollinearität.

Konditionsindex

Die Matrix X^\prime X ist positiv semi-definit, d.h. alle Eigenwerte λi der Matrix sind positiv oder Null. Wird die Matrix singulär, dann ist mindestens ein Eigenwert gleich Null. Ist der Konditionsindex

KI_j = \sqrt{\frac{\lambda_j}{\min_i \lambda_i}}

für ein KIj größer als 30 spricht man ebenfalls von starker Multikollinearität.

Literatur

  • Backhaus, K., Erichson, B., Plinke, W., Weiber, R.: Multivariate Analysemethoden. Eine anwendungsorientierte Einführung. Berlin u.a., 11. Auflage 2006, S.89-92. ISBN 3-540-27870-2

Siehe auch


Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Multikollinearität — Kollinearität. 1. Charakterisierung: Die erklärenden Variablen einer zu schätzenden Modellgleichung (⇡ Schätzfunktion) sind korreliert (⇡ Korrelation). 2. Schätzwerte Funktionen: Es ergeben sich unter Umständen bei der Bestimmung der Schätzwerte… …   Lexikon der Economics

  • Kollinearität — ⇡ Multikollinearität …   Lexikon der Economics

  • KQ-Methode — Die Methode der kleinsten Quadrate (bezeichnender auch: der kleinsten Fehlerquadrate; englisch: Least Squares Method) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Es ist eine Wolke aus Datenpunkten gegeben, die physikalische …   Deutsch Wikipedia

  • KQ-Schätzer — Die Methode der kleinsten Quadrate (bezeichnender auch: der kleinsten Fehlerquadrate; englisch: Least Squares Method) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Es ist eine Wolke aus Datenpunkten gegeben, die physikalische …   Deutsch Wikipedia

  • Kleinste-Quadrate-Methode — Die Methode der kleinsten Quadrate (bezeichnender auch: der kleinsten Fehlerquadrate; englisch: Least Squares Method) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Es ist eine Wolke aus Datenpunkten gegeben, die physikalische …   Deutsch Wikipedia

  • Kleinste-Quadrate-Schätzer — Die Methode der kleinsten Quadrate (bezeichnender auch: der kleinsten Fehlerquadrate; englisch: Least Squares Method) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Es ist eine Wolke aus Datenpunkten gegeben, die physikalische …   Deutsch Wikipedia

  • Kleinste Quadrate — Die Methode der kleinsten Quadrate (bezeichnender auch: der kleinsten Fehlerquadrate; englisch: Least Squares Method) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Es ist eine Wolke aus Datenpunkten gegeben, die physikalische …   Deutsch Wikipedia

  • Kleinste Quadrate Methode — Die Methode der kleinsten Quadrate (bezeichnender auch: der kleinsten Fehlerquadrate; englisch: Least Squares Method) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Es ist eine Wolke aus Datenpunkten gegeben, die physikalische …   Deutsch Wikipedia

  • Least-Square — Die Methode der kleinsten Quadrate (bezeichnender auch: der kleinsten Fehlerquadrate; englisch: Least Squares Method) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Es ist eine Wolke aus Datenpunkten gegeben, die physikalische …   Deutsch Wikipedia

  • Least Square — Die Methode der kleinsten Quadrate (bezeichnender auch: der kleinsten Fehlerquadrate; englisch: Least Squares Method) ist das mathematische Standardverfahren zur Ausgleichungsrechnung. Es ist eine Wolke aus Datenpunkten gegeben, die physikalische …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”