Informationskriterium

Informationskriterium

Ein Informationskriterium ist ein Kriterium zur Auswahl eines Modells in der angewandten Statistik bzw. der Ökonometrie. Dabei gehen die Anpassungsgüte des geschätzten Modells an die vorliegenden empirischen Daten (Stichprobe) und Komplexität des Modells, gemessen an der Anzahl der Parameter, in die Beurteilung ein. Die Anzahl der Parameter wird dabei "strafend" berücksichtigt, da sonst umfassende Modelle mit vielen Parametern bevorzugt würden. In diesem Sinne ist das korrigierte Bestimmtheitsmaß, das auf Henri Theil (1970) zurückgeht, ein Vorläufer der heute bekannten Informationskriterien.

Allen heute verwendeten Informationskriterien ist gleich, dass sie in zwei verschiedenen Formulierungen vorliegen. Entweder ist das Maß für die Anpassungsgüte als die maximale Wahrscheinlichkeit oder als die minimale Varianz der Residuen formuliert. Hieraus ergeben sich unterschiedliche Interpretationsmöglichkeiten. Beim Ersteren ist das Modell "am besten", bei dem das jeweilige Informationskriterium den höchsten Wert hat (die "strafende" Anzahl der Parameter muss dabei abgezogen werden). Beim Letzteren ist das Modell mit dem niedrigsten Wert des Informationskriteriums am besten (die Anzahl der Parameter muss "strafend" addiert werden).

Das historisch älteste Kriterium wurde 1973 von Hirotugu Akaike als "an information criterion" (engl.) vorgeschlagen. Heutzutage ist es als Akaikes Informationskriterium (engl. Akaike's Information Criterion, AIC) bekannt und wird vorwiegend in der Ökonometrie verwendet. Es lässt sich mit der logarithmierten Likelihood-Funktion l wie folgt darstellen:


AIC_\ell=-\ell(\mathbf{\hat{\phi}},\mathbf{\hat{\theta}}|\mathbf{\tilde{y}})+M

Unter Verwendung der minimalen Varianz der Residuen ergibt sich im klassischen Regressionsmodell mit normalverteilten Fehlern folgende Notation:


\mathrm{AIC}_\sigma=\ln({\hat{\sigma}}_Z^2)+\frac{M}{T} \cdot 2

Der Nachteil des Informationskriteriums von Akaike ist, dass der Strafterm von der Stichprobengröße unabhängig ist. Bei großen Stichproben sind Verbesserungen der Log-Likelihood bzw. der Residualvarianz "leichter" möglich, weshalb das Kriterium bei großen Stichproben tendenziell Modelle mit verhältnismäßig vielen Parametern vorteilhaft erscheinen lässt. Deshalb empfiehlt sich die Verwendung des durch Gideon Schwarz 1978 vorgeschlagenen Bayesschen Informationskriteriums (engl. Bayesian Information Criterion[BIC] oder Schwarz-Bayes Criterion[SBC]):


SBC_\ell=\ell(\mathbf{\hat{\phi}},\mathbf{\hat{\theta}}|\mathbf{\tilde{y}})- {M} \cdot \frac {\ln T}{2}

bzw.


SBC_\sigma=\ln ({\hat{\sigma}}_Z^2)+ \frac{M}{T} \cdot {\ln T}

Bei diesem Kriterium wächst der Faktor des Strafterms logarithmisch mit der Anzahl der Beobachtungen T. Bereits ab acht Beobachtungen (ln 8 = 2,07944 > 2) bestraft das SBC zusätzliche Parameter schärfer als das AIC.

Zur Notation:
T: Anzahl der beobachteten Stichprobenwerte
M: Anzahl der geschätzten Parameter
σ: Standardabweichung
Z: Störvariable
{\hat{\sigma}}_Z^2: empirisch gemessene Varianz der Störvariablen Z (als Proxy wird hier die Varianz der Residuen verwendet)

Letzteres Modell wird vor allem in der Soziologie häufig verwendet. Kuha (2004) weist auf die unterschiedlichen Ziele der beiden Kenngrößen hin: Während das BIC das wahre Modell zeigen soll, wird beim AIC die Existenz eines wahren Modells ausgeschlossen und man versucht, möglichst gute Vorhersagen zu treffen.

Daneben existieren weitere, seltener verwendete Informationskriterien, wie:

  • das von Hannan-Quinn
  • das Deviance Information Criterion - DIC (Spiegelhalter, Best, Carlin und van der Linde (2002))
  • EIC (Ishiguro, Sakamoto, and Kitgawa (1997))
  • FIC (Wei (1992)), GIC (Nishii (1984))
  • NIC (Murata, Yoshizawa und Amari (1991))
  • TIC (Takeuchi (1976))

Literatur

  • Hirotugu Akaike: Information theory and an extension of the maximum likelihood principle. In: B. N. Petrov (Hrsg.) u.A.: Proceedings of the Second International Symposium on Information Theory Budapest: Akademiai Kiado 1973. S. 267-281
  • Kenneth P. Burnham und David R. Anderson: Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach. Springer-Verlag, New York 2002, ISBN 0-387-95364-7
  • Kenneth P. Burnham/David R. Anderson (2004): Multimodel Inference: Understanding AIC and BIC in Model Selection, in: Sociological Methods and Research, Vol. 33, 2004, Seite 261-304
  • Jouni Kuha (2004): AIC and BIC: Comparisons of Assumptions and Performance, in: Sociological Methods and Research, Vol. 33, 2004, Seite 188-229
  • Gideon Schwarz: Estimating the Dimension of a Model. In: Annals of Statistics. 2/6/1978. S. 461-464
  • David L. Weakliem (2004): Introduction to the Special Issue on Model Selection, in: Sociological Methods and Research, Vol. 33, 2004, Seite 167-187

Wikimedia Foundation.

Игры ⚽ Нужно решить контрольную?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Akaike Information Criterion — Ein Informationskriterium ist ein Kriterium zur Auswahl eines Modells in der angewandten Statistik bzw. der Ökonometrie. Dabei gehen die Anpassungsgüte des geschätzten Modells an die vorliegenden empirischen Daten (Stichprobe) und Komplexität des …   Deutsch Wikipedia

  • AIC — Die Abkürzung AIC steht für: Air India (ICAO Code) Landkreis Aichach Friedberg, deutsches Kfz Kennzeichen Académie Internationale de la Céramique, Genf, Institution der UNESCO als Repräsentanz von Studiokeramikern und mit Keramik arbeitenden… …   Deutsch Wikipedia

  • Aic — Die Abkürzung AIC steht für Air India (ICAO Code) Landkreis Aichach Friedberg, deutsches Kfz Kennzeichen Aeronautical Information Circular, Luftfahrtinformationsrundschreiben Akaike Information Criterion, ein Informationskriterium aus dem Bereich …   Deutsch Wikipedia

  • BIC — steht für: Bic (Sălaj), ein Dorf in Rumänien Bîc, einen Fluss in Moldawien Le Bic, ein Ort und ehemalige Gemeinde in der kanadischen Provinz Québec Bic (Radsportteam); ein französisches Radsportteam BIC ist die Abkürzung für: Bahá’í International …   Deutsch Wikipedia

  • Bic — steht für: Bîc, einen Fluss in Moldawien Le Bic, eine Gemeinde in der kanadischen Provinz Québec BIC ist die Abkürzung für: Bank Identifier Code, ein Teilschlüssel des SWIFT Code zur weltweit eindeutigen Bezeichnung einer Bank, siehe SWIFT #BIC… …   Deutsch Wikipedia

  • Deviance Information Criterion — In der Statistik ist das Abweichungsinformationskriterium (engl. deviance information criterion, DIC) ein Maß (Kriterium) für den Vorhersagefehler eines Modells. Diese Maßzahl ist ein Informationskriterium und gehört in das Umfeld der… …   Deutsch Wikipedia

  • Kreuzvalidierungsverfahren — sind Testverfahren der Statistik bzw. der Datenanalyse, die z. B. im Data Mining, oder bei der Überprüfung neu entwickelter Fragebögen zum Einsatz kommen. Es wird unterschieden zwischen der einfachen Kreuzvalidierung, der stratifizierten… …   Deutsch Wikipedia

  • Logit-Modell — Logistische Funktion Unter logistischer Regression oder Logit Modell versteht man ein Verfahren zur (meist multivariaten) Analyse diskreter (z. B. binärer) abhängiger Variablen. Hierbei hat man Daten gegeben, wobei Yi einen binären …   Deutsch Wikipedia

  • Logitmodell — Logistische Funktion Unter logistischer Regression oder Logit Modell versteht man ein Verfahren zur (meist multivariaten) Analyse diskreter (z. B. binärer) abhängiger Variablen. Hierbei hat man Daten gegeben, wobei Yi einen binären …   Deutsch Wikipedia

  • Minimum Description Length — oder MDL ist eine informationstheoretische Methode, die 1978 von Jorma Rissanen zur Beschreibung von Regelmäßigkeiten in gemessenen Daten eingeführt wurde. Je stärker die Daten komprimiert werden können, desto größer ist der Anteil der Ordnung im …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”