Fisher-Information

Fisher-Information

Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik und der Informationstheorie, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert.

Definition

Falls das zu Grunde liegende Modell aus einer Familie \mathcal P von Wahrscheinlichkeitsdichten f_{\vartheta} mit unbekanntem Parameter \vartheta \in \Theta besteht, so ist die Fisher-Information für Zufallsvariablen X_1, \ldots, X_n als


\mathcal{I}(\vartheta)
=
\mathrm{E}
\left[
 \left(
  \frac{\partial}{\partial\vartheta} \log \prod_{\ell=1}^{n} f_{\vartheta}(X_\ell)
 \right)^2
\right]

definiert.

Eigenschaften und Anwendungen

Die Fisher-Information ist unter der Regularitätsbedingung


\mathrm{E}
\left[
   \frac{\partial}{\partial\vartheta} \log \prod_{\ell=1}^{n} f_{\vartheta}(X_\ell)
\right]
= 0

additiv, d. h. für unabhängige Zufallsvariablen X_{1}\; und X_{2}\; gilt \mathcal{I}_{X_1, X_2}(\vartheta) = \mathcal{I}_{X_1}(\vartheta) + \mathcal{I}_{X_2}(\vartheta). Diese Eigenschaft ist eine einfache Anwendung der Tatsache, dass sich die Varianzen unabhängiger Zufallsvariablen additiv verhalten.

Ferner gilt für suffiziente Statistiken T\;, dass die Fisher-Information bezüglich f_{\vartheta}(X) dieselbe wie für g_{\vartheta}(T(X)) ist, wobei f_{\vartheta}(x) = h(x) g_{\vartheta}(T(x)) gilt.

Benutzt wird die Fisher-Information speziell in der Cramer-Rao-Ungleichung, wo sie bei Gültigkeit der angesprochenen Regularitätsbedingung eine untere Schranke für die Varianz eines Schätzers für \vartheta liefert.

Erweiterungen auf höhere Dimensionen

Falls das Modell von mehreren Parametern \vartheta_{i} mit 1 \leq i \leq k abhängt, lässt sich die Fisher-Information als symmetrische Matrix definieren, wobei


\mathcal{I}_{ij}(\vartheta)
=
\mathrm{E}
\left[
  \frac{\partial}{\partial\vartheta_{i}} \log \prod_{\ell=1}^{n} f_{\vartheta}(X_\ell) \frac{\partial}{\partial\vartheta_{j}} \log \prod_{\ell=1}^{n} f_{\vartheta}(X_\ell)
\right]

gilt. Die Eigenschaften bleiben im Wesentlichen erhalten.


Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Fisher information — In statistics and information theory, the Fisher information (denoted mathcal{I}( heta)) is the variance of the score. It is named in honor of its inventor, the statistician R.A. Fisher.DefinitionThe Fisher information is a way of measuring the… …   Wikipedia

  • Fisher information metric — In information geometry, the Fisher information metric is a particular Riemannian metric which can be defined on a smooth statistical manifold, i.e., a smooth manifold whose points are probability measures defined on a common probability space.… …   Wikipedia

  • Minimum Fisher information — In information theory, the principle of minimum Fisher information (MFI) is a variational principle which, when applied with the proper constraints needed to reproduce empirically known expectation values, determines the best probability… …   Wikipedia

  • Information — as a concept has a diversity of meanings, from everyday usage to technical settings. Generally speaking, the concept of information is closely related to notions of constraint, communication, control, data, form, instruction, knowledge, meaning,… …   Wikipedia

  • Information (disambiguation) — Information is the concept of transmitted quantities as bearers of messages which can be received and interpreted.Information may also refer to: * Data, or data used in computing * Physical information contained in a system * Directory assistance …   Wikipedia

  • Information geometry — In mathematics and especially in statistical inference, information geometry is the study of probability and information by way of differential geometry. It reached maturity through the work of Shun ichi Amari in the 1980s, with what is currently …   Wikipedia

  • Fisher-Matrix — Die Fisher Information ist eine Kenngröße aus der mathematischen Statistik und der Informationstheorie, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen …   Deutsch Wikipedia

  • Fisher kernel — In mathematics, the Fisher kernel, named in honour of Sir Ronald Fisher, is a kernel. It was introduced in 1998 by Tommi Jaakkola [ Exploiting Generative Models in Discriminative Classifiers (1998) [http://people.csail.mit.edu/tommi/papers/gendisc… …   Wikipedia

  • Information theory — Not to be confused with Information science. Information theory is a branch of applied mathematics and electrical engineering involving the quantification of information. Information theory was developed by Claude E. Shannon to find fundamental… …   Wikipedia

  • Information definitions — Wiener information on the well known definition: Information is information, not the material is not energy. Information exists generally in the nature and the human society moves, its manifestation by far is more complex than the material and… …   Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”