Maximum a posteriori

Maximum a posteriori

Die Maximum-a-posteriori-Methode (= MAP) bezeichnet in der Statistik ein Schätzverfahren, das einen vorgegebenen Parameter durch den Modalwert der A-posteriori-Verteilung schätzt. Somit besteht eine gewisse Ähnlichkeit zur Maximum-Likelihood-Methode.

Inhaltsverzeichnis

Beschreibung

Folgende Situation ist gegeben: θ ist ein unbekannter Populationsparameter, der auf der Basis von Beobachtungen x geschätzt werden soll. Weiterhin ist f die Stichprobenverteilung von x. Dann ist f(x | θ) die Wahrscheinlichkeit von x unter der Bedingung, dass der (wahre) Populationsparameter den Wert θ annimmt.

Die Funktion

\theta \mapsto f(x | \theta) \!

ist als Likelihoodfunktion bekannt, und der Schätzwert

\hat{\theta}_{\mathrm{ML}}(x) = \underset{\theta}{\operatorname{arg\,max}} \ f(x | \theta) \!

als Maximum-Likelihood-Schätzer von θ.

Jetzt nehmen wir an, dass eine a priori Verteilung g von θ existiert. Dadurch können wir θ als eine Zufallsvariable betrachten, wie es in der Bayesschen Statistik üblich ist. Die A-posteriori-Wahrscheinlichkeit von θ erhält man mit Hilfe des Satzes von Bayes durch:

\theta \mapsto f(\theta | x) = \frac{f(x | \theta) \, g(\theta)}{\displaystyle\int_{\theta' \in \Theta} f(x | \theta') \, g(\theta') \, d\theta'} \!

Hier steht g für die auf Θ definierte Dichte von θ.

Die Maximum-a-Posteriori-Methode verwendet jetzt den Modalwert der a posteriori Verteilung als Schätzwert für θ :

\hat{\theta}_{\mathrm{MAP}}(x)
= \underset{\theta}{\operatorname{arg\,max}} \ f(x | \theta) \, g(\theta).
\!

Der MAP-Schätzer von θ ist identisch zum Maximum-Likelihood-Schätzer (= ML-Schätzer), wenn eine nichtinformative A-priori-Verteilung (z.B. eine konstante Funktion) verwendet wird.

Vergleich mit anderen bayesianischen (Punkt-)Schätzmethoden

In der Literatur wird der MAP-Schätzer als das Äquivalent der bayesianischen Statistik zum ML-Schätzer beschrieben[1].

Allerdings spielt die MAP-Schätzung in der bayesianischen Statistik nicht die gleiche Rolle wie der ML-Schätzer in der frequentistischen Statistik:

  • Bayesianische Statistiker drücken in der Regel die (A-posteriori-)Information über einen unbekannten Parameter in einer Wahrscheinlichkeitsverteilung aus, und nicht in einem Punktschätzer.[2]
  • Der Erwartungswert der a posteriori Verteilung ist dem MAP-Schätzer überlegen, wenn man, wie in der bayesianischen Statistik üblich, die a posteriori Varianz eines Schätzers als Gütemaß verwendet.[3]
  • In vielen Fällen ist zudem auch der Median ein besserer Schätzer als der MAP-Schätzer.[4]

In der bayesianischen Entscheidungstheorie sind für die gebräuchlichsten Verlustfunktionen andere Schätzer als der MAP-Schätzer optimal.[5]:

  • Bei einer quadratischen Verlustfunktion ist der Erwartungswert der a posteriori Verteilung die optimale Schätzfunktion.
  • Wenn man den Absolutbetrag des Schätzfehlers als Verlustfunktion verwendet (also: L(θ,a) = | θ − a | , mit a als beliebiger Schätzfunktion), ist der Median der A-posteriori-Verteilung die optimale Schätzfunktion.

Vergleich zur Maximum-Likelihood-Methode

Im Unterschied zur ML-Methode wird bei der MAP-Methode Vorwissen in Form von a priori Wahrscheinlichkeiten berücksichtigt. Diese A-priori-Wahrscheinlichkeiten ergeben zusammen mit der Stichprobe nach dem Satz von Bayes die A-posteriori-Wahrscheinlichkeit. Die MAP-Methode verwendet den wahrscheinlichsten Parameterwert unter der A-posteriori-Verteilung, während die ML-Methode den Parameter mit der höchsten Likelihood (i.e. ohne Vorwissen) verwendet. Allerdings ist für einen streng frequentistischen Statistiker die Verwendung einer A-Priori-Verteilung inakzeptabel. Daher wird in der klassischen Statistik die ML-Methode statt der MAP-Methode verwendet.

Beispiel

In einer Urne befinden sich rote und schwarze Kugeln. Durch Ziehen mit Zurücklegen soll ermittelt werden, wie hoch der (wahre) Anteil der roten Kugeln in der Urne ist. Die Anzahl der roten Kugeln kann dann durch eine Binomialverteilung mit Stichprobengröße N=10 und unbekanntem Parameter π (d.h. einer B(10,π)-Verteilung) beschrieben werden.

Maximum-Likelihood-Schätzung

Mit der ML-Methode schätzt man den Anteil π der roten Kugeln auf 70 %.

Nichtinformative A-priori-Verteilung

Als nichtinformative A-priori-Verteilung für eine binomialverteilte Zufallsgröße kann die Beta(1,1)-Verteilung verwendet werden. Gemäß Vorwissens sind daher alle mögliche Anteilswerte π gleich wahrscheinlich.

A-posteriori-Verteilung ist dann die Beta (8,4)-Verteilung, deren Modalwert bei 0,7 liegt. Durch MAP-Schätzung schätzt man daher den Anteil roter Kugeln ebenfalls auf 70 %.

Der Erwartungswert der Beta (8,4)-Verteilung liegt bei 0,727. Daher würde man bei Verwendung des a posteriori Erwartungswertes als Schätzfunktion den Anteil roter Kugeln auf 72,7 % schätzen.

Informative A-priori-Verteilung

Jetzt sei angenommen, dass ein gewisses Vorwissen über den Anteil der roten Kugeln bekannt ist, das sich in einer Beta (5,5)-Verteilung ausdrücken lässt, deren Maximum und Erwartungswert bei 0,5 liegt. Gemäß Vorwissen besitzt also ein Anteil roter Kugeln von 50 % die größte Wahrscheinlichkeit.

A-posteriori-Verteilung ist in diesem Fall die Beta(12,8)-Verteilung, deren Modalwert 0,611 ist. Mittels der MAP-Methode schätzt man daher den Anteil roter Kugeln auf 61,1 %. In diesem Fall liegt der MAP-Schätzer zwischen dem Modalwert der a priori Verteilung und dem Maximum-Likelihood-Schätzer.

Erwartungswert der a posteriori Verteilung wäre 0,6, d.h. man würde bei Verwendung des A-posteriori-Erwartungswertes als Schätzfunktion den Anteil roter Kugeln auf 60 % schätzen.

Siehe auch

Einzelnachweise

  1. Bernhard Rüger: Induktive Statistik. Einführung für Wirtschafts- und Sozialwissenschaftler, S. 161f
  2. James O. Berger: Statistical decision theory and Bayesian analysis, S. 133
  3. James O. Berger: Statistical decision theory and Bayesian analysis, S. 136
  4. James O. Berger: Statistical decision theory and Bayesian analysis, S. 134
  5. James O. Berger: Statistical decision theory and Bayesian analysis, S. 161f.

Literatur

  • Bernhard Rüger: Induktive Statistik. Einführung für Wirtschafts- und Sozialwissenschaftler. R. Oldenbourg Verlag, München Wien 1988. ISBN 3-486-20535-8
  • James O. Berger: Statistical decision theory and Bayesian analysis. Springer Series in Statistics, Springer-Verlag, New York Berlin Heidelberg 1985. ISBN 0-387-96098-8

Wikimedia Foundation.

Игры ⚽ Поможем написать курсовую

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Maximum a posteriori — L estimateur du maximum a posteriori ou à postériori (MAP), tout comme la méthode du maximum de vraisemblance, est une méthode pouvant être utilisée afin d estimer un certain nombre de paramètres inconnus, comme par exemple les parametres d une… …   Wikipédia en Français

  • Maximum a posteriori — In statistics, the method of maximum a posteriori (MAP, or posterior mode) estimation can be used to obtain a point estimate of an unobserved quantity on the basis of empirical data. It is closely related to Fisher s method of maximum likelihood… …   Wikipedia

  • Maximum-A-Posteriori-Schätzung — Die Maximum A Posteriori Methode bezeichnet in der Statistik ein Schätzverfahren. Die Maximum A Posteriori Schätzung bestimmt ähnlich der Maximum Likelihood Methode den oder die plausibelsten Parameter einer Verteilung bei einer vorliegenden… …   Deutsch Wikipedia

  • Maximum a posteriori estimation — In Bayesian statistics, a maximum a posteriori probability (MAP) estimate is a mode of the posterior distribution. The MAP can be used to obtain a point estimate of an unobserved quantity on the basis of empirical data. It is closely related to… …   Wikipedia

  • Maximum likelihood sequence estimation — (MLSE) is a mathematical algorithm to extract useful data out of a noisy data stream. Contents 1 Theory 2 Background 3 References 4 Further reading …   Wikipedia

  • Maximum De Vraisemblance — L estimation du maximum de vraisemblance est une méthode statistique courante utilisée pour inférer les paramètres de la distribution de probabilité d un échantillon donné. Cette méthode a été développée par le statisticien et généticien Ronald… …   Wikipédia en Français

  • Maximum Likelihood Sequence Estimation — (MLSE) is a mathematical algorithm to extract useful data out of a noisy data stream.ee also* Maximum likelihood * Maximum a posteriori (MAP) Estimation, which is more complex and requires a known distributionReferences*External links* http://www …   Wikipedia

  • Maximum-Likelihood — Die Maximum Likelihood Methode (von engl. maximale Wahrscheinlichkeit) bezeichnet in der Statistik ein parametrisches Schätzverfahren. Inhaltsverzeichnis 1 Motivation 2 Eine heuristische Herleitung 3 Definition 4 Beispiel …   Deutsch Wikipedia

  • Maximum-Likelihood-Algorithmus — Die Maximum Likelihood Methode (von engl. maximale Wahrscheinlichkeit) bezeichnet in der Statistik ein parametrisches Schätzverfahren. Inhaltsverzeichnis 1 Motivation 2 Eine heuristische Herleitung 3 Definition 4 Beispiel …   Deutsch Wikipedia

  • Maximum-Likelihood-Schätzer — Die Maximum Likelihood Methode (von engl. maximale Wahrscheinlichkeit) bezeichnet in der Statistik ein parametrisches Schätzverfahren. Inhaltsverzeichnis 1 Motivation 2 Eine heuristische Herleitung 3 Definition 4 Beispiel …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”