- Bayessche Statistik
-
Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion!
Unter Bayesscher Statistik versteht man einen besonderen Zweig der modernen Statistik. Sie unterscheidet sich jedoch von dieser in drei Punkten:
1. Die Wahrscheinlichkeit wird in der traditionellen Statistik als Sicherheit bzw. Unsicherheit über das Eintreten eines Ereignis eines Zufallsexperimentes definiert. In der Bayesschen Statistik ist die Wahrscheinlichkeit eine Aussage über die Plausibilität des Eintretens eines Ereignisses. Ein Zufallsexperiment als Grundlage ist jedoch nicht notwendig.
2. In der Bayesschen Statistik werden immer bedingte Wahrscheinlichkeiten P(A | B) betrachtet, d.h. wie wahrscheinlich (plausibel) ist es, dass Aussage A eintritt, wenn B eingetreten ist (Vorwissen vorliegt). Die Berechnung erfolgt mit Hilfe des Bayestheorem für drei Aussagen
-
- A: Aussage über ein unbekanntes Phänomen,
- B: Aussage mit Informationen über das unbekannte Phänomen und
- C: Aussage über zusätzliches Wissen.
- dabei wird
- als A-priori-Wahrscheinlichkeit,
- als A-posteriori-Wahrscheinlichkeit und
- als Likelihood bezeichnet.
- In der Praxis wird die A-Posteriori-Wahrscheinlichkeit oft mittels Monte-Carlo-Simulationen berechnet.
3. Unbekannte Parameter sind nicht fix, sondern selbst Zufallsvariablen. Das schließt nicht aus, dass sie konstant sind.
Inhaltsverzeichnis
Beispiele
Beispiel von Laplace
Laplace hat das Theorem von Thomas Bayes erneut abgeleitet und eingesetzt um die Masse des Saturn und anderer Planeten einzugrenzen:
- A: Masse von Saturn liegt in bestimmtem Intervall,
- B: Daten von Observatorien über gegenseitige Störungen von Jupiter und Saturn und
- C: die Masse des Saturns darf nicht so klein sein, dass er seine Ringe verliert, noch so gross, dass er das Sonnensystem zerstört.
Schätzung der Saturnmasse als Anteil der Gesamtmasse der Sonne Laplace (1814) 3512,0 NASA (2004) 3499,1 „In order to give some interesting applications of it I have profited by the immense work which M. Bouvard has just finished on the movements of Jupiter and Saturn, of which he has formed very precise tables. He has discussed with the greatest care the oppositions and quadratures of these two planets observed by Bradley and by the astronomers who have followed him down to the last years; he has concluded the corrections of the elements of their movement and their masses compared to that of the sun taken as unity. His calculations give him the mass of Saturn equal to the 3512th part of that of the sun. Applying to them my formulas of probability, I find that it is a bet of 11,000 against one that the error of this result is not 1/100 of its value, or that which amounts to almost the same that after a century of new observations added to the preceding ones, and examined in the same manner, the new result will not differ by 1/100 from that of M. Bouvard. “
Die Daten aus dem 18. Jahrhundert liessen eine Schätzung der Saturnmasse auf ca. 1% Genauigkeit zu (Laplace 1814); der heutige Genauigkeit liegt bei 0,63% (NASA 2004).
Anwendung in der Testtheorie
Die Attraktivität der Bayesschen Statistik kann man z.B. bei Hypothesentests sehen. Wenn E die beobachtete Aussage ist und H0 die Nullhypothese, dann wird mit der traditionellen Statistik die Wahrscheinlichkeit P(E | H0) berechnet; also wie wahrscheinlich ist es E zu beobachten, wenn die Nullhypothese wahr ist. Ist diese zu klein (kleiner als das vorgegebene Signifikanzniveau), dann wird die Nullhypothese verworfen.
Eigentlich will man jedoch eher wissen, wie wahrscheinlich ist es, dass die Nullhypothese gilt, wenn man das Ereignis E beobachtet hat. Mit Hilfe der Formel von Bayes kann dies berechnet werden
mit
- P(H0) ist die A-priori-Wahrscheinlichkeit von H0 (Vorbewertung).
- P(E | H0) ist die bedingte Wahrscheinlichkeit von E, unter der Bedingung dass die Nullhypothese H0 wahr ist; als Funktion von H0 nennt man sie die Likelihood-Funktion.
- P(E) ist die unbedingte Wahrscheinlichkeit von E. Es handelt sich um eine normierende Konstante, welche manchmal als Evidenz bezeichnet wird. Die unbedingte Wahrscheinlichkeit kann mit dem Satz von der totalen Wahrscheinlichkeit als Erwartungswert der bedingten Wahrscheinlichkeiten P(E | H0) und P(E | H1) berechnet werden, wobei H1 die Alternativhypothese (also die Gegenhypothese zu H0) darstellt.
- P(H0 | E) ist die A-posteriori-Wahrscheinlichkeit von H0 gegeben E (Nachbewertung).
Ableitung
Im Artikel von Cox (1946) werden drei Postulate genannt aus denen die Bayessche Statistik abgeleitet wird:[2]
- Die Plausibilität einer Aussage ist eine reele Zahl und abhängig von den Informationen, die man hat im Zusammenhang mit der Aussage (divisibility and comparability).
- Bei der Beurteilung der Plausibilitäten eines Modells sollte diese sich in ein sinnvollen Rahmen bewegen (common sense).
- Wenn die Plausibilität einer Aussage in verschiedener Weise abgeleitet werden, dann sollte die Ergebnisse alle gleich sein (consistency).
Daraus lassen sich die mathematischen Grundlagen der Bayessche Statistik ableiten:
mit A, B, C beliebige Aussagen, S die sichere Aussage und die Negation der Aussage A.
Einzelnachweise
- ↑ Pierre-Simon De Laplace: A Philosophical Essay on Probabilities. Dover, 1995 (Originaltitel: Essai philosophique sur les probabilities, übersetzt von F. W. Truscott,F. L. Emory), S. 79 (http://www.archive.org/stream/philosophicaless00lapliala/philosophicaless00lapliala_djvu.txt, abgerufen am 11 Sep. 2011, Version von 1902).
- ↑ R. T. Cox: Probability, Frequency, and Reasonable Expectation. In: Am. Jour. Phys.. Nr. 14, 1946, S. 1-13.
Literatur
- Rudolf Koch: Einführung in die Bayes-Statistik. Springer Berlin Heidelberg, 21. Januar 2000, ISBN 978-3540666707.
-
Wikimedia Foundation.