- Bootstrap (Statistik)
-
Bootstrapping ist in der Statistik eine Methode des Resampling, dabei werden wiederholt Statistiken auf der Grundlage lediglich einer Stichprobe berechnet. Die zugrunde liegende theoretische Verteilung muss nicht bekannt sein. Diese Methode wurde erstmals von Bradley Efron 1979 in Bootstrap Methods: Another Look at the Jackknife beschrieben.
Der Bootstrap ersetzt in der Regel die theoretische Verteilungsfunktion F einer Zufallsvariablen durch die empirische Verteilungsfunktion (relative Summenhäufigkeitsfunktion)
der Stichprobe
.
Dafür werden im einfachsten Fall B Bootstrap-Stichproben
dadurch generiert, dass jeweils n mal aus der gegebenen Stichprobe ein Wert mit Zurücklegen gezogen wird. Dies entspricht dem wiederholten Ziehen von Zufallszahlen aus der empirischen Verteilungsfunktion
. Für jede Bootstrap-Stichprobe wird der Wert
der interessierenden Statistik T berechnet. Die Verteilung von
wird schließlich durch die empirische Verteilung der B Werte
approximiert.
In weniger intuitiven Modellen wird nicht bloß ein wiederholtes Ziehen aus den bereits vorliegenden Daten durchgeführt. Methodisch lässt sich in Bootstrap-Verfahren auch so vorgehen, dass bestimmte Kenngrößen der unbekannten Verteilung geschätzt werden und anhand dieser Informationen Daten neu generiert werden, indem eine Verteilung mit den geschätzten Größen erzeugt wird. Speziell wenn statistische Tests nicht durchgeführt werden können, weil beispielsweise die Grenzverteilung im Zentralen Grenzwertsatz unbekannt ist, lassen sich so Quantile und/oder p-Werte schätzen.
Weblinks
Literatur
- Bradley Efron: Bootstrap Methods: Another Look at the Jackknife. In: The Annals of Statistics. 7, Nr. 1, 1979, S. 1–26. doi:10.1214/aos/1176344552
- B. Efron, R.J. Tibshirani: An introduction to the bootstrap, New York: Chapman & Hall, 1993
Wikimedia Foundation.