- F-Test
-
Als F-Test wird eine Gruppe von Tests bezeichnet, bei denen die Teststatistik unter der Nullhypothese einer F-Verteilung folgt. Häufig ist mit F-Test ein statistischer Test gemeint, mithilfe dessen mit einer gewissen Konfidenz entschieden werden kann, ob zwei Stichproben aus unterschiedlichen, normalverteilten Populationen sich hinsichtlich ihrer Varianz wesentlich unterscheiden. Er dient damit unter anderem zur generellen Überprüfung von Unterschieden zwischen zwei statistischen Populationen.
Der Test geht zurück auf einen der bekanntesten Statistiker, Ronald Aylmer Fisher (1890–1962). Als Prüfwert des F-Tests wird der F-Wert berechnet, welcher unter der Nullhypothese einer F-Verteilung (s. auch Chi-Quadrat-Verteilung) mit n1 und n2 Freiheitsgraden gehorcht.
Inhaltsverzeichnis
F-Test für zwei Stichproben
Die Voraussetzung für den F-Test sind: die Stichprobenvariablen sind normal verteilt mit und und sie sind unabhängig innerhalb und zwischen den beiden Stichproben. Die Stichprobenumfänge n1 und n2 können ungleich sein.
Dann lauten beim F-Test zweier Stichproben die Hypothesen:
Nullhypothese: Alternativhypothese: Formal berechnet sich der F-Wert der Stichprobe dann als der Quotient der geschätzten Varianzen der beiden Stichproben:
Wird die Untersuchung unter einer einseitigen Alternativhypothese betrachtet, schreibt man den größeren Varianzwert in den Zähler. Die Varianzen werden dabei jeweils durch die Varianzen der Messwerte der entsprechenden Stichprobe geschätzt.
Unter Annahme der Nullhypothese ist die Verteilung des F-Wertes durch die F-Verteilung mit den sich aus der Stichprobengröße ergebenden Freiheitsgraden gegeben. Dadurch kann die Wahrscheinlichkeit bestimmt werden, dass bei gleichen Varianzen ein F-Wert entsteht, der mindestens so sehr von dem Erwartungswert 1 der F-Verteilung abweicht, wie es der aus der Stichprobe erhaltene tut. Dies geschieht am einfachsten unter Zuhilfenahme einer F-Wert-Tabelle.
Bei einer Wahrscheinlichkeit von weniger als 5% wird die Nullhypothese üblicherweise abgelehnt. Es handelt sich dabei aber nur um eine gängige Konvention, siehe auch den Artikel Statistische Signifikanz. Allerdings können aus der erhaltenen Wahrscheinlichkeit P(F | H0) keine direkten Rückschlüsse auf die Wahrscheinlichkeit der Gültigkeit der Alternativhypothese gezogen werden.
Wenn sich zwei Stichproben schon in ihren Varianzen unterscheiden, dann unterscheiden sie sich allgemein natürlich auch.
Beispiel
Ein Unternehmen will vor dem Kauf einer neuen Anwendung prüfen, welche von zwei konkurrierenden Anwendungen die bessere ist. Unter anderem wird die Zufriedenheit der Benutzer gemessen. Die Ergebnisse eines Zufriedenheitsfragebogens zeigen bei den 120 Benutzern der Anwendung A eine Varianz von 95. Die Werte der 100 Benutzer der Anwendung B haben eine Varianz von 80. Die Präferenz des Unternehmens geht eindeutig zur Anwendung A, aus diesem Grunde wird eine einseitige Überprüfung vorgeschlagen:
Dieser F-Wert kommt unter der Nullhypothese aus eine F(119;99)-Verteilung. Der P-Wert des Stichprobenergebnis ist also:
Die Nullhypothese wird also nicht abgelehnt.
F-Test für mehrere Stichprobenvergleiche
Der einfaktoriellen Varianzanalyse liegt ebenfalls der F-Test zugrunde. Hier werden die Treatment- und Fehler-Varianzen einander gegenübergestellt.
F-Test des Bestimmtheitsmaßes eines Regressionsansatzes
Hier wird getestet, ob das Bestimmtheitsmaß des Regressionsansatzes Null ist. Wenn diese Hypothese abgelehnt wird, kann man vermuten, dass das gewählte Regressionsmodell einen Erklärungswert für den Regressand y besitzt. Beispielsweise wird getestet, ob mehrere Variablen zusammen einen signifikanten Einfluss auf den Regressanden haben. Es kann somit auch der Fall eintreten, dass der t-Test zu den üblichen Signifikanzniveaus keinen signifikanten Einfluss der einzelnen Regressoren festgestellt hat, der F-Test allerdings die Signifikanz des Gesamtmodells feststellt. Die Wahrscheinlichkeit, dass F-Test und t-Test unterschiedliche Ergebnisse liefern, steigt mit der Anzahl der Freiheitsgrade.
Einordnung
- F-Tests sind in der Regel Beispiele für Likelihood-Quotienten-Tests.
Literatur
- Bortz, J. (1977): Statistik für Sozialwissenschaftler, Springer: Berlin.
- Sachs, L. (2003): Angewandte Statistik – Anwendung statistischer Methoden, Springer: Berlin
Wikimedia Foundation.