- Shapiro-Wilk-Test
-
Der Shapiro-Wilk-Test ist ein statistischer Signifikanztest, der die Hypothese überprüft, dass die zugrunde liegende Grundgesamtheit einer Stichprobe normalverteilt ist.
Die Nullhypothese H0 nimmt an, dass eine Normalverteilung der Grundgesamtheit vorliegt. Demgegenüber unterstellt die Alternativhypothese H1, dass keine Normalverteilung gegeben ist. Wenn der Wert der Teststatistik W größer ist als der kritische Wert Wkritisch, wird die Nullhypothese nicht abgelehnt und es wird angenommen, dass eine Normalverteilung vorliegt.
Wird alternativ der p-Wert des Tests ermittelt, so wird die Nullhypothese in der Regel nicht abgelehnt, wenn der p-Wert größer ist als das festgelegte Signifikanzniveau α.
Das Testverfahren wurde 1965 von dem Amerikaner Samuel Shapiro und dem Kanadier Martin Wilk veröffentlicht und ist das Ergebnis ihrer ursprünglichen Idee, die graphischen Informationen der Analyse auf Normalverteilung mittels Normalwahrscheinlichkeitsplot in einer Kennzahl zusammenzufassen.
Der Test kann zum Überprüfen von univariaten Stichproben mit 3 bis 5000 Beobachtungen eingesetzt werden. Eine Weiterentwicklung des Tests, der sogenannte Royston's H-Test, ermöglicht die Überprüfung mehrdimensionaler Stichproben auf multivariate Normalverteilung.
Neben anderen bekannten Tests auf Normalverteilung, wie beispielsweise dem Kolmogorow-Smirnow-Test oder dem Chi-Quadrat-Test, zeichnet sich der Shapiro-Wilk-Test durch seine vergleichsweise hohe Teststärke in zahlreichen Testsituationen aus, insbesondere bei der Überprüfung von kleineren Stichproben mit n < 50.
Der Shapiro-Wilk-Test oder Abwandlungen des Tests wie der Ryan-Joiner-Test sind in gängigen kommerziellen und nicht kommerziellen statistischen Softwarepaketen wie z.B. SPSS, Minitab und R vertreten.
Inhaltsverzeichnis
Eigenschaften
Vortest für weitere Testvorhaben
Die Annahme, dass eine normalverteilte Stichprobe vorliegt, ist bei vielen weiterführenden statistischen Analysen (Inferentialstatistik) Voraussetzung für die Anwendung von bestimmten Testverfahren (z.B. t-Test, ANOVA), insbesondere bei kleinen Stichproben mit n < 30. Kann keine Normalverteilung angenommen werden, muss auf nichtparametrische Verfahren zurückgegriffen werden, die teilweise eine geringere Teststärke aufweisen. Somit kann der Shapiro-Wilk-Test auf Normalverteilung auch als Vortest für weitere Testvorhaben aufgefasst werden.
Kein allgemeiner Anpassungstest
Während einige Normalitätstests wie der Kolmogorow-Smirnow-Test oder der Chi-Quadrat-Test allgemeine Anpassungstests (Goodness-of-Fit-Tests) darstellen, die im Stande sind eine Stichprobe auf verschiedene hypothetische Verteilungen hin zu testen, (einschließlich der Normalverteilung), ist der Shapiro-Wilk-Test einzig auf die Untersuchung hinsichtlich Normalverteilung konzipiert. Im Unterschied zu allgemeinen Anpassungstests, die für gewöhnlich mindestens 50 - 100 Beobachtungen benötigen, um aussagekräftige Testergebnisse zu erhalten, sind beim Shapiro-Wilk-Test oft weniger Beobachtungen vonnöten.
Eigenschaft als Omnibus Test
Der Shapiro-Wilk-Test ist ein Omnibus-Test, d.h. er ist lediglich in der Lage festzustellen, ob es eine signifikante Abweichung zur Normalverteilung gibt oder nicht. Er ist nicht im Stande zu beschreiben, in welcher Form die Abweichung auftritt. Er kann z.B. keine Aussage darüber treffen, ob die Verteilung links- oder rechtsschief ist oder ob es sich um eine endlastige (heavy-tailed) Verteilung handelt oder ggf. beides.
Stichprobenumfang bis 5000 Beobachtungen
Ursprünglich war der Test nur im Stande, Stichproben vom Umfang 3 < n < 50 zu untersuchen. Im Jahr 1972 wurde es möglich, den Test durch eine Erweiterung von Shapiro und Francia auch für Stichproben vom Umfang n < 100 einzusetzen. Danach gab es weitere Anpassungen, die den möglichen Anwendungsbereich weiter vergrößerten. Royston führte 1992 eine weitere Verbesserung ein und machte Stichproben der Größe n < 2000 möglich. Rahman und Govidarajulu erweiterten 1997 den Einsatzbereich des Tests auf Stichproben vom Umfang n < 5000.
Hohe Teststärke
Allgemein ist die Teststärke für sämtliche Normalitätstests bei kleinen Stichprobenumfängen geringer als bei größeren, da hier der Standardfehler relativ groß ist. Erst wenn der Stichprobenumfang größer wird, reduziert sich der Standardfehler und die Teststärke wächst. Der Shapiro-Wilk-Test hat auch bei kleinem Stichprobenumfang n < 50 eine relativ große Teststärke verglichen mit anderen Tests. Beispielsweise hat der Shapiro-Wilk-Test eine Teststärke von 54 % bei einer Stichprobengröße von 20 Beobachtungen, wenn die tatsächliche Verteilung eine Chi-Quadrat-Verteilung ist, im Vergleich zum D'Agostino-Test von 1970, der eine Teststärke von 29 % aufweist. [1]
Funktionsweise
Die Teststatistik W ist ein Quotient, der das Verhältnis zweier Varianz-Schätzer zueinander ausdrückt.
Die Teststatistik berechnet, mittels eines ersten Schätzers im Zähler, wie die Varianz einer Stichprobe aussehen müsste, wenn sie aus einer normalverteilten Grundgesamtheit stammte, und vergleicht diese „erwartete“ Varianz mit einem zweiten Schätzer im Nenner für die tatsächliche Varianz der Stichprobe. Wenn die Grundgesamtheit der Stichprobe in der Tat normalverteilt ist, dann müssten beide Schätzer für die Varianz unabhängig voneinander zu etwa demselben Ergebnis kommen. Je geringer die geschätzten Varianzen also voneinander abweichen, desto wahrscheinlicher ist es, dass die Grundgesamtheit der Stichprobe in Wirklichkeit normalverteilt ist.Der Shapiro-Wilk-Test basiert demzufolge auf einer Varianzanalyse (ANOVA) der Stichprobe, was auch der Originaltitel der Veröffentlichung "An Analysis of Variance Test for Normality (for complete samples)" deutlich macht.
Der Schätzer für die Stichprobenvarianz im Nenner ist die übliche korrigierte Stichprobenvarianz s2.
Die erwartete Varianz für eine aus einer normalverteilten Grundgesamtheit stammende Stichprobe im Zähler (also angenommen H0 ist wahr) wird mittels der Methode der kleinsten Quadrate geschätzt durch die Steigung der Regressionsgeraden im QQ-Plot, der die geordneten Beobachtungen einer Stichprobe mit entsprechenden Ordnungsstatistiken aus einer Normalverteilung gegenüberstellt.
Das gewöhnliche lineare Modell yi = α + βxi + εi wird verstanden als xi = μ + σ2mi + εi
wobei
- σ2 die Steigung der Regressionsgeraden beschreibt und damit der Schätzer b2 im Zähler der Teststatistik ist
- μ der Schnittpunkt mit der y-Achse und der Schätzer für den Mittelwert ist
- mi die erwarteten Ordnungsstatistiken aus einer Normalverteilung sind
- xi die Ordnungsstatistiken aus einer Stichprobe sind
- εi die Störgröße ist, die nichterfassbare Einflüsse darstellt
Mit diesem Ansatz unterscheidet sich der Test von diversen anderen Verfahren, wie beispielsweise dem Jarque-Bera-Test, der prüft, wie groß die Übereinstimmung der Stichprobenverteilung mit spezifischen Eigenschaften des Aussehens der Normalverteilung ist, die charakterisiert wird durch ihre Momente wie Schiefe und Wölbung (Skewness und Kurtosis).
Voraussetzungen
- Die Beobachtungen der Stichprobe müssen unabhängig voneinander sein.
- Die Stichprobe darf nicht kleiner sein als n = 3 und nicht größer als n = 5000.
- Die Zufallsvariable muss ein metrisches Skalenniveau besitzen.
Berechnung der Teststatistik
Der Test überprüft die Hypothese, dass eine Stichprobe aus einer normalverteilten Grundgesamtheit entnommen wurde, indem die Teststatistik W mit einem kritischen Wert für den Ablehnungsbereich (aus der Verteilung der Teststatistik) verglichen wird.
1. Aufstellen der Hypothesen und Festlegung des Signifikanzniveaus
Es wird die Nullhypothese H0 aufgestellt, die besagt, dass eine Normalverteilung der Grundgesamtheit vorliegt, und die Alternativhypothese H1, die besagt, dass keine Normalverteilung vorliegt. Gleichzeitig wird ein Signifikanzniveau α gewählt, üblicherweise 5 %.
- α
2. Erstellung der Ordnungsstatistiken
Alle Beobachtungen der Stichprobe werden nach aufsteigender Größe sortiert und jedem Wert wird ein Rangplatz zugeordnet.
So erhält man die Ordnungsstatistiken der Stichprobe mit den Werten . Wobei X(i) definiert ist als die i-te geordnete Statistik.
3. Berechnung der Schätzer b2 und s2
mit b als der Summe aus k Zahlenpaaren der Ordnungsstatistiken jeweils multipliziert mit einem entsprechenden Koeffizienten a(i) (auch als Gewicht bezeichnet). Wenn die Anzahl der Beobachtungen in der Stichprobe gerade ist, ist k = n / 2, bei ungerader Anzahl ist k = (n − 1) / 2. Somit gilt:
wobei die Koeffizienten a(i) gegeben sind durch
mit m(i) stellvertretend für die erwarteten Ordnungsstatistiken einer Normalverteilung
- wobei mit
und der Kovarianzmatrix V bestehend aus den erwarteten Ordnungsstatistiken
Die Koeffizienten sind auch häufig für die ersten 50 Zahlenpaare in Tabellen vieler Statistikbücher zu finden.
Die Varianz s2 sowie dem Mittelwert der Stichprobe werden berechnet durch
- mit
4. Vergleich der Teststatistik mit einem kritischen Wert
Der Wert der Teststatistik W wird mit einem kritischen Wert Wkritisch für einen gegebenen Stichprobenumfang n und das zuvor festgelegte Signifikanzniveau α verglichen. Für die kritischen Werte mit n < 50 existieren Tabellen, die in vielen Statistikbüchern abgedruckt werden. Kritische Werte für Stichproben mit n > 50 können mittels Monte-Carlo-Simulation ermittelt werden.
Beurteilung der Ergebnisse
Wenn der Wert der Teststatistik W größer ist als der kritische Wert Wkritisch, wird die Nullhypothese nicht abgelehnt. D.h. es wird angenommen, dass eine Normalverteilung vorliegt. Die Teststatistik W kann wie ein Korrelationskoeffizient interpretiert werden, der Werte zwischen 0 und 1 annehmen kann, ähnlich dem Bestimmtheitsmaß. Je näher die Teststatistik an 1 liegt, desto weniger Abweichungen zeigt die tatsächliche Varianz von der hypothetischen Varianz unter Annahme von Normalverteilung. Gibt es jedoch statistisch signifikante Abweichungen, d.h. die Teststatistik W ist kleiner als der kritische Wert Wkritisch (W ist signifikant klein), so wird die Nullhypothese zu Gunsten der Alternativhypothese abgelehnt und es wird angenommen, dass keine Normalverteilung vorliegt. Damit steht der Shapiro-Wilk-Test im Gegensatz zu vielen anderen Normalitätstests, die die Nullhypothese dann ablehnen, wenn die jeweilige Teststatistik größer als der kritische Wert ist.
Auswertung mittels p-Wert
Alternativ zur Teststatistk W geben viele Computerprogramme zusätzlich den p-Wert an.
Der p-Wert gibt die Wahrscheinlichkeit an, eine solche Stichprobe zu erhalten, wie sie gezogen wurde, unter der Annahme, dass die Stichprobe tatsächlich aus einer normalverteilten Grundgesamtheit stammt. (Nullhypothese ist wahr)
- Je kleiner der p-Wert ist, desto kleiner ist die Wahrscheinlichkeit, dass eine solche Stichprobenziehung bei einer normalverteilten Grundgesamtheit vorkäme.
- Ein p-Wert von 0 sagt aus, dass es 0 % wahrscheinlich ist, und ein p-Wert von 1, dass es 100 % wahrscheinlich ist, eine solche Stichprobe zu ziehen, wenn sie aus einer Normalverteilung stammte.
- In der Regel wird die Nullhypothese abgelehnt, wenn der p-Wert kleiner ist als das vorgegebene Signifikanzniveau.
Die Methode zur Berechnung des p-Wertes ist abhängig vom Stichprobenumfang n. Für n = 3 ist die Wahrscheinlichkeitsverteilung von W bekannt. Für Stichproben mit n > 3 wird eine Transformation in die Normalverteilung durchgeführt.
Die Werte σ,γ,μ für die jeweiligen Stichprobengrößen n > 3 werden per Monte-Carlo-Simulation errechnet.
Praktisches Beispiel
Die folgenden 10 Beobachtungen (n = 10) einer Stichprobe werden auf Normalverteilung überprüft:
- 200, 545, 290, 165, 190, 355, 185, 205, 175, 255
Die geordnete Stichprobe lautet:
- 165, 175, 185, 190, 200, 205, 255, 290, 355, 545
Die Anzahl der Stichprobe ist gerade mit n = 10, somit werden k = n / 2 = 5 Zahlenpaare gebildet. Die entsprechenden Gewichte a(i) werden einer Tabelle entnommen.
- b = 0,5739(545-165) + 0,3291(355-175) + 0,2141(290-185) + 0,1224(255-190) + 0,0399(205-200)= 218,08 + 59,24 + 22,48 + 7,96 + 0,2 = 307, 96
Für die Stichprobe ist s = 117,59
Demzufolge,
Der kritische Wert für n = 10 bei einem Signifikanzniveau von α = 5% wird einer Tabelle entnommen und lautet Wkritisch = 0,842.
Da (0,76 < 0,842), fällt W in den Ablehnungsbereich, und die Nullhypothese wird abgelehnt. Folglich wird angenommen, dass die Stichprobe keiner normalverteilten Grundgesamtheit entstammt. Die Dichtefunktion der W-Teststatistik ist sehr linksschief und der Ablehnungsbereich des Tests fällt ins kleine Ende der Verteilung.
Vor- und Nachteile
Vorteile
- Gegenüber einer eher subjektiven visuellen Überprüfung auf Normalverteilung mittels eines Histogramms oder eines QQ-Plots bietet der Shapiro-Wilk-Test als statistischer Signifikanztest die Möglichkeit, eine Betrachtung nach objektiveren Maßstäben vorzunehmen.
- In vielen Testsituationen bietet der Test eine hohe Teststärke, insbesondere bei kleineren Stichproben mit n < 50.
- Mittelwert und Varianz der hypothetischen Normalverteilung müssen vorher nicht bekannt sein.
- Der Test kann für Stichproben zwischen 3 < n < 5000 eingesetzt werden.
- Viele gängige Statistik-Softwarepakete wie SPSS, Minitab und R haben den Test implementiert.
Nachteile
- Der Test reagiert sehr sensibel auf Ausreißer, sowohl für einseitige als auch beidseitige Ausreißer. Ausreißer können das Verteilungsbild stark verzerren, so dass dadurch die Normalverteilungsannahme fälschlicherweise abgelehnt werden könnte.
- Die Tatsache, dass gerade größere Untersuchungen durch Computerprogramme durchgeführt werden, kann unter Umständen zu Fehlentscheidungen des Tests führen: Da Daten aus der Standardnormalverteilung auf reellen Zahlen basieren, der Computer aber mit gerundeten Werten rechnet, können sich Rundungsfehler schnell addieren, so dass Abweichungen zwischen theoretischen und empirischen Daten künstlich generiert werden, die, wenn sie groß genug sind, zur Ablehnung der Nullhypothese führen könnten.
- Der Test ist relativ anfällig gegenüber Bindungen (Ties), d.h. wenn es viele identische Werte gibt, wird die Teststärke stark beeinträchtigt. Falls ursprünglich mit gerundeten Daten gearbeitet wurde, lässt sich die Teststärke mit der sogenannten Sheppard-Korrektur verbessern. Die Korrektur von Sheppard produziert ein angepasstes W, gegeben durch
mit ω als Rundungsdifferenz.
- Die Funktionsweise des Tests ist sehr mathematisch und daher nicht leicht zu verstehen.
- Der Test erfordert den Gebrauch von speziellen Koeffizienten, den Gewichten, die nur für kleinere Stichprobenumfänge n < 50 in Form einer Tabelle vorliegen.
- Bei Berechnung der Teststatistik und der kritischen Werte ohne Computerprogramm ist der Rechenaufwand bei größeren Stichprobenumfängen sehr hoch.
Alternative Verfahren
Andere Signifikanztests
Neben dem Shapiro-Wilk-Test existieren mindestens 40 weitere Normalitätstests bzw. Modifikationen einzelner Tests.[2]
Normalitätstests vergleichen auf die eine oder andere Weise charakteristische Merkmale der modellhaften Standardnormalverteilung, die gewissermaßen als Maßstäbe dienen, mit der Verteilung der Stichprobe. Die Tests unterscheiden sich in der Hinsicht, welche Maßstäbe sie als Vergleichskriterium heranziehen.
Während der Shapiro-Wilk-Test die Technik der Regression und Korrelation einsetzt und die Korrelation hinsichtlich Varianz analysiert, basieren andere Testverfahren auf der Untersuchung der Verteilungsfunktion (z.B. Kolmogorow-Smirnow-Test, Anderson-Darling-Test, Cramér-von-Mises-Test).
Weitere Tests richten ihr Hauptaugenmerk auf den Vergleich von Schiefe- und Kurtosis-Eigenschaften (z.B. D'Agostino-Pearson-Test, Jarque-Bera-Test, Anscombe-Glynn-Test).
Die Teststärke jedes Normalitätstests variiert in Abhängigkeit von Stichprobengröße, tatsächlicher Verteilung und anderen Faktoren wie Ausreißern und Bindungen. Es gibt keinen einzelnen Test, der für alle Situationen die höchste Teststärke aufweist.
Graphische Methoden
Histogramm und Normalwahrscheinlichkeitsplots wie der QQ-Plot oder der PP-Plot werden häufig als Werkzeuge zur visuellen Überprüfung der Verteilung auf Normalverteilung eingesetzt und können die Aussage eines Signifikanztests entweder bekräftigen oder anfechten.
Einzelnachweise
- ↑ Edith Seier: Comparison of Tests for Univariate Normality, Department of Mathematics. East Tennessee State University, 2002 http://interstat.statjournals.net/YEAR/2002/articles/0201001.pdf
- ↑ Bernayazici, Senayyolacan: A comparison of various tests of normality, Journal of Statistical Computation and Simulation, 2007
Literatur
- Sam S. Shapiro, Martin Bradbury Wilk: An analysis of variance test for normality (for complete samples), Biometrika, 1965
- D. G. Rees: Essential Statistics, Chapman & Hall, 2000
- Berna Yazici, Senay Yolacan: A comparison of various tests of normality, Journal of Statistical Computation and Simulation, 77(2), 2007, pp. 175-183
- Edith Seier: Comparison of Tests for Univariate Normality, Department of Mathematics. East Tennessee State University, 2002
- Manfred Precht, Roland Kraft, Martin Bachmaier: Angewandte Statistik, Oldenbourg, 2005
- J.R. Leslie, M.A. Stephens und Fotopoulos: Asymptotic Distribution of the Shapiro-Wilk W for Testing Normality, The Annals of Statistics, 1986
Weblinks
- Originaltest zu An Analysis of Variance Test for Normality (for complete samples) von Shapiro und Wilk von JSTOR (englisch)
- Präsentation der University of Florida zum Shapiro-Wilk Test, enthält Tabellen der Gewichte und kritischen Werte (englisch)
- Analyse der Teststärke verschiedener Normalitätstests von Edith Seier, East Tennessee State University (englisch)
- Online Version des Shapiro-Wilk-Tests (englisch)
- Vorlesungsskript zu Anpassungstests der Humboldt Universität zu Berlin
- Skript zu Tests auf Poisson-Verteilung bzw. Normalverteilung der Universität Ulm
- Beispiele für statistische Tests von Barbara Bredner
- SAS Anleitung zu Anpassungstests (englisch)
- The Science Citation Index Artikel über An Analysis of Variance Test for Normality von 1985 (englisch)
-
Wikibooks: Shapiro-Wilk-Test mit R – Lern- und Lehrmaterialien
Wikimedia Foundation.