- Ausreißer
-
In der Statistik spricht man von einem Ausreißer, wenn ein Messwert oder Befund nicht in eine erwartete Messreihe passt oder allgemein nicht den Erwartungen entspricht. Die „Erwartung“ wird meistens als Streuungsbereich um den Erwartungswert herum definiert, in dem die meisten aller Messwerte zu liegen kommen, z. B. der Quantilabstand Q75 – Q25. Werte außerhalb dieses Intervalls werden (meist willkürlich) als Ausreißer bezeichnet. Im Boxplot werden besonders hohe Ausreißer gesondert dargestellt. Die robuste Statistik beschäftigt sich mit der Ausreißerproblematik. Auch im Data-Mining beschäftigt man sich mit der Erkennung von Ausreißern.
Inhaltsverzeichnis
Überprüfung auf Messfehler
Entscheidend ist es dann, zu überprüfen, ob es sich bei dem Ausreißer tatsächlich um ein verlässliches und echtes Ergebnis handelt, oder ob ein Messfehler vorliegt.
- Beispiel: So wurde das Ozonloch über der Antarktis einige Jahre zwar bereits gemessen, die Messwerte aber als offensichtlich falsch gemessen bewertet und in ihrer Tragweite nicht erkannt[1].
Ausreißertests
Ein anderer Ansatz wurde u. a. von Ferguson im Jahr 1961 vorgeschlagen.[2] Danach wird davon ausgegangen, dass die Beobachtungen aus einer hypothetischen Verteilung stammen. Ausreißer sind dann Beobachtungen, die nicht aus der hypothetischen Verteilung stammen. Die folgenden Ausreißertests gehen alle davon aus, dass die hypothetische Verteilung eine Normalverteilung ist und prüfen, ob einer oder mehrere der Extremwerte nicht aus der Normalverteilung stammen:
- Ausreißertest nach Grubbs
- Ausreißertest nach Nalimov
- Ausreißertest nach Dixon
- Ausreißertest nach Hampel
Der Ausreißertest nach Walsh basiert hingegen nicht auf der Annahme einer bestimmten Verteilung der Daten. Im Rahmen der Zeitreihenanalyse können Zeitreihen, bei denen ein Ausreißer vermutet wird, darauf getestet werden und dann mit einem Ausreißermodell modelliert werden.
Unterschiede zu Extremwerten
Ein beliebter Ansatz ist es, den Boxplot zu nutzen um „Ausreißer“ zu identifizieren. Die Beobachtungen außerhalb der Whisker werden dabei willkürlich als Ausreißer bezeichnet. Für die Normalverteilung kann man leicht ausrechnen, dass knapp 0,7 % der Masse der Verteilung außerhalb der Whiskers liegen. Bereits ab einem Stichprobenumfang von n > 143 würde man daher (im Mittel) mindestens eine Beobachtung außerhalb der Whiskers erwarten (oder auch k Beobachtungen außerhalb der Whiskers bei n > 143.3362 * k). Sinnvoller ist es daher zunächst von Extremwerten statt von Ausreißern zu sprechen.
Multivariate Ausreißer
In mehreren Dimensionen wird die Situation noch komplizierter. In der Grafik rechts kann der Ausreißer rechts unten in der Ecke nicht durch Inspektion jeder einzelnen Variablen erkannt werden; er ist in den Boxplots nicht sichtbar. Trotzdem wird er eine lineare Regression deutlich beeinflussen.
Andrews Kurven
Andrews (1972) schlug vor jede multivariate Beobachtung (xi1,xi2,...,xip) durch eine Kurve zu repräsentieren[3]:
Damit wird jede multivariate Beobachtung auf eine zweidimensionale Kurve im Intervall [ − π;π] abgebildet. Aufgrund der Sinus- und Kosinusterme wiederholt sich die Funktion fi(t) außerhalb des Intervalls [ − π;π].
Für jeweils zwei Beobachtungen i und j gilt:
Die Formel (1) links neben dem Gleichheitszeichen entspricht (zumindest approximativ) der Fläche zwischen den beiden Kurven und die Formel (2) rechts ist (zumindest approximativ) der multivariate euklidische Abstand zwischen den beiden Datenpunkten.
Ist also der Abstand zwischen zwei Datenpunkten klein, dann muss auch die Fläche zwischen den Kurven klein sein, d.h. die Kurven fi(t) und fj(t) müssen nahe beinander verlaufen. Ist jedoch der Abstand zwischen zwei Datenpunkten groß, muss auch die Fläche zwischen den Kurven groß sein, d.h. die Kurven fi(t) und fj(t) müssen sehr unterschiedlich verlaufen. Ein multivariater Ausreißer würde als Kurve sichtbar, die sich von allen anderen Kurven in ihrem Verlauf deutlich unterscheidet.
Andrews Kurven haben zwei Nachteile:
- Wenn der Ausreißer in genau einer Variablen sichtbar ist, nimmt der Mensch die unterschiedlichen Kurven umso besser wahr, je weiter vorne diese Variable auftaucht. Am besten sollte sie die Variable sein. D.h. es bietet sich an, die Variablen zu sortieren, z.B. wird die Variable mit der größten Varianz, oder man nimmt die erste Hauptkomponente.
- Wenn man viele Beobachtungen hat, müssen viele Kurven gezeichnet werden, sodass der Verlauf einer einzelnen Kurve nicht mehr sichtbar ist.
Stahel-Donoho Outlyingness
Stahel (1981) und David Leigh Donoho (1982) haben die sog. Outlyingness definiert um eine Maßzahl zu erhalten, die angibt wie weit ein Beobachtungswert von der Masse der Daten entfernt liegt.[4][5] Durch die Berechnung aller möglichen Linearkombinationen , d. h. die Projektion des Datenpunktes auf den Vektor α, mit ergibt sich die Outlyingness
mit der Median der projizierten Punkte, als robustes Lagemaß, und die mittlere absolute Abweichung der projizierten Punkte, als robustes Streuungsmaß. ist dabei eine Standardisierung.
In der Praxis wird die Outlyingness berechnet, in dem für mehrere hundert oder tausend zufällig ausgewählte Projektionsrichtungen α das Maximum genommen wird.
Ausreißererkennung im Data-Mining
Unter dem englischen Begriff Outlier Detection (deutsch: Ausreißererkennung) versteht man den Teilbereich des Data-Mining, bei dem es darum geht, untypische und auffällige Datensätze zu identifizieren. Anwendung hierfür ist beispielsweise die Erkennung von (potentiell) betrügerischen Kreditkartentransaktionen in der großen Menge der validen Transaktionen. Die ersten Algorithmen zur Outlier Detection waren eng an den hier erwähnten statistischen Modellen orientiert, jedoch haben sich aufgrund von Berechnungs- und vor allem Laufzeitüberlegungen die Algorithmen seither davon entfernt.[6] Ein wichtiges Verfahren hierzu ist der dichtebasierte Local Outlier Factor.
Einzelnachweise
- ↑ Karl-Heinz Ludwig (2007), Eine kurze Geschichte des Klimas: Von der Entstehung der Erde bis heute (2. Auflage), Beck Verlag, S. 149
- ↑ Ferguson, T. S. (1961), On the Rejection of outliers, In Proceedings of the Fourth Berkeley Symposium on Mathematical Statistics and Probability, vol. 1, 253-287.
- ↑ Andrews, D. (1972). Plots of high-dimensional data, Biometrics 28: 125-136.
- ↑ Stahel., W. A. (1981). Robuste Schätzungen: infinitesimale Optimalität und Schätzungen von Kovarianzmatrizen. PhD thesis, ETH Zürich.
- ↑ Donoho., D. L. (1982). Breakdown properties of multivariate location estimators. Qualifying paper, Harvard University, Boston.
- ↑ Kriegel H.-P., Kröger P., Zimek A.: Outlier Detection Techniques. Tutorial. In: 13th Pacific-Asia Conference on Knowledge Discovery and Data Mining (PAKDD 2009). Bangkok, Thailand 2009 (http://www.dbs.ifi.lmu.de/Publikationen/Papers/tutorial_slides.pdf, abgerufen am 26. März 2010).
Siehe auch
Wiktionary: Ausreißer – Bedeutungserklärungen, Wortherkunft, Synonyme, ÜbersetzungenWeblinks
- Grundlagen der Statistik Ausreißertests
- Learning by Simulations Simulation der Auswirkung eines Ausreißers auf die lineare Regression
Wikimedia Foundation.