Leave-One-Out Kreuzvalidierung

Leave-One-Out Kreuzvalidierung
Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Kreuzvalidierungsverfahren sind Testverfahren der Statistik, die z. B. im Data-Mining, oder bei der Überprüfung neu entwickelter Fragebögen zum Einsatz kommen. Es wird unterschieden zwischen der einfachen Kreuzvalidierung, der stratifizierten Kreuzvalidierung und der Leave-One-Out Kreuzvalidierung.

Inhaltsverzeichnis

Einfache Kreuzvalidierung

Die zur Verfügung stehende Datenmenge, bestehend aus N Instanzen, wird in k Teilmengen (k<=N) T1,...,Tk aufgeteilt. Nun werden k Testdurchläufe gestartet, bei denen die jeweils i-te Teilmenge Ti als Testmenge und die verbleibenden k-1 Teilmengen {T1,...,Tk}\{Ti} als Trainingsmengen verwendet werden. Die Gesamtfehlerquote errechnet sich als Durchschnitt aus den Einzelfehlerquoten der k Einzeldurchläufe. Diese Testmethode nennt man k-fache Kreuzvalidierung.

Stratifizierte Kreuzvalidierung

Aufbauend auf der einfachen k-fachen Kreuzvalidierung, achtet die k-fache stratifizierte Kreuzvalidierung darauf, dass jede der k Teilmengen eine annähernd gleiche Verteilung besitzt. Dadurch wird die Varianz der Abschätzung verringert.

Leave-One-Out-Kreuzvalidierung

Bei der Leave-One-Out-Kreuzvalidierung (engl. leave-one-out cross validation) handelt es sich um einen Spezialfall der k-fachen Kreuzvalidierung, bei der k = N. Somit werden N Durchläufe gestartet und deren Einzelfehlerwerte ergeben als Mittelwert die Gesamtfehlerquote.

Nachteil dieser Methode ist, dass eine Stratifizierung der Teilmengen, wie bei der stratifizierten Kreuzvalidierung, nicht mehr möglich ist. Dadurch kann es in Extremfällen dazu kommen, dass dieses Testverfahren falsche Fehlerwerte liefert. Beispiel: Eine vollständig zufällige Datenmenge bei gleichmäßiger Verteilung und nur zwei Klassen würde zu einem LOO-CV von 100 % führen. Warum? Aus N Instanzen werden zum Training N / 2 Instanzen der Klasse K1 verwendet und N / 2 − 1 Instanzen der Klasse K2. Da der Klassifikator immer die Mehrheitsklasse der Testdaten prognostiziert, liefert der Test mit der Testinstanz der Klasse K2 einen Fehler von 100 %!

Ein weiterer Nachteil ist der sehr hohe Rechenaufwand.

Anwendungsbeispiel

Ein Psychologe entwickelt einen neuen Test, mit dem er Depressivität messen will.

Um zu überprüfen, wie gut der Test das zu messende Merkmal (Depressivität) misst, lässt er in einem ersten Schritt eine große Gruppe von Personen, bei denen die jeweilige Ausprägung des Merkmals bekannt ist (vorher durch Experten oder einen anderen Test bestimmt), an diesem Test teilnehmen.

Im nächsten Schritt unterteilt er die große Gruppe in zwei zufällig zusammengestellte Untergruppen (bzw. k-Teilmengen, siehe weiter unten), nennen wir sie Untergruppe A und Untergruppe B. Der Psychologe benutzt nun die Daten der Untergruppe A, um mit ihnen eine Vorhersagegleichung für das Merkmal, das der Test messen soll, zu erstellen. D. h. er bildet eine Regel, nach der aus den Testdaten einer Person Rückschlüsse auf die Ausprägung des gesuchten Merkmals bei ihr gezogen werden können. Diese Vorhersagegleichung wendet er nun auf alle Mitglieder der Untergruppe B an und versucht, aus den Testdaten von Untergruppe B, mithilfe der an Untergruppe A entwickelten Vorhersagegleichung, auf deren jeweilige Ausprägung des Merkmals zu schließen. Anschließend vergleicht er die vorhergesagten Ausprägungen mit den tatsächlich vorliegenden. Je höher die Übereinstimmung zwischen tatsächlicher und vorhergesagter Ausprägung, um so besser, valider, ist der Test.

In einem dritten Schritt wiederholt der Psychologe das Vorgehen mit vertauschten Untergruppen. Er entwickelt also aus den Daten der Untergruppe B eine Vorhersagegleichung, die er im Anschluss an Untergruppe A prüft. Die Validierung des Tests erfolgt also kreuzweise, deswegen Kreuzvalidierung.


Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Kreuzvalidierung — Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung. Kreuzvalidierungsverfahren sind Testverfahren der Statistik, die… …   Deutsch Wikipedia

  • Stratifizierte Kreuzvalidierung — Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung. Kreuzvalidierungsverfahren sind Testverfahren der Statistik, die… …   Deutsch Wikipedia

  • Kreuzvalidierungsverfahren — sind Testverfahren der Statistik bzw. der Datenanalyse, die z. B. im Data Mining, oder bei der Überprüfung neu entwickelter Fragebögen zum Einsatz kommen. Es wird unterschieden zwischen der einfachen Kreuzvalidierung, der stratifizierten… …   Deutsch Wikipedia

  • Cross validation — Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung. Kreuzvalidierungsverfahren sind Testverfahren der Statistik, die… …   Deutsch Wikipedia

  • LOO-CV — Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung. Kreuzvalidierungsverfahren sind Testverfahren der Statistik, die… …   Deutsch Wikipedia

  • Kernel-Regression — Unter Kernel Regression versteht man eine Reihe nichtparametrischer statistischer Methoden, bei denen die Abhängigkeit einer zufälligen Größe von Ausgangsdaten mittels Kerndichteschätzung geschätzt werden. Die Art der Abhängigkeit, dargestellt… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”