Versionsraum

Versionsraum

Als Versionsraum wird im maschinellen Lernen diejenige Teilmenge des Hypothesenraums bezeichnet, die bezüglich einer Menge D von Lernbeispielen alle konsistenten und vollständigen Hypothesen enthält. Eine Hypothese heißt konsistent, wenn sie keine negativen Trainingsbeispiele positiv klassifiziert. Eine Hypothese heißt vollständig wenn alle positiven Beispiele von einer Hypothese richtig klassifiziert werden.

Beim Versionsraum-Lernverfahren (Mitchell 1982) handelt es sich um ein inkrementelles maschinelles Lernverfahren zum Lernen eines Konzepts. Für den Fall, dass die Trainingsbeispiele nicht verrauscht sind und das gesuchte Zielkonzept im Hypothesenraum enthalten ist, liefert das Versionsraum-Lernverfahren eine kompakte Repräsentation des Versionsraums.

Inhaltsverzeichnis

Generalität im Hypothesenraum

Basis des Algorithmus ist eine Halbordnung, die eine Unterscheidung von Hypothesen nach Generalität erlaubt. Eine Hypothese hk wird als spezieller als h_\ell bezeichnet, wenn für alle x aus der Menge der möglichen Zielkonzepte folgendes gilt:

h_k(x)=1 \;\; \Rightarrow  \;\; h_\ell(x)=1

Versionsraum-Lernverfahren

Das Versionsraum-Lernverfahren ist eine maschinelle Methode im Bereich der KI, um dem Rechner beizubringen, zuvor unbekannte Informationen richtig zu beurteilen.

Algorithmus

Anfangs enthält der Versionsraum alle möglichen Hypothesen, stimmt also mit dem Hypothesenraum überein. Durch die sequentielle Hinzunahme von positiven und negativen Trainingsbeispielen wird er immer weiter eingeschränkt, bis er im Idealfall nur noch aus einem Element besteht. Die Repräsentation des Versionsraums erfolgt durch zwei Mengen namens S und G ("special" und "general"). S ist die Menge der speziellsten Hypothesen und enthält alle Hypothesen, die mit den Trainingsbeispielen konsistent sind, also diese richtig klassifizieren. Weiterhin darf keine der Hypothesen in S allgemeiner als eine andere Hypothese im Versionsraum sein. Analog enthält G die allgemeinsten Hypothesen, die mit den Trainingsdaten konsistent sind.

Anfangs enthält S die speziellste Hypothese, also diejenige Hypothese, die jedes Zielkonzept negativ klassifiziert, und G die allgemeinste Hypothese, also diejenige Hypothese, die jedes Zielkonzept positiv klassifiziert. Anschließend wird über die Menge aller Trainingsbeispiele iteriert und S und G jeweils so angepasst, dass die obigen Forderungen für S und G erfüllt sind.

Vorteile und Nachteile

Der erste Vorteil des Versionsraum-Lernverfahrens ist die implizite Darstellung des Versionsraums. Alte Beispiele müssen nicht gespeichert werden und dadurch besteht ein geringer Speicheraufwand zur Darstellung des Versionsraums. Ein weiterer Vorteil ist die Möglichkeit, eine ausreichend große Menge von Trainingsbeispielen selbständig zu erkennen (Abbruch, wenn S=G). Eine Steigerung der Lerngeschwindigkeit erhält man, wenn Hypothesen erzeugt werden können und zu S oder G hinzugefügt werden, zum Beispiel von Experten erstellt. In diesem Fall kann der Algorithmus Beispiele selektieren, die den Versionsraum in möglichst gleich große Teile trennen. Das Lernen eines solchen Beispiels sorgt für eine schnelle Reduzierung der Versionsraumgröße.

Beispiel

Das Beispiel demonstriert, wie ein konkreter Versionsraum durch Beispiele entsteht. Das Beispiel wurde dieser Webseite entnommen.

Bevor die Beispiele in den Versionsraum eingeordnet werden, erfolgt eine Startbelegung der Mengen S0 und G0.

Startbelegung

  • S0 = {}
  • G0 = {(?,?,?,?,?)}

Positives Beispiel

  • h1 = (Fußball, Mannschaft, draußen, national, Samstag)
  • S1 = {(Fußball, Mannschaft, draußen, national, Samstag)}
  • G1 = {(?,?,?,?,?)}

Erklärung

S0 enthält das Beispiel h1 nicht. S0 verallgemeinert sich um h1. G1 lässt weiterhin alle Beispiele zu.

Positives Beispiel

  • h2 = (Hockey, Mannschaft, draußen, national, Samstag)
  • S2 = {(?, Mannschaft, draußen, national, Samstag)}
  • G2 = {(?,?,?,?,?)}

Erklärung

S1 enthält das neue Beispiel h2 nicht. Deshalb wird S2 so verallgemeinert, dass es h2 enthält. Da sich h1 und h2 nur in der Sportart unterscheiden, ersetzt man Fußball durch das Platzhaltersymbol ?

Negatives Beispiel

  • h3 = (Bodenturnen, Einzel, drinnen, Welt, Samstag)
  • S3 = {(?, Mannschaft, draußen, national, Samstag)}
  • G3 = {(?, Mannschaft, ?, ?, ?), (?, ?, draußen, ?, ?), (?, ?, ?, national, ?)}

Erklärung

S2 enthält das negative Beispiele nicht, deshalb bleibt S2 unverändert. G2 muss spezialisiert werden, indem es alle Fälle aufführt, die verhindern, dass h3 als gültiges Beispiel anerkannt wird. Gleichzeitig muss G3 so allgemein sein, dass es die bisherigen Beispiele zulässt.

Positives Beispiel

  • h4 = (Handball, Mannschaft, drinnen, national, Samstag)
  • S4 = {(?, Mannschaft, ?, national, Samstag)}
  • G4 = {(?, Mannschaft, ?, ?, ?), (?, ?, ?, national, ?)}

Erklärung

S3 enthält das aktuelle Beispiel nicht und muss deshalb erweitert werden. G3 würde das aktuelle Beispiel zurückweisen, deshalb muss G3 spezialisiert werden.

Negatives Beispiel

  • h5 = (Zehnkampf, Einzel, draußen, Welt, Sonntag)
  • S5 = {(?, Mannschaft, ?, national, Samstag )}
  • G5 = {(?, Mannschaft, ?, ?, ?), (?, ?, ?, national, ?)}

Erklärung

Da S4 das Beispiel zurückweist, ist S5 = S4. Auch G4 lässt das Beispiel nicht zu, das heißt G4 = G5.

Literatur


Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • WARL — Wahrscheinlich Annähernd Richtiges Lernen (WARL) oder englisch Probably approximately correct learning (PAC learning) ist ein Framework für das maschinelle Lernen, das von Leslie Valiant in seinem Paper A theory of the learnable[1] eingeführt… …   Deutsch Wikipedia

  • Warl — Wahrscheinlich Annähernd Richtiges Lernen (WARL) oder englisch Probably approximately correct learning (PAC learning) ist ein Framework für das maschinelle Lernen, das von Leslie Valiant in seinem Paper A theory of the learnable[1] eingeführt… …   Deutsch Wikipedia

  • Probably Approximately Correct Learning — Wahrscheinlich Annähernd Richtiges Lernen (WARL) oder englisch Probably approximately correct learning (PAC learning) ist ein Framework für das maschinelle Lernen, das von Leslie Valiant in seinem Paper A theory of the learnable[1] eingeführt… …   Deutsch Wikipedia

  • Hypothesenraum — Der Hypothesenraum enthält alle möglichen Hypothesen, die für eine mathematische Problemstellung relevant sind. Die Dimensionalität des Hypothesenraums ist oft sehr groß und jede Dimension kann stetige und diskrete Werte annehmen.… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”