- Boosting
-
Boosting (engl. „Verstärken“) ist ein Algorithmus der automatischen Klassifizierung, der mehrere schlechte Klassifikatoren zu einem einzigen guten Klassifikator verschmilzt.
Die zum Verständnis benötigten Grundbegriffe werden im Artikel Klassifizierung erläutert.
Inhaltsverzeichnis
Anwendungsgebiete
Boosting kann überall dort verwendet werden, wo eine automatische Klassifikation in zwei Klassen benötigt wird, beispielsweise um Bilder von Gesichtern in „bekannt“ und „unbekannt“ oder Produkte auf einem Fließband als „in Ordnung“ oder „fehlerhaft“ einzustufen. Die Anwendungsgebiete sind damit nahezu ebenso vielfältig wie die der automatischen Klassifizierung an sich.
Bedeutung
Obwohl es weitaus raffiniertere Methoden gibt, Klassifikatoren zu entwerfen, bildet Boosting in vielen Fällen eine annehmbare Alternative: Die Technik liefert akzeptable Ergebnisse und lässt sich einfach in ein Computerprogramm umsetzen, das sparsam im Speicherbedarf und schnell in der Laufzeit ist.
Funktionsweise
Vorgegeben ist eine Reihe von Objekten und eine Reihe schwacher Klassifikatoren. Gesucht ist ein Klassifikator, der die Objekte möglichst fehlerfrei in zwei Klassen einteilt. Boosting kombiniert die vorhandenen schwachen Klassifikatoren so, dass der entstehende neue Klassifikator möglichst wenige Fehler macht.
Schwache Klassifikatoren, auch base classifiers (engl. „Basisklassifikatoren“) oder weak learners (engl. „schwache Lerner“) genannt, sind sehr einfach aufgebaut und berücksichtigen meist nur ein einziges Merkmal der Objekte. Für sich genommen liefern sie deswegen einerseits schlechte Ergebnisse, können aber andererseits sehr schnell ausgewertet werden. Boosting führt alle schwachen Klassifikatoren so mit einer Gewichtung zusammen, dass die stärkeren unter den schwachen Klassifikatoren besonders berücksichtigt, die wirklich schwachen hingegen ignoriert werden.
Grundlagen
Gegeben ist ein Merkmalsraum M beliebiger Dimension und darin eine Trainingsstichprobe T der Größe n, also eine Menge von Mustervektoren x1, …, xn. Von jedem dieser Mustervektoren ist bekannt, in welche Klasse er gehört, das heißt zu jedem xi ist ein yi ∈ {+1, −1} gegeben, das angibt, in welche der beiden Klassen +1 oder −1 der Mustervektor gehört. Ferner sind m primitive Klassifikatoren f1,v…, fm: M → {+1, −1} gegeben, die jeweils den Merkmalsraum in die beiden Klassen +1 und −1 aufspalten.
Gesucht sind die m Gewichtungsfaktoren w1, …, wm des Klassifikators F: M → {+1, −1}, der über die Vorzeichenfunktion sgn durch
gegeben ist. Die Gewichtungsfaktoren sollen so optimiert werden, dass F möglichst wenige Fehler macht.
Für die Optimierung bietet sich eine über die Exponentialfunktion e definierte, sogenannte „exponentielle Verlustfunktion“ L als Optimierungskriterium an:
L wird umso kleiner, je weniger Objekte F falsch klassifiziert. Das Ziel ist also, die Gewichtungsfaktoren so zu wählen, dass L minimal wird.
Diese Optimierung wird schrittweise über m ausgeführt, das heißt zunächst wird nur w1 optimiert, dann w2, dann w3 und so weiter, bis alle Gewichtungsfaktoren optimal sind. Die Optimierung wird im nächsten Abschnitt erläutert.
Schrittweise Optimierung
Die schrittweise Optimierung benötigt m Durchläufe, um alle Gewichtungsfaktoren für F zu optimieren. In jedem Durchlauf wird ein Klassifikator Fs erzeugt, indem zum bisher erzeugten Klassifikator Fs−1 ein schwacher Klassifikator hinzugenommen wird. Das bedeutet, dass der Benutzer die Berechnung nach jedem Durchlauf abbrechen kann, falls das Zwischenergebnis bereits seinen Ansprüchen genügt.
Vor jedem Durchlauf wird beurteilt, welche Mustervektoren mit dem bislang erstellten Klassifikator gut eingeordnet werden können und welche nicht. Diejenigen Mustervektoren, die noch nicht gut klassiert werden, werden im nächsten Durchlauf besonders stark berücksichtigt. Dazu werden in jedem Durchlauf s n Hilfsvariablen ts,1, …, ts,n benötigt. Je höher der Wert von ts,i, desto stärker geht der Mustervektor xi in den aktuellen Durchgang ein.
Die Nummer des Durchgangs ist s:
1. Gewichte aktualisieren.
- Im ersten Durchlauf (s = 1) werden alle Hilfsvariablen auf den Wert 1/n gesetzt: t1,1, …, t1,n:= 1/n; somit werden im ersten Durchgang alle Mustervektoren gleich stark berücksichtigt. In allen folgenden Durchläufen (s > 1) werden die Hilfsvariablen wie folgt gesetzt:
- Damit werden alle Mustervektoren, die vom eben betrachteten schwachen Klassifikator fs−1 falsch klassifiziert wurden, in diesem Durchlauf mit einem besonders hohen Hilfsgewicht versehen, alle anderen mit einem besonders geringen.
2. Gewichteten Trainingsfehler bestimmen.
- In diesem Durchgang wird der schwache Klassifikator fs hinzugenommen. Der „gewichtete Trainingsfehler“ ist ein Maß dafür, wie schlecht dieser primitive Klassifikator für sich genommen abschneidet. Für jeden von fs falsch klassierten Mustervektor xi summiert er die zugehörige Hilfsvariable ts,i auf:
- Ist der gewichtete Trainingsfehler 0, so klassifiziert fs alle Mustervektoren richtig, ist er 1, so klassifiziert fs alles falsch. Ist errs = 1/2, so klassifiziert fs genauso gut, als würde er bei jedem Mustervektor bloß raten oder eine Münze werfen.
3. Nächsten Gewichtungsfaktor optimieren.
- Der Gewichtungsfaktor ws des in diesem Durchgang hinzugenommenen primitiven Klassifikators fs wird aus der folgenden Formel bestimmt:
- Nach der Formel wird fs genau dann mit positivem Gewicht zum Endergebnis hinzugenommen, wenn errs < ½ gilt, das heißt der schwache Klassifikator besser ist als bloßes Raten. Gilt exakt errs = ½, so folgt ws = 0, das heißt fs wird ignoriert. Gilt hingegen errs > ½, so ist der schwache Klassifikator durchaus brauchbar, er ist nur „falsch gepolt“, das heißt er klassifiziert genau falsch herum; indem er mit einem negativen Gewicht hinzugenommen wird, kann dieser Formfehler ausgeglichen werden und der umgedrehte Klassifikator mit verstärkendem Effekt hinzugenommen werden.
4. Zwischenergebnis aufstellen.
- Das Zwischenergebnis Fs ergibt sich aus der Formel:
- Es wird also genauso berechnet wie das eigentliche Ziel F, nur dass statt aller m schwachen Klassifikatoren nur die ersten s bereits optimierten berücksichtigt werden.
Diese Schritte werden in dieser Reihenfolge wiederholt, bis alle schwachen Klassifikatoren berücksichtigt wurden, also s = m ist, oder der Benutzer den Fortgang abbricht.
Schwache Klassifikatoren
Typische schwache Klassifikatoren sind sogenannte decision stumps (engl. „Entscheidungsstümpfe“). Diese Funktionen vergleichen den Wert einer einzelnen Koordinate j mit einem Schwellwert l und begründen damit ihre Entscheidung für +1 oder −1. Ist x:= (x1, …, xd) ∈ M ein Mustervektor im d-dimensionalen Merkmalsraum M, so hat ein solcher primitiver Klassifikator f im Allgemeinen die Form:
Genauer gesagt unterteilt f den Merkmalsraum mit einer Hyperebene in zwei Klassen.
Der Name spielt auf die Analogie zu Entscheidungsbäumen an: Der erzeugte Gesamtklassifikator F kann als Entscheidungsbaum angesehen werden. Jeder schwache Klassifikator ist ein innerer Knoten dieses Baumes, an dem ein Unterbaum (vgl. engl. stump, „(Baum)Stumpf“) hängt. Die endgültige Klassifizierung in einem der Blätter des Baums wird als Folge binärer Entscheidungen (engl. decision) erreicht.
Solche decision stumps sind als Grundlage für Boosting sehr beliebt, denn sie sind einfach zu handhaben und können extrem schnell ausgewertet werden. Zudem müssen sie nicht von Anfang an vorgegeben sein, sondern können erstellt werden, während der Algorithmus läuft.
Unterarten von Boosting
- AdaBoost
- AsymBoost
- Bagging
- BrownBoost
- DiscreteAB
- FloatBoost
- GentleAB
- GloBoost
- KLBoost
- LogitBoost
- RealAB
- WeightBoost
Einzelnachweise
- Im ersten Durchlauf (s = 1) werden alle Hilfsvariablen auf den Wert 1/n gesetzt: t1,1, …, t1,n:= 1/n; somit werden im ersten Durchgang alle Mustervektoren gleich stark berücksichtigt. In allen folgenden Durchläufen (s > 1) werden die Hilfsvariablen wie folgt gesetzt:
Wikimedia Foundation.