- ID3
-
ID3 (Iterative Dichotomiser 3) ist ein Algorithmus, der zur Entscheidungsfindung dient. Er wird bei Entscheidungsbäumen eingesetzt.
Der australische Forscher J. Ross Quinlan publizierte diesen Algorithmus erstmals im Jahre 1986. ID3 war in seinen ersten Jahren sehr einflussreich. Er findet auch heute noch in einigen Produkten Verwendung. ID3 gilt als Vorgänger des C4.5-Algorithmus.
ID3 wird verwendet, wenn bei großer Datenmenge viele verschiedene Attribute von Bedeutung sind und deshalb ein Entscheidungsbaum ohne große Berechnungen generiert werden soll. Somit entstehen meist einfache Entscheidungsbäume. Es kann aber nicht garantiert werden, dass keine besseren Bäume möglich wären.
Die Basisstruktur von ID3 ist iterativ. Es werden zu jedem noch nicht benutzten Attribut Entropien bezüglich der Trainingsmenge berechnet. Das Attribut mit dem höchsten Informationsgehalt, also der kleinsten Entropie, wird gewählt und daraus ein neuer Baum-Knoten generiert. Das Verfahren terminiert, wenn alle Trainingsinstanzen klassifiziert wurden, d.h. wenn jedem Blattknoten eine Klassifikation zugeordnet ist.
Algorithmus
Wenn alle Elemente aus T (Daten) zu einer Klasse gehören
- Dann
- // Erzeuge ein Blatt //
- Konstruiere ein Blatt mit der Klasse als Bezeichner
- // Erzeuge ein Blatt //
- Sonst
- // Erzeuge rekursiv einen Teilbaum //
- Wähle das „informativste“ Merkmal xi
- Beginn: Für_alle vorkommenden Werte von Merkmal xi
- Konstruiere alle Teilbäume rekursiv mit den entsprechenden Teilmengen als Daten
- Ende: Für_alle
- Konstruiere einen Baumknoten mit Bezeichner xi und hänge alle erzeugten Teilbäume an
- // Erzeuge rekursiv einen Teilbaum //
- Ende Sonst
Auswahl der Merkmale
Für die Bildung der Teilbäume wird jeweils entsprechend der Informationstheorie das informativste Merkmal ausgewählt.
Sei S die Menge der Merkmale mit ihrer jeweiligen Klassifizierung, das zu prüfende Attribut aus der Menge der verfügbaren Attribute, V(a) die Menge der möglichen Attributwerte von a und Sv die Untermenge von S, für die das Attribut a den Wert v annimmt. Der Gewinn, der durch Auswahl des Merkmals a erzielt wird errechnet sich dann folgendermaßen:
.
Schließlich wählt man ein Attribut mit dem größtmöglichem Gewinn aus der Menge als das nächste Attribut.
Diese Wahl führt zur Bevorzugung von Merkmalen mit vielen Wahlmöglichkeiten und damit zu einem breiten Baum. Um dem entgegenzuwirken kann eine Normalisierung über die Anzahl der Wahlmöglichkeiten durchgeführt werden.
Siehe auch
- Dann
Wikimedia Foundation.