- Feature Subset Selection
-
Die Feature Subset Selection (FSS), kurz Feature Selection, ist ein Ansatz aus dem maschinellen Lernen, bei dem nur eine Teilmenge der verfügbaren Features für einen Lernalgorithmus verwendet wird. FSS ist notwendig, weil es teilweise technisch unmöglich ist, alle Features miteinzubeziehen oder weil es Differenzierungsprobleme gibt, wenn eine große Anzahl an Features, aber nur eine kleine Zahl an Datensätzen vorhanden ist.
Filter-Ansatz
Berechne ein Maß zur Unterscheidung von Klassen. Messe das Gewicht der Features und wähle die besten n aus. Auf dieses Feature Subset wird der Lernalgorithmus angewendet. Nachteile:
- Redundante Features (Verwandte Features werden ähnliche Gewichtung haben)
- Abhängige Features (Einige Features werden nur in Kombination relevant sein)
Wrapper-Ansatz
Durchsuche die Menge aller möglichen Feature-Subsets. Auf jedes Subset wird der Lernalgorithmus angewendet. Vorteile:
- Findet ein Feature-Subset, das optimal zum Lernalgorithmus passt
- Bezieht auch Kombinationen von Features ein und nicht nur jedes Feature einzeln
- Entfernt redundante Features
Nachteile:
- Sehr zeitaufwändig
Literatur
- Dunja Mladenić: Feature Selection for Dimensionality Reduction. Craig Saunders et al. (Hrsg.): SLSFS, 2005, S.84-102 ISBN 3-540-34137-4
Wikimedia Foundation.