- Ähnlichkeitsanalyse
-
In der Statistik, insbesondere der Multivariaten Statistik, interessiert man sich für die Messung der Ähnlichkeit zwischen verschiedenen Objekten und definiert dazu sogenannte Ähnlichkeits- oder auch Distanzmaße. Es handelt sich dabei aber nicht um ein Maß im mathematischen Sinne, der Begriff bezieht sich damit ausschließlich auf die Messung einer bestimmten Größe. In der Regel werden Distanzmaße für metrisch skalierte Variablen genutzt, während Ähnlichkeitsmaße für nominal oder ordinal skalierte Variablen genutzt werden.
Inhaltsverzeichnis
Ähnlichkeitsmaß
Definition
Sei eine endliche Menge. Eine Funktion heißt Ähnlichkeitsmaß oder Ähnlichkeitsfunktion, falls gilt:
Zudem wird oft noch gefordert, dass:
- und
Die Funktionswerte s(i,j) lassen sich zu einer symmetrischen -Matrix anordnen. Diese Matrix heißt Ähnlichkeitsmatrix. In diesem Kontext wird s(i,j) auch als Ähnlichkeitskoeffizient bezeichnet.
Einige Ähnlichkeitsmaße
Für p binäre Variablen und zwei Beobachtungen i und j sei
- , ,
- , und
- .
Dann kann man folgende Maße definieren:
Ähnlichkeitsmaß s(i,j) Braun Dice Hamann Jaccard (S-Koeffizient) Kappa Kulczynski Ochiai Phi Russel Rao Simple Matching (M-Koeffizient) Simpson Sneath Tanimoto (Rogers) Yule Für nicht binäre nominale oder ordinale Variablen definiert man für jede Kategorie der Variablen eine binäre Variable und kann dann die Ähnlichkeitsmaße für binäre Variablen verwenden.
Wahl des Ähnlichkeitsmaß
Welches Ähnlichkeitsmaß man zur Analyse wählt, hängt von der Problemstellung ab. Es gibt jedoch einige Hinweise, wann sich welche Maß gut eignet in Abhängigkeit von den Eigenschaften der binären Variable.[1]
- Ist die Variable symmetrisch, d.h. beide Kategorien sind gleich wichtig (z.B. Geschlecht), dann ist oft das gleiche Vorhandensein (n11) bzw. die gleiche Abwesenheit (n00) wichtig für ein Ähnlichkeitsmaß. Dann können Simple Matching, Hamman oder Tanimoto verwendet werden.
- Ist die Variable asymmetrisch, d.h. nur ein Kategorie spielt eine wesentliche Rolle (z.B. Krankheit aufgetreten), dann spielt oft nur das gleiche Auftreten (n11) eine Rolle. Dann können Dice, Jaccard, Kulczynskl, Ochiai, Braun, Simpson oder Sneath verwendet werden.
- Kappa, Phi und Yule können sowohl im symmetrischen als auch im asymmetrischen Fall verwendet werden.
Bei der Wahl des Ähnlichkeitmaßes sollten auch Zusammenhänge zwischen den Maßen berücksichtigt werden:
- Dice, Jaccard und Sneath sind monotone Funktionen voneinander
- Betrachtet man Simpson und Braun, so ist das harmonische Mittel Dice, das arithmetische Mittel Kulczynski und das geometrisches Mittel Ochiai. Aus der Ungleichung der Mittelwerte folgt
- Auch Hamman, Rogers und Simple matching weisen einen Zusammenhang auf.
Distanzmaß
Definition
Sei eine endliche Menge. Eine Funktion heißt Distanzmaß oder Distanzfunktion, falls gilt:
- und
Die Funktionswerte d(i,j) lassen sich zu einer symmetrischen -Matrix anordnen. Diese Matrix heißt Distanzmatrix.
Falls die Funktion d zusätzlich die Dreiecksungleichung erfüllt, ist sie eine Metrik. Häufig wird auch eine Metrik als Distanzfunktion bezeichnet.
Einige Distanzmaße
Für p metrische Variablen und zwei Beobachtungen i und j kann man folgende Maße definieren:
Distanzmaß d(i,j) Lr Euklidisch
L2Pearson
mit sk die Standardabweichung der Variable kCity-Block
Manhattan
L1Gower
mit rk die Spannweite der Variable kMahalanobis
mit S die Kovarianzmatrix der Variablen xiZusammenhang zwischen Ähnlichkeits- und Distanzmaßen
Allgemein kann man ein Distanzmaß aus einem Ähnlichkeitsmaß definieren durch[2]
- .
Einzelnachweise
- ↑ ShengLi Tzeng, Han-Ming Wu, Chun-Houh Chen: Selection of Proximity Measures for Matrix Visualization of Binary Data. In: Biomedical Engineering and Informatics, 2009. BMEI '09. 2nd International Conference on. 30. Oktober 2009, S. 1-9, doi:10.1109/BMEI.2009.5305137.
- ↑ Wolfgang Härdle, Léopold Simar: Applied Multivariate Statistical Analysis. 1. Auflage. Springer Verlag, Berlin 2003, ISBN 3540030794, S. 381.
Siehe auch
Literatur
- Joachim Hartung, Bärbel Elpelt: Multivariate Statistik. Lehr- und Handbuch der angewandten Statistik. Oldenbourg Verlag, München 1984, ISBN 3-486-28451-7
- Ludwig Fahrmeir, Alfred Hamerle: Multivariate statistische Verfahren. de Gruyter, Berlin 1984, ISBN 3-11-008509-7
Wikimedia Foundation.