Merkmalsvektor

Merkmalsvektor

Ein Merkmalsvektor fasst die (numerisch) parametrisierbaren Eigenschaften eines Musters in vektorieller Weise zusammen. Verschiedene, für das Muster charakteristische Merkmale bilden die verschiedenen Dimensionen dieses Vektors. Die Gesamtheit der möglichen Merkmalsvektoren nennt man den Merkmalsraum. Merkmalsvektoren erleichtern eine automatische Klassifikation, da sie die zu klassifizierenden Eigenschaften stark reduzieren (statt einem kompletten Bild muss zum Beispiel nur ein Vektor aus 10 Zahlen betrachtet werden). Häufig dienen sie als Eingabe für eine Clusteranalyse.

Inhaltsverzeichnis

Beispiele

Spracherkennung

In der Spracherkennung ist die Energie des Sprachsignals ein häufig benutztes Merkmal. Weiterhin werden MFCCs oder die auf Linearer Vorhersage beruhenden LPCs, linear predictive coefficients (auch: linear predictive coding) eingesetzt, sowie die zeitliche Veränderung dieser Größen (erste und zweite Ableitung nach der Zeit).

Wenn die ersten 13 MFCCs, die zugehörigen Ableitungen und die Energie zu einem Merkmalsvektor zusammengefasst werden, erhält man 40 Dimensionen.

Prosodieerkennung

Zur automatischen Extraktion von suprasegmentalen Einheiten werden in der Prosodieerkennung u.a. folgende Basismerkmale eingesetzt:

  • Die Grundfrequenz F0 bzw. der Grundfrequenzverlauf
  • verschiedene Maße der Energie des Signals
  • zeitliche Maße des Sprachsignals, z.B. Pausenlängen, Phonemlängen, etc

Bildverarbeitung

  • Energie des Bildes
  • Fourierkoeffizienten
  • Grauwerte

Texterkennung und Textanalyse

  • Buchstabenwahrscheinlichkeit
  • Silbenwahrscheinlichkeit
  • Wortwahrscheinlichkeit

Musterklassifikation

In der Musterklassifikation werden Muster anhand von ihren parametrisierbaren Eigenschaften, den Merkmalsvektoren, automatisch klassifiziert. Je besser die Merkmale gewählt wurden und je mehr Trainingsmaterial (also je größer die Stichprobe) vorhanden ist, desto besser gelingt eine Klassifikation. Eine größere Dimension in den Merkmalsvektoren bedeutet dabei einen größeren Bedarf an Trainingsmaterial, also auch einen größeren Trainingsaufwand und eine größere Trainingsdauer. Aber dafür erzielt man auch bessere Klassifikationsraten, also eine bessere Klassifikatorqualität. Eine geringe Anzahl von Dimensionen bedeutet dabei ein schnelleres Training und eine kleinere Stichprobe, aber auch geringere Qualität.

Funktionen auf Basismerkmalen als Einträge

Oftmals werden die Basismerkmale durch (gewichtete) Funktionen zu aussagekräfigeren Entscheidungswerten verrechnet. Diese Funktionen können Wahrscheinlichkeitsverteilungen berechnen oder Maximum Liklihood Werte, Prozentwerte, Verhältniswerte, ein Minimum, Maximum oder einen Durchschnitt bilden.

Siehe auch


Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Spracheingabe — Die Spracherkennung oder auch automatische Spracherkennung ist ein Teilgebiet der angewandten Informatik und der Ingenieurwissenschaften. Sie beschäftigt sich mit der Untersuchung und Entwicklung von Verfahren, die Automaten, insbesondere… …   Deutsch Wikipedia

  • Spracherkennung — Die Spracherkennung oder auch automatische Spracherkennung ist ein Teilgebiet der angewandten Informatik, der Ingenieurwissenschaften und der Computerlinguistik. Sie beschäftigt sich mit der Untersuchung und Entwicklung von Verfahren, die… …   Deutsch Wikipedia

  • K-Nearest-Neighbor — K Nächste Nachbarn in einer zweidimensionalen Punktmenge mit k=1 (dunkelblau) und k=5 (hellblau). Der Radius der Kreise ist nicht fest. Die Nächste Nachbarn Klassifikation ist eine parameterfreie Methode zur Schätzung von… …   Deutsch Wikipedia

  • Nächster-Nachbar-Klassifikator — K Nächste Nachbarn in einer zweidimensionalen Punktmenge mit k=1 (dunkelblau) und k=5 (hellblau). Der Radius der Kreise ist nicht fest. Die Nächste Nachbarn Klassifikation ist eine parameterfreie Methode zur Schätzung von… …   Deutsch Wikipedia

  • Nächster Nachbar Klassifikator — K Nächste Nachbarn in einer zweidimensionalen Punktmenge mit k=1 (dunkelblau) und k=5 (hellblau). Der Radius der Kreise ist nicht fest. Die Nächste Nachbarn Klassifikation ist eine parameterfreie Methode zur Schätzung von… …   Deutsch Wikipedia

  • Hyperquader — (nicht zu verwechseln mit Hyperwürfeln) positionieren in der Wirtschaftsinformatik bestimmte Merkmalsvektoren in einem n dimensionalen Raum und teilen diesen Werten bestimmte, zuvor trainierte Klassen zu. Meistens geschieht dieses durch ein n… …   Deutsch Wikipedia

  • Neuronales Gas — Neural Gas ein Künstliches neuronales Netz, angelehnt an die Self Organizing Maps und vorgestellt 1991 von Thomas Martinetz und Klaus Schulten. Das Neural Gas ist ein einfacher Algorithmus zur möglichst fehlerfreien Datenkodierung mit Hilfe von… …   Deutsch Wikipedia

  • Neuronen-Gas — Neural Gas ein Künstliches neuronales Netz, angelehnt an die Self Organizing Maps und vorgestellt 1991 von Thomas Martinetz und Klaus Schulten. Das Neural Gas ist ein einfacher Algorithmus zur möglichst fehlerfreien Datenkodierung mit Hilfe von… …   Deutsch Wikipedia

  • Abstandsklassifikator — Ein Abstandsklassifikator ist ein Begriff aus der mathematischen Statistik: Wird über die Zugehörigkeit eines Objektes zu einer Klasse entschieden, indem (im Merkmalsraum) der „Abstand“ des Objektes (z. B. ein Merkmalsvektor) zur Klasse… …   Deutsch Wikipedia

  • Iris-Scan — Iriserkennung mit einem Handgerät Die Iriserkennung ist eine Methode der Biometrie zum Zweck der Authentifizierung oder Identifizierung von Personen. Dafür werden mit speziellen Kameras Bilder der Iris (Regenbogenhaut) des Auges aufgenommen, mit… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”