Forward-Algorithmus

Forward-Algorithmus

Der Forward-Algorithmus (auch Vorwärts-Algorithmus, Vorwärts-Prozedur) berechnet mit Hilfe der Forward-Variablen αt(i) für ein gegebenes Hidden-Markov-Modell λ die Wahrscheinlichkeit P einer Beobachtung O, d.h. P(O | λ). Er verwendet die Programmiermethode der dynamischen Programmierung.

Inhaltsverzeichnis

Markov-Modell

Das Markov-Modell λ ist definiert als λ = (S,A,B,π,V), wobei

  • S die Menge der verborgenen Zustände,
  • A die Matrix der Übergangswahrscheinlichkeiten,
  • B die Menge der Emissionswahrscheinlichkeiten,
  • π die Anfangswahrscheinlichkeitsverteilung für die möglichen Anfangszustände,
  • und V das Alphabet der beobachteten Symbole

bezeichnet.

Forward-Variable

Die Forward-Variable, d.h. die Wahrscheinlichkeit, zum Zeitpunkt t die Beobachtung O=(o_1,o_2,\ldots,o_t) gemacht zu haben und im Zustand si zu sein, ist:

\mathcal{\alpha}_t(i)=P(o_1,o_2,\ldots,o_t,q_t=s_i|\mathcal{\lambda})

Funktionsweise

αt(i) (und damit auch die Gesamtwahrscheinlichkeit P) lässt sich rekursiv berechnen:

1. Initialisierung
\mathcal{\alpha}_1(i)=P(o_1,q_1=s_i|\mathcal{\lambda})=\pi_i b_{i}(o_1)
2. Rekursion, 1<t\le T
\mathcal{\alpha}_{t}(j)=P(o_1,\ldots,o_{t},q_{t}=s_j|\mathcal{\lambda})=\sum_{i=1}^{|S|} \mathcal{\alpha}_{t-1}(i) a_{ij} b_{j}(o_{t})
3. Terminierung
P(\mathcal{\mathcal{O}|\lambda})=\sum_{i=1}^{|S|} \mathcal{\alpha}_T(i)

Komplexität

Der Algorithmus benötigt O( | S | 2T) Operationen und bietet ein effizientes Verfahren zur Berechnung der gesuchten Wahrscheinlichkeit P. Der Speicherbedarf liegt in O( | S | T), da zur Erreichung der polynomiellen Laufzeit alle αt(j) in einer |S|\times T Matrix gespeichert werden.

Wenn die Zwischenergebnisse von αt(j) für t < T nach der Beendigung der Rekursion nicht benötigt werden, dann reduziert sich der Speicherbedarf auf O( | S | ), da 2 Spaltenvektoren der Länge | S | ausreichen um αt − 1(j) und αt(j) in jedem Rekursionsschritt zu speichern.

Erläuterungen

Die Forward-Variable αt(i) wird zusammen mit der Backward-Variable βt(i) für den Baum-Welch-Algorithmus zur Lösung des mit Hidden-Markov-Modellen gegebenen Lernproblems benötigt.

Siehe auch

Literatur

  • Richard Durbin u. a.: Biological sequence analysis. Probabilistic models of proteins and nucleic acids. 11th printing, corrected 10. reprinting. Cambridge University Press, Cambridge u. a. 2006, ISBN 0-521-62971-3, S. 59.

Wikimedia Foundation.

Игры ⚽ Поможем сделать НИР

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Forward — (engl. „vorwärts“) steht für: Forward, englisch für Stürmer (Fußball) Small Forward und Power Forward, Flügelspieler im Basketball Sport, siehe Forward (Basketball) Forward (Wirtschaft), nicht börsengehandelte unbedingte Termingeschäfte aus der… …   Deutsch Wikipedia

  • Forward Ray Tracing — Raytracing (dt. Strahlverfolgung[1] oder Strahlenverfolgung[2], in englischer Schreibweise meist ray tracing, seltener ray shooting) ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung, also zur Ermittlung… …   Deutsch Wikipedia

  • Forward Raytracing — Raytracing (dt. Strahlverfolgung[1] oder Strahlenverfolgung[2], in englischer Schreibweise meist ray tracing, seltener ray shooting) ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung, also zur Ermittlung… …   Deutsch Wikipedia

  • Forward Error Correction — Vorwärtsfehlerkorrektur (kurz FEC von engl. forward error correction, manchmal auch EDAC, für engl. error detection and correction) ist eine Technik, die dazu dient, die Fehlerrate bei der Speicherung oder der Übertragung digitaler Daten zu… …   Deutsch Wikipedia

  • Backward-Algorithmus — Der Backward Algorithmus (auch Rückwärts Algorithmus, Rückwärts Prozedur) berechnet die Wahrscheinlichkeit, dass bei einem gegebenen Hidden Markov Modell M und einer beobachteten Symbolsequenz m das Modell sich zur Zeit i in dem Zustand s befand …   Deutsch Wikipedia

  • Viterbi-Algorithmus — Der Viterbi Algorithmus ist ein Algorithmus der Dynamischen Programmierung zur Bestimmung der wahrscheinlichsten Sequenz von versteckten Zuständen bei einem gegebenen Hidden Markov Model und einer beobachteten Sequenz von Symbolen. Diese… …   Deutsch Wikipedia

  • Baum-Welch-Algorithmus — In der Informatik und in statistischen Berechnungsmodellen wird der Baum Welch Algorithmus benutzt, um die unbekannten Parameter eines Hidden Markov Models (HMM) zu finden. Er nutzt den Forward Backward Algorithmus zur Berechnung von… …   Deutsch Wikipedia

  • HMM — Das Hidden Markov Model (HMM) ist ein stochastisches Modell, das sich durch zwei Zufallsprozesse beschreiben lässt. Ein Hidden Markov Model ist auch die einfachste Form eines dynamischen Bayesschen Netz. Der erste Zufallsprozess entspricht dabei… …   Deutsch Wikipedia

  • Hidden-Markov-Modell — Das Hidden Markov Model (HMM) ist ein stochastisches Modell, das sich durch zwei Zufallsprozesse beschreiben lässt. Ein Hidden Markov Model ist auch die einfachste Form eines dynamischen Bayesschen Netz. Der erste Zufallsprozess entspricht dabei… …   Deutsch Wikipedia

  • Hidden Markov Modell — Das Hidden Markov Model (HMM) ist ein stochastisches Modell, das sich durch zwei Zufallsprozesse beschreiben lässt. Ein Hidden Markov Model ist auch die einfachste Form eines dynamischen Bayesschen Netz. Der erste Zufallsprozess entspricht dabei… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”