Semi-Markow-Prozess

Semi-Markow-Prozess

Ein Semi-Markow-Prozess (SMP), auch bekannt als Markow-Erneuerungsprozess, ist eine Verallgemeinerung eines Markow-Prozesses. Im Unterschied zu einem Markow-Prozess, dessen Zustandsänderungen in gleichen Zeitabständen erfolgen, wird hierbei die Verweildauer in einem Zustand durch einen weiteren stochastischen Prozess gegeben.

Inhaltsverzeichnis

Definition

In der Theorie der stochastischen Prozesse ist ein Semi-Markow-Prozess Z gegeben durch ein Paar von Prozessen W = (X,Y). X ist dabei eine Markow-Kette mit Zustandsraum S und Übergangsmatrix P (sog. steuernde Kette). Y ist ein Prozess, für den Y(n) nur von r = X(n − 1) und s = X(n) abhängt. Die Verteilungsfunktion ist dabei durch Frs gegeben.

Der Semi-Markow-Prozess Z ist dann derjenige Prozess, dessen Zustand zum Zeitpunkt n aus S entsprechend X(n) bestimmt ist. Die Verweildauer von X(n − 1) bis X(n) ist dann gegeben durch Y(n).

Eigenschaften

Da die Eigenschaften von Y abhängig sind sowohl vom aktuellen Zustand X(n − 1) als auch vom Folgezustand X(n) ist die Markow-Eigenschaft im Allgemeinen nicht erfüllt. Dennoch ist der Prozess W(n) = (X(n),Y(n)) ein Markow-Prozess. Dies erklärt auch den Namen Semi-Markow-Prozess.

Anwendungen

Systeme beispielsweise in der Warteschlangentheorie weisen Eigenschaften auf, die mit einfachen Markow-Prozessen nicht immer abgebildet werden können. Als Beispiel sei hier die Autokorrelation genannt. Um dies zu erreichen, werden oft Semi-Markow-Prozesse zur Modellierung der Ankunftsraten eingesetzt[1].

Einzelnachweise

  1. Kempken, Sebastian: Modellierung und verifizierte Analyse von zeitkorreliertem Datenverkehr im Internet VDI Verlag, Düsseldorf 2009, ISBN 978-3-18-380410-8

Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Semi-Markov-Prozess — Ein Semi Markow Prozess (SMP), auch bekannt als Markow Erneuerungsprozess, ist eine Verallgemeinerung eines Markow Prozesses. Im Unterschied zu einem Markow Prozess, dessen Zustandsänderungen in gleichen Zeitabständen erfolgen, wird hierbei die… …   Deutsch Wikipedia

  • Markow-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markow'sche Prozesse — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markow-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markow-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markow-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markow-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette, Markof Kette) ist ein spezieller stochastischer Prozess. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”