Markow-Prozess
1Markow-Prozess — Markow Kette * * * Mạrkow Prozess [nach A. A. Markow], Wahrscheinlichkeitstheorie: spezieller stochastischer Prozess, für dessen Verhalten in der Zukunft lediglich die Werte in der Gegenwart, nicht aber in der Vergangenheit eine Rolle spielen …
2Markow-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …
3Semi-Markow-Prozess — Ein Semi Markow Prozess (SMP), auch bekannt als Markow Erneuerungsprozess, ist eine Verallgemeinerung eines Markow Prozesses. Im Unterschied zu einem Markow Prozess, dessen Zustandsänderungen in gleichen Zeitabständen erfolgen, wird hierbei die… …
4Markow — ist der Familienname folgender Personen: Alexei Michailowitsch Markow (* 1979), russischer Radsportler Andrei Andrejewitsch Markow (1856–1922), russischer Mathematiker Andrei Sergejewitsch Markow (* 1980), russischer Bogenbiathlet Andrei… …
5Markow-Kette — Markow Prozess * * * Mạṛkow Kette [nach A. A. Markow], Markow Prozess …
6Markow'sche Prozesse — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …
7Markow-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …
8Markow-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …
9Markow-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …
10Markow-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette, Markof Kette) ist ein spezieller stochastischer Prozess. Man unterscheidet eine Markow Kette in… …