Markow-Kette

  • 1Markow-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette, Markof Kette) ist ein spezieller stochastischer Prozess. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 2Markow-Kette — Markow Prozess * * * Mạṛkow Kette   [nach A. A. Markow], Markow Prozess …

    Universal-Lexikon

  • 3Irreduzible Markow-Kette — Irreduzibilität ist ein Attribut für diskrete Markow Ketten, welches vereinfacht aussagt, ob die Kette in mehrere Einzelketten auf Teilmengen des ursprünglichen Zustandsraumes zerlegt (reduziert) werden kann. Irreduzibilität ist vor allem bei der …

    Deutsch Wikipedia

  • 4Markow-Prozess — Markow Kette * * * Mạrkow Prozess   [nach A. A. Markow], Wahrscheinlichkeitstheorie: spezieller stochastischer Prozess, für dessen Verhalten in der Zukunft lediglich die Werte in der Gegenwart, nicht aber in der Vergangenheit eine Rolle spielen …

    Universal-Lexikon

  • 5Markow — ist der Familienname folgender Personen: Alexei Michailowitsch Markow (* 1979), russischer Radsportler Andrei Andrejewitsch Markow (1856–1922), russischer Mathematiker Andrei Sergejewitsch Markow (* 1980), russischer Bogenbiathlet Andrei… …

    Deutsch Wikipedia

  • 6Kette (Prinzip) — Kette wird vielfach als abstrakter Begriff im übertragenen Sinne für zusammenhängende Elemente beziehungsweise aufeinanderfolgende Abläufe aller Art genutzt. Naturwissenschaften In der Chemie gibt es Abläufe und Strukturen, die mit Ketten… …

    Deutsch Wikipedia

  • 7Markow'sche Prozesse — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 8Markow-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 9Markow-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 10Markow-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia