Markow-Prozess

  • 21Wiener-Prozess — Zwei Beispielpfade eines Standard Wiener Prozesses Ein Wiener Prozess ist ein zeitstetiger stochastischer Prozess, der normalverteilte, unabhängige Zuwächse hat. Benannt wurde der Prozess, der auch als Brownsche Bewegung bekannt ist, nach dem… …

    Deutsch Wikipedia

  • 22Stochastischer Prozess — Die Brownsche Brücke, ein stochastischer Prozess Ein Stochastischer Prozess ist die mathematische Beschreibung von zeitlich geordneten, zufälligen Vorgängen. Die Theorie der stochastischen Prozesse stellt eine wesentliche Erweiterung der… …

    Deutsch Wikipedia

  • 23Bienaymé-Galton-Watson-Prozess — Der Galton Watson Prozess, benannt nach dem britischen Naturforscher Francis Galton (1822 1911) und seinem Landsmann, dem Mathematiker Henry William Watson (1827 1903), ist ein spezieller stochastischer Prozess, der benutzt wird, um die… …

    Deutsch Wikipedia

  • 24stochastischer Prozess — stochạstischer Prozẹss,   Stochastik: eine unendliche Familie von Zufallsvariablen Xt (mit t ∈ T ), die ein von der Zeit t abhängiges zufälliges Geschehen beschreibt. Die Indexmenge T kann abzählbar sein …

    Universal-Lexikon

  • 25Galton-Watson-Prozess — Der Galton Watson Prozess, benannt nach dem britischen Naturforscher Francis Galton (1822–1911) und seinem Landsmann, dem Mathematiker Henry William Watson (1827–1903), ist ein spezieller stochastischer Prozess, der benutzt wird, um die… …

    Deutsch Wikipedia

  • 26Bernoulli-Prozess — Ein Bernoulli Prozess ist ein zeitlich diskreter stochastischer Prozess, der aus einer endlichen oder abzählbar unendlichen Folge von unabhängigen Versuchen mit Bernoulli Verteilung besteht, d.h., für jeden der Zeitpunkte 1, 2, 3, ... wird… …

    Deutsch Wikipedia

  • 27Markoff — Markow bezeichnet: Markow (Ivenack), Ortsteil der Gemeinde Ivenack im Landkreis Demmin in Mecklenburg Vorpommern Markow ist ein russischer Familienname. Bekannte Namensträger sind: Alexei Markow (* 1979), russischer Radsportler Andrei… …

    Deutsch Wikipedia

  • 28Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 29Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia

  • 30Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …

    Deutsch Wikipedia