Übergangsmatrix

Übergangsmatrix

In der Mathematik, besonders der Wahrscheinlichkeitstheorie und Statistik bezeichnet eine Übergangsmatrix (manchmal auch Stochastische Matrix) eine quadratische Matrix, deren Zeilen- oder Spaltensummen Eins betragen und deren Elemente zwischen Null und Eins liegen. Die Übergangswahrscheinlichkeiten einer diskreten Markow-Kette können durch eine Übergangsmatrix ausgedrückt werden.

Inhaltsverzeichnis

Beispiel für eine Übergangsmatrix P

P = \begin{bmatrix}
0.5 & 0.3 & 0.2 \\
0.2 & 0.4 & 0.4 \\
0.3 & 0.3 & 0.4 \end{bmatrix}

Das charakteristische Polynom dieser 3x3-Übergangsmatrix lässt sich sehr leicht berechnen.

Sei dazu

\begin{align}S & := \operatorname{Spur}(P)\\
D & := \det(a)\end{align}

dann gilt:

\begin{align}\chi_A(\lambda) & = \lambda^3 - S \cdot \lambda^2 + (S+D-1) \cdot \lambda - D\\
& = ( \lambda - 1 ) \cdot ( \lambda^2 - (S-1) \cdot \lambda + D )\end{align}

Aus der letzten Zeile ergibt sich, dass λ = 1 stets Eigenwert der Matrix P ist, d.h. unabhängig von der Wahl der Koeffizienten von P, die anderen beiden Eigenwerte lassen sich dann gegebenenfalls bequem über die p-q-Formel errechnen.

Hieraus folgt wiederum, dass die Matrix P zumindest einen stationären Zustand hat, sowie – falls dieser eindeutig ist – eine Grenzverteilung!

Anwendung zur Charakterisierung diskreter Markow-Ketten

Wenn Zustandswahrscheinlichkeiten in Zeilenvektoren geschrieben werden, bezeichnet das Matrizenelement pij, wobei i die Zeilennummer und j die Spaltennummer darstellt, die Wahrscheinlichkeit eines Übergangs vom Zustand i in den Zustand j. Hier müssen jeweils die Zeilensummen gleich 1 sein.

Dadurch lässt sich durch die Multiplikation eines Zustandswahrscheinlichkeitsvektors mit der Übergangsmatrix der Zustandswahrscheinlichkeitsvektor für den nächsten Zustand bestimmen. Folglich lässt sich die Zustandswahrscheinlichkeit für den übernächsten Zustand durch Multiplikation mit dem Quadrat der Übergangsmatrix bestimmen etc. pp.

Eine besondere Rolle kommt den Eigenvektoren dieser Matrix zu, denn diese stellen die Grenzverteilung der Markow-Kette nach langer Zeit dar, wenn diese eine vom Anfangszustand unabhängige ergodische Verteilung besitzt.

Eine Beispielrechnung: Die Katze und die Maus

Wir stellen uns vor, wir hätten fünf nebeneinander liegende Boxen, durchnummeriert von eins bis fünf, und in der ersten Box möge sich die Katze und in der letzten die Maus befinden. Nach einer festen Rundenzeit wechseln die Tiere zufällig in eine Nachbarbox. Das makabre Spiel hat ein Ende, wenn die Katze in einer Box auf die Maus trifft. Wir bezeichnen die möglichen Zustände mit (i,j), d. h. die Katze ist in der i-ten und die Maus in der j-ten Box. Wir sehen sofort, dass wenn i gerade (ungerade) ist, j ebenfalls gerade (ungerade) sein muss. Sofort ist auch klar, dass  i\le j gelten muss. Die Markow-Kette, die dieses Spiel beschreibt, hat also die folgenden fünf Zustände:

   * (1,3)
   * (1,5)
   * (2,4)
   * (3,5)
   * Spielende (2,2), (3,3) und (4,4).

Der Vektor v gebe an, welcher dieser fünf Zustände vorliegt. Beispielsweise steht v = [1,0,0,0,0] für den ersten Zustand unserer Auflistung, also (1,3), und v = [0,0,0,0,1] für den letzten, also das Spielende (egal, in welcher Box).

Die Übergangsmatrix A dazu ist nun


    A = \begin{bmatrix} 0 & 0 & 1/4 & 0 & 0 \\ 
                        0 & 0 & 1/4 & 0 & 0 \\ 
                      1/2 & 1 & 0 & 1/2 & 0 \\ 
                        0 & 0 & 1/4 & 0 & 0 \\ 
                      1/2 & 0 & 1/4 & 1/2 & 1 
\end{bmatrix}.

Wenn wir beispielsweise wie zu Beginn im 2. Zustand v = [0,1,0,0,0] sind, dann wechseln wir mit Sicherheit in den 3. Zustand v = [0,0,1,0,0], also Katze in der zweiten und Maus in der vierten Box. Daher ist in der Übergangsmatrix die Position in der 2. Spalte und 3. Zeile gleich eins.

Von diesem Zustand ausgehend kommen wir nun aber mit 25% Wahrscheinlichkeit in einen der anderen vier Zustände, daher sind alle Zeilen in der 3. Spalte gleich 1/4 (außer die 3. Zeile – der Zustand kann nicht derselbe bleiben).

Wir sind nun an der durchschnittlichen Spieldauer interessiert. Sei R die Rundenanzahl, dann gilt


E(R)=\sum_{k\ge 0} P(R= k) k=\sum_{k\ge 0} u \cdot A^k v k,

wobei

u = [1 / 2,0,1 / 4,1 / 2,0] ist (vergleiche mit der letzten Zeile von A).

Wir wenden nun den Trick an, dass

 \sum_{k\ge 0} k A^k = \frac{d}{dt} \sum_{k\ge 0} t^k A^k|_{t=1} ist.

Formal erhalten wir mit der Neumann-Reihe

 \sum_{k\ge 0} t^k A^k =(1-tA)^{-1},

wobei wir mit 1 die Einheitsmatrix bezeichneten.

Wir differenzieren nun und erhalten

 (1-tA)^{-2} A \,.

Wenn wir nun

 u \cdot (1-tA)^{-2} A v

berechnen und t=1 setzen, bekommen wir das Ergebnis, im Mittel dauert das Spiel 9 / 2 Runden.

Siehe auch

Übergangstabelle


Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Übergangsmatrix — pereinamoji matrica statusas T sritis automatika atitikmenys: angl. transition matrix vok. Übergangsmatrix, f rus. переходная матрица, f pranc. matrice de transition, f …   Automatikos terminų žodynas

  • Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”