- Bedingte Erwartung
-
Bedingte Erwartungswerte und bedingte Wahrscheinlichkeiten bezüglich einer Teil-σ-Algebra stellen eine Verallgemeinerung von bedingten Wahrscheinlichkeiten dar. Sie werden unter anderem bei der Formulierung von Martingalen verwendet.
Inhaltsverzeichnis
Einleitung
Ein Beispiel
Wenn zwei unabhängige standardnormalverteilte Zufallsvariablen X und Y gegeben sind, kann man, ohne lange zu überlegen, den bedingten Erwartungswert der Zufallsvariable Z = 2X + Y − 3 angeben, d. h. den Wert, den man im Mittel für den Ausdruck 2X + Y − 3 erwartet, wenn man X kennt:
- E(Z | X) = 2X − 3
Diese Gleichung wirft jedoch mehrere technische Fragen auf, die generell eine etwas sorgfältigere Vorgehensweise bei der Definition erforderlich machen:
- Der Ausdruck E(Z | X) auf der linken Seite ergibt nur Sinn, wenn man X als eine Zufallsvariable auffasst. Man kann z. B. nicht für X den Wert 5 einsetzen und schreiben E(Z | 5) = 7.
- Wenn man X als eine Zufallsvariable auffasst, dann ist notwendigerweise der Ausdruck 2X − 3 auf der rechten Seite, der eine Funktion von X ist, ebenfalls eine Zufallsvariable. Der bedingte Erwartungswert ist somit eine Zufallsvariable.
- Wenn man eine Zufallsvariable X' durch X' = 2X definiert, gilt E(Z | X') = E(X' + Y − 3 | X') = X' − 3 = 2X − 3. Also hängt der bedingte Erwartungswert von Z nicht davon ab, welche Werte die Zufallsvariable in der Bedingung (X bzw. X') annimmt, sondern nur davon, welche Informationen die Werte implizieren. Diese Informationen können durch die von der Zufallsvariable erzeugte Teil-σ-Algebra beschrieben werden, die für X und X' übereinstimmt und die daher für eine allgemeine Definition verwendet werden kann.
- Die Gleichung E(Z | X) = 2X − 3 geht davon aus, dass Y für jeden einzelnen Wert von X standardnormalverteilt ist. Tatsächlich könnte man aber auch annehmen, dass Y im Fall X = 0 konstant 0 ist und nur in den übrigen Fällen standardnormalverteilt ist: Da das Ereignis X = 0 die Wahrscheinlichkeit 0 hat, wären X und Y insgesamt immer noch unabhängig und standardnormalverteilt. Man erhielte aber E(Z | X) = 2X − 3 nur noch, wenn X nicht 0 ist, und sonst E(Z | X) = 0. Das zeigt, dass der bedingte Erwartungswert nicht eindeutig festgelegt ist, und dass es, wenn überhaupt, nur sinnvoll ist, den bedingten Erwartungswert für alle Werte von X simultan zu definieren, da man ihn für einzelne Werte beliebig abwandeln kann.
Herleitung aus bedingten Wahrscheinlichkeiten
In einem Wahrscheinlichkeitsraum
gibt die bedingte Wahrscheinlichkeit P(A | B) an, wie wahrscheinlich das Ereignis A ist, wenn man Information über das Eintreten von B erhalten hat. Allgemeiner kann man nach der Wahrscheinlichkeit
fragen, die angibt, wie wahrscheinlich A ist, wenn man Information über das Eintreten bzw. Nichteintreten einer Menge
von Ereignissen erhalten hat. Man kann dabei annehmen, dass
eine σ-Algebra ist, denn die Information über bestimmte Ereignisse impliziert immer auch Information über die von den Ereignissen erzeugte σ-Algebra. Wenn die Information beispielsweise darin besteht, dass man den Wert von Zufallsvariablen
kennt, dann weiß man, unabhängig vom jeweiligen Wert, über alle Ereignisse der Form
Bescheid, d. h.
ist in diesem Fall die von den Zufallsvariablen erzeugte σ-Algebra
. Die Wahrscheinlichkeit
hängt dann davon ab, welchen Wert
annehmen, oder allgemein, welche Ereignisse von
eingetreten sind und welche nicht eingetreten sind, d. h.
ist eine Funktion von
, die messbar bezüglich
ist. In Analogie zur Fallunterscheidungsformel für die totale Wahrscheinlichkeit ergibt sich für jedes
,
was sich auch schreiben lässt als
, wobei 1A, 1B die Indikatorfunktion von A bzw. B ist.
Dieser Ansatz stellt eine Möglichkeit dar, den Begriff der bedingten Wahrscheinlichkeit P(A | B) zu verallgemeinern. Eine andere Möglichkeit ist, dass man den zur bedingten Wahrscheinlichkeitsverteilung
gehörenden Erwartungswert einer Zufallsvariable
betrachtet. Beide Ansätze werden in der nachfolgenden Definition kombiniert.
Definition
X sei eine reelle Zufallsvariable in einem Wahrscheinlichkeitsraum
und
sei eine Teil-σ-Algebra.
Eine reelle Zufallsvariable Y heißt bedingter Erwartungswert von X bezüglich
, geschrieben
, wenn folgende Bedingungen erfüllt sind:
- Y ist messbar bezüglich
und
- für alle
, für die E(1BY) definiert ist (endlich oder unendlich), gilt:
- E(1BY) = E(1BX).
Zwei verschiedene bedingte Erwartungswerte von X bezüglich
unterscheiden sich höchstens auf einer Nullmenge in
, wodurch sich die einheitliche Schreibweise
rechtfertigen lässt.
Ist
die von Zufallsvariablen
erzeugte σ-Algebra
, so schreibt man auch
.
Die bedingte Wahrscheinlichkeit eines Ereignisses
bezüglich
ist definiert als die Zufallsvariable
.
Da die bedingten Wahrscheinlichkeiten
verschiedener Ereignisse
somit ohne Bezug zueinander definiert sind und nicht eindeutig festgelegt sind, muss
im allgemeinen kein Wahrscheinlichkeitsmaß sein. Wenn dies jedoch der Fall ist, d. h. wenn man die bedingten Wahrscheinlichkeiten
,
zu einem stochastischen Kern π von
nach
zusammenfassen kann,
für alle
,
spricht man von regulärer bedingter Wahrscheinlichkeit.
Faktorisierung: Der bedingte Erwartungswert
, der als eine Funktion von ω definiert ist, lässt sich auch als eine Funktion von
darstellen: Es gibt eine messbare Funktion f, so dass
für alle
.
Existenz: Die allgemeine Existenz bedingter Erwartungswerte für integrierbare Zufallsvariablen (Zufallsvariablen, die einen endlichen Erwartungswert besitzen) lässt sich mit dem Satz von Radon-Nikodym zeigen. In der hier angegebenen Definition existiert der bedingte Erwartungswert
genau dann, wenn es eine Menge
gibt, so dass 1BX und
quasiintegrierbar sind, und es gilt dann
fast überall. (Man könnte auch letzteren Ausdruck für die Definition verwenden, um Fälle wie E(X | | X | ) = 0 für eine Cauchy-verteilte Zufallsvariable zu erfassen, würde dann aber inkonsistente Erwartungswerte erhalten.)
Reguläre bedingte Wahrscheinlichkeiten, auch in faktorisierter Form, existieren in polnischen Räumen mit der Borel-σ-Algebra, allgemeiner gilt: Ist Z eine beliebige Zufallsvariable mit Werten in einem polnischen Raum, so existiert eine Version der Verteilung
in der Form eines stochastischen Kerns π:
für alle
Beispiele
Einfache σ-Algebren: Ist
mit P(B) > 0, und besitzt B außer sich selbst und der leeren Menge keine Teilmengen in
, so stimmt der Wert von
auf B mit der herkömmlichen bedingten Wahrscheinlichkeit überein:
für alle
Rechnen mit Dichten: Ist
eine beschränkte Dichte der gemeinsamen Verteilung von Zufallsvariablen X,Y, so ist
die Dichte einer regulären bedingten Verteilung
in der faktorisierten Form.
Rechenregeln
Die Gleichungen sind, soweit nichts anderes angegeben ist, jeweils so zu verstehen, dass die linke Seite genau dann existiert (im Sinne der obigen Definition), wenn die rechte Seite existiert.
- Für die triviale σ-Algebra
ergeben sich einfache Erwartungswerte und Wahrscheinlichkeiten:
für alle
für alle
- Ist X unabhängig von
, so gilt
fast überall.
- Ist
oder X messbar bezüglich
, so gilt
fast überall.
- Turmeigenschaft: Für Teil-σ-Algebren
gilt
und
fast überall.
- Es gilt
fast überall, wenn X1 oder X2 einen endlichen Erwartungswert besitzt.
- Es gilt
fast überall für reelle Zahlen
.
- Monotonie: Aus
folgt
fast überall, wenn die bedingten Erwartungswerte existieren.
- Monotone Konvergenz: Aus
folgt
fast überall, wenn die bedingten Erwartungswerte existieren und
fast überall.
- Jensensche Ungleichung: Ist
eine konvexe Funktion, so gilt
fast überall, wenn die bedingten Erwartungswerte existieren.
- Ist Y messbar bezüglich
, so gilt
fast überall, wenn die bedingten Erwartungswerte existieren. Insbesondere ist
fast überall, d. h. der bedingte Erwartungswert
ist im Sinne des Skalarprodukts von L2(P) die orthogonale Projektion von X auf den Raum der
-messbaren Funktionen.
- Ist Y messbar bezüglich
und ist für jedes y im Bild von Y ein Ereignis Ay gegeben, so dass
eine messbare Menge ist, dann gilt
fast überall, sofern auf der rechten Seite eine reguläre bedingte Verteilung
verwendet wird.
Wikimedia Foundation.