Filtration (Stochastik)

Filtration (Stochastik)

Der Begriff Filtrierung (auch Filtration, Filterung oder Filtern) bezeichnet in der Theorie der stochastischen Prozesse eine Familie von verschachtelten σ-Algebren, welche die zu verschiedenen Zeitpunkten verfügbare Information über den Verlauf von zufälligen Prozessen modelliert.

Inhaltsverzeichnis

Definition

Sei T eine beliebige geordnete Indexmenge und (\Omega, \mathcal A, P) ein Wahrscheinlichkeitsraum.

Eine Familie  (\mathcal{F}_t),t \in T, von σ-Algebren heißt Filtrierung, falls (\mathcal F_t), t \in T, aufsteigend geordnet ist, das heißt, dass für alle  s,t \in T, s<t: \mathcal{F}_s \subseteq \mathcal{F}_t gilt.

Eine alternative Definition fordert zusätzlich, dass die Familie der σ-Algebra rechtsseitig stetig ist, dass also gilt:

 \forall t \in T: \;\; \bigcap_{s>t}\mathcal{F}_s = \mathcal{F}_t .

Ein stochastischer Prozess (X_t), t \in T, heißt an die Filtrierung  (\mathcal{F}_t),t \in T, angepasst (oder adaptiert), wenn Xt stets \mathcal F_t-messbar ist für alle t.

(\Omega, \mathcal A, (\mathcal F_t)_{t \in T}, P) heißt gefilterter Wahrscheinlichkeitsraum, wenn die \mathcal F_t Sub-σ-Algebren von \mathcal A sind.

Verwendung des Begriffes

Der Begriff der Filtrierung ist unerlässlich, um, ausgehend vom Begriff des stochastischen Prozesses, wichtige Begriffe wie Martingale oder Stoppzeiten einzuführen.

Als Menge T wird wie bei stochastischen Prozessen meist  \mathbb{R}_+ oder  \mathbb{N}_0 gewählt und t \in T als Zeitpunkt interpretiert.

σ-Algebren modellieren verfügbare Information. Die Mengen der σ-Algebra \mathcal{F}_t geben zu jedem Zeitpunkt t an, wie viele Informationen zur Zeit bekannt sind. Für jedes Ereignis  A \subseteq \Omega bedeutet  A \in \mathcal{F}_t übersetzt, dass zum Zeitpunkt t die Frage „ist \omega \in A?“ eindeutig mit „ja“ oder „nein“ beantwortet werden kann. Dass die Filtrierung stets aufsteigend geordnet ist, bedeutet demnach, dass eine einmal erlangte Information nicht mehr verloren geht.

Ist ein stochastischer Prozess (X_t), t \in T, an eine Filtrierung  (\mathcal{F}_t),t \in T, adaptiert, bedeutet dies also, dass der Verlauf der Funktion t \mapsto X_t(\omega) im Intervall [0,t] zum Zeitpunkt t (für beliebiges, aber unbekanntes  \omega \in \Omega und in Hinsicht auf die durch Ereignisse A \in \mathcal F_s, s \in [0,t] formulierbaren Fragen) bekannt ist.

Der Begriff wird aufgrund seiner Bedeutung in den meisten fortgeschrittenen Lehrbüchern über stochastische Prozesse definiert. In einigen Lehrbüchern, zum Beispiel im Buch Probability von Albert N. Schirjajew, wird der Begriff aus didaktischen Gründen zunächst umfassend für Prozesse mit diskreten Werten in diskreter Zeit eingeführt.

Beispiele

  • Natürliche Filtrierung: Ist (X_t),t \in T ein stochastischer Prozess, so wird das durch \mathcal{F}_t:=\sigma({X_s;s \le t}) erzeugte System als natürliche Filtrierung des Prozesses bezeichnet (σ bezeichnet dabei den σ-Algebren-Operator). Es ist also zu jedem Zeitpunkt t die vollständige Information über den vergangenen Verlauf des Prozesses bis einschließlich zum Zeitpunkt t vorhanden.
  • Filtrierung der vollständigen Information: Durch \mathcal{F}_t:=\mathcal{A}\;\forall t \in T wird die Filtrierung der vollständigen Information definiert. Hier ist also zu jedem Zeitpunkt t die vollständige Information vorhanden.

Spezielle Eigenschaften

Die zur Filtrierung \mathcal{F} gehörende terminale σ-Algebra erfüllt  \mathcal{F}_\infty = \sigma\left(\bigcup_{t \in T} \mathcal{F}_t\right) .

Zu einem beliebigen Zeitpunkt t \in \R definiert man als linken Grenzwert der Filtrierung die σ-Algebra  \mathcal{F}_{t-} := \sigma\left(\bigcup_{s<t} \mathcal{F}_s\right) .
Dabei gilt stets \mathcal{F}_{t-} \subseteq \mathcal{F}_t. Stimmen Filtrierung und linker Grenzwert zu jedem Zeitpunkt überein, so heißt die Filtrierung linksseitig stetig. Eine stetige Filtrierung ist konsequenterweise eine solche, die links- und rechtsseitig stetig ist.

Literatur

  • Daniel Revuz, Marc Yor: Continuous Martingales and Brownian motion. Springer-Verlag, New York 1999, ISBN 3-540-64325-7.
  • A. N. Shiryayev: Probability. Springer-Verlag, New York 1984, ISBN 3-540-90898-6.

Wikimedia Foundation.

Игры ⚽ Поможем решить контрольную работу

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Semimartingale — Als Semimartingale werden in der Stochastik bestimmte Prozesse bezeichnet, die insbesondere für die Definition eines allgemeinen stochastischen Integrals von Bedeutung sind. Die Klasse der Semimartingale umfasst viele bekannte stochastische… …   Deutsch Wikipedia

  • Doob'sche Maximalungleichung — Die Doobsche Maximalungleichung ist eine der zentralen Ungleichungen in der Stochastik. Neben der Burkholder Ungleichung ist sie eine der gängigsten Berechungsmethoden für die (stochastische) Größenordnung von (stetigen) Martingalen. Formulierung …   Deutsch Wikipedia

  • Doob'sche Ungleichung — Die Doobsche Maximalungleichung ist eine der zentralen Ungleichungen in der Stochastik. Neben der Burkholder Ungleichung ist sie eine der gängigsten Berechungsmethoden für die (stochastische) Größenordnung von (stetigen) Martingalen. Formulierung …   Deutsch Wikipedia

  • Doobsche Ungleichung — Die Doobsche Maximalungleichung ist eine der zentralen Ungleichungen in der Stochastik. Neben der Burkholder Ungleichung ist sie eine der gängigsten Berechungsmethoden für die (stochastische) Größenordnung von (stetigen) Martingalen. Formulierung …   Deutsch Wikipedia

  • Semimartingal — Als Semimartingale werden in der Stochastik bestimmte Prozesse bezeichnet, die insbesondere für die Definition eines allgemeinen stochastischen Integrals von Bedeutung sind. Die Klasse der Semimartingale umfasst viele bekannte stochastische… …   Deutsch Wikipedia

  • Doobsche Maximalungleichung — Die Doobsche Maximalungleichung ist eine der zentralen Ungleichungen in der Stochastik. Neben der Burkholder Ungleichung ist sie eine der gängigsten Berechnungsmethoden für die (stochastische) Größenordnung von (stetigen) Martingalen.… …   Deutsch Wikipedia

  • Feynman-Kac-Formel — Der Satz von Feynman Kac ist ein Ergebnis der Wahrscheinlichkeitstheorie, das z. B. in der Finanzmathematik Anwendung findet. Er verbindet die Wahrscheinlichkeitstheorie mit der Theorie der partiellen Differentialgleichungen. Der Name geht… …   Deutsch Wikipedia

  • Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”