Stochastische Abhängigkeit

Stochastische Abhängigkeit

Unter Stochastischer Unabhängigkeit versteht man in stochastischer, d. h. wahrscheinlichkeitstheoretischer Hinsicht die Vorstellung, dass Ereignisse sich quantitativ, also in Bezug auf ihre Eintrittswahrscheinlichkeit, nicht beeinflussen.

Zum Beispiel geht man davon aus, dass zwei Würfe einer Münze voneinander unabhängig sind, wenn das Ergebnis des zweiten Wurfs nicht vom Ergebnis des ersten Wurfs abhängt. Als Beispiel für zwei voneinander abhängige Ereignisse kann man die Regenwahrscheinlichkeit an zwei aufeinander folgenden Tagen ansehen.

Insbesondere Ereignisse, die mit positiver Wahrscheinlichkeit eintreten und sich gegenseitig ausschließen oder bedingen, sind voneinander abhängig. Dass Ereignisse sich gegenseitig ausschließen, wird häufig mit deren Unabhängigkeit verwechselt.

Inhaltsverzeichnis

Stochastische Unabhängigkeit zweier Ereignisse

Definition

Es sei (Ω,Σ,P) ein Wahrscheinlichkeitsraum und A, B \in \Sigma seien zufällige Ereignisse, also messbare Teilmengen der Ergebnismenge Ω.

Dann heißen A und B stochastisch unabhängig, wenn

 P ( A \cap B ) = P ( A ) \cdot P ( B ),

das heißt, wenn die Wahrscheinlichkeit, dass beide Ereignisse gleichzeitig eintreten, gleich dem Produkt ihrer Einzelwahrscheinlichkeiten ist.

Wenn eines der Ereignisse (z. B. B) die Wahrscheinlichkeit 0 hat, dann gilt auch P(A \cap B)=0 und obige Definitionsgleichung ist erfüllt, ebenso wenn B die Wahrscheinlichkeit 1 hat, dann ist P(A \cap B)=P(A). Deshalb erhält man die trivialen Aussagen, dass jedes Ereignis A sowohl von jedem fast unmöglichen als auch von jedem fast sicheren Ereignis unabhängig ist.

Lässt man diese Trivialfälle außer Acht, dann erhält man unter Verwendung des wichtigen Begriffes der bedingten Wahrscheinlichkeit die folgenden äquivalenten Definitionen:

Zwei Ereignisse A und B mit P(A), P(B) > 0 sind genau dann unabhängig, wenn

  • P(A|B) = P(A)

oder

  •  P(A|B) = P(A|\bar B).

Beispiel

Betrachtet wird ein Wurf mit einem „idealen“ Würfel. Die Grundmenge Ω des Wahrscheinlichkeitsraumes sei also Ω = {ω1,...,ω6}, wobei ωi für das Elementarergebnis „die Zahl i wird gewürfelt“ steht. Die Sigma-Algebra Σ sei die Potenzmenge von Ω und das Wahrscheinlichkeitsmaß P ist definiert durch P({ωi}) = 1 / 6 für alle 1 \le i \le 6.Es werden nun zwei Ereignisse A und B definiert, wobei A = { es wird eine gerade Zahl gewürfelt } = 246} und B = { es wird eine durch drei teilbare Zahl gewürfelt } = 36} bedeuten sollen. Nach Definition des Wahrscheinlichkeitsmaßes ist also P ( A ) = 3 / 6 = 1 / 2 und P ( B ) = 2 / 6 = 1 / 3. Für den Durchschnitt von A und B (das heißt es wird eine sowohl durch 2 als auch durch 3 teilbare Zahl gewürfelt), erhält man A \cap B = \{ \omega_6 \} und damit P ( A \cap B ) = 1/6. Wegen

   P(A) \cdot P(B) = \frac12 \cdot \frac13 = \frac16 = P(A \cap B)

sind also die Ereignisse { es wird eine gerade Zahl gewürfelt } und { es wird eine durch drei teilbare Zahl gewürfelt } unabhängig.

Stochastische Unabhängigkeit mehrerer Ereignisse

Definition

Sei (Ω,Σ,P) ein Wahrscheinlichkeitsraum, I eine nichtleere Indexmenge und (\Sigma_i)_{i\in I} mit \Sigma_i\subset \Sigma für alle i\in I eine Menge nichtleerer Mengensysteme, so heißen (\Sigma_i)_{i\in I} stochastisch unabhängig, wenn für jede endliche Teilmenge, J\subset I und alle Wahlen A_j\in\Sigma_j mit j\in J gilt:

P(\cap_{j\in J} A_j) = \Pi_{j\in J} P(A_j).

Eine Menge von Zufallsvariablen heißt stochastisch unabhängig, wenn ihre Urbild-σ-Algebren stochastisch unabhängig bezüglich obiger Definition sind.

Beispiel

Folgendes Beispiel von Bernstein (1928) zeigt die paarweise Unabhängigkeit von drei Ereignissen A1, A2 und A3, die aber nicht gemeinsam (also A1, A2 und A3 gleichzeitig) unabhängig sind.

In einer Schachtel befinden sich 4 Zettel mit folgenden Zahlenkombinationen: 112, 121, 211, 222. Einer der Zettel wird zufällig (je mit Wahrscheinlichkeit 1/4) gezogen. Wir betrachten dann folgende drei Ereignisse:

A_1 = \lbrace 1 \ \mathrm{an \ erster \ Stelle} \rbrace mit P(A_1) = \frac{1}{2}
A_2 = \lbrace 1 \ \mathrm{an \ zweiter \ Stelle} \rbrace mit P(A_2) = \frac{1}{2}
A_3 = \lbrace 1 \ \mathrm{an \ dritter \ Stelle} \rbrace mit P(A_3) = \frac{1}{2}

Offensichtlich sind die drei Ereignisse paarweise unabhängig, da gilt

P(A_1 \cap A_2) = P(A_1) \cdot P(A_2) = \frac{1}{4}
P(A_1 \cap A_3) = P(A_1) \cdot P(A_3) = \frac{1}{4}
P(A_2 \cap A_3) = P(A_2) \cdot P(A_3) = \frac{1}{4}

Die drei Ereignisse sind jedoch nicht (gemeinsam) unabhängig, da gilt

P(A_1 \cap A_2 \cap A_3) = 0 \ne \frac{1}{8} = P(A_1) \cdot P(A_2) \cdot P(A_3)

Des Weiteren kann aus P(A_1 \cap A_2 \cap A_3) = P(A_1) \cdot P(A_2) \cdot P(A_3) nicht geschlossen werden, dass die drei Ereignisse paarweise unabhängig sind.

Bemerkungen

Bei methodisch korrektem Vorgehen kann man nicht einfach Unabhängigkeit vermuten, sondern man muss sie anhand obiger Formel überprüfen. Dabei ist meistens die gemeinsame Wahrscheinlichkeit P(A ∩ B) nicht von vornherein gegeben. Bei der praktischen Auswertung erhobener Daten kann man beispielsweise mit einem χ2-Test die Merkmale auf stochastische Unabhängigkeit testen.

Für die Analyse auf Abhängigkeit zweier Zufallsvariablen kann man auch testen, ob der Korrelationskoeffizient Null ist. Wenn die Hypothese abgelehnt wird, geht man davon aus, dass diese Variablen stochastisch abhängig sind. Der Umkehrschluss ist allerdings nicht zulässig, denn es können Abhängigkeitsstrukturen vorliegen, die der Korrelationskoeffizient nicht erfassen kann. Jedoch sind beispielsweise unkorrelierte, gemeinsam normalverteilte Zufallsvariablen auch stochastisch unabhängig.

Noch etwas weiter wird der Begriff der stochastischen Unabhängigkeit von Zufallsvariablen von Filtrationen gefasst: X heißt von \mathcal{F} unabhängig, wenn für F\in\mathcal{F} gilt:

\int_F X\, dP=\int_\Omega X I_F\, dP=\int_\Omega X\, dP \int_\Omega I_F\, dP.

Siehe auch


Wikimedia Foundation.

Игры ⚽ Поможем решить контрольную работу

Schlagen Sie auch in anderen Wörterbüchern nach:

  • stochastische Abhängigkeit — stochastinė priklausomybė statusas T sritis fizika atitikmenys: angl. stochastic dependence vok. stochastische Abhängigkeit, f rus. стохастическая зависимость, f pranc. dépendance stochastique, f …   Fizikos terminų žodynas

  • Abhängigkeit — steht für: Abhängigkeitssyndrom, ein Krankheitsbild in der Medizin und der Klinischen Psychologie Co Abhängigkeit, ein kontrovers beurteilter Begriff für bestimmte Formen einer Beziehungsstörung Datenabhängigkeit, in der Informatik Dependenz, ein …   Deutsch Wikipedia

  • Abhängigkeit — Zusammenhang; Verhältnis; Beziehung; Verbindung; Relation; Bezug; Verknüpfung; Wechselbeziehung; Unselbständigkeit; Hörigkeit; Unmündigkeit; …   Universal-Lexikon

  • Stochastische Ordnung — Stochastische Ordnungen sind Ordnungsrelationen für Zufallsvariablen. Sie verallgemeinern das Konzept von größer und kleiner auf zufällige Größen und dienen zum Beispiel dem Vergleich von Risiken in der Versicherungswirtschaft. Die Theorie der… …   Deutsch Wikipedia

  • Stochastische Unabhängigkeit — ist ein fundamentales wahrscheinlichkeitstheoretisches Konzept, welches die Vorstellung von sich nicht gegenseitig beeinflussenden Zufallsereignissen formalisiert. Sind zwei Ereignisse stochastisch unabhängig, dann ändert sich die… …   Deutsch Wikipedia

  • Gewöhnliche stochastische Ordnung — Stochastische Ordnungen sind Ordnungsrelationen für Zufallsvariablen. Sie verallgemeinern das Konzept von größer und kleiner auf zufällige Größen und dienen zum Beispiel dem Vergleich von Risiken in der Versicherungswirtschaft. Die Theorie der… …   Deutsch Wikipedia

  • Copula (Mathematik) — Eine Copula (Pl. Copulas oder Copulae) ist eine Funktion, die einen funktionalen Zusammenhang zwischen den Randverteilungsfunktionen verschiedener Zufallsvariablen und ihrer gemeinsamen Wahrscheinlichkeitsverteilung angeben kann. Mit ihrer Hilfe… …   Deutsch Wikipedia

  • Partialkorrelation — Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt Moment Korrelation (von Bravais und Pearson, daher auch Pearson Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße)… …   Deutsch Wikipedia

  • Pearson-Koeffizient — Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt Moment Korrelation (von Bravais und Pearson, daher auch Pearson Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße)… …   Deutsch Wikipedia

  • Pearson-Korrelationskoeffizient — Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt Moment Korrelation (von Bravais und Pearson, daher auch Pearson Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße)… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”