Markow-Ungleichung

Markow-Ungleichung

In der Wahrscheinlichkeitstheorie gibt die Markow-Ungleichung (nach Andrei Andrejewitsch Markow) eine obere Schranke für die Wahrscheinlichkeit an, dass eine Zufallsvariable eine positive Konstante überschreitet.

Inhaltsverzeichnis

Satz

Sei (Ω,Σ,P) ein Wahrscheinlichkeitsraum und X:\Omega \rightarrow \mathbb{R} eine reelle Zufallsvariable und a eine positive, reellwertige Konstante und ferner h:\mathbb{R} \rightarrow [0,\infty[ monoton wachsende Funktion. Die allgemeine Markow-Ungleichung besagt dann:

P \left[ X \geq a \right] \leq \frac{\textrm{E}\left[h(X)\right]}{h(a)}.

Beweis

Sei IA(x) die charakteristische Funktion der Menge A. Dann gilt:

P \left[ X \geq a \right] = \int I_{\{X \geq a\}} \ dP \leq \int I_{\{X \geq a\}} \frac{h(X)}{h(a)} \ dP  \leq \frac{\textrm{E}\left[h(X)\right]}{h(a)}

Varianten

  • Setzt man h(x) = x und betrachtet die reelle Zufallsvariable | X | , so erhält man den bekannten Spezialfall der Markow-Ungleichung
P\left[|X| \geq a\right] \leq \frac{\textrm{E}\left[|X|\right]}{a}.
  • Betrachtet man a = c \cdot \textrm{E}[|X|] für ein c > 0, so folgt der bekannte Spezialfall der Markow-Ungleichung, welcher die Wahrscheinlichkeit für das c-fache Übertreffen des Erwartungswertes begrenzt:
P\left[|X| \geq c \cdot \textrm{E}[|X|] \right] 
\leq \frac{\textrm{E}\left[|X|\right]}{c \cdot \textrm{E}\left[|X|\right]} = \frac{1}{c}.
  • Ist h(x) = x2 und wendet man die Markow-Ungleichung auf eine Zufallsvariable Y = X − E[X] an, so erhält man eine Version der Tschebyschow-Ungleichung.
  • Für beschränkte Zufallsvariablen existiert die folgende Markow-artige Schranke für die Wahrscheinlichkeit, dass eine Zufallsvariable ihren Erwartungswert um den Faktor (1 − c) unterbietet. D.h., seien a,b \geq 0 und sei X eine Zufallsvariable mit |X| \leq a und \textrm{E}\left[|X|\right] \geq \frac{a}{b}. Dann gilt für alle c > 0:
P\left[ |X| \leq (1-c)\textrm{E}\left[|X|\right] \right] \leq 1-\frac{c}{b}.
Der Beweis dieser Aussage ist ähnlich dem Beweis der Markow-Ungleichung.[1]
  • Wählt man h(x) = etx, erhält man für geeignetes t eine sehr gute Abschätzung. Man kann zeigen, dass diese Abschätzung unter gewissen Voraussetzungen sogar optimal ist.

Einzelnachweise

  1. Piotr Indyk, Sublinear Time Algorithms for Metric Space Problems, Proceedings of the 31st Symposium on Theory of Computing (STOC'99), 428--434, 1999.

Siehe auch


Wikimedia Foundation.

Игры ⚽ Нужна курсовая?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Markow — ist der Familienname folgender Personen: Alexei Michailowitsch Markow (* 1979), russischer Radsportler Andrei Andrejewitsch Markow (1856–1922), russischer Mathematiker Andrei Sergejewitsch Markow (* 1980), russischer Bogenbiathlet Andrei… …   Deutsch Wikipedia

  • Ungleichung — Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Bitte hilf mit, die Mängel dieses… …   Deutsch Wikipedia

  • Markoff-Ungleichung — In der Wahrscheinlichkeitstheorie gibt die Markow Ungleichung (nach Andrei Andrejewitsch Markow) eine obere Schranke für die Wahrscheinlichkeit an, dass eine Zufallsvariable größer einer positiven Konstante ist. Inhaltsverzeichnis 1 Satz 1.1… …   Deutsch Wikipedia

  • Markov-Ungleichung — In der Wahrscheinlichkeitstheorie gibt die Markow Ungleichung (nach Andrei Andrejewitsch Markow) eine obere Schranke für die Wahrscheinlichkeit an, dass eine Zufallsvariable größer einer positiven Konstante ist. Inhaltsverzeichnis 1 Satz 1.1… …   Deutsch Wikipedia

  • Markovsche Ungleichung — In der Wahrscheinlichkeitstheorie gibt die Markow Ungleichung (nach Andrei Andrejewitsch Markow) eine obere Schranke für die Wahrscheinlichkeit an, dass eine Zufallsvariable größer einer positiven Konstante ist. Inhaltsverzeichnis 1 Satz 1.1… …   Deutsch Wikipedia

  • Markowsche Ungleichung — In der Wahrscheinlichkeitstheorie gibt die Markow Ungleichung (nach Andrei Andrejewitsch Markow) eine obere Schranke für die Wahrscheinlichkeit an, dass eine Zufallsvariable größer einer positiven Konstante ist. Inhaltsverzeichnis 1 Satz 1.1… …   Deutsch Wikipedia

  • Chebyshev-Ungleichung — In der Stochastik gibt die Tschebyschow Ungleichung eine untere Grenze für die Wahrscheinlichkeit an, dass ein Wert einer Zufallsvariable mit endlicher Varianz innerhalb eines bestimmten Bereiches um den Erwartungswert der Variable liegt. Damit… …   Deutsch Wikipedia

  • Tschebyscheff-Ungleichung — In der Stochastik gibt die Tschebyschow Ungleichung eine untere Grenze für die Wahrscheinlichkeit an, dass ein Wert einer Zufallsvariable mit endlicher Varianz innerhalb eines bestimmten Bereiches um den Erwartungswert der Variable liegt. Damit… …   Deutsch Wikipedia

  • Tschebyschew-Ungleichung — In der Stochastik gibt die Tschebyschow Ungleichung eine untere Grenze für die Wahrscheinlichkeit an, dass ein Wert einer Zufallsvariable mit endlicher Varianz innerhalb eines bestimmten Bereiches um den Erwartungswert der Variable liegt. Damit… …   Deutsch Wikipedia

  • Bernstein-Ungleichung — Die Bernstein Ungleichung ist eine Abschätzung aus der Wahrscheinlichkeitstheorie und wurde von Sergei Bernstein bewiesen. Sie ist eine Erweiterung der Hoeffding Ungleichung, deren Abschätzung durch eine zusätzliche Voraussetzung an die Varianz… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”