Chernoff-Ungleichung

Chernoff-Ungleichung

In der Wahrscheinlichkeitstheorie beschreibt die nach Herman Chernoff benannte Chernoff-Ungleichung eine obere Schranke für die Wahrscheinlichkeit, dass eine Sequenz unabhängiger Bernoulli-Experimente von ihrer erwarteten Anzahl an Erfolgen abweicht.

Die Chernoff-Ungleichung ist ein vielseitiges und vielfach verwendetes Hilfsmittel bei der Analyse von randomisierten Algorithmen in der Informatik.

Inhaltsverzeichnis

Satz

Sei X_1, X_2, \ldots, X_n eine Sequenz von n unabhängigen Bernoulli-Experimenten mit P[Xi = 1] = p und P[Xi = 0] = 1 − p. Demnach beschreibt pn die erwartete Anzahl an Erfolgen (Xi = 1) des Experiments.

1. Dann gilt für jedes δ > 0

P\left[ \sum X_i \geq (1+\delta)\cdot pn \right]
\leq \exp\left( -\frac{\min\{\delta,\delta^2\}}{3}pn \right)
2. Für jedes \delta \in [0,1] gilt:

P\left[ \sum X_i \leq (1-\delta)\cdot pn \right]
\leq \exp\left( -\frac{\delta^2}{2}pn \right)

Beweis der ersten Chernoff-Schranke

Sei t > 0 eine zunächst beliebige Konstante. Bezeichne Y im Folgenden zur Vereinfachung der Schreibweise eine neue Zufallsvariable vermöge Y = \exp\left( t \sum X_i \right). Auf Grund der Monotonie der Abbildung x \mapsto \exp(tx) folgt dann


P\left[ \sum X_i \geq (1+\delta)\cdot pn \right]
= P\left[Y \geq \exp\left(t(1+\delta)\cdot pn\right) \right]
= P\left[Y \geq k \textrm{E}\left[Y\right] \right]
\leq \frac{1}{k}
,

wobei k als k = \frac{\exp(t(1+\delta)pn)}{\textrm{E}[Y]} definiert ist und die letzte Abschätzung mittels Markow-Ungleichung folgt. Nun gilt


\textrm{E}\left[ \exp(tX_i) \right]
= (1-p) e^0 + p e^t
= 1 + (e^t-1)p

und somit


\textrm{E}\left[ Y \right]
= \textrm{E}\left[ \exp(t\sum X_i) \right]
= \textrm{E}\left[ \prod \exp(tX_i) \right]
= \prod \textrm{E}\left[ \exp(tX_i) \right]
= \left(1 + (e^t-1)p\right)^n
.

Damit folgt


\frac{1}{k} = e^{-t(1+\delta)pn} \left(1 + (e^t-1)p\right)^n
\leq e^{-t(1+\delta)pn} \cdot e^{(e^t-1)pn}
= e^{-t(1+\delta)pn + (e^t-1)pn}
.

Betrachte nun t = log(1 + δ). Dann gilt


\frac{1}{k} \leq e^{-(\log(1+\delta))(1+\delta)pn + \delta pn}
= e^{( \delta-(1+\delta)\log(1+\delta) ) pn}
.

Für einen Teil des Exponenten des rechten Terms

L(δ) = (1 + δ)log(1 + δ)

kann man mittels Kurvendiskussion und Taylor-Reihenentwicklung zeigen, dass stets L(\delta) \geq \delta+\frac{1}{3}\min\{\delta,\delta^2\} gilt. Auf Grund der Monotonie der Exponentialfunktion gilt:
\frac{1}{k} \leq e^{( \delta- (\delta+\frac{1}{3}\min\{\delta,\delta^2\}) ) pn}
= \exp\left( -\frac{\min\{\delta,\delta^2\}}{3}pn \right)
. Zusammen mit der ersten Abschätzung folgt die Behauptung.

Beweis der zweiten Chernoff-Schranke

Der Beweis der zweiten Schranke folgt technisch analog zur ersten Schranke.

Varianten

  • Eine allgemeine Variante der Chernoff-Ungleichung lässt sich mittels der Standardabweichung formulieren. Seien X_1, X_2, \ldots, X_n diskrete, unabhängige Zufallsvariablen mit E[Xi] = 0 und |X_i| \leq 1. Bezeichne σ2 die Varianz von X = \sum X_i. Dann gilt für jedes 0 < \lambda \leq 2\sigma:
P\left[\left|\sum X_i\right| \geq \lambda\sigma\right] \leq 2 \exp(-\frac{\lambda^2}{4})
Der Beweis ist technisch analog zu dem oben gezeigten.

Beispiele

  • Betrachte die folgende Frage: Wie wahrscheinlich ist es, beim zehnmaligen Wurf einer fairen Münze wenigstens siebenmal das Ergebnis "Zahl" zu erhalten? Die Münzwürfe stellen Bernoulli-Experimente X_1,X_2,\ldots,X_{10} mit pn = \frac{1}{2} \cdot 10 = 5 dar. Somit folgt nach der ersten Chernoff-Ungleichung:

P\left[ \sum X_i \geq 7 \right] = P\left[ \sum X_i \geq (1+\frac{4}{10})\cdot 5 \right]

\leq \exp\left( -\frac{\min\{\frac{4}{10},\frac{16}{100}\}}{3} \cdot 5 \right)
= \exp(-\frac{4}{15}) \approx 0{,}766\ldots
  • Man formuliere das obige Beispiel nur leicht um und frage stattdessen: Wie wahrscheinlich ist es, bei hundertmaligem fairen Münzwurf wenigstens siebzigmal das Ergebnis "Zahl" zu erhalten? Sofort erweist sich die erste Chernoff-Schranke als deutlich stärker:

P\left[ \sum X_i \geq 70 \right] = P\left[ \sum X_i \geq (1+\frac{4}{10})\cdot 50 \right]

\leq \exp\left( -\frac{\min\{\frac{4}{10},\frac{16}{100}\}}{3} \cdot 50 \right)
= \exp(-\frac{8}{3}) \approx 0{,}069\ldots

Literatur


Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Chernoff-Schranke — In der Wahrscheinlichkeitstheorie beschreibt die nach Herman Chernoff benannte Chernoff Ungleichung eine obere Schranke für die Wahrscheinlichkeit, dass eine Sequenz unabhängiger Bernoulli Experimente von ihrer erwarteten Anzahl an Erfolgen… …   Deutsch Wikipedia

  • Chernoff — Herman Chernoff (* 1. Juli 1923 in New York) ist ein US amerikanischer Mathematiker. Zu seinem Hauptarbeitsgebiet Statistik hat er mehrere fundamentale Beiträge geleistet. Nach ihm sind die Chernoff Ungleichung sowie die Chernoff Information… …   Deutsch Wikipedia

  • Chernoff-Gesichter — Herman Chernoff (* 1. Juli 1923 in New York) ist ein US amerikanischer Mathematiker. Zu seinem Hauptarbeitsgebiet Statistik hat er mehrere fundamentale Beiträge geleistet. Nach ihm sind die Chernoff Ungleichung sowie die Chernoff Information… …   Deutsch Wikipedia

  • Chebyshev-Ungleichung — In der Stochastik gibt die Tschebyschow Ungleichung eine untere Grenze für die Wahrscheinlichkeit an, dass ein Wert einer Zufallsvariable mit endlicher Varianz innerhalb eines bestimmten Bereiches um den Erwartungswert der Variable liegt. Damit… …   Deutsch Wikipedia

  • Tschebyscheff-Ungleichung — In der Stochastik gibt die Tschebyschow Ungleichung eine untere Grenze für die Wahrscheinlichkeit an, dass ein Wert einer Zufallsvariable mit endlicher Varianz innerhalb eines bestimmten Bereiches um den Erwartungswert der Variable liegt. Damit… …   Deutsch Wikipedia

  • Tschebyschew-Ungleichung — In der Stochastik gibt die Tschebyschow Ungleichung eine untere Grenze für die Wahrscheinlichkeit an, dass ein Wert einer Zufallsvariable mit endlicher Varianz innerhalb eines bestimmten Bereiches um den Erwartungswert der Variable liegt. Damit… …   Deutsch Wikipedia

  • Herman Chernoff — (* 1. Juli 1923 in New York) ist ein US amerikanischer Mathematiker. Zu seinem Hauptarbeitsgebiet Statistik hat er mehrere fundamentale Beiträge geleistet. Nach ihm sind die Chernoff Ungleichung sowie die Chernoff Information benannt. Chernoff… …   Deutsch Wikipedia

  • Tschebyschow-Ungleichung — In der Stochastik gibt die Tschebyschow Ungleichung eine untere Grenze für die Wahrscheinlichkeit an, dass ein Wert einer Zufallsvariable mit endlicher Varianz innerhalb eines bestimmten Bereiches um den Erwartungswert der Variable liegt. Damit… …   Deutsch Wikipedia

  • Hoeffding-Ungleichung — In der Wahrscheinlichkeitstheorie beschreibt die Hoeffding Ungleichung (nach Wassilij Hoeffding) die maximale Wahrscheinlichkeit, dass eine Summe von unabhängigen und beschränkten Zufallsvariablen stärker als eine Konstante von ihrem… …   Deutsch Wikipedia

  • Liste mathematischer Sätze — Inhaltsverzeichnis A B C D E F G H I J K L M N O P Q R S T U V W X Y Z A Satz von Abel Ruffini: eine allgemeine Polynomgleichung vom …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”