Ergebnisraum

Ergebnisraum

Als Ergebnisraum, Ergebnismenge, Resultatenmenge oder Stichprobenraum bezeichnet man im mathematischen Teilgebiet der Stochastik die Menge aller möglichen Ergebnisse eines Zufallsexperiments, also die Menge aller Elementarereignisse.

Um den Ergebnisraum vollständig herauszufinden, ist häufig ein Entscheidungsbaum wegen der Übersichtlichkeit empfehlenswert. Eine beliebige Teilmenge eines Ergebnisraums wird als Ereignis bezeichnet.

Inhaltsverzeichnis

Beispiele

  • Beim Würfeln mit einem Würfel lautet der Ergebnisraum: Ω = {1,2,3,4,5,6}
  • Beim einfachen Münzwurf lautet der Ergebnisraum: Ω = {K,Z}; (K = Kopf, Z = Zahl)
  • Beim gleichzeitigen Münzwurf mit zwei unterscheidbaren Münzen lautet der Ergebnisraum: Ω = {Kk, Kz, Zz, kZ}; (K = Kopf, Z = Zahl (große Münze); k = Kopf, z = Zahl (kleine Münze))
  • Es ist durchaus möglich, dass es zu einem Zufallsexperiment zwei oder mehr vernünftige Ergebnisräume gibt. Betrachte man beispielsweise das Zufallsexperiment eine Karte aus einem Kartenspiel zu ziehen, so kann die Ergebnismenge die Kartenwerte (As, 2, 3, ...) oder die Farbenwerte (Kreuz, Pik, Herz, Karo) umfassen. Eine vollständige Aufzählung der Ergebnisse würde jedoch sowohl den Kartenwert als auch die Farbe berücksichtigen. Eine entsprechende Ergebnismenge kann als kartesisches Produkt der beiden vorausgegangenen Ergebnismengen erzeugt werden.

Bedeutung

Zur Berechnung der Wahrscheinlichkeit bei diskreten Ereignissen nach Laplace ist die Kenntnis der Mächtigkeit des Ergebnisraums unbedingt notwendig. Ergebnisräume treten auch bei Wahrscheinlichkeitsräumen auf. Ein Wahrscheinlichkeitsraum (Ω,Σ,P) baut auf einem Ergebnisraum Ω auf, definiert aber eine Menge von „interessanten Ereignissen“, die Ereignisalgebra Σ, auf der das Wahrscheinlichkeitsmaß P definiert wird. Für eine explizitere Darstellung im Kontext und mit einem Beispiel siehe in den Artikel Wahrscheinlichkeitstheorie.

Begriffswirrwarr: Ereignisraum – Ergebnisraum

In der Literatur wird nicht immer sorgfältig zwischen den Begriffen Ereignisraum und Ergebnisraum unterschieden. Deshalb kommt es vor, dass der Ergebnisraum als Ereignisraum bezeichnet wird.

Literatur

  • Rainer Schlittgen: Einführung in die Statistik: Analyse und Modellierung von Daten. 9. Auflage, Oldenbourg, München Wien 2000, ISBN 3-486-25465-0

Wikimedia Foundation.

Игры ⚽ Поможем решить контрольную работу

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Informationsdichte — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Informationsentropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Maximale Entropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Maximalentropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Shannon-Entropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Shannonentropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… …   Deutsch Wikipedia

  • Diskrete Zufallsvariable — Eine Zufallsvariable oder Zufallsgröße (selten stochastische Variable oder stochastische Größe) ist ein Begriff aus dem mathematischen Teilgebiet Stochastik. Man bezeichnet damit eine Funktion[1], die den Ergebnissen eines Zufallsexperiments… …   Deutsch Wikipedia

  • Entropie (Informationstheorie) — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Das… …   Deutsch Wikipedia

  • IID — Eine Zufallsvariable oder Zufallsgröße (selten stochastische Variable oder stochastische Größe) ist ein Begriff aus dem mathematischen Teilgebiet Stochastik. Man bezeichnet damit eine Funktion[1], die den Ergebnissen eines Zufallsexperiments… …   Deutsch Wikipedia

  • Stetige Zufallsvariable — Eine Zufallsvariable oder Zufallsgröße (selten stochastische Variable oder stochastische Größe) ist ein Begriff aus dem mathematischen Teilgebiet Stochastik. Man bezeichnet damit eine Funktion[1], die den Ergebnissen eines Zufallsexperiments… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”