A-priori-Wahrscheinlichkeit

A-priori-Wahrscheinlichkeit

Die A-priori-Wahrscheinlichkeit (auch Anfangswahrscheinlichkeit [1], Vortest-, oder Ursprungswahrscheinlichkeit[2]) ist in den Naturwissenschaften ein Wahrscheinlichkeitswert, der aufgrund von Vorwissen (zum Beispiel symmetrische Eigenschaften eines Würfels) gewonnen wird. A-priori-Wahrscheinlichkeiten spielen insbesondere beim Bayesschen Wahrscheinlichkeitsbegriff eine wichtige Rolle.

Die älteste Methode für die Bestimmung von A-priori-Wahrscheinlichkeiten stammt von Laplace: Sofern es keinen expliziten Grund gibt, etwas anderes anzunehmen, wird allen elementaren Ereignissen dieselbe Wahrscheinlichkeit zugeordnet. Zum Beispiel sind bei einem Münzwurf die elementaren Ereignisse "Kopf" und "Zahl". Solange man keinen Grund hat, anzunehmen, die Münze sei manipuliert, wird man also beiden Ereignissen dieselbe Wahrscheinlichkeit 1/2 zuordnen.

Eine Erweiterung dieses Prinzips ist das Prinzip der maximalen Entropie. Hier wird davon ausgegangen, dass man schon etwas über das System weiß, aber noch nicht alles. Da die (Informations-)Entropie ein Maß für die Unsicherheit des Wissens ist, wird argumentiert, dass die A-priori-Wahrscheinlichkeit dadurch gegeben sein muss, dass ihre Entropie unter den mit dem Wissen verträglichen Wahrscheinlichkeitsverteilungen maximal ist, denn eine andere Verteilung würde zusätzliches Wissen implizieren. Im Fall, dass keine zusätzliche Information vorliegt, reduziert sich dieses Prinzip auf das Indifferenzprinzip.

Siehe auch

Einzelnachweise

  1. Arthur Pap: Analytische Erkenntnistheorie, Springer-Verlag, Wien 1955 S. 99.
  2. http://www.decisions.ch/publikationen/intuition_statistik.html

Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • A-Priori-Wahrscheinlichkeit — Die A priori Wahrscheinlichkeit (auch Anfangswahrscheinlichkeit [1], Vortest , oder Ursprungswahrscheinlichkeit[2]) ist in den Naturwissenschaften ein Wahrscheinlichkeitswert, der aufgrund von Vorwissen (zum Beispiel symmetrische Eigenschaften… …   Deutsch Wikipedia

  • Wahrscheinlichkeit — Die Wahrscheinlichkeit ist eine Einstufung von Aussagen und Urteilen nach dem Grad der Gewissheit (Sicherheit). Besondere Bedeutung hat dabei die Gewissheit von Vorhersagen. In der Mathematik hat sich mit der Wahrscheinlichkeitstheorie ein… …   Deutsch Wikipedia

  • Wahrscheinlichkeit — Wahr|schein|lich|keit 〈f.; ; unz.〉 das Wahrscheinlichsein, vermutete Richtigkeit, annähernde Gewissheit ● die Wahrscheinlichkeit, dass die Verschütteten tot sind, ist leider groß; aller Wahrscheinlichkeit nach wahrscheinlich * * *… …   Universal-Lexikon

  • A-posteriori-Wahrscheinlichkeit — Die A posteriori Wahrscheinlichkeit ist ein Begriff aus der bayesschen Statistik. Sie beschreibt den Wissensstand über einen unbekannten Umweltzustand θ nach der Beobachtung einer von θ abhängigen Zufallsgröße X. Inhaltsverzeichnis 1 Definition 2 …   Deutsch Wikipedia

  • A priori — Die lateinische Redewendung a priori (lat. „vom Früheren her“), welche von Aristoteles noch als vorausgehende Seinsursache verstanden wurde, bezeichnet ab Descartes das, was als Bedingung und Grundlage des Wissens von der Erfahrung als solcher… …   Deutsch Wikipedia

  • Subjektive Wahrscheinlichkeit — In der subjektiven Wahrscheinlichkeitsauffassung auch Subjektivismus gilt Wahrscheinlichkeit als Maß für die Sicherheit der persönlichen Einschätzung eines Sachverhaltes. Diese Sichtweise steht damit im Gegensatz zu den objektivistischen… …   Deutsch Wikipedia

  • Größte Wahrscheinlichkeit — Die Maximum Likelihood Methode (von engl. maximale Wahrscheinlichkeit) bezeichnet in der Statistik ein parametrisches Schätzverfahren. Inhaltsverzeichnis 1 Motivation 2 Eine heuristische Herleitung 3 Definition 4 Beispiel …   Deutsch Wikipedia

  • Maximale Wahrscheinlichkeit — Die Maximum Likelihood Methode (von engl. maximale Wahrscheinlichkeit) bezeichnet in der Statistik ein parametrisches Schätzverfahren. Inhaltsverzeichnis 1 Motivation 2 Eine heuristische Herleitung 3 Definition 4 Beispiel …   Deutsch Wikipedia

  • Bedingte Häufigkeit — Berechnung der relativen Häufigkeit als Mengendiagramm Die relative Häufigkeit oder bedingte Häufigkeit ist ein Maß der deskriptiven Statistik und in der elementaren Wahrscheinlichkeitsrechnung. Sie gibt den Anteil der Objekte mit dem gleichen… …   Deutsch Wikipedia

  • Prozentuale Häufigkeit — Berechnung der relativen Häufigkeit als Mengendiagramm Die relative Häufigkeit oder bedingte Häufigkeit ist ein Maß der deskriptiven Statistik und in der elementaren Wahrscheinlichkeitsrechnung. Sie gibt den Anteil der Objekte mit dem gleichen… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”