Stochastik

aus ZUM-Wiki, dem Wiki für Lehr- und Lerninhalte auf ZUM.de
Wechseln zu: Navigation, Suche
Kurzinfo

Stochastik ist die Lehre von Häufigkeiten und Wahrscheinlichkeiten innerhalb der Mathematik. Sie befasst sich also mit Wahrscheinlichkeitsrechung und Statistik.

Inhaltsverzeichnis

Grundlegende Begriffe der Stochastik

Zufallsexperimente und Ereignisse

Zufallsexperiment:

Es gibt Experimente, bei denen wir wissen, dass jeder Versuch zu genau dem gleichen Ergebnis führt. Dies bezeichnet man als ein deterministisches Denkschema

Beispiel: Hebt man einen Stein auf und lässt diesen los, fällt er mit Sicherheit zur Erde

Auf der anderen Seite gibt es Experimente, bei denen erfahrungsgemäß verschiedene Versuche des selben Experiments zu ganz verschiedenen Ergebnissen führen. Man sagt, dass der Ausgang dieses Versuchs "dem Zufall überlassen" ist. Dies bezeichnet man als ein stochastisches Denkschema.

Beispiel: Werfen eines Würfels, Ziehung der Lottozahlen

Zusammenfassend kommt man zu folgenden Eigenschaften eines Zufallsexperimentes:

- Unter den gleichen äußeren Bedingungen lässt sich das Experiment beliebig oft wiederholen.

- Es besitzt mehrere sich gegenseitig ausschließende Ergebnisse.

- Die Ergebnisse eines solchen Experimentes sind zufallsbedingt.


Ereignis:

Ein Ereignis ist in der Wahrscheinlichkeitsrechnung eine beliebige Menge "M" von Ergebnissen "E" eines Zufallsexperimentes.

Beispiel: Beim Würfelwurf gibt es die Ergebnisse: 1,2,3,4,5,6. Bei einer Frage wie zum Beispiel: "Wie oft kommt jede Zahl bei 100 Würfen vor?" betrachtet man jede Würfelzahl als ein einzelnes, unabhängiges Ergebnis. Die Ereignismenge M besteht also immer nur aus einer Zahl und es gibt 6 unterschiedliche Ergebnismengen (bei diesem Beispiel).

Führt man den Würfelwurf nun als Bernoulliexperiment durch zum Beispiel unter der Fragestellung "Wie hoch ist die Wahrscheinlichkeit bei 100 Würfen die 6 genau einmal zu würfeln?" dann hat man nur noch zwei Ereignismengen: 6 oder keine 6, wobei letztere (ausschließlich) die Ergebnisse 1,2,3,4,5 enthält.

Absolute und relative Häufigkeit

Absolute Häufigkeit: Die Absolute Häufigkeit gibt an, wie oft ein Ereignis A bei der Überprüfung einer Stichprobe vom Umfang n aufgetreten ist.

Beispiel: Von 100 Befragten benutzen 23 Papiertaschentücher und 77 Stofftaschentücher. Die absolute Häufigkeit für Papiertaschentücher ist also 23, für Stofftaschentücher 77.

Relative Häufigkeit: Unter relativer Häufigkeit versteht man einen Teil einer Gesamtstichprobe, der die gleichen Eigenschaften aufweist. Teilt man diesen Wert durch die Anzahl des Gesamtprobenumfangs, erhält man die relative Wahrscheinlichkeit. Dabei gilt, dass die Werte immer zwischen 0 und 1 liegen müssen, da im Fall des Wertes 0 keiner die gleichen Eigenschaften bzw. alle mit dem geforderten Merkmal auftreten, sollte der Wert 1 sein.

Beispiel: In einer 10. Klasse mit 30 Schülern bekommen 10 Personen genau 25€ im Monat. Die relative Häufigkeit ist also \frac{10}{30} = \frac{1}{3}=33,3%

Die absolute Häufigkeit ist ergo: H_{n}(A) = 10

und die relative Häufigkeit: h_{n}\left(A\right) = {{H_{n}(A)}\over{n}}

wobei h_{n}\left(A\right)= relative Häufigkeit und H_{n}\left(A\right)= absolute Häufigkeit

Lage- und Streumaße

Lagemaß

Auch Lageparameter

Die Festlegung der Lageparameter haben das Ziel, die Lage der Elemente der Stichprobe in Bezug auf eine Messskala zu beschreiben. Der uns bekannte Erwartungswert ergibt sich aus den Lageparametern.


Streumaß

Auch Streuungsmaß

Durch das Streuungsmaß lassen sich Aussagen über die Verteilung von Messwerten um den Mittelpunkt treffen ("Streuung um den Mittelwert") Man beschreibt die Streuung in der Statistik auch mit dem Begriff der Standardabweichung oder auch dem Varianzbegriff.

Wahrscheinlichkeitsbegriff

- Wahrscheinlichkeit ist die statistisch ermittelte durchschnittliche Häufigkeit, mit der ein bestimmter Fall eintritt.

- Wahrscheinlichkeit ist das Verhältnis, der in einem bestimmten Fall günstigen Ereignisse zur Anzahl der ungünstigen Ereignisse.


Laplace-Wahrscheinlichkeit

P(E)=\frac{\left| E \right|}{\left| \Omega  \right|} Die Wahrscheinlichkeit, dass ein Ereignis E eintritt, ist die Anzahl der für E günstigen Ergbnisse geteilt durch die Anzahl der möglichen Ergebnisse

Empirisches Gesetz der großen Zahl

Je häufiger ein Zufallsexperiment durchgeführt wird, das heißt, je größer n ist, desto mehr nähert sich die relative Häufigkeit eines Zufallsergebnisses an die theoretische Wahrscheinlichkeit, die für dieses Ergebnis gilt. d.h. Man muss einen Versuch sehr oft durchführen um eine relativ genaue Trefferwahrscheinlichkeit zu erzielen.

Berechnung von Wahrscheinlichkeiten (bis in die Unendlichkeit)

Additionssatz

Kennt man von zwei Ereignissen A und B die Wahrscheinlichkeiten P\left( A \right) , P\left( B \right) , so lässt sich für das Ereignis A \cup B (= "Addition") die Wahrscheinlichkeit berechnen. Allerdings braucht man dazu noch P(A \cap B).
Man berechnet die Wahrscheinlichkeit von A und addiert die Wahrscheinlichkeit von B dazu.
Jetzt berechnet man allerdings die Wahrscheinlichkeit für P\left( A \right) + P\left( B \right) , wobei die Ereignisse, die man in diesem Fall doppelt zählt, nämlich einmal durch P\left( A \right) \cdot P\left( B \right) und P\left( B \right) \cdot P\left( A \right) , noch einmal subtrahiert werden müssen.

Beispiel:
Experiment: Doppelwurf einer Münze. Ereignis E: Zahl im ersten oder zweiten Wurf. P\left( E \right)
E=A \cup B
Lösung:
A: Zahl beim ersten Wurf
B: Zahl beim zweiten Wurf

P\left( E \right)= P(A)+P(B)-P(A\cap{}B)
P\left( E \right) = 0,5+0,5-0,5^2
P\left( E \right) = 0,75

Pfadregeln

Entlang eines Pfades wird multipliziert, am Ende der Pfade wird addiert.

http://members.aol.com/nfinck/stochast/wuerfel.gif

Hier haben wir das Beispiel eines Würfels, der bis zu viermal geworfen wird, bei dem wir jedoch nur zwei Ereignisse betrachten: Entweder es wird die 1 gewürfelt, oder es fällt eine andere Zahl. Wir bieten jetzt die Wette: Es fällt nie eine 1.

Die Wahrscheinlichkeit dazu ist:  \frac{5}{6}\cdot \frac{5}{6}\cdot \frac{5}{6}\cdot \frac{5}{6} = \left(\frac{5}{6}\right)^4\approx 48% Die Gegenwahrscheinlichkeit ist: 1-\left(\frac{5}{6}\right)^4\approx 52% Diese lässt sich genauso gut anders ausrechnen, nämlich als Summe der Wahrscheinlichkeiten aller anderen Ereignisse: \frac{1}{6}+\frac{5}{6}\cdot \frac{1}{6}+\frac{5}{6}\cdot \frac{5}{6}\cdot \frac{1}{6}+\frac{5}{6}\cdot \frac{5}{6}\cdot \frac{5}{6}\cdot \frac{1}{6}\approx 52%.

Unabhängigkeit von Ereignissen

Die Ereignisse A und B werden unabhängig genannt, wenn Folgendes gilt: P(A \cap B) = P(A) \cdot P(B)


Mathematisch kann man das Wort "unabhängig" wie folgt deutlich machen: P(A) = {{P(A \cap B)} \over {P(B)}} = P(A \vert B).
Dies bedeutet, dass die Wahrscheinlichkeit für A gleich bleibt, auch wenn man die Bedingung B voraussetzt.


Beispiel:

Bei der Herstellung von Boulekugeln treten Fehler in der Formgebung mit einer Wahrscheinlichkeit von 2% auf. Unabhängig davon sind einige Kugeln aus fehlerhaftem Material gefertigt. Nur 90% derproduzierten Kugeln sind fehlerfrei. Obwohl uns nun keine direkten Angaben, über die Wahrscheinlichkeit mit der eine Kugel einen Materialfehler hat, gegeben sind, können wir dennoch alle fehlenden Angaben berechnen.

90% der produzierten Kugeln sind fehlerfrei, dass heißt sie haben weder einen Formfehler, noch einen Materialfehler. Daraus folgt:

0.9=\bar M*\bar F

0.9=(1-0.02) *\bar M \rightarrow \bar M= \frac{0.9}{0.98}\approx 0.9184 \rightarrow M \approx 1-0.9184=0.0816


Die Wahrscheinlichkeit für einen Materialfehler gilt aber nicht nur unter der Bedingung, dass ein Formfehler vorliegt, sondern auch für den Fall, dass kein Formfehler vorliegt. Ihre Wahrscheinlichkeit lässt sich also auf Grund ihrer Unabhängigkeit übertragen.


\ M=Wahrscheinlichkeit für einen Materialfehler

\bar M=Wahrscheinlichkeit für keinen Materialfehler

\bar F=Wahrscheinlichkeit für keinen Formfehler

\ F=Wahrscheinlichkeit für einen Formfehler

Bedingte Wahrscheinlichkeiten

Aus der Definition für unabhängige Ereignisse ergibt sich die Alternative der bedingten Wahrscheinlichkeit. Diese drückt die Wahrscheinlichkeit aus, mit der ein Ereignis A eintritt, unter der Bedingung, dass ein Ereignis B vorangegangen ist.

P(A|B) = \frac {P({A} \cap {B})} {P(B)}


Beispielsweise ist die bedingte Wahrscheinlichkeit P(„die Erde ist nass“|„es regnet“) (die Erde ist nass, wenn es regnet) meist groß, denn unter der Voraussetzung, dass es zu einem Zeitpunkt regnet, sollte man erwarten, dass die Erde nass wird. Eine bedingte Wahrscheinlichkeit fragt also nach, wie wahrscheinlich ein Ereignis ist, wenn ich ein anderes bereits kenne. In unserem Beispiel weiß ich, dass es regnet und frage mich, wie groß die Wahrscheinlichkeit ist, dass die Erde nass ist. Offensichtlich unterscheidet sich die bedingte Wahrscheinlichkeit von der unbedingten.

Am übersichtlichsten kann man die 4 Wahrscheinlichkeiten in einer Tabelle darstellen:

In der  \mathbf{Vier-Felder-Tafel}

\mathbf{A} \mathbf{\bar {A}} \mathbf{Summen}
\mathbf{B} P({A} \cap {B}) P({\bar A} \cap {B}) \mathbf{P(B)}
\mathbf{\bar B} P({A} \cap{\bar B}) P({\bar A} \cap{\bar B}) \mathbf{P(\bar B)}
\mathbf{Summen} \mathbf{P(A)} \mathbf{P(\bar A)} \mathbf{P(insg.)=1}

Hier bei sei  \mathbf{P(\bar A)} das Nichteintreten von  \mathbf{P(A)}
und dementsprechend ist  \mathbf{P(\bar B)} das Nichteintreten von  \mathbf{P(B)}

Ein Beispiel hierfür sind Krankheitsfälle und das Erkennen eines Kranken. Gibt es einen Test für eine Krankheit, so ist dieser meist nicht 100% sicher. Daher ergibt sich eine Wahrscheinlichkeit, mit der die Krankheit erkannt wird (=Sensivität) oder eine nicht-kranke Person als "krank" erkannt wird(=Spezifität).
Angenommen, 10% einer Bevölkerung sind an einer Krankheit erkrankt.
Die Sensivität des Tests beträgt 95%, die Spezifität 3%.
Die Vier-Felder-Tafel dafür sieht dann so aus:

Test \Downarrow zeigt \Downarrow an \mathbf{krank} \mathbf{gesund} \mathbf{Summen}
\mathbf{krank} \mathbf{10%*95%=9{,}5{%}} \mathbf{90%*3%=2{,}7{%}} \mathbf{P(B)=12{,}2{%}}
\mathbf{Gesund} \mathbf{10%*5%=0{,}5{%}} \mathbf{90%*97%=87{,}3{%}} \mathbf{P(\bar B)=87{,}8{%}}
\mathbf{Summen} \mathbf{P(A)=10{%}} \mathbf{P(\bar A)=90{%}} \mathbf{P(insg.)=1}


Bei dem Beispiel sieht man nochmal, dass die addierten Ergebnisse einer Spalte oder Reihe immer die Gesamtwahrscheinlichkeit für dieses Ereignis geben müssen.

Kombinatorik

Geordnete Stichprobe

- mit Zurücklegen

Bsp: Wir haben ein Fahrradschloss á 4 Zahlenräder mit Zahlen von 0 bis 9 zur Auswahl. Nun wollen wir wissen, wieviele Kombinationsmöglichkeiten wir haben. Da es ja bei Zahlenschlössern nicht das Gleiche ist, ob man eine Kombination von z.B. 1234 oder 4321 hat, ist dies eine geordnete Stichprobe, da hier die Reihenfolge wichtig ist.

Diese Eigenschaft einer geordneten Stichprobe, durch Vertauschen einzelner Elemente eine veränderte Zahlenanordnung zu bekommen (=d.h. die Reihenfolge der Ereignisse ist wichtig), nennt man Permutation.

Man kann aber immer wieder alle Zahlen von 0-9 "benutzen", darum ist es quasi ein "Ziehen mit Zurücklegen"

Nun aber zurück zum Beispiel: Wieviele Möglichkeiten gibt es also für eine Zahlenkombination in einem Zahlenschloss, das vier Räder hat, welches jeweils zehn Zahlen (die "0" gehört ja dazu) als Auswahlmöglichkeiten hat? Wir haben n=10 Möglichkeiten für k=4 Zahlenräder!

Also haben wir viermal hintereinander zehn verschiedene Möglichkeiten. Das heißt 10 mal 10 mal 10 mal 10 verschiedene Möglichkeiten, kurz: 10^4 Möglichkeiten.

Das Ergebnis dieses Versuchs ist also, dass man 10000 verschiedene Möglichkeiten für eine Zahlenkombination in einem Fahrradschloss hat, das vier Rädchen mit jeweils den Zahlen 0-9 hat.

Allgemein kann man somit bei einer geordneten Stichprobe "mit Zurücklegen" die Formel

n^k\,

anwenden, wobei hier n die Anzahl der Möglickeiten und k die Häufigkeit des "Ziehens" ist.

- ohne Zurücklegen

Bsp: Ein Türöffner mit Zahlencode hat die Zahlen 0-9 auf der Tastatur. Um in das Haus zu kommen, muss man die Zahlenkombination (natürlich in richtiger Reihenfolge - also "geordnete Stichprobe") eingeben. Diese Zahlenkombination besteht aus 6 Ziffern. Dieses Sicherheitssystem hat aber einen kleinen Nachteil: die Zahlenkombination darf keine Zahl mehr als einmal enthalten (diese Kombination würde das System als "zu unsicher" ablehnen). Das heißt, es ist quasi ein "Ziehen ohne Zurücklegen". Permutation ist jedoch vorhanden (die Reihenfolge der Ereignisse ist wichtig).

Nun will der Besitzer wissen, wie groß die Auswahlmöglichkeit für eine Zahlenkombination ist. Er hat bei der ersten Zahl 10 Möglichkeiten, eine Zahl zu wählen, bei der zweiten 9 Möglichkeiten, da ja eine schon "vergeben" ist, bei der dritten 8 usw.... bis er bei der sechsten und letzten Zahl nur noch 5 Zahlen zur Auswahl hat. Er hat also 10*9*8*7*6*5 Möglichkeiten für eine Zahlenkombination.

Als Formel sieht das so aus (die Zahlen im Nenner kürzen sich ja mit den jeweiligen Zahlen im Zähler):

\frac{10*9*8*7*6*5*4*3*2*1}{4*3*2*1} = \frac{10!}{(10-6)!}

Der Besitzer des Sicherheitssystem hat somit 151200 Kombinationsmöglichkeiten der Zahlen in seinem Türöffner.

Allgemein: Man muss quasi für jedes vorangegangene Ereignis eine Möglichkeit abziehen: Die allgemeine Formel für geordnete Stichproben lautet also somit:

\frac{n!}{(n-k)!}

Wobei hier n die Anzahl der am Anfang möglichen Ereignisse ist und die k die Anzahl des "Ziehens" (bei dem Beispiel oben ist k die Anzahl der Zahlen in der Kombination).

Ungeordnete Stichprobe

- mit Zurücklegen

Beispiel: Gummibärchenorakel - Es werden aus einer sehr großen Zahl fünf Gummibärchen gezogen (So groß ist eine Gummibärchentüte nicht, aber die Bärchen in der Tüte wurden ja zufällig bei der Produktion in die Tüte gepackt. Also ist es im Prinzip das Selbe, wie wenn ich direkt aus einem Pot mit sehr vielen Gummibärchen ziehen würde.). Da man aus einer so großen Zahl zieht, zieht man praktisch mit Zurücklegen. Es gibt fünf verschiedene Gummibärchenfarben. Nun muss man sich überlegen, wie oft die jeweiligen Farben bei einer Ziehung gezogen werden können. Es können beispielsweise alle Farben einmal (1+1+1+1+1) oder eine Farbe fünf mal (5)gezogen werden.


Häufigkeit der Farben Anzahl der benutzten Farben Anzahl der Möglichkeiten
1+1+1+1+1 5 {5 \choose 5}=1 (Es werden aus fünf Farben fünf ausgewählt.)
1+1+1+2 4 {5 \choose 4}*{4 \choose 1}=20 (Es werden zunächst vier aus fünf Farben ausgewählt. Danach wird aus diesen vier wieder eine ausgewählt, welche doppelt vorkommt.)
1+1+3 3 {5 \choose 3}*{3\choose 1}=30 (Es werden zunächst drei aus fünf Farben ausgewählt. Danach wird aus diesen drei wieder eine ausgewählt, welche dreimal vorkommt.)
2+2+1 3 {5 \choose 3}*{3 \choose 2}=30 (Es werden zunächst drei aus fünf Farben ausgewählt. Danach werden aus diesen drei wieder zwei ausgewählt, welche doppelt vorkommen.)
1+4 2 {5 \choose 2}*{2 \choose 1}=20 (Es werden zunächst zwei aus fünf Farben ausgewählt. Danach wird aus diesen zwei wieder eine ausgewählt, welche viermal vorkommt.)
2+3 2 {5 \choose 2}*{2 \choose 1}=20 (Es werden zunächst zwei aus fünf Farben ausgewählt. Danach wird aus diesen zwei eine ausgewählt, welche zweimal vorkommt, und eine, welche dreimal vorkommt.)
5 1 {5 \choose 1}=5 (Es wird eine aus fünf Farben ausgewählt.)


In der Summe ergibt dies 126 Möglichkeiten.

Man kann aber auch die Formel {n-1+k \choose k} vewenden.

- ohne Zurücklegen

Beispiel: Lotto – Es werden aus 49 sechs Zahlen gezogen, wobei die Reihenfolge irrelevant ist. Für die erste gezogene Kugel gibt es 49, da ja alle 49 Kugeln vorhanden sind. Für die zweite gibt es nur noch 48 Möglichkeiten, da ja nun eine Kugel weniger da ist. Für die dritte Kugel gibt es nur noch 47 Möglichkeiten usw. Es ergibt sich also folgende Anzahl der Möglichkeiten (hier wird die Reihenfolge aber noch beachtet):

49*48*47*46*45*44\,

Dies lässt sich auch so schreiben: \frac{49!}{(49-6)!} = 1,007 * 10^{10} oder allgemein: \frac{n!}{(n-k)!}

n= gesamte Menge k= Zahl der Ausgewählten


Hier wird jetzt aber noch die Reihenfolge beachtet. Man hat also zu viele Möglichkeiten berechnet, da beispielsweise die Zahlen 1;2;3;4;5;6 dasselbe sind wie 6;5;4;3;2;1. Man muss sich also überlegen, wie viel man zu viel berechnet hat. Man hat ja sechs verschiedene Zahlen, die in verschiedenen Reihenfolgen gezogen werden können, aber eigentlich die selbe Kombination sind, da ja die Reihenfolge egal ist. Die Anzahl dieser Reihenfolgen ist 6 Fakultät, da es ja für die erste Kugel sechs Möglichkeiten gibt, für die Zweite fünf, für die Dritte vier und so weiter. Man hat also 6! mal so viele Möglichkeiten berechnet, wie es eigentlich gibt. Also teilt man den zu erst berechneten Wert durch Fakultät sechs.

\frac{49!}{(49-6)!* 6!} = 13983816 oder allgemein: \frac{n!}{(n-k)!*k!}

Diese allgemeine Form wird aber mit {n \choose k} (sprich: "n über k") abgekürzt und ist auf vielen Taschenrechnern unter nCr zu finden.


Zusammenfassung - Kombinatorik

Reihenfolge ist wichtig Reihenfolge ist unwichtig
Ziehen mit Zurücklegen n^k\, {n-1+k \choose k}= \frac{(n-1+k)!}{(n-1)!*k!}
Ziehen ohne Zurücklegen \frac{n!}{(n-k)!} {n \choose k}=\frac{n!}{(n-k)!\cdot k!}

Wahrscheinlichkeitsverteilungen

Zufallsgröße

Bei vielen Zufallsexperimenten ist weniger das tatsächliche Ergebnis als vielmehr die mit diesem verknüpfte Bedeutung entscheidend. So interessiert einen Roulettespieler das Ergebnis eines Wurfes nur insofern, als er daraus seinen persönlichen Gewinn oder Verlust erkennen kann.

Definition: Eine Zuordnung oder auch Abbildung, die jedem Ausgang eines Zufallsexperimentes eine reelle Zahl zumisst, nennt man Zufallsgröße oder auch Zufallsvariable. Man "übersetzt" im Grunde ein Ereignis, um so weiter mit ihm rechnen zu können.

 X:S\longrightarrow http://upload.wikimedia.org/math/6/9/a/69a45f1e602cd2b2c2e67e41811fd226.png wobei S die Ausgangsmenge eines Zufallsexperimentes, das heißt alle möglichen Ereignisse beinhaltet und X eine über S definierte Zufallsvariable ist, die jedem Ereignis a_1; a_2;...a_n\, einen Wert x_1, x_2;... x_n\, zuweist.

Es ergibt sich demnach:  X(a_1) = x_1\,


Beispiel:

Man wirft zwei Münzen , wobei das Ereignis Kopf (abgekürzet mit K) und das Ereignis Zahl (abgekürzt mit Z) mit einer Wahrscheinlichkeit von p= 0,5 eintreten. Nun soll die Zufallsgröße die Anzahl des Ereignisses "Kopf" angeben. Es gilt somit:

 X: \{ KK; KZ; ZK; ZZ \}\longrightarrow \{2;1;0\} oder auch: X(KK)=2;X(KZ;ZK)= 1; X(ZZ)=0\,

Nun wollen wir der von José Ortega y Gasset prognostizierten Eroberung der Öffentlichkeit durch die Masse und der damit verbundenen Banalisierung Tribut zollen und das ganze in die "Umgangssprache" transkribieren:

Beispiel aus dem alltäglichen Leben:

Nehmen wir an, ein Glückspieler, nennen wir ihn der Einfachheit halber Herr M., spielt folgendes Würfelspiel: Würfelt er eine 1 oder eine 2, so erhält er 300 € von der Bank, andernfalls muß er 150 € an die Bank bezahlen.

Nun würfelt er, und, da Herr M. ein Glückspilz ist, gleich eine Eins. Natürlich freut er sich und ruft: "Yeah, 300 € !".

Dabei vollzieht Herr M., da er nicht nur ein glücklicher, sondern auch ein überaus schlauer Mensch ist, schon unbewusst eine Zuordnung, indem er in seinem Ausruf ja weniger der gewürfelten Augenzahl als vielmehr dem mit dieser verbundenen Gewinn huldigt.

Drücken wir dies nun mit den oben gennanten Begriffen aus:

Die Ausgangsmenge S\, ist in unserem Beispiel  X: \{ 1; 2; 3; 4; 5; 6\}\,, nämlich die Augenzahlen des Würfels.

Die über S definierte, das heißt sich auf die mögliche Ergebnismenge beziehende Zufallsvariable kann man sich als die Regel des Spiels vorstellen, was im Grunde trivial ist, da man die Regeln dieses Spieles und nicht eines anderen auf die gewürfelte Augenzahl bezieht.

Und die reellen Zahlen, die die Zufallsvariable einem Ergebnis zumisst, sind in diesem Fall \{300; -150\} , also der dem entsprechenden Gewinn oder Verlust

Quelle: "Mathematisches Unterrichtswerk Lambacher-Schweizer" aus dem Klett Verlag, altes Mathebuch des Goethes

Erwartungswert

Als Erwartungswert kann man, vereinfacht, den Mittelwert bezeichnen, der sich bei mehrfacher Wiederholung eines Zufallsexperimentes unter der Beachtung der jeweilgen Zufallsgröße ergibt.

Diese kurzgefasste Definition wollen wir nun zunächst einmal in ihrer mathematischen Form betrachten.(Quelle kommt noch):

Die reele Zahl E(X) mit E(x) = x_1*P(X=x_1)+ x_2*P(X=x_2)+ .... +x_n*P(X=x_n) lautet der Erwartungswert der Zufallsvariable X. Oder anders gesagt: Der Erwartungswert E(X) ist

\sum_{k=1}^N x_k*P(X=x_k)\,

Beispiel Eins:

Um uns die Bedeutung dieser Formel klar zu machen, werden wir diese auf das Beispiel des vorherigen Artikels beziehen. Wir erinnern uns, bei einer gewürfelten Eins oder Zwei erhält Herr M. 300 Euro, andernfalls muss er 150 Euro zahlen.

Also istE(x) = \sum_{k=1}^6 x_k*\frac {1}{6}. Die Bedeutung dieser Formel kann man sich folgendermaßen vergegenwärtigen: mit jedem Wurf gewinnt Herr M. 2* \frac {1}{6} 300 €, wobei er auch "gleichzeitig" 4* \frac {1}{6} 150 € verliert. So gewinnt/verliert er im Mittel mit einem Wurf genau 0 €, d.h. auch wenn er das Spiel 300 Mal wiederholt, kann er seinen überschuldeten Kopf noch immer nicht aus der Schlinge seiner russischen Kreditgeber ziehen. Käme hingegen ein positiver/negativer Wert heraus, so besteht eine Tendenz zum Gewinn beziehungsweise Verlust, dass heißt der zu erwartende Ausgang nach n Wiederholungen wäre n *E(X)


Beispiel Zwei:

20% der Bürger sind Vegetarier! Man befragt 100 Bürger! Demnach ist zu erwarten, dass 20 der 100 befragten Bürger Vegetarier sind! Der Erwartungswert ist μ= 20 !

Er ergibt sich aus

\mu=n*p

\mu=Erwartungswert

n=Wiederholungen des Experiments (hier Anzahl der Befragten =100)

p=Wahrscheinlichkeit (hier 20%; p=0,2)


Wie wir nun in der letzten Stunde gesehen haben, bezieht sich das Beispiel Eins auf den allgemeinen Begriff des Erwartungswertes, während hingegen Beispiel Zwei nur für Bernoulli-Experimente gilt. Der Beweis der Gültigkeit der Formel \mu=n*p aus der allgemeinen Formel sieht wie folgt aus (Quelle: http://www.onlinemathe.de/read.php?topicid=1000013214&read=1&kat=Studium und http://www.mmnetz.de/huseyin/varianzbeweis.pdf):

Bei einer Bernulli-Kette ergibt sich die Wahrscheinlichkeit für den Eintritt einer Zufallsgröße aus den einzelnen Pfadwahrscheinlichkeiten, der Wert der Zufallsgröße sei sie selbst, also zum Beispiel hat k= 1 den Wert eins. Die Summe aller dieser Pfadwahrscheinlichkeiten mulipliziert mit der jeweiligen Zufallsgröße ist somit:

\sum_{k=1}^N k*{n \choose k}*p^k*(1-p)^{n-k}\,

Der Trick besteht nun darin, {n \choose k} geschickt umzuformen. Dafür machen wir uns erstmals klar, wie das ganze "ausgeschrieben" aussieht. Dabei ist ist {n \choose k} = \frac{n!}{k!*(n-k!)} , also ist k*{n \choose k}= \frac{n!}{(k-1)!*(n-k!)} (das k kürzt sich weg).

Das kann man nun wieder wie folgt schrieben: \frac{n*(n-1)!}{(k-1)!*(n-k!)} ,was wieder soviel bedeutet wie n*{n-1 \choose k-1}

Das setzt man nun in die allgemeine Gleichung ein, und erhält, wenn man n und p ausklammert:

 E(X)=n*p \sum_{k=1}^N {n-1 \choose k-1}*p^{k-1}*(1-p)^{n-k}\,

Der Einfachheit halber fügen wir neue Variablen ein, h für k-1 und i für n-1 und erhalten somit

 E(X)=n*p \sum_{h=0}^{i+1} {i \choose h}*p^{h}*(1-p)^{i+1-h-1}\ = n*p \sum_{h=0}^{i+1} {i \choose h}*p^{h}*(1-p)^{i-h}\

Das "Summenzeichen" beschreibt nun die Summe aller Wahrscheinlichkeiten für jede Zufallsgröße von 0 bis i+1, und die ist natürlich eins, somit ist E(x)=n*p



PS: Für Liebhaber http://www.mathematik.uni-ulm.de/stochastik/lehre/ws03_04/wr/skript/node42.html

Varianz

Vereinfacht ausgedrückt kann man sagen, die Varianz gibt die durchschnittliche Abweichung vom Erwartungswert an. Die Varianz ist ein Streuungsmaß. Allgemein bezieht sich der Ausdruck "Varianz" auf Abweichung von Meßwerten auf das arithmetische Mittel \bar x. Dann gilt:


Formel bei gegebenen Werten: s^2 = \frac{1}{n} \sum_{i=1}^n(x_i - \bar x)^2

Wie gesagt, gibt die Varianz zunächst einmal eine Abweichung des tatsächlichen Ergebnisses von einem "zu erwartenden Wert" (welcher nicht unbedingt als Erwartungswert bezeichnet werden muss) an. Vergegenwärtigen wir uns das an einem Beispiel: Man stellt Eisenplatten her, die durchaus verschiedene Dicken aufweisen können. Nun werden 4 Platten gemessen, es ergeben sich Dicken von 1,2mm; 1,0mm; 1,3mm; 1,2mm. Nun liegt es nahe, erst einmal das arithmetische Mittel der Messwerte \bar x zu errechnen.

\bar x =\frac{1,0+2*1,2+1,3}{4}= 1.175

Will man nun die "durchschnittliche Abweichung" s einzelner Ergebnisse von diesem Mittelwert \bar x bestimmen, so würde man vielleicht zunächst probieren, die Summe aus den einzelnen Abweichungen so zu ermitteln, dass man jeweils die Diskrepanzen aller Messwerte zum arithmetischen Mittel \bar x addiert, und sie eventuell im Anschluß durch die Anzahl aller Messergebnisse dividiert:

s =\frac {1}{n}\sum_{i=1}^n(x_i - \bar x)

Hierbei würde sich jedoch sogleich Ernüchterung breitmachen, da das Ergebnis immer null sein wird (das arithmetische Mittel wird ja genau so bestimmt). Man müsste demnach jeweils die Beträge der Differenzen nehmen. Da dies rechnerisch sehr aufwendig ist, beschränkt man sich darauf, einfach die Abstände zu quadrieren, welches den positiven Nebeneffekt hat, dass größere Abstände zum arithmetischen Mittel überproportional bewertet werden. Auch das\frac {1}{n} lässt sich noch auf anderem Wege erklären: Wäre es nicht da, würde das Ergebnis mit einer größeren Anzahl von Messwerten immer höher ausfallen, s wäre somit kein "Mittel" mehr.


Jetzt ist aber das Thema unseres Halbjahres nicht das Prüfen von Stichproben, sondern Wahrscheinlichkeitsrechnung. Man kann jedoch das Verständnis der Varianz, wie sie oben beschrieben ist, recht gut auf die allgemeinen Begriffe der Wahrscheinlichkeitsrechnung zurückführen. Das arithmetische Mittel des Beispiels b) ist dabei einleuchtenderweise der Erwartungswert E(x).

Zum weiteren Vorgehen wieder ein Beispiel:

Herr M. betritt in verprassungswütiger Stimmung ein Kasino. Nun hat er zwei Glückspiele zur Auswahl. Da wäre zum Einen das bereits im Abschnitt "Erwartungswert" erläuterte Spiel sowie eine zweite Variante, bei der man im Falle einer gewürfelten Eins 60.000 $ (Die Geschichte findet in Las Vegas statt), in allen anderen Fällen jedoch 12.000 $ an die Bank bezahlen muss. Beide Glückspiele besitzen den gleichen Erwartungswert, nehme man also nur diesen zur Kenntnis, unterscheiden sie sich nicht. Nun ist Herr Mescher aber ein Draufgänger (hier findet bereits die intuitive Tatsache, dass sich die beiden Spiele doch nicht gleichen, Eingang in den Sprachgebrauch), und da Kinder und Frau eh auf dem Hotelzimmer sind, entscheidet er sich natürlich für letzteres Spiel. Er würfelt, und, wie hätte es anders sein können, mit einem Lächeln, bei dem jedem Kasinoinhaber das Blut in den Venen gefriert, eine Eins. Er nimmt das Geld und verprasst es sogleich, in dem er es auf die Strasse wirft um sich rechtzeitig in Sicherheit zu bringen und das darauffolgende Spektakel aus einiger Entfernung beobachten zu können. Nun betritt ein Trottel, der auch gerne so beliebt sein möchte, das Kasino und will es Herrn M. gleichtun. Er würfelt und würfelt, aber nach dem zehnten Mal ohne Eins gibt er entnervt auf. Er hätte sich die nächsten 20 Jahre in einer Wohnwagensiedlung ersparen können, hätte er eben das zweite Kriterium eines Zufallsexperimentes beachtet und es in Hinsicht auf seine lebenslange Pechsträhne in sein Verhalten mit einbezogen. Aber wie?

Es ist klar, dass man bei einmaligen Würfeln in unserem Beispiel nie den Erwartunsgwert erhält. Vielmehr weicht das Ergebnis mit einer Wahrscheinlichkeit von \frac {1}{6} um + 60.000$ (dies entspricht x_1-E(x), wobei E(x)=0 ist) und zu \frac {5}{6} um -12.000$ vom Erwartungswert ab, d.h bei mehrmaligem Würfeln in \approx 17% respektive \approx 83% der Fälle.

Diese Wahrscheinlichkeitsverteilung fließt nun in die Gleichung aus Beispiel b) ein, in dem man die Abweichung eines Wertes mit der Wahrscheinlichkeit seines Auftritts multipliziert:

s^2 =\sum_{i=1}^n(x_i - E(x))^2*P(X=x_1)

Statt s² sagt man hier nun V(X), das heißt Varianz von X

Standardabweichung

In der Regel weichen bei einem Zufallsexperiment einige Werte von dem Erwartungswert ab. Der Erwartungswert E(X) gibt daher den mittleren zu erwartenden Wert an, jedoch keinen Hinweis darauf, wie stark die einzelnen Werte von X beim häufigen Durchführen von E(X) abweichen, bzw. "streuen". Neben dem Erwartungswert ist es also sinnvoll, auch ein Maß für die Streuung festzulegen.

Streuung=Summe der Abweichungen

Kann eine Zufallsgröße X die Werte x_1, x_2,..., x_n annehmen, so heißt

V(X)=(x_1-E(X))^2*P(X=x_1)+...+(x_n-E(X))^2*P(X=x_n)\, Varianz von X(siehe oben).

\sqrt{V(X)} heißt Standardabweichung von X.

Statt V(X)\, (bzw.\sqrt{V(X)}) schreiben wir \sigma^2\, (bzw.\sigma\,).

Beispiel: Glücksspiel

In einem Kasten sind drei grüne, drei rote und vier weiße Kugeln. Zieht man eine rote Kugel, gewinnt man 6€, zieht man eine rote Kugel, verliert man 5€, zieht man eine weiße Kugel, so gibt es weder Gewinn noch Verlust.

Beschreibt die Zufallsgröße X den jeweiligen Gewinn, so erhält man die folgende Wahrscheinlichkeitsverteilung von X und den Erwartungswert E(X).

\mathbf{x_i} \mathbf{6} \mathbf{-5} \mathbf{0}
\mathbf{P(X=x_i)} \mathbf{0,3} \mathbf{0,3} \mathbf{0,4}

E(X)=6*0,3+(-5)*0,3+0*0,4 = 0,3\,

Bei einer Serie von Spielen wird in ca.

30% aller Fälle das Ergebnis um (6-0,3)€

30% aller Fälle das Ergebnis um (-5-0,3)€

40% aller Fälle das Ergebnis um (0-0,3)€

Maß für die Streuung: (6-0,3)^2*0,3+(-5-0,3)^2*0,3+(0-0,3)^2*0,4=18,21


Bei binominalverteilten Zufallsgrößen gilt für die Varianz: \sigma^2=n*p*(1-p)\,

Wahrscheinlichkeitsverteilung mehrerer Zufallsgrößen

Die möglichen Zufallsgrößen eines Experimentes können, je nach Betrachtung bzw. Vorgaben des Experimentes verschieden verteilt sein. Am bekanntesten ist die Verteilung bei Bernoulli-Versuchen, wie sie im nächsten Kapitel beschrieben wird. Darüber hinaus gibts es noch weitere Verteilungen.

Für ein Ziehen von k Elementen von denen l eine gewisse Eigenschaft haben, die noch m weitere Elemente in einer Menge n haben (also ich ziehe k=5 Kugeln aus n=10. Wie groß ist die Wahrscheinlichkeit, dass von diesen 5 l=3 rot sind, wobei sich in der Lostrommel m=8 rote Kugeln sind) ohne Zurücklegen ist die Wahrscheinlichkeit hypergeometrisch verteilt. Rechnerisch kommt euch das vielleicht bekannter vor als dieser zugegebenermaßen etwas komische Satz

\frac{{m\choose l}*{n-m\choose k}}{{n\choose k}}

Eine weitere Verteilung ist die geometrische Wahrscheinlichkeitsverteilung. Dabei geht es darum, mit welcher Wahrscheinlichkeit ein Ereignis erst nach soundsoviel Wiederholungen auftritt´, und zwar nicht bis zu dieser Wiederholung, sondern genau zu dieser.

Beispiel: Die Wahrscheinlichkeit, dass man beim ersten Zug (hier ist die Zufallsgröße 1) eine sechs würfelt, beträgt \frac{1}{6}. Die Wahrscheinlichkeit zur Zufallsgröße 2 ist demnach \frac{5}{6} *\frac{1}{6}, da ja beim ersten Zug eine von sechs verschiedene Zahl gewürfelt werden muss. Die Wahrscheinlichkeit für eine sechs beim dritten Zug ist dementsprechend \left(\frac{5}{6}\right)^2 *\frac{1}{6} u.s.w.

Allgemein ausgedrückt ist die Wahrscheinlichkeit für den Eintritt eines Ereignisses beim k mal P(X=k)=(1-p)^{k-1}*p\,

Zu guter letzt gibt es für Bernoulli Versuche, bei denen p< 0,1 und \mu<6 ist, noch die Poisson-Verteilung zur Ermittlung der Wahrscheinlichkeiten für die Zufallsgrößen k.

P(X=k)=\frac{\mu^k}{k!}*e^{-\mu}

Spezielle Wahrscheinlichkeitsverteilungen

Bernoullikette

Man spricht dann von einem Bernoulli-Experiment, wenn es bei einem Zufallsvorgang nur zwei Ausgänge gibt --> entweder ein bestimmtes Ereignis A tritt ein, oder es tritt nicht ein. Die Zufallsvariable, die diesem Experiment zugeordnet wird, erhält den Wert 1, wenn A eintritt, und 0, wenn A nicht eintritt.

Das gängigste Beispiel ist der Münzwurf. Entweder man erzielt einen Treffer (Bsp.: Kopf) mit der Erfolgswahrscheinlichkeit p oder eine Niete (Bsp.: Zahl) mit der Misserfolgswahrscheinlichkeit von 1-p.

Wiederholt man ein Bernoulli-Experiment n-mal, wobei die Erfolgswahrscheinlichkeit p bei jeder Durchführung gleich bleibt und die Reihenfolge der Versuche unwichtig ist (man sagt auch: Die einzelnen Experimente sind voneinander unabhängig.), spricht man von einer Bernoulli-Kette der Länge n mit der Erfolgswahrscheinlichkeit p.

Beispielaufgabe: Ein "ungezinkter" Würfel wird viermal geworfen. Wie groß ist die Wahrscheinlichkeit, dass genau zweimal die Zahl 4 fällt? Hinweis: Die Zahl 4 entspricht einem Treffer, alle anderen Zahlen werden zu "Nicht Treffer" zusammengefasst.

Zur Kontrolle: P(X=2)=11,57%

Binomialverteilung

Das Errechnen einer bestimmten Wahrscheinlichkeit von einem Ergebnis ist bei einer Bernoulli-Kette mit Hilfe eines Baumdiagramms, besonders bei einer großen Anzahl an Pfaden, umständlich. Aus diesem Grund kann man durch folgende Überlegungen auf eine leicht zu lösende Formel schließen.

Es liegt eine Bernoulli-Kette mit der Trefferwahrscheinlichkeit von p vor, die Anzahl der Treffer sei k. Ziel ist es, herauszufinden, mit welcher Wahrscheinlichkeit k Treffer erzielt werden.

Man überlegt sich nun, wieviele mögliche Pfade es gibt, die zu meinem richtigen Ergebnis führen. Jeder Pfad besteht aus n Abschnitten (Anzahl der Versuchsdurchführungen). Demnach gibt es {n \choose k} Anzahl an Pfaden, die zum richtigen Ergebnis führen. Jeder dieser Pfade hat eine Wahrscheinlichkeit von p.... Aus diesem Grund kann man die Anzahle der Pfade mit ihrer Wahrscheinlichkeit multiplizieren und man erhält die Wahrscheinlichkeit für das Eintreten von k-Treffern. Zur Herleitung hilft auch das Pascalsche Dreieck.

\operatorname{B_{n;p}}(k)={n \choose k} \cdot p^k \cdot (1-p)^{n-k}

Den Wert kann man auch mit Tabellen, die für solche Berechnungen angelegt worden sind, bestimmen.

Oft ist es der Fall, dass es mehrere richtige Treffer gibt. Hier muss man einfach die einzelnen Wahrscheinlichkeiten für das Eintreten der richtigen Ergebnisse errechnen und dann addieren.

F_{n;p}(k)=\operatorname{P}(0 \le X \le k) = \sum_{i=0}^k \operatorname{B_{n;p}}(i)= \sum_{i=0}^k {n \choose i} \cdot p^i \cdot (1-p)^{n-i}

Da die Berechnung dieser Wahrscheinlichkeit sehr langwierig ist, wenn man jede Binomialverteilung einzeln errechnen und addieren muss, gibt es hierfür ebenfalls Tabellen, in denen diese Werte bereits errechnet sind. Man sucht zuerst nach der Tabelle für das passende n. Danach geht man zur Spalte mit der gewünschten Wahrscheinlichkeit, wobei anzumerken ist, dass bei p > 0.5 am unteren Rand zu suchen ist. Dann geht man zu der Reihe welche zum entsprechenden k gehört und erhält einen Wert.

Diese Formel lässt sich aber auch in unseren Taschenrechner sehr einfach eintippen: Shift+log -> Summenzeichen; Shift+Geteilt -> nCr (n über k); statt i muss man x als Variable nehmen, welches sich durch Alpha+) eintippen lässt.

Die Binomialverteilung lässt sich graphisch durch ein Histogramm veranschaulichen. ein Histogramm hat bei großem n folgende Eigenschaften:

- Der höchste Balken ist der Erwartungswert µ
- Das Histogramm hat mit zunehmendem n annähernd die Form einer Glocke
- Es ist annähernd symmetrisch zum Erwartugswert µ
- Die Summe der Flächen aller Balken ist 1
- Breite eines Balkens ist 1
- Ein Histogramm fängt bei 0 an und geht bis n

Hier findet sich ein interaktives Beispiel

Beispielaufgabe: Ein idealer Würfel wird achtmal geworfen. Wie groß ist die Wahrscheinlichkeit mindestens sechsmal eine Primzahl zu werfen?

Zur Kontrolle: P(X=6,7,8)=14,5%

Normalverteilung

Die Normalverteilung ist wie die Binomialverteilung eine bestimmte Wahrscheinlichkeitsverteilung. Testet man eine Hypothese und begeht dabei einen Fehler 2ter Art, ist es wichtig, die eigentlich geltende Wahrscheinlichkeit zu errechnen. Dies gelingt einem mit der Normalverteilung. Des Weiteren kann man mit ihr auch alle Wahrscheinlichkeiten einer Binomialverteilung annähern, welche nicht tabelliert sind.

Die Normalverteilung, als Wahrscheinlichkeitsverteilung gesehen, ist interessant, da viele Größen aus der Natur normal verteilt sind. Zum Beispiel die Häufigkeit von Körpergrößen.

Mit Hilfe des Integrals der Gaußschen-\varphi-Funktion lässt sich ein bestimmter Flächeninhalt berechnen, welcher von -\infty\to 0 (da die x-Achse die Asymptote zum Graphen darstellt) bis zur Zufallsgröße X verläuft und eine Intervallwahrscheinlichkeit ausdrückt.


Gaußsche-\varphi-Funktion:

Die Gaußsche-\varphi-Funktion beschreibt die Normalverteilung als Funktion. Wichtige Eigenschaften sind die Symmetrie zur y-Achse und die Asymptoten zur x-Achse für sehr große und sehr kleine x. Es ist bisher keine Stammfunktion zur Gaußschen-\varphi-Funktion gefunden worden, doch der gesamte Fläscheninhalt unter dem Graphen ist 1. Das ist der Grund warum viele Werte der Funktion tabelliert sind. Der Funktionsgraph ist die bekannte Glockenkurve.

Funktionsterm für die \mu-\sigma-Normalverteilung:

f(x) = \frac {1}{\sigma\sqrt{2\pi}}\exp\left(-\frac {1}{2} \left(\frac{x-\mu}{\sigma}\right)^2\right)

Die erste Ableitung lautet:

 f^\prime(x)=-\frac{1}{\sigma^3\sqrt{2\pi}}*(x-\mu)*e^{-\frac{(x-\mu)^2}{2\sigma^2}}

Die zweite Ableitung lautet:

f''(x)=-\frac{1}{\sigma^3\sqrt{2\pi}}*e^{-\frac{(x-\mu)^2}{2\sigma^2}}*\left(-\frac{(x-\mu)^2}{2\sigma^2}+1\right)

Funktionsterm für die Standardnormalverteilung ( die eigentliche Gaußsche-\varphi-Funktion ):

\varphi(x) = \frac {1}{\sqrt{2\pi}} e^\left(-\frac {x^2}{2}\right)

Andere Namen für die Standardnormalverteilung sind: 0-1-Normalverteilung oder normierten Normalverteilung. Sie hat ihren Hochpunkt, also den Erwartungswert \mu, an der Stelle 0 und die Wendepunkte liegen bei -1 und 1. Daraus folgt das \sigma = 1, da wir wissen, dass die Wendepunkte einer Normalverteilung immer bei \mu + \sigma und \mu - \sigma liegen.

Die Standartnormalverteilung ist diejenige die wir im Unterricht besprochen haben. Wir haben sie wie folgt hergeleitet:

Wenn das Histogramm (Graph) einer Normal- oder Binomialverteilung um µ nach links verschoben wird, liegt ihr Hochpunkt auf der y-Achse. Die Bedingung \varphi(0)=\mu ist erfüllt. Nun streckt/ staucht man um den Faktor \sigma in Richtung der Y-Achse und erhält somit den Hochpunkt auf den y-Achsenabschnitt bei \frac {1}{\sqrt{2\pi}}. Um den Faktor \frac{1}{\sigma} in Richtung der X-Achse gestaucht, nähert sich das Histogramm für große n der Form einer Standartnormalverteilung an. Da das Histogramm um \frac{1}{\sigma}in Richtung der X-Achse gestaucht und um den Faktor \sigma in Richtung der y-Achse, ist der Flächeninhalt der Glockenkurve noch immer 1.

Zusammengefasst kann man also jede einzelne Wahrscheinlichkeit x einer Binomialverteilung mit der Standartnormalverteilung annähern:  u=\frac{x-\mu}{\sigma}

Das Strecken/ Stauchen um den Faktor sigma mag vielleicht nicht ganz klar sein, doch erklärt es sich so: Normalverteilungen, die bereits bei 0 ihr Maximum haben unterscheiden sich noch in der Höhe des Selbigen also im Erwartungswert. Der Erwartungswert einer Normalverteilung ist \frac {1}{\sigma\sqrt{2\pi}} ( bei x = 0 ist die e-Funktion gleich 1 ). Multipliziert man also den Erwartungswert mit \sigma dann erhält man als allgemeinen Erwartungswert \frac{1}{\sigma}. Nun unterscheiden sich die Graphen der Normalverteilungen noch in der Varianz also in ihrer Breite. Teilt man diese durch \sigma ist diese Größe ebenfalls vereinheitlicht. Oder anders erklärt: Multipliziert man die Höhe mit \sigma so wird die Fläche unterhalb des Graphen größer als 1. Sie soll jedoch genau 1 sein. Um das wieder zu gewährleisten muss jeder kleine Balken wieder um den Faktor um den er in der Höhe vergrößert wurde, in seiner Breite gestaucht werden. Dieser Faktor war in unserem Fall hier \sigma.

Man kann die Gaußschen-\varphi-Funktion nun dazu verwenden Wahrscheinlichkeiten zu berechnen. Dafür benötigt man den Fläscheninhalt unterhalb der des Graphen.

Berechnung des Flächeninhaltes eines Intervalls durch Integrieren der Gaußschen Funktion:

P(a\leq x\leq b)= \int_{a}^{b} \mathrm{\varphi (x)}\, \mathrm{d}x

Ein gutes Beispiel für eine Normalverteilung aus dem Alltagsleben ist die Herstellung von verschiedenen Dingen. Wird einer größeren Gruppe z.B. der Auftrag gegeben eine Strecke von 10 cm zu zeichnen, so wird dies normalverteilt sein.

Näherungsformel für die Binomialverteilung

Die wichtigste Anwendung der Normalverteilung ist die Annäherung der Binomialverteilung. Dies geht nach der Näherungsformel von De Moivre-LaPlace. Da große n bei der Binomialverteilung nicht mehr in Tabellen erfasst sind und weil die Tabellen sich nicht für jede Wahrscheinlichkeit p eignen, kann man die gesuchte Wahrscheinlichkeit mit der Normalverteilung bestimmen.


Zuerst betrachteten wir das Histogramm einer Binomialverteilung, wobei wir feststellten, dass mit wachsendem n immer besser eine Symmetrie zu erkennen ist. Auch das Histogramm der Normalverteilung ist immer symmetrisch, somit erkennt man schon, dass eine Annäherung von Binomialverteilungen mit größerem n genauer wird. Des Weiteren entspricht die Summe der Flächeninhalte aller Balken einer Binomial 1, wobei die Balken alle die Breite 1 haben.

Möchte man nun die Wahrscheinlichkeit P(a \leq X \leq b) einer Binomialverteilung berechnen und findet keine Tabellenwerte, greift man zur Standardnormalverteilung. Als erstes müssen die Werte der Zufallsvariable X bzw eigentlich die Werte der Grenzen a und b, auf die Normalverteilung übertragen werden. Dies geschieht wie oben gezeigt mit x_a=\frac{a-0.5-\mu}{\sigma} und x_b=\frac{b+0.5-\mu}{\sigma}. Die Fläche unter dem Graph der Standartnormalverteilung in den Grenzen von x_a bis x_b ist die gesuchte Wahrscheinlichkeit P. Das ganze schreit nun nach einem Intergral aber da die \varphi-Funktion keine Stammfunktion besitzt, muss man die Werte für die Stammfunktion \Phi in einer Tabelle nachschlagen (Buch Seite 179/180).

Somit ist P(a \leq X \leq b)=F(b)-F(a)=\Phi(x_b)-\Phi(x_a)=\Phi\left( \frac{b+0.5-\mu}{\sigma} \right)-\Phi\left( \frac{a-0.5-\mu}{\sigma} \right).

Mit der Näherungsformel lassen sich auch die Wahrscheinlichkeiten einzelner Ereignisse errechnen, denn die Grenzen von a bis b lassen sich auch auf ein einzelnes Ereignis übertragen:

Beispielaufgabe:

n=1350; p=0{,}95; \mu=1282{,}5;\sigma=\sqrt{64.125}

Zu bestimmen ist : P(X=1282)\,

P(X=1282)=P(1281{,}5\le X \le 128{,}5)

= \Phi \left( \frac{1282{,}5-1282{,}5}{\sigma} \right)-\Phi \left( \frac{1281{,}5-1282{,}5}{\sigma} \right)=\Phi \left( \frac{0}{\sqrt{64.125}} \right)-\Phi \left( \frac{-1}{\sqrt{64.125}} \right)

=0.5-0.4522=0.0478\,


Doch es geht auch anders und einfacher. Dazu muss man nur die Zufallsgröße der gesuchten Wahrscheinlichkeit, Sigma und µ in den Funktionsterm der Normalverteilung einsetzen.

P(X=1282)=\frac{1}{\sigma\sqrt{2\pi}}*e^{-\frac{(1282-\mu)^2}{2\sigma^2}}


Doch wann ist n groß genug um auf die Normalverteilung auszuweichen? Es muss folgende Bedingung erfüllt sein: n>\frac{1}{4p^2(1-p)^2}

Oder einfacher als Faustregel: np(1-p)\geq 9 , weil für \sigma größer als 3 die Werte sehr klein sind.


Die passenden Werte für die Stammfunktion Φ kann man, wie oben aufgeführt, aus der Tabelle ablesen. Bei sehr genauen Funktionswerten liefert die Tabelle jedoch nur ungenaue Ergebnisse. Möchte man z.B. den tabellierten Wert für x=1,616 herausfinden, so bleibt einem zunächst nichts anderes übrig als x auf 1,62 aufzurunden und hierfür den Wert abzulesen.

Ein bestimmtes Verfahren, welches Interpolieren genannt wird, liefert jedoch genauere Werte. Man geht hierbei wie folgt vor.

Man möchte den Funktionswert für f(x*) näherungsweise berechnen, wobei x1< x* >x2. Hierzu stellt man sich vor, dass die Punkte A (x1/f(x1)) und B (x2/f(x2)) gemeinsam auf einer Strecke liegen. Die Funktionswerte für x1 und x2 können der Tabelle entnommen werden. Dies ist allerdings auch nicht ganz genau, da es sich eigentlich um eine Kurve handelt, die Strecke dient demnach nur als Annäherung. Die Geradengleichung lautet: y = mx + n . Um die Steigung m ausrechnen zu können, wird der y-Wert bzw. der x-Werte des Punktes B von dem des Punktes A abgezogen, wobei die Differenz der y-Werte bei dem zu bildenden Bruch den Zähler und die Differenz der x-Werte den Nenner bildet.

Für die Berechnung der Steigung gilt also: m = (f(x2)-f(x1))/(x2-x1). Den y- Achsenabschnitt erhält man durch Einsetzen des Punktes A oder B. Nun hat man die Geradengleichung soweit, dass man nur noch x einsetzen muss und dann einen genaueren Funktionswert erhält, als ihn die Tabelle liefert.



Beispielaufgabe: Wie groß ist die Wahrscheinlichkeit bei 1000 Geburten mindestens die Hälfte Jungen zu erhalten, wenn gilt P(Knabengeburt)=0,541?

Poisson-Verteilung

Bei kleinem p (unter 0.1) und großem n, lässt sich die Binomialverteilung nicht mehr durch die Normalverteilung annähern, da sie nicht mehr symmetrisch zu µ ist. Um dennoch brauchbare Werte zu erhalten gibt es die Poisson-Verteilung.

P(x=k)\approx \frac{\mu^k}{k!}*e^{-\mu}

Ein Beispiel, wann die Poisson-Verteilung angewendet werden kann ist der radioaktive Zerfall. Hier sind die oben aufgeführten Bedingungen erfüllt. Man hat zu Beginn eine große Anzahl an Atomen (n sehr groß), die nur relativ langsam weniger wird (p klein). Eine weitere Voraussetzung, die allerdings allgemein für Binomialverteilungen wichtig ist, ist dass der Zerfall zufällig und unabhängig von den schon zerfallenen Atomen abläuft.

Hypothesentests

Einseitiger Test

Der einseitige Test ist eine von zwei Möglichkeiten, eine Hypothese aufzustellen. Bei dem einseitigen Test ist entweder der obere oder der untere Verwerfungsbereich von Bedeutung, dass heißt nur eine Seite wird betrachtet (-->einseitig ).

Deshalb muss man sich beim einseitigen Test genau überlegen, aus wieviel Prozent der Annahmebereich bzw. der Ablehnungsbereich besteht. Wird ein Signifikanzniveau von 95% als Annahmebereich angenommen, so sind 5% der Ablehnungsbereich. Da man bei dem einseitigen Test von 5% Ablehnungsbereich ausgeht, aber nur 2,5% über und unter dem Annahmebereich hat, muss man folglich mit einem Signifkanzniveau von 90% rechnen - so erhält man 10% Ablehnungsbereich. Da er sich zu gleichen Teilen um den Annahmebereich verteilt, erhält man den gewünschten 5%-Ablehnungsbereich.

Beispiel:

In einer Stadt hat der Bürgermeister eine Projektentscheidung getroffen. Nun soll durch eine Umfrage geklärt werden, ob die Bevölkerung mit der Entscheidung zufrieden ist. Dazu werden 100 Leute befragt. Der Bürgermeister sieht seine Entscheidung als bestätigt an, wenn mehr als 50% der gesamten Stadtbevölkerung die Entscheidung für richtig halten. Man geht von einem Signifikanzniveau von 95% aus.

Der Bürgermeister wird seine Entscheidung nur dann für unglücklich erklären, wenn die Anzahl der Befürworter außerhalb des Annahmebereichs liegt. Hinzu kommt, dass er nur den Ablehnungsbereich unterhalb des Erwartungswertes betrachtet. Befürworten mehr Leute die Entscheidung als angenommen, ist das nur im Sinne des Bürgermeisters. Also muss man mit einem Signifikanzniveau von 90% rechnen.

n = 100\,

H_0:p=0,5\,

t=1,64 \,

 \mu=n \cdot p=100 \cdot 0,5=50

\sigma = \sqrt{n \cdot p\cdot(1-p)}

Aus diesen Angaben erhält man für \sigma=\sqrt{100\cdot0,5\cdot0,5}=5

Nun rechnet man das Annahmeintervall aus.

[\mu - t \cdot \sigma  ;  \mu + t \cdot \sigma] \Longrightarrow [50 - 1,64 \cdot 5 ; 50 + 1,64 \cdot 5] \Longrightarrow [41,8 ; 58,2] = [41 ; 59]

Wenn nur 40 oder weniger der Befragten mit der Entscheidung zufrieden sind, muss der Bürgermeister zugeben, dass seine Entscheidung falsch war. Die 5% der Befragten, die oberhalb der 59 Menschen sind, müssen nicht beachtet werden, da der Bürgermeister in dem Fall mehr Befürworter hat, als er braucht, damit seine Entscheidung als gerechtfertigt angesehen wird.

Zweiseitiger Test

Ein Entscheidungsverfahren, bei dem festgestellt wird, ob eine Hypothese H_{0} (Nullhypothese) verworfen wird oder nicht, heißt Signifikanztest.

Der zweiseitige Test ist ein Hypothesentest, bei dem die Hypothese für korrekt erachtet wird, solang der aus dem Hypothesentest erhaltene Wert innerhalb des vorher definierten Annahmebereichs liegt. Der Annahmebereich erstreckt sich innerhalb einer unteren und oberen Annahmegrenze, die symmetrisch zum Erwartungswert des Versuchs liegen. Die Entfernung der Grenzen zum berechneten Erwartungswert werden mit Hilfe des definierten Signifikanzniveaus bestimmt. Je höher das Signifikanzniveau, desto näher liegt die maximale Abweichung vom Erwartungswert, die noch im Annahmebereich enthalten ist. Desto niedriger das Signifikanzniveau, umso extremere Werte muss der Prüfwert des Tests aufweisen, um die Hypothese zu widerlegen.

Es wird behauptet, dass beim Werfen die Wahrscheinlichkeit 50% beträgt Kopf oder Zahl zu bekommen. Nun wird der Versuch 1000 mal durchgeführt. Signifikanzniveau 5%

H_0: p= 0,5\,

n= 1000\,

\mu= n * p = 1000 * 0,5 = 500\,

\sigma=\sqrt{n*p*(1-p)}=\sqrt{1000*0,5*(1-0,5)}=5\sqrt{10}\,

[\mu- 1,96*\sigma ; \mu- 1,96*\sigma]\,\Longrightarrow [500-1,96*5\sqrt{10};500+1,96*5\sqrt{10}]\Longrightarrow[469,01;530,99]\Longrightarrow[470,530]

Würde man nun beim werfen der Münze zwischen 470 und 530 mal Kopf, bzw. Zahl erhalten kann man sagen, dass die Wahrscheinlichkeit 50% beträgt Kopf, bzw. Zahl zu erhalten. Würde die Anzahl an Kopf, bzw. Zahl außerhalb dieses Bereiches liegen, so müsste die Hypothese verworfen werden.

Annahmenbereich, Ablehnungsbereich

Liegt das Ergebnis eines Versuchs innerhalb des Annahmebereichs so sieht man seine Hypothese als bestätigt an. Liegt es hingegen im Ablehnungsbereich, so wird die Hypothese verworfen.Die Größe des Annahme- und Ablehnungsbereich hängt von der Größe des gewählten Signifikanzniveaus ab. Bei der Nullhypothese heißt der Ablehnungsbereich auch oft kritischer Bereich, da dieser von der Größe des Signifikanzniveaus abhängig ist.

Fehler 1. und 2. Art

Beim Testen von Hypothesen können 2 Fehler unterlaufen.

Der Fehler 1. Art tritt auf, wenn man eine wahre Hypothese verwirft.

Der Fehler 2. Art tritt auf, wenn man eine falsche Hypothese als wahr akzeptiert.

Die Wahrscheinlichkeit für beide Fehler ist abhängig von dem gewählten Signifikanzniveau. Der Fehler 2. Art ist zusätzlich noch abhängig von dem realen Wert. Ein sehr hohes Signifikanzniveau (Bsp: 95,5%) senkt die Wahrscheinlichkeit für den Fehler 1. Art auf 4,5%, da das Testergebnis lediglich in 4,5% der Fälle außerhalb des Annahmebereichs liegt. Ein hohes Signifikanzniveau erhöht allerdings auch die Chance, dass ein Wert des Annahmebereichs des wahren Wertes in den Annahmebereich des getesteten Wertes fällt, sich die Annahmebereiche also überschneiden.

Liegen realer und getesteter Wert nur minimal auseinander, so kann man den Unterschied nur bei sehr großem n überhaupt feststellen. Ist die Differenz relativ groß (Bsp: Pt=0,4; Pw=0,7), so liegt die Chance auf einen Fehler 2. Art bei einem Singfikanzniveau von 1% bei nur 1,44%.

Ho ist wahr Ho ist falsch
Hypothese Ho wird verworfen Fehler 1. Art richtige Entscheidung
Hypothese Ho wird beibehalten richtige Entscheidung Fehler 2. Art

Nullhypothese, Alternativhypothese

Signifikanzniveau

Als Signifikanzniveau bezeichnet man die Irrtumswahrscheinlichkeit, die bei einem Versuch auftritt. Je höher das Signifikanzniveau, desto kleiner der Fehler 1. Art. Jedoch erhöht sich damit die Wahrscheinlichkeit, den Fehler 2. Art zu begehen(siehe Fehler 1./2.Art).Das Signifikanzniveau wird meistens als "Sigma" angegeben.

Wert für Sigma => Signifikanzniveau

2,58 => 1%;99%

1,96 => 5%;95%

2 => 4,5%;95,5%

3 => 0,3%;99,7%

2,33 => 2,5%;97,5%

1,64 => 10%;90%

Operationscharakteristiken

...

Lernpfade

Weblinks

Siehe auch

Diese Seite enthält Inhalte der Kursseite Benutzer:Mescher/Stochastik vom 09.06.2008. Siehe dort auch die Versionen und Autoren.