Stochastik

aus ZUM-Wiki, dem Wiki für Lehr- und Lerninhalte auf ZUM.de
(Weitergeleitet von Benutzer:Mescher/Stochastik)
Wechseln zu: Navigation, Suche
Kurzinfo

Stochastik ist die Lehre von Häufigkeiten und Wahrscheinlichkeiten innerhalb der Mathematik. Sie befasst sich also mit Wahrscheinlichkeitsrechung und Statistik.

Inhaltsverzeichnis

Grundlegende Begriffe der Stochastik

Zufallsexperimente und Ereignisse

Zufallsexperiment:

Es gibt Experimente, bei denen wir wissen, dass jeder Versuch zu genau dem gleichen Ergebnis führt. Dies bezeichnet man als ein deterministisches Denkschema

Beispiel: Hebt man einen Stein auf und lässt diesen los, fällt er mit Sicherheit zur Erde

Auf der anderen Seite gibt es Experimente, bei denen erfahrungsgemäß verschiedene Versuche des selben Experiments zu ganz verschiedenen Ergebnissen führen. Man sagt, dass der Ausgang dieses Versuchs "dem Zufall überlassen" ist. Dies bezeichnet man als ein stochastisches Denkschema.

Beispiel: Werfen eines Würfels, Ziehung der Lottozahlen

Zusammenfassend kommt man zu folgenden Eigenschaften eines Zufallsexperimentes:

- Unter den gleichen äußeren Bedingungen lässt sich das Experiment beliebig oft wiederholen.

- Es besitzt mehrere sich gegenseitig ausschließende Ergebnisse.

- Die Ergebnisse eines solchen Experimentes sind zufallsbedingt.


Ereignis:

Ein Ereignis ist in der Wahrscheinlichkeitsrechnung eine beliebige Menge "M" von Ergebnissen "E" eines Zufallsexperimentes.

Beispiel: Beim Würfelwurf gibt es die Ergebnisse: 1,2,3,4,5,6. Bei einer Frage wie zum Beispiel: "Wie oft kommt jede Zahl bei 100 Würfen vor?" betrachtet man jede Würfelzahl als ein einzelnes, unabhängiges Ergebnis. Die Ereignismenge M besteht also immer nur aus einer Zahl und es gibt 6 unterschiedliche Ergebnismengen (bei diesem Beispiel).

Führt man den Würfelwurf nun als Bernoulliexperiment durch zum Beispiel unter der Fragestellung "Wie hoch ist die Wahrscheinlichkeit bei 100 Würfen die 6 genau einmal zu würfeln?" dann hat man nur noch zwei Ereignismengen: 6 oder keine 6, wobei letztere (ausschließlich) die Ergebnisse 1,2,3,4,5 enthält.

Absolute und relative Häufigkeit

Absolute Häufigkeit: Die Absolute Häufigkeit gibt an, wie oft ein Ereignis A bei der Überprüfung einer Stichprobe vom Umfang n aufgetreten ist.

Beispiel: Von 100 Befragten benutzen 23 Papiertaschentücher und 77 Stofftaschentücher. Die absolute Häufigkeit für Papiertaschentücher ist also 23, für Stofftaschentücher 77.

Relative Häufigkeit: Unter relativer Häufigkeit versteht man einen Teil einer Gesamtstichprobe, der die gleichen Eigenschaften aufweist. Teilt man diesen Wert durch die Anzahl des Gesamtprobenumfangs, erhält man die relative Wahrscheinlichkeit. Dabei gilt, dass die Werte immer zwischen 0 und 1 liegen müssen, da im Fall des Wertes 0 keiner die gleichen Eigenschaften bzw. alle mit dem geforderten Merkmal auftreten, sollte der Wert 1 sein.

Beispiel: In einer 10. Klasse mit 30 Schülern bekommen 10 Personen genau 25€ im Monat. Die relative Häufigkeit ist also \frac{10}{30} = \frac{1}{3}=33,3%

Die absolute Häufigkeit ist ergo: H_{n}(A) = 10

und die relative Häufigkeit: h_{n}\left(A\right) = {{H_{n}(A)}\over{n}}

wobei h_{n}\left(A\right)= relative Häufigkeit und H_{n}\left(A\right)= absolute Häufigkeit

Wahrscheinlichkeitsbegriff

- Wahrscheinlichkeit ist die statistisch ermittelte durchschnittliche Häufigkeit, mit der ein bestimmter Fall eintritt.

- Wahrscheinlichkeit ist das Verhältnis, der in einem bestimmten Fall günstigen Ereignisse zur Anzahl der ungünstigen Ereignisse.


Laplace-Wahrscheinlichkeit

P(E)=\frac{\left| E \right|}{\left| \Omega  \right|} Die Wahrscheinlichkeit, dass ein Ereignis E eintritt, ist die Anzahl der für E günstigen Ergbnisse geteilt durch die Anzahl der möglichen Ergebnisse

Empirisches Gesetz der großen Zahl

Je häufiger ein Zufallsexperiment durchgeführt wird, das heißt, je größer n ist, desto mehr nähert sich die relative Häufigkeit eines Zufallsergebnisses an die theoretische Wahrscheinlichkeit, die für dieses Ergebnis gilt. d.h. Man muss einen Versuch sehr oft durchführen um eine relativ genaue Trefferwahrscheinlichkeit zu erzielen.

Berechnung von Wahrscheinlichkeiten (bis in die Unendlichkeit)

Additionssatz

Kennt man von zwei Ereignissen A und B die Wahrscheinlichkeiten P\left( A \right) , P\left( B \right) , so lässt sich für das Ereignis A \cup B (= "Addition") die Wahrscheinlichkeit berechnen. Allerdings braucht man dazu noch P(A \cap B).
Man berechnet die Wahrscheinlichkeit von A und addiert die Wahrscheinlichkeit von B dazu.
Jetzt berechnet man allerdings die Wahrscheinlichkeit für P\left( A \right) + P\left( B \right) , wobei die Ereignisse, die man in diesem Fall doppelt zählt, nämlich einmal durch P\left( A \right) \cdot P\left( B \right) und P\left( B \right) \cdot P\left( A \right) , noch einmal subtrahiert werden müssen.

Beispiel:
Experiment: Doppelwurf einer Münze. Ereignis E: Zahl im ersten oder zweiten Wurf. P\left( E \right)
E=A \cup B
Lösung:
A: Zahl beim ersten Wurf
B: Zahl beim zweiten Wurf

P\left( E \right)= P(A)+P(B)-P(A\cap{}B)
P\left( E \right) = 0,5+0,5-0,5^2
P\left( E \right) = 0,75

Pfadregeln

Entlang eines Pfades wird multipliziert, am Ende der Pfade wird addiert.

http://members.aol.com/nfinck/stochast/wuerfel.gif

Hier haben wir das Beispiel eines Würfels, der bis zu viermal geworfen wird, bei dem wir jedoch nur zwei Ereignisse betrachten: Entweder es wird die 1 gewürfelt, oder es fällt eine andere Zahl. Wir bieten jetzt die Wette: Es fällt nie eine 1.

Die Wahrscheinlichkeit dazu ist:  \frac{5}{6}\cdot \frac{5}{6}\cdot \frac{5}{6}\cdot \frac{5}{6} = \left(\frac{5}{6}\right)^4\approx 48% Die Gegenwahrscheinlichkeit ist: 1-\left(\frac{5}{6}\right)^4\approx 52% Diese lässt sich genauso gut anders ausrechnen, nämlich als Summe der Wahrscheinlichkeiten aller anderen Ereignisse: \frac{1}{6}+\frac{5}{6}\cdot \frac{1}{6}+\frac{5}{6}\cdot \frac{5}{6}\cdot \frac{1}{6}+\frac{5}{6}\cdot \frac{5}{6}\cdot \frac{5}{6}\cdot \frac{1}{6}\approx 52%.

Kombinatorik

Geordnete Stichprobe

- mit Zurücklegen

Bsp: Wir haben ein Fahrradschloss á 4 Zahlenräder mit Zahlen von 0 bis 9 zur Auswahl. Nun wollen wir wissen, wieviele Kombinationsmöglichkeiten wir haben. Da es ja bei Zahlenschlössern nicht das Gleiche ist, ob man eine Kombination von z.B. 1234 oder 4321 hat, ist dies eine geordnete Stichprobe, da hier die Reihenfolge wichtig ist.

Diese Eigenschaft einer geordneten Stichprobe, durch Vertauschen einzelner Elemente eine veränderte Zahlenanordnung zu bekommen (=d.h. die Reihenfolge der Ereignisse ist wichtig), nennt man Permutation.

Man kann aber immer wieder alle Zahlen von 0-9 "benutzen", darum ist es quasi ein "Ziehen mit Zurücklegen"

Nun aber zurück zum Beispiel: Wieviele Möglichkeiten gibt es also für eine Zahlenkombination in einem Zahlenschloss, das vier Räder hat, welches jeweils zehn Zahlen (die "0" gehört ja dazu) als Auswahlmöglichkeiten hat? Wir haben n=10 Möglichkeiten für k=4 Zahlenräder!

Also haben wir viermal hintereinander zehn verschiedene Möglichkeiten. Das heißt 10 mal 10 mal 10 mal 10 verschiedene Möglichkeiten, kurz: 10^4 Möglichkeiten.

Das Ergebnis dieses Versuchs ist also, dass man 10000 verschiedene Möglichkeiten für eine Zahlenkombination in einem Fahrradschloss hat, das vier Rädchen mit jeweils den Zahlen 0-9 hat.

Allgemein kann man somit bei einer geordneten Stichprobe "mit Zurücklegen" die Formel

n^k\,

anwenden, wobei hier n die Anzahl der Möglickeiten und k die Häufigkeit des "Ziehens" ist.

- ohne Zurücklegen

Bsp: Ein Türöffner mit Zahlencode hat die Zahlen 0-9 auf der Tastatur. Um in das Haus zu kommen, muss man die Zahlenkombination (natürlich in richtiger Reihenfolge - also "geordnete Stichprobe") eingeben. Diese Zahlenkombination besteht aus 6 Ziffern. Dieses Sicherheitssystem hat aber einen kleinen Nachteil: die Zahlenkombination darf keine Zahl mehr als einmal enthalten (diese Kombination würde das System als "zu unsicher" ablehnen). Das heißt, es ist quasi ein "Ziehen ohne Zurücklegen". Permutation ist jedoch vorhanden (die Reihenfolge der Ereignisse ist wichtig).

Nun will der Besitzer wissen, wie groß die Auswahlmöglichkeit für eine Zahlenkombination ist. Er hat bei der ersten Zahl 10 Möglichkeiten, eine Zahl zu wählen, bei der zweiten 9 Möglichkeiten, da ja eine schon "vergeben" ist, bei der dritten 8 usw.... bis er bei der sechsten und letzten Zahl nur noch 5 Zahlen zur Auswahl hat. Er hat also 10*9*8*7*6*5 Möglichkeiten für eine Zahlenkombination.

Als Formel sieht das so aus (die Zahlen im Nenner kürzen sich ja mit den jeweiligen Zahlen im Zähler):

\frac{10*9*8*7*6*5*4*3*2*1}{4*3*2*1} = \frac{10!}{(10-6)!}

Der Besitzer des Sicherheitssystem hat somit 151200 Kombinationsmöglichkeiten der Zahlen in seinem Türöffner.

Allgemein: Man muss quasi für jedes vorangegangene Ereignis eine Möglichkeit abziehen: Die allgemeine Formel für geordnete Stichproben lautet also somit:

\frac{n!}{(n-k)!}

Wobei hier n die Anzahl der am Anfang möglichen Ereignisse ist und die k die Anzahl des "Ziehens" (bei dem Beispiel oben ist k die Anzahl der Zahlen in der Kombination).

Ungeordnete Stichprobe

- ohne Zurücklegen

Beispiel: Lotto – Es werden aus 49 sechs Zahlen gezogen, wobei die Reihenfolge irrelevant ist. Für die erste gezogene Kugel gibt es 49, da ja alle 49 Kugeln vorhanden sind. Für die zweite gibt es nur noch 48 Möglichkeiten, da ja nun eine Kugel weniger da ist. Für die dritte Kugel gibt es nur noch 47 Möglichkeiten usw. Es ergibt sich also folgende Anzahl der Möglichkeiten (hier wird die Reihenfolge aber noch beachtet):

49*48*47*46*45*44\,

Dies lässt sich auch so schreiben: \frac{49!}{(49-6)!} = 1,007 * 10^{10} oder allgemein: \frac{n!}{(n-k)!}

n= gesamte Menge k= Zahl der Ausgewählten


Hier wird jetzt aber noch die Reihenfolge beachtet. Man hat also zu viele Möglichkeiten berechnet, da beispielsweise die Zahlen 1;2;3;4;5;6 dasselbe sind wie 6;5;4;3;2;1. Man muss sich also überlegen, wie viel man zu viel berechnet hat. Man hat ja sechs verschiedene Zahlen, die in verschiedenen Reihenfolgen gezogen werden können, aber eigentlich die selbe Kombination sind, da ja die Reihenfolge egal ist. Die Anzahl dieser Reihenfolgen ist 6 Fakultät, da es ja für die erste Kugel sechs Möglichkeiten gibt, für die Zweite fünf, für die Dritte vier und so weiter. Man hat also 6! mal so viele Möglichkeiten berechnet, wie es eigentlich gibt. Also teilt man den zu erst berechneten Wert durch Fakultät sechs.

\frac{49!}{(49-6)!* 6!} = 13983816 oder allgemein: \frac{n!}{(n-k)!*k!}

Diese allgemeine Form wird aber mit {n \choose k} (sprich: "n über k") abgekürzt und ist auf vielen Taschenrechnern unter nCr zu finden.


Zusammenfassung - Kombinatorik

Reihenfolge ist wichtig Reihenfolge ist unwichtig
Ziehen mit Zurücklegen n^k\, {n-1+k \choose k}= \frac{(n-1+k)!}{(n-1)!*k!}
Ziehen ohne Zurücklegen \frac{n!}{(n-k)!} {n \choose k}=\frac{n!}{(n-k)!\cdot k!}

Wahrscheinlichkeitsverteilungen

Zufallsgröße

Bei vielen Zufallsexperimenten ist weniger das tatsächliche Ergebnis als vielmehr die mit diesem verknüpfte Bedeutung entscheidend. So interessiert einen Roulettespieler das Ergebnis eines Wurfes nur insofern, als er daraus seinen persönlichen Gewinn oder Verlust erkennen kann.

Definition: Eine Zuordnung oder auch Abbildung, die jedem Ausgang eines Zufallsexperimentes eine reelle Zahl zumisst, nennt man Zufallsgröße oder auch Zufallsvariable. Man "übersetzt" im Grunde ein Ereignis, um so weiter mit ihm rechnen zu können.

 X:S\longrightarrow http://upload.wikimedia.org/math/6/9/a/69a45f1e602cd2b2c2e67e41811fd226.png wobei S die Ausgangsmenge eines Zufallsexperimentes, das heißt alle möglichen Ereignisse beinhaltet und X eine über S definierte Zufallsvariable ist, die jedem Ereignis a_1; a_2;...a_n\, einen Wert x_1, x_2;... x_n\, zuweist.

Es ergibt sich demnach:  X(a_1) = x_1\,


Beispiel:

Man wirft zwei Münzen , wobei das Ereignis Kopf (abgekürzet mit K) und das Ereignis Zahl (abgekürzt mit Z) mit einer Wahrscheinlichkeit von p= 0,5 eintreten. Nun soll die Zufallsgröße die Anzahl des Ereignisses "Kopf" angeben. Es gilt somit:

 X: \{ KK; KZ; ZK; ZZ \}\longrightarrow \{2;1;0\} oder auch: X(KK)=2;X(KZ;ZK)= 1; X(ZZ)=0\,

Nun wollen wir der von José Ortega y Gasset prognostizierten Eroberung der Öffentlichkeit durch die Masse und der damit verbundenen Banalisierung Tribut zollen und das ganze in die "Umgangssprache" transkribieren:

Beispiel aus dem alltäglichen Leben:

Nehmen wir an, ein Glückspieler, nennen wir ihn der Einfachheit halber Herr M., spielt folgendes Würfelspiel: Würfelt er eine 1 oder eine 2, so erhält er 300 € von der Bank, andernfalls muß er 150 € an die Bank bezahlen.

Nun würfelt er, und, da Herr M. ein Glückspilz ist, gleich eine Eins. Natürlich freut er sich und ruft: "Yeah, 300 € !".

Dabei vollzieht Herr M., da er nicht nur ein glücklicher, sondern auch ein überaus schlauer Mensch ist, schon unbewusst eine Zuordnung, indem er in seinem Ausruf ja weniger der gewürfelten Augenzahl als vielmehr dem mit dieser verbundenen Gewinn huldigt.

Drücken wir dies nun mit den oben gennanten Begriffen aus:

Die Ausgangsmenge S\, ist in unserem Beispiel  X: \{ 1; 2; 3; 4; 5; 6\}\,, nämlich die Augenzahlen des Würfels.

Die über S definierte, das heißt sich auf die mögliche Ergebnismenge beziehende Zufallsvariable kann man sich als die Regel des Spiels vorstellen, was im Grunde trivial ist, da man die Regeln dieses Spieles und nicht eines anderen auf die gewürfelte Augenzahl bezieht.

Und die reellen Zahlen, die die Zufallsvariable einem Ergebnis zumisst, sind in diesem Fall \{300; -150\} , also der dem entsprechenden Gewinn oder Verlust

Quelle: "Mathematisches Unterrichtswerk Lambacher-Schweizer" aus dem Klett Verlag, altes Mathebuch des Goethes

Erwartungswert

Als Erwartungswert kann man, vereinfacht, den Mittelwert bezeichnen, der sich bei mehrfacher Wiederholung eines Zufallsexperimentes unter der Beachtung der jeweilgen Zufallsgröße ergibt.

Diese kurzgefasste Definition wollen wir nun zunächst einmal in ihrer mathematischen Form betrachten.(Quelle kommt noch):

Die reele Zahl E(X) mit E(x) = x_1*P(X=x_1)+ x_2*P(X=x_2)+ .... +x_n*P(X=x_n) lautet der Erwartungswert der Zufallsvariable X. Oder anders gesagt: Der Erwartungswert E(X) ist

\sum_{k=1}^N x_k*P(X=x_k)\,

Beispiel Eins:

Um uns die Bedeutung dieser Formel klar zu machen, werden wir diese auf das Beispiel des vorherigen Artikels beziehen. Wir erinnern uns, bei einer gewürfelten Eins oder Zwei erhält Herr M. 300 Euro, andernfalls muss er 150 Euro zahlen.

Also istE(x) = \sum_{k=1}^6 x_k*\frac {1}{6}. Die Bedeutung dieser Formel kann man sich folgendermaßen vergegenwärtigen: mit jedem Wurf gewinnt Herr M. 2* \frac {1}{6} 300 €, wobei er auch "gleichzeitig" 4* \frac {1}{6} 150 € verliert. So gewinnt/verliert er im Mittel mit einem Wurf genau 0 €, d.h. auch wenn er das Spiel 300 Mal wiederholt, kann er seinen überschuldeten Kopf noch immer nicht aus der Schlinge seiner russischen Kreditgeber ziehen. Käme hingegen ein positiver/negativer Wert heraus, so besteht eine Tendenz zum Gewinn beziehungsweise Verlust, dass heißt der zu erwartende Ausgang nach n Wiederholungen wäre n *E(X)


Beispiel Zwei:

20% der Bürger sind Vegetarier! Man befragt 100 Bürger! Demnach ist zu erwarten, dass 20 der 100 befragten Bürger Vegetarier sind! Der Erwartungswert ist μ= 20 !

Er ergibt sich aus

\mu=n*p

\mu=Erwartungswert

n=Wiederholungen des Experiments (hier Anzahl der Befragten =100)

p=Wahrscheinlichkeit (hier 20%; p=0,2)


Wie wir nun in der letzten Stunde gesehen haben, bezieht sich das Beispiel Eins auf den allgemeinen Begriff des Erwartungswertes, während hingegen Beispiel Zwei nur für Bernoulli-Experimente gilt. Der Beweis der Gültigkeit der Formel \mu=n*p aus der allgemeinen Formel sieht wie folgt aus (Quelle: http://www.onlinemathe.de/read.php?topicid=1000013214&read=1&kat=Studium und http://www.mmnetz.de/huseyin/varianzbeweis.pdf):

Bei einer Bernulli-Kette ergibt sich die Wahrscheinlichkeit für den Eintritt einer Zufallsgröße aus den einzelnen Pfadwahrscheinlichkeiten, der Wert der Zufallsgröße sei sie selbst, also zum Beispiel hat k= 1 den Wert eins. Die Summe aller dieser Pfadwahrscheinlichkeiten mulipliziert mit der jeweiligen Zufallsgröße ist somit:

\sum_{k=1}^N k*{n \choose k}*p^k*(1-p)^{n-k}\,

Der Trick besteht nun darin, {n \choose k} geschickt umzuformen. Dafür machen wir uns erstmals klar, wie das ganze "ausgeschrieben" aussieht. Dabei ist ist {n \choose k} = \frac{n!}{k!*(n-k!)} , also ist k*{n \choose k}= \frac{n!}{(k-1)!*(n-k!)} (das k kürzt sich weg).

Das kann man nun wieder wie folgt schrieben: \frac{n*(n-1)!}{(k-1)!*(n-k!)} ,was wieder soviel bedeutet wie n*{n-1 \choose k-1}

Das setzt man nun in die allgemeine Gleichung ein, und erhält, wenn man n und p ausklammert:

 E(X)=n*p \sum_{k=1}^N {n-1 \choose k-1}*p^{k-1}*(1-p)^{n-k}\,

Der Einfachheit halber fügen wir neue Variablen ein, h für k-1 und i für n-1 und erhalten somit

 E(X)=n*p \sum_{h=0}^{i+1} {i \choose h}*p^{h}*(1-p)^{i+1-h-1}\ = n*p \sum_{h=0}^{i+1} {i \choose h}*p^{h}*(1-p)^{i-h}\

Das "Summenzeichen" beschreibt nun die Summe aller Wahrscheinlichkeiten für jede Zufallsgröße von 0 bis i+1, und die ist natürlich eins, somit ist E(x)=n*p



PS: Für Liebhaber http://www.mathematik.uni-ulm.de/stochastik/lehre/ws03_04/wr/skript/node42.html

Varianz

Vereinfacht ausgedrückt kann man sagen, die Varianz gibt die durchschnittliche Abweichung vom Erwartungswert an. Die Varianz ist ein Streuungsmaß. Allgemein bezieht sich der Ausdruck "Varianz" auf Abweichung von Meßwerten auf das arithmetische Mittel \bar x. Dann gilt:


Formel bei gegebenen Werten: s^2 = \frac{1}{n} \sum_{i=1}^n(x_i - \bar x)^2

Wie gesagt, gibt die Varianz zunächst einmal eine Abweichung des tatsächlichen Ergebnisses von einem "zu erwartenden Wert" (welcher nicht unbedingt als Erwartungswert bezeichnet werden muss) an. Vergegenwärtigen wir uns das an einem Beispiel: Man stellt Eisenplatten her, die durchaus verschiedene Dicken aufweisen können. Nun werden 4 Platten gemessen, es ergeben sich Dicken von 1,2mm; 1,0mm; 1,3mm; 1,2mm. Nun liegt es nahe, erst einmal das arithmetische Mittel der Messwerte \bar x zu errechnen.

\bar x =\frac{1,0+2*1,2+1,3}{4}= 1.175

Will man nun die "durchschnittliche Abweichung" s einzelner Ergebnisse von diesem Mittelwert \bar x bestimmen, so würde man vielleicht zunächst probieren, die Summe aus den einzelnen Abweichungen so zu ermitteln, dass man jeweils die Diskrepanzen aller Messwerte zum arithmetischen Mittel \bar x addiert, und sie eventuell im Anschluß durch die Anzahl aller Messergebnisse dividiert:

s =\frac {1}{n}\sum_{i=1}^n(x_i - \bar x)

Hierbei würde sich jedoch sogleich Ernüchterung breitmachen, da das Ergebnis immer null sein wird (das arithmetische Mittel wird ja genau so bestimmt). Man müsste demnach jeweils die Beträge der Differenzen nehmen. Da dies rechnerisch sehr aufwendig ist, beschränkt man sich darauf, einfach die Abstände zu quadrieren, welches den positiven Nebeneffekt hat, dass größere Abstände zum arithmetischen Mittel überproportional bewertet werden. Auch das\frac {1}{n} lässt sich noch auf anderem Wege erklären: Wäre es nicht da, würde das Ergebnis mit einer größeren Anzahl von Messwerten immer höher ausfallen, s wäre somit kein "Mittel" mehr.


Jetzt ist aber das Thema unseres Halbjahres nicht das Prüfen von Stichproben, sondern Wahrscheinlichkeitsrechnung. Man kann jedoch das Verständnis der Varianz, wie sie oben beschrieben ist, recht gut auf die allgemeinen Begriffe der Wahrscheinlichkeitsrechnung zurückführen. Das arithmetische Mittel des Beispiels b) ist dabei einleuchtenderweise der Erwartungswert E(x).

Zum weiteren Vorgehen wieder ein Beispiel:

Herr M. betritt in verprassungswütiger Stimmung ein Kasino. Nun hat er zwei Glückspiele zur Auswahl. Da wäre zum Einen das bereits im Abschnitt "Erwartungswert" erläuterte Spiel sowie eine zweite Variante, bei der man im Falle einer gewürfelten Eins 60.000 $ (Die Geschichte findet in Las Vegas statt), in allen anderen Fällen jedoch 12.000 $ an die Bank bezahlen muss. Beide Glückspiele besitzen den gleichen Erwartungswert, nehme man also nur diesen zur Kenntnis, unterscheiden sie sich nicht. Nun ist Herr Mescher aber ein Draufgänger (hier findet bereits die intuitive Tatsache, dass sich die beiden Spiele doch nicht gleichen, Eingang in den Sprachgebrauch), und da Kinder und Frau eh auf dem Hotelzimmer sind, entscheidet er sich natürlich für letzteres Spiel. Er würfelt, und, wie hätte es anders sein können, mit einem Lächeln, bei dem jedem Kasinoinhaber das Blut in den Venen gefriert, eine Eins. Er nimmt das Geld und verprasst es sogleich, in dem er es auf die Strasse wirft um sich rechtzeitig in Sicherheit zu bringen und das darauffolgende Spektakel aus einiger Entfernung beobachten zu können. Nun betritt ein Trottel, der auch gerne so beliebt sein möchte, das Kasino und will es Herrn M. gleichtun. Er würfelt und würfelt, aber nach dem zehnten Mal ohne Eins gibt er entnervt auf. Er hätte sich die nächsten 20 Jahre in einer Wohnwagensiedlung ersparen können, hätte er eben das zweite Kriterium eines Zufallsexperimentes beachtet und es in Hinsicht auf seine lebenslange Pechsträhne in sein Verhalten mit einbezogen. Aber wie?

Es ist klar, dass man bei einmaligen Würfeln in unserem Beispiel nie den Erwartunsgwert erhält. Vielmehr weicht das Ergebnis mit einer Wahrscheinlichkeit von \frac {1}{6} um + 60.000$ (dies entspricht x_1-E(x), wobei E(x)=0 ist) und zu \frac {5}{6} um -12.000$ vom Erwartungswert ab, d.h bei mehrmaligem Würfeln in \approx 17% respektive \approx 83% der Fälle.

Diese Wahrscheinlichkeitsverteilung fließt nun in die Gleichung aus Beispiel b) ein, in dem man die Abweichung eines Wertes mit der Wahrscheinlichkeit seines Auftritts multipliziert:

s^2 =\sum_{i=1}^n(x_i - E(x))^2*P(X=x_1)

Statt s² sagt man hier nun V(X), das heißt Varianz von X

Standardabweichung

In der Regel weichen bei einem Zufallsexperiment einige Werte von dem Erwartungswert ab. Der Erwartungswert E(X) gibt daher den mittleren zu erwartenden Wert an, jedoch keinen Hinweis darauf, wie stark die einzelnen Werte von X beim häufigen Durchführen von E(X) abweichen, bzw. "streuen". Neben dem Erwartungswert ist es also sinnvoll, auch ein Maß für die Streuung festzulegen.

Streuung=Summe der Abweichungen

Kann eine Zufallsgröße X die Werte x_1, x_2,..., x_n annehmen, so heißt

V(X)=(x_1-E(X))^2*P(X=x_1)+...+(x_n-E(X))^2*P(X=x_n)\, Varianz von X(siehe oben).

\sqrt{V(X)} heißt Standardabweichung von X.

Statt V(X)\, (bzw.\sqrt{V(X)}) schreiben wir \sigma^2\, (bzw.\sigma\,).

Beispiel: Glücksspiel

In einem Kasten sind drei grüne, drei rote und vier weiße Kugeln. Zieht man eine rote Kugel, gewinnt man 6€, zieht man eine rote Kugel, verliert man 5€, zieht man eine weiße Kugel, so gibt es weder Gewinn noch Verlust.

Beschreibt die Zufallsgröße X den jeweiligen Gewinn, so erhält man die folgende Wahrscheinlichkeitsverteilung von X und den Erwartungswert E(X).

\mathbf{x_i} \mathbf{6} \mathbf{-5} \mathbf{0}
\mathbf{P(X=x_i)} \mathbf{0,3} \mathbf{0,3} \mathbf{0,4}

E(X)=6*0,3+(-5)*0,3+0*0,4 = 0,3\,

Bei einer Serie von Spielen wird in ca.

30% aller Fälle das Ergebnis um (6-0,3)€

30% aller Fälle das Ergebnis um (-5-0,3)€

40% aller Fälle das Ergebnis um (0-0,3)€

Maß für die Streuung: (6-0,3)^2*0,3+(-5-0,3)^2*0,3+(0-0,3)^2*0,4=18,21


Bei binominalverteilten Zufallsgrößen gilt für die Varianz: \sigma^2=n*p*(1-p)\,

Spezielle Wahrscheinlichkeitsverteilungen

Bernoullikette

Man spricht dann von einem Bernoulli-Experiment, wenn es bei einem Zufallsvorgang nur zwei Ausgänge gibt --> entweder ein bestimmtes Ereignis A tritt ein, oder es tritt nicht ein. Die Zufallsvariable, die diesem Experiment zugeordnet wird, erhält den Wert 1, wenn A eintritt, und 0, wenn A nicht eintritt.

Das gängigste Beispiel ist der Münzwurf. Entweder man erzielt einen Treffer (Bsp.: Kopf) mit der Erfolgswahrscheinlichkeit p oder eine Niete (Bsp.: Zahl) mit der Misserfolgswahrscheinlichkeit von 1-p.

Wiederholt man ein Bernoulli-Experiment n-mal, wobei die Erfolgswahrscheinlichkeit p bei jeder Durchführung gleich bleibt und die Reihenfolge der Versuche unwichtig ist (man sagt auch: Die einzelnen Experimente sind voneinander unabhängig.), spricht man von einer Bernoulli-Kette der Länge n mit der Erfolgswahrscheinlichkeit p.

Beispielaufgabe: Ein "ungezinkter" Würfel wird viermal geworfen. Wie groß ist die Wahrscheinlichkeit, dass genau zweimal die Zahl 4 fällt? Hinweis: Die Zahl 4 entspricht einem Treffer, alle anderen Zahlen werden zu "Nicht Treffer" zusammengefasst.

Zur Kontrolle: P(X=2)=11,57%

Binomialverteilung

Das Errechnen einer bestimmten Wahrscheinlichkeit von einem Ergebnis ist bei einer Bernoulli-Kette mit Hilfe eines Baumdiagramms, besonders bei einer großen Anzahl an Pfaden, umständlich. Aus diesem Grund kann man durch folgende Überlegungen auf eine leicht zu lösende Formel schließen.

Es liegt eine Bernoulli-Kette mit der Trefferwahrscheinlichkeit von p vor, die Anzahl der Treffer sei k. Ziel ist es, herauszufinden, mit welcher Wahrscheinlichkeit k Treffer erzielt werden.

Man überlegt sich nun, wieviele mögliche Pfade es gibt, die zu meinem richtigen Ergebnis führen. Jeder Pfad besteht aus n Abschnitten (Anzahl der Versuchsdurchführungen). Demnach gibt es {n \choose k} Anzahl an Pfaden, die zum richtigen Ergebnis führen. Jeder dieser Pfade hat eine Wahrscheinlichkeit von p.... Aus diesem Grund kann man die Anzahle der Pfade mit ihrer Wahrscheinlichkeit multiplizieren und man erhält die Wahrscheinlichkeit für das Eintreten von k-Treffern. Zur Herleitung hilft auch das Pascalsche Dreieck.

\operatorname{B_{n;p}}(k)={n \choose k} \cdot p^k \cdot (1-p)^{n-k}

Den Wert kann man auch mit Tabellen, die für solche Berechnungen angelegt worden sind, bestimmen.

Oft ist es der Fall, dass es mehrere richtige Treffer gibt. Hier muss man einfach die einzelnen Wahrscheinlichkeiten für das Eintreten der richtigen Ergebnisse errechnen und dann addieren.

F_{n;p}(k)=\operatorname{P}(0 \le X \le k) = \sum_{i=0}^k \operatorname{B_{n;p}}(i)= \sum_{i=0}^k {n \choose i} \cdot p^i \cdot (1-p)^{n-i}

Da die Berechnung dieser Wahrscheinlichkeit sehr langwierig ist, wenn man jede Binomialverteilung einzeln errechnen und addieren muss, gibt es hierfür ebenfalls Tabellen, in denen diese Werte bereits errechnet sind. Man sucht zuerst nach der Tabelle für das passende n. Danach geht man zur Spalte mit der gewünschten Wahrscheinlichkeit, wobei anzumerken ist, dass bei p > 0.5 am unteren Rand zu suchen ist. Dann geht man zu der Reihe welche zum entsprechenden k gehört und erhält einen Wert.

Diese Formel lässt sich aber auch in unseren Taschenrechner sehr einfach eintippen: Shift+log -> Summenzeichen; Shift+Geteilt -> nCr (n über k); statt i muss man x als Variable nehmen, welches sich durch Alpha+) eintippen lässt.

Die Binomialverteilung lässt sich graphisch durch ein Histogramm veranschaulichen. ein Histogramm hat bei großem n folgende Eigenschaften:

- Der höchste Balken ist der Erwartungswert µ
- Das Histogramm hat mit zunehmendem n annähernd die Form einer Glocke
- Es ist annähernd symmetrisch zum Erwartugswert µ
- Die Summe der Flächen aller Balken ist 1
- Breite eines Balkens ist 1
- Ein Histogramm fängt bei 0 an und geht bis n

Hier findet sich ein interaktives Beispiel

Beispielaufgabe: Ein idealer Würfel wird achtmal geworfen. Wie groß ist die Wahrscheinlichkeit mindestens sechsmal eine Primzahl zu werfen?

Zur Kontrolle: P(X=6,7,8)=14,5%

Hypothesentests

Einseitiger Test

Der einseitige Test ist eine von zwei Möglichkeiten, eine Hypothese aufzustellen. Bei dem einseitigen Test ist entweder der obere oder der untere Verwerfungsbereich von Bedeutung, dass heißt nur eine Seite wird betrachtet (-->einseitig ).

Deshalb muss man sich beim einseitigen Test genau überlegen, aus wieviel Prozent der Annahmebereich bzw. der Ablehnungsbereich besteht. Wird ein Signifikanzniveau von 95% als Annahmebereich angenommen, so sind 5% der Ablehnungsbereich. Da man bei dem einseitigen Test von 5% Ablehnungsbereich ausgeht, aber nur 2,5% über und unter dem Annahmebereich hat, muss man folglich mit einem Signifkanzniveau von 90% rechnen - so erhält man 10% Ablehnungsbereich. Da er sich zu gleichen Teilen um den Annahmebereich verteilt, erhält man den gewünschten 5%-Ablehnungsbereich.

Beispiel:

In einer Stadt hat der Bürgermeister eine Projektentscheidung getroffen. Nun soll durch eine Umfrage geklärt werden, ob die Bevölkerung mit der Entscheidung zufrieden ist. Dazu werden 100 Leute befragt. Der Bürgermeister sieht seine Entscheidung als bestätigt an, wenn mehr als 50% der gesamten Stadtbevölkerung die Entscheidung für richtig halten. Man geht von einem Signifikanzniveau von 95% aus.

Der Bürgermeister wird seine Entscheidung nur dann für unglücklich erklären, wenn die Anzahl der Befürworter außerhalb des Annahmebereichs liegt. Hinzu kommt, dass er nur den Ablehnungsbereich unterhalb des Erwartungswertes betrachtet. Befürworten mehr Leute die Entscheidung als angenommen, ist das nur im Sinne des Bürgermeisters. Also muss man mit einem Signifikanzniveau von 90% rechnen.

n = 100\,

H_0:p=0,5\,

t=1,64 \,

 \mu=n \cdot p=100 \cdot 0,5=50

\sigma = \sqrt{n \cdot p\cdot(1-p)}

Aus diesen Angaben erhält man für \sigma=\sqrt{100\cdot0,5\cdot0,5}=5

Nun rechnet man das Annahmeintervall aus.

[\mu - t \cdot \sigma  ;  \mu + t \cdot \sigma] \Longrightarrow [50 - 1,64 \cdot 5 ; 50 + 1,64 \cdot 5] \Longrightarrow [41,8 ; 58,2] = [41 ; 59]

Wenn nur 40 oder weniger der Befragten mit der Entscheidung zufrieden sind, muss der Bürgermeister zugeben, dass seine Entscheidung falsch war. Die 5% der Befragten, die oberhalb der 59 Menschen sind, müssen nicht beachtet werden, da der Bürgermeister in dem Fall mehr Befürworter hat, als er braucht, damit seine Entscheidung als gerechtfertigt angesehen wird.

Zweiseitiger Test

Ein Entscheidungsverfahren, bei dem festgestellt wird, ob eine Hypothese H_{0} (Nullhypothese) verworfen wird oder nicht, heißt Signifikanztest.

Der zweiseitige Test ist ein Hypothesentest, bei dem die Hypothese für korrekt erachtet wird, solang der aus dem Hypothesentest erhaltene Wert innerhalb des vorher definierten Annahmebereichs liegt. Der Annahmebereich erstreckt sich innerhalb einer unteren und oberen Annahmegrenze, die symmetrisch zum Erwartungswert des Versuchs liegen. Die Entfernung der Grenzen zum berechneten Erwartungswert werden mit Hilfe des definierten Signifikanzniveaus bestimmt. Je höher das Signifikanzniveau, desto näher liegt die maximale Abweichung vom Erwartungswert, die noch im Annahmebereich enthalten ist. Desto niedriger das Signifikanzniveau, umso extremere Werte muss der Prüfwert des Tests aufweisen, um die Hypothese zu widerlegen.

Es wird behauptet, dass beim Werfen die Wahrscheinlichkeit 50% beträgt Kopf oder Zahl zu bekommen. Nun wird der Versuch 1000 mal durchgeführt. Signifikanzniveau 5%

H_0: p= 0,5\,

n= 1000\,

\mu= n * p = 1000 * 0,5 = 500\,

\sigma=\sqrt{n*p*(1-p)}=\sqrt{1000*0,5*(1-0,5)}=5\sqrt{10}\,

[\mu- 1,96*\sigma ; \mu- 1,96*\sigma]\,\Longrightarrow [500-1,96*5\sqrt{10};500+1,96*5\sqrt{10}]\Longrightarrow[469,01;530,99]\Longrightarrow[470,530]

Würde man nun beim werfen der Münze zwischen 470 und 530 mal Kopf, bzw. Zahl erhalten kann man sagen, dass die Wahrscheinlichkeit 50% beträgt Kopf, bzw. Zahl zu erhalten. Würde die Anzahl an Kopf, bzw. Zahl außerhalb dieses Bereiches liegen, so müsste die Hypothese verworfen werden.

Annahmenbereich, Ablehnungsbereich

Liegt das Ergebnis eines Versuchs innerhalb des Annahmebereichs so sieht man seine Hypothese als bestätigt an. Liegt es hingegen im Ablehnungsbereich, so wird die Hypothese verworfen.Die Größe des Annahme- und Ablehnungsbereich hängt von der Größe des gewählten Signifikanzniveaus ab. Bei der Nullhypothese heißt der Ablehnungsbereich auch oft kritischer Bereich, da dieser von der Größe des Signifikanzniveaus abhängig ist.

Fehler 1. und 2. Art

Beim Testen von Hypothesen können 2 Fehler unterlaufen.

Der Fehler 1. Art tritt auf, wenn man eine wahre Hypothese verwirft.

Der Fehler 2. Art tritt auf, wenn man eine falsche Hypothese als wahr akzeptiert.

Die Wahrscheinlichkeit für beide Fehler ist abhängig von dem gewählten Signifikanzniveau. Der Fehler 2. Art ist zusätzlich noch abhängig von dem realen Wert. Ein sehr hohes Signifikanzniveau (Bsp: 95,5%) senkt die Wahrscheinlichkeit für den Fehler 1. Art auf 4,5%, da das Testergebnis lediglich in 4,5% der Fälle außerhalb des Annahmebereichs liegt. Ein hohes Signifikanzniveau erhöht allerdings auch die Chance, dass ein Wert des Annahmebereichs des wahren Wertes in den Annahmebereich des getesteten Wertes fällt, sich die Annahmebereiche also überschneiden.

Liegen realer und getesteter Wert nur minimal auseinander, so kann man den Unterschied nur bei sehr großem n überhaupt feststellen. Ist die Differenz relativ groß (Bsp: Pt=0,4; Pw=0,7), so liegt die Chance auf einen Fehler 2. Art bei einem Singfikanzniveau von 1% bei nur 1,44%.

Ho ist wahr Ho ist falsch
Hypothese Ho wird verworfen Fehler 1. Art richtige Entscheidung
Hypothese Ho wird beibehalten richtige Entscheidung Fehler 2. Art

Nullhypothese, Alternativhypothese

Signifikanzniveau

Als Signifikanzniveau bezeichnet man die Irrtumswahrscheinlichkeit, die bei einem Versuch auftritt. Je höher das Signifikanzniveau, desto kleiner der Fehler 1. Art. Jedoch erhöht sich damit die Wahrscheinlichkeit, den Fehler 2. Art zu begehen(siehe Fehler 1./2.Art).Das Signifikanzniveau wird meistens als "Sigma" angegeben.

Wert für Sigma => Signifikanzniveau

2,58 => 1%;99%

1,96 => 5%;95%

2 => 4,5%;95,5%

3 => 0,3%;99,7%

2,33 => 2,5%;97,5%

1,64 => 10%;90%

Lernpfade

Linkliste

Siehe auch

Diese Seite enthält Inhalte der Kursseite Benutzer:Mescher/Stochastik vom 09.06.2008. Siehe dort auch die Versionen und Autoren.