Stochastik

aus ZUM-Wiki, dem Wiki für Lehr- und Lerninhalte auf ZUM.de
Wechseln zu: Navigation, Suche

Vorlage:Babel-1

Inhaltsverzeichnis

Grundlegende Begriffe der Stochastik

Zufallsexperimente und Ereignisse

Zufallsexperiment:

Es gibt Experimente, bei denen wir wissen, dass jeder Versuch zu genau dem gleichen Ergebnis führt. Dies bezeichnet man als ein deterministisches Denkschema

Beispiel: Hebt man einen Stein auf und lässt diesen los, fällt er mit Sicherheit zur Erde

Auf der anderen Seite gibt es Experimente, bei denen erfahrungsgemäß verschiedene Versuche des selben Experiments zu ganz verschiedenen Ergebnissen führen. Man sagt, dass der Ausgang dieses Versuchs "dem Zufall überlassen" ist. Dies bezeichnet man als ein stochastisches Denkschema.

Beispiel: Werfen eines Würfels

Absolute und relative Häufigkeit

Absolute Häufigkeit: Die Absolute Häufigkeit beschreibt die Anzahl vom Auftreten eines Ereignisses A bei der Überprüfung einer Stichprobe vom Umfang n.



Relative Häufigkeit: Unter relativer Häufigkeit versteht man einen Teil einer Gesamtstichprobe, der die gleichen Eigenschaften aufweist. Teilt man diesen Wert durch die Anzahl des Gesamtprobenumfangs, erhält man die relative Wahrscheinlichkeit. Dabei gilt, dass die Werte immer zwischen 0 und 1 liegen müssen, da im Fall des Wertes 0 keiner die gleichen Eigenschaften bzw. alle mit dem geforderten Merkmal auftreten, sollte der Wert 1 sein.

Beispiel: In einer 10. Klasse mit 30 Schülern bekommen 10 Personen genau 25€ im Monat. Die relative Häufigkeit ist also \frac{10}{30} = \frac{1}{3}=33,3%

Lage- und Streumaße

Wahrscheinlichkeitsbegriff

Laplace-Wahrscheinlichkeit

Empirisches Gesetz der großen Zahl

Berechnung von Wahrscheinlichkeiten (bis in die Unendlichkeit)

Additionssatz

Kennt man von zwei Ereignissen A und B die Wahrscheinlichkeiten P\left( A \right) , P\left( B \right) , so lässt sich für das Ereignis A \cup B (= "Addition") die Wahrscheinlichkeit berechnen. Allerdings braucht man dazu noch P(A \cap B).
Man berechtnet die Wahrscheinlichtkeit von A und addiert die Wahrscheinlichkeit von B. Außerdem darf man nicht vergessen, die Wahrscheinlichtkein, dass beide Fälle gleichzeitig eintreten zu subtrahieren, da man sonst P((A\cap B) \cap (A\cup B)) berechnen würde.

Beispiel:
Experiment: Doppelwurf einer Münze. Ereignis E: Zahl im ersten oder zweiten Wurf. P\left( E \right)
E=A \cup B
Lösung:
A: Zahl beim ersten Wurf
B: Zahl beim zweiten Wurf

P\left( E \right)= P(A)+P(B)-P(A\cap{}B)
P\left( E \right) = 0,5+0,5-0,5^2
P\left( E \right) = 0,75

Pfadregeln

Entlang eines Pfades wird multipliziert, am Ende der Pfade wird addiert.

http://members.aol.com/nfinck/stochast/wuerfel.gif

Hier haben wir das Beispiel eines Würfels, der bis zu viermal geworfen wird, bei dem nur zwei Ereignisse betrachtet werden: Es wird die 1 gewürfelt, oder es fällt eine andere Zahl. Wir bieten jetzt die Wette: es fällt nie eine 1.

Die Wahrscheinlichkeit dazu ist: (5/6)*(5/6)*(5/6)*(5/6) = (5/6)^4 ~ 48% Die Gegenwahrscheinlichkeit ist: 1-(5/6)^4 ~ 52% Diese lässt sich genauso gut anders ausrechnen, nämlich als Summe der Wahrscheinlichkeiten aller anderen Ereignisse: (1/6)+(5/6)*(1/6)+(5/6)*(5/6)*(1/6)+(5/6)*(5/6)*(5/6)*(1/6) ~ 52%.

Unabhängigkeit von Ereignissen

Die Ereignisse A und B werden unabhängig genannt, wenn folgendes gilt: P(A \cap B) = P(A) \cdot P(B)


Mathematisch kann man das Wort "unabhängig" wie folgt deutlich machen: P(A) = {{P(A \cap B)} \over {P(B)}} = P(A \vert B).
Dies Bedeutet, dass die Wahrscheinlichkeit für A gleich bleibt, auch wenn man die Bedingung B vorraussetzt.

Bedingte Wahrscheinlichkeiten

Aus der Definition für unabhängige Ereignisse ergibt sich die Alternative der bedingten Wahrscheinlichkeit. Diese drückt die Wahrscheinlichkeit aus, mit der ein Ereigniss A eintritt, unter der Bedingung, dass ein Ereigniss B vorangegangen ist.

P(A|B) = \frac {P({A} \cap {B})} {P(B)}


Beispielsweise ist die bedingte Wahrscheinlichkeit P(„die Erde ist nass“|„es regnet“) (die Erde ist nass, wenn es regnet) meist groß, denn unter der Voraussetzung, dass es zu einem Zeitpunkt regnet, sollte man erwarten, dass die Erde nass wird. Bedingte Wahrscheinlichkeit fragt also nach, wie wahrscheinlich ein Ereignis ist, wenn ich ein anderes bereits kenne. In unserem Beispiel weiß ich, dass es regnet und frage mich, wie groß die Wahrscheinlichkeit ist, dass die Erde nass ist. Offensichtlich unterscheidet sich die bedingte Wahrscheinlichkeit von der unbedingten.

Kombinatorik

Geordnete Stichprobe

- mit Zurücklegen

- ohne Zurücklegen

Ungeordnete Stichprobe

- mit Zurücklegen

- ohne Zurücklegen

Bsp: Lotto – Es werden aus 49 sechs Zahlen gezogen, wobei die Reihenfolge irrelevant ist. Für die erste gezogene Kugel gibt es 49, da ja alle 49 Kugeln vorhanden sind. Für die zweite gibt es nur noch 48 Möglichkeiten, da ja nun eine Kugel weinger da ist. Für die dritte kugel gibt es nur noch 47 Möglichkeiten usw. Es ergibt sich also folgende Anzahl der Möglichkeiten (hier wird die Reihenfolge aber noch beachtet):

49*48*47*46*45*44\,

Dies lässt sich auch so schreiben: \frac{49!}{(49-6)!} oder allgemein: \frac{n!}{(n-k)!}

n= gesamte Menge k= Zahl der Ausgewählten


Hier wird jetzt aber noch die Reihenfolge beachtet. Man hat also zu viele Möglichkeiten berechnet, da beispielsweise die Zahlen 1;2;3;4;5;6 dasselbe sind wie 6;5;4;3;2;1. Man muss sich also überlegen wie viel man zu viel berechnet hat. Man hat ja sechs verschiedene Zahlen, die in verschiedenen Reihenfolgen gezogenwerden können, aber eigentlich dieselbe Kombination sind, da ja die Reihenfolge egal ist. Die Anzahl dieser Reihenfolgen ist 6 Fakultät, da es ja für die erste Kugel sechs Möglichkeiten gibt, für die Zweite fünf, für die Dritte vier und so weiter. Man hat also 6! mal so viele Möglichkeiten berechnet, als es eigentlich gibt. Also teilt man den zu erst berechneten Wert durch Fakultät sechs.

\frac{49!}{(49-6)!* 6!} oder allgemein: \frac{n!}{(n-k)!*k!}

Diese allgemeine Form wird aber mit {n \choose k} (sprich: "n über k") abgekürzt und ist auf vielen Taschenrechnern unter nCr zu finden.


Zusammenfassung - Kombinatorik

Reihenfolge ist wichtig Reihenfolge ist unwichtig
Ziehen mit Zurücklegen
Ziehen ohne Zurücklegen {n \choose k}=\frac{n!}{(n-k)!\cdot k!}

Wahrscheinlichkeitsverteilungen

Zufallsgröße

Bei vielen Zufallsexperimenten ist weniger das tatsächliche Ergebnis als vielmehr die mit diesem verknüpfte Bedeutung entscheidend. So interessiert einen Roulettespieler das Ergebnis eines Wurfes nur in sofern, als er daraus seinen persönlichen Gewinn oder Verlust erkennen kann.

Definition: Eine Zuordnung oder auch Abbildung, die jedem Ausgang eines Zufallexperimentes eine reelle Zahl zumisst, nennt man Zufallsgröße oder auch Zufallsvariable. Man "übersetzt" im Grunde ein Ereignis, um so weiter mit ihm rechnen zu können.

 X:S\longrightarrow http://upload.wikimedia.org/math/6/9/a/69a45f1e602cd2b2c2e67e41811fd226.png wobei S die Ausgangsmenge eines Zufallsexperimentes, das heißt alle möglichen Ereingnisse beinhaltet und X eine über S definierte Zufallsvariable ist, die jedem Ereignis a_1; a_2;...a_n\, einen Wert x_1, x_2;... x_n\, zuweist.

Es ergibt sich demnach:  X(a_1) = x_1\,


Beispiel:

Man wirft zwei Münzen , wobei das Ereignis Kopf (abgekürzet mit K) und das Ereignis Zahl (abgekürzt mit Z) mit einer Wahrscheinlichkeit von p= 0,5 eintreten. Nun soll die Zufallsgröße die Anzahl des Ereignisses "Kopf" angben. Es gilt somit:

 X: \{ KK; KZ; ZK; ZZ \}\longrightarrow \{2;1;0\} oder auch: X(KK)=2;X(KZ;ZK)= 1; X(ZZ)=0\,

Nun wollen wir der von José Ortega y Gasset prognostizierten Eroberung der Öffentlichkeit durch die Masse und der damit verbundenen Banalisierung Tribut zollen und das ganze in die "Umgangssprache" transkribieren:

Beispiel aus dem alltäglichen Leben:

Nehmen wir an, ein Glückspieler, nennen wir ihn der Einfachheit halber Herr M., spielt folgenes Würfelspiel: Würfelt er eine 1 oder eine 2, so erhält er 300 € von der Bank, andernfalls muß er 150 € an die Bank bezahlen.

Nun würfelt er, und, da Herr M. ein Glückspilz ist, gleich eine Eins. Natürlich freut er sich und ruft: "Yeah, 300 € !".

Dabei vollzieht Herr M., da er nicht nur ein glücklicher, sondern auch ein überaus schlauer Mensch ist, schon unbewusst eine Zuordnung, indem er in seinem Ausruf ja weniger der gewürfelten Augenzahl als vielmehr dem mit dieser verbundenen Gewinn huldigt.

Drücken wir dies nun mit den oben gennanten Begriffen aus:

Die Ausgangsmenge S\, ist in unserem Beispiel  X: \{ 1; 2; 3; 4; 5; 6\}\,, nämlich die Augenzahlen des Würfels.

Die über S definierte, das heißt sich auf die mögliche Ergebnismenge beziehende Zufallsvariable kann man sich als die Regel des Spiels vorstellen, was im Grunde trivial ist, da man die Regeln dieses Spieles und nicht eines anderen auf die gewürfelte Augenzahl bezeiht.

Und die reellen Zahlen, die die Zufallsvariable einem Ergebnis zumisst, sind in diesem Fall \{300; -150\} , also der dem entsprechenden Gewinn oder Verlust

-es fehlen noch: quellenangaben + ein bildchen-----

Erwartungswert

->under construction

Als Erwartungswert kann man, vereinfacht, den Mittelwert bezeichnen, der sich bei mehrfacher Wiederholung eines Zufallsexperimentes unter der Beachtung der jeweilgen Zufallsgröße ergibt.

Varianz

erwartet für den 3.10.

Standartabweichung

Wahrscheinlichkeitsverteilung mehrerer Zufallsgrößen

Spezielle Wahrscheinlichkeitsverteilungen

Bernoullikette

Man spricht dann von einem Bernoulli-Experiment, wenn es bei vielen Zufallsexperimenten nur zwei Ausgänge gibt.

Das gängigste Beispiel ist der Würfelwurf. Entweder man erzielt einen Treffer mit der Erfolgswahrscheinlichkeit p oder eine Niete mit der Misserfolgswahrscheinlichkeit von 1-p.

Wiederholt man ein Bernoulli-Experiment n-mal, wobei die Erfolgswahrscheinlichkeit p bei jeder Durchführung gleich bleibt und die Reihenfolge der Versuche unwichtig ist, spricht man von einer Bernoulli-Kette der Länge n mit der Erfolgswahrscheinlichkeit p.

Binomialverteilung

Das Errechnen einer bestimmten Wahrscheinlichkeit von einem Ergebnis ist bei einer Bernoulli-Kette mit Hilfe eines Baumdiagramms, besonders bei einer großen Anzahl an Pfaden, umständlich. Aus diesem Grund kann man durch folgende Überlegungen auf eine leicht zu lösende Formel schließen.

Es liegt eine Bernoulli-Kette mit der Trefferwahrscheinlichkeit von p vor, die Anzahl der Treffer sei k. Ziel ist es, herauszufinden, mit welcher Wahrscheinlichkeit k Treffer erzielt werden.

Man überlegt sich nun, wieviele mögliche Pfade es gibt, die zu meinem richtigen Ergebnis führen. Jeder Pfad besteht aus n Abschnitten (Anzahl der Versuchsdurchführungen). Demnach gibt es (nk) Anzahl an Pfaden, die zum richtigen Ergebnis führen. Jeder dieser Pfade hat eine Wahrscheinlichkeit von p.... Aus diesem Grund kann man die Anzahle der Pfade mit ihrer Wahrscheinlichkeit multiplizieren und man erhält die Wahrscheinlichkiet für das Eintreten von k-Treffern.

\operatorname{B_{n;p}}(k)={n \choose k} \cdot p^k \cdot (1-p)^{n-k}

Den Wert kann man auch mit Tabellen, die für solche Berechnungen angelegt worden sind, bestimmen.

Oft ist es der Fall, dass es mehrere richtige Treffer gibt. Hier muss man einfach die einzelnen Wahrscheinlichkeiten für das Eintreten der richtigen Ergebnisse errechnen und dann addieren.

F_{n;p}(k)=\operatorname{P}(X \le k) = \sum_{i=0}^k \operatorname{B_{n;p}}(i)= \sum_{i=0}^k {n \choose i} \cdot p^i \cdot (1-p)^{n-i}

Hier findet sich ein interaktives Beispiel

Normalverteilung

Testet man eine Hypothese und begeht dabei einen Fehler 2ter Art, ist es wichtig, die eigentlich geltende Wahrscheinlichkeit zu errechnen. Dies kann man mit der Normalverteilung tun.

Die Verteilungsfunktion der Normalverteilung ist gegeben durch

F(x) = \frac {1}{\sigma \sqrt{2\pi}} \int_{-\infty}^x \exp\left(-\frac {1}{2} \left(\frac{t-\mu}{\sigma}\right)^2\right) \mathrm{d}t.

Näherungsformel für die Binomialverteilung

Hypothesentests

Einseitiger Test

Der einseitige Test ist eine von zwei Sichtweisen, eine Hypothese aufzustellen. Bei dem einseitigen Test ist entweder der obere oder der untere Verwerfungsbereich von Bedeutung.

Deshalb muss man beim einseitigen Test sich genau überlegen, aus wieviel Prozent der Annahmebereich bzw. der Ablehnungsbereich besteht. Wird ein Signifikanzniveau von 95% als Annahmebereich angenommen, so sind 5% der Ablehnungsbereich. Da man bei dem einseitigen Test von 5% Ablehnungsbereich ausgeht, aber nur 2,5% über und unter dem Annahmebereich hat, muss man folglich mit einem Signifkanzniveau von 90% rechnen - so erhält man 10% Ablehnungsbereich. Da er sich zu gleichen Teilen um den Annahmebereich verteilt, erhält man den gewünschten 5%-Ablehnungsbereich.

Beispiel:

In einer Stadt hat der Bürgermeister eine Projektentscheidung getroffen. Nun soll durch eine Umfrage geklärt werden, ob die Bevölkerung mit der Entscheidung zufrieden ist. Dazu werden 100 Leute befragt. Der Bürgermeister sieht seine Entscheidung als bestätigt an, wenn mehr als 50% der gesamten Stadtbevölkerung, die Entscheidung für richtig halten. Man geht von einem Signifikanzniveau von 95% aus.

Der Bürgermeister wird seine Entscheidung nur dann für unglücklich erklären, wenn die Anzahl der Befürworter außerhalb des Annahmebereichs liegt. Hinzu kommt, dass er nur den Ablehnungsbereich unterhalb des Erwartungswertes betrachtet. Befürworten mehr Leute die Entscheidung als angenommen ist das nur im Sinne des Bürgermeisters. Also muss man mit einem Signifikanzniveau von 90% rechnen.

n = 100\,

H_0:p=0,5\,

t=1,64 \,

 \mu=n \cdot p=100 \cdot 0,5=50

\sigma = \sqrt{n \cdot p\cdot(1-p)}

Aus diesen Angaben erhält man für \sigma=\sqrt{100\cdot0,5\cdot0,5}=5

Nun rechnet man das Annahmeintervall aus.

[\mu - t \cdot \sigma  ;  \mu + t \cdot \sigma] \Longrightarrow [50 - 1,64 \cdot 5 ; 50 + 1,64 \cdot 5] \Longrightarrow [41,8 ; 58,2] = [41 ; 59]

Wenn nur 40, oder weniger der Befragten mit der Entscheidung zufrieden sind, muss der Bürgermeister zugeben, dass seine Entscheidung falsch war. Die 5% der Befragten, die oberhalb der 59 Menschen sind, müssen nicht beachtet werden, da der Bürgermeister in dem Fall mehr Befürworter hat, als er braucht, damit seine Entscheidung als gerechtfertigt angesehen wird. [MS]

Zweiseitiger Test

Ein Entscheidungsverfahren, bei dem festgestellt wird, ob eine Hypothese H0 (Nullhypothese) verworfen wird oder nicht, heißt Signifikanztest.

Ein Test heißt zweiseitig, wenn A' durch A oder A durch A' in zwei Intervalle eingeteilt wird.

Der zweiseitige Test ist ein Hypothesentest, bei dem die Hypothese für korrekt erachtet wird, solang der aus dem Hypothesentest erhaltene Wert innerhalb des vorher definierten Annahmebereichs liegt. Der Annahmebereich erstreckt sich innerhalb einer unteren und oberen Annahmegrenze, die symmetrisch zum Erwartungswert des Versuchs liegen. Die Entfernung der Grenzen zum berechneten Erwartungswert werden mit Hilfe des definierten Signifikanzniveaus bestimmt. Je höher das Signifikanzniveau, desto näher liegt die maximale Abweichung vom Erwartungswert, die noch im Annahmebereich enthalten ist. Desto niedriger der Signifikanzklumbatsch, umso extremere Werte muss der Prüfwert des Tests aufweisen, um die Hypothese zu widerlegen.

Annahmenbereich, Ablehnungsbereich

Fehler 1. und 2. Art

Beim Testen von Hypothesen können 2 Fehler unterlaufen.

Der Fehler 1. Art tritt auf, wenn man eine wahre Hypothese verwirft.

Der Fehler 2. Art tritt auf, wenn man eine falsche Hypothese als wahr akzeptiert.

Die Wahrscheinlichkeit für beide Fehler ist abhängig von dem gewählten Signifikanzniveau. Der Fehler 2. Art ist zusätzlich noch abhängig von dem realen Wert. Ein sehr hohes Signifikanzniveau (Bsp: 95,5%) senkt die Wahrscheinlichkeit für den Fehler 1. Art auf 4,5%, da das Testergebnis lediglich in 4,5% der Fälle außerhalb des Annahmebereichs liegt. Ein hohes Signifikanzniveau erhöht allerdings auch die Chance, dass ein Wert des Annahmebereichs des wahren Wertes in den Annahmebereich des getesteten Wertes fällt, sich die Annahmebereiche also überschneiden.

Liegen realer und getesteter Wert nur minimal auseinander, so kann man den Unterschied nur bei sehr großem n überhaupt feststellen. Ist die Differenz relativ groß (Bsp: Pt=0,4; Pw=0,7), so liegt die Chance auf einen Fehler 2. Art bei einem Singfikanzniveau von 1% bei nur 1,44%.

Ho ist wahr Ho ist falsch
Hypothese Ho wird verworfen Fehler 1. Art richtige Entscheidung
Hypothese Ho wird beibehalten richtige Entscheidung Fehler 2. Art

Nullhypothese, Alternativhypothese

Signifikanzniveau

Operationscharakteristiken