Der Artikel soll Schülern der Oberstufe einen Überblick über den Stoff der Stochastik geben. Begriffe und die wichtigsten Aussagen werden aufgeführt und z.T. kurz erläutert.
Definition:Der Ereignisraum Ω
ist die Menge aller möglichen Ausgänge, die Eintreten können
Eine Teilmenge des Ereignisraums $ A \subseteq $ Ω heißt Ereignis
Besp:
Ein Wurf mit einem Würfel hat den Ereignisraum Ω = $ \{ 1, 2, 3, 4, 5, 6 \} $
Ein Ereignis kann das Fallen einer 6 sein, oder aber auch das Fallen einer geraden Zahl.
Man schreibt: $ A = \{ 6 \} \subseteq Ω \; bzw \; B = \{2, 4, 6 \} \subseteq Ω $
Definition:Eine Zufallsvariable oder ein Zufallswert X ist eine Abbildung $ X : Ω \to \Bbb{R} $
Besp:
Beim Würfeln erhält man 1 € bei einem geraden Wurf, und 2 € bei einem ungeraden. Man hat also eine Zufallsvariabl X
mit
$ X(1) = X(2) = X(3) = 1 $ & $ X(2) = X(4) = X(6) = 2 $
Die Wahrscheinlichkeit für einen bestimmten Ausgang eines Experimentes wird mit der relativen Häufigkeit dieses Ereignisses bestimmt.
Besp:
Beim Würfeln gibt 6 mögliche Ausgänge, davon 3 mit geraden Zahlen, {2,4,6}.
Die relative Häufigkeit beträgt also $ \frac{3}{6} = \frac{1}{2} $.
Im Allgemeinen kann man sagen: Für ein Expreriment mit n möglichen Ausgängen beträgt die relative Häufigkeit
für ein Ereignis A, das k mal eintreten kann bei $ \frac{k}{n} $. Wir fassen die Wahrscheinlichkeit als diesen Anteil auf:
$ P[\, A \,] = \frac{k}{n} $
Da immer $ n \ge k $ gilt, muss $ 0 \le P[\,A\,] \le 1 $ sein.
Wenn A und B Ereignisse sind, also Teilmangen von Ω, dann ist die Wahrscheinlichkeit für das Eintreten
von A und von B: $ P[\, A \cap B\,] $ .
Besp:
Ein Wurf mit enem Würfel, A = {2,4,6}, die Menge der geraden Zahlen und B = {4, 5, 6 } die Zahlen größer 3
Dann ist $ P[\, A \cap B \,] = P[\, \text{Wurf ist gerade und größer 3} \,] $.
Definition:Eine Wahrscheinlichkeitsverteilung ist eine Abbildung
$ P : Ω \to [0,1] $ mit $ 0 \le P[e] \le 1 $.
Für eine Teilmenge $ A = \{ e_{1}, e_{2},...,e_{n} \} \subseteq Ω $ ist
$ P[A] = P[e_{1}] + P[e_{2}] + ... + P[e_{n}] $
Besp: Bei einem fairen Würfel hat man $ P[i] = \frac{1}{6} $ für $ i \in \{1, 2, 3, 4, 5, 6\} $
Definition:Laplace Experiment
Ein Experiment, bei dem alle Ereignisse gleich Wahrscheinlich sind $ P[e_{i}] = P[e_{j}], \forall e_{i} , e_{j} \in Ω $, heißt Laplace Experiment
oder wird als Laplce-Verteilt bezeichnet
Besp:
Bei Experimenten einer Lottoziehung werden Objekte aus einem Behälter gezogen. Man spricht von einer Urne, und stellt sich
die Kugeln durchnummeriert oder z.B. rot und weiß gefärbt vor.
Besp:
Eine Urne enthält 5 Kugeln, nummeriert von 1 bis 5. Es wird 2-mal gezogen.
Legt man jede Kugel wieder zurück und beachtet, in welcher Reihenfolge die Zahlen gezogen werden, ist der Fall recht einfach.
Man hat den Ereignisraum $ \{1, 2, 3, 4, 5 \}^{2} $ die Menge aller Zahlenpaare mit Werten aus 1 bis 5
Ich stelle den Ereignisraum als Tabelle dar
| ( (1 , 1) ) | ( (1 , 2) ) | ( (1 , 3) ) | ( (1 , 4) ) | ( (1 , 5) ) |
| ( (2 , 1) ) | ( (2 , 2) ) | ( (2 , 3) ) | ( (2 , 4) ) | ( (2 , 5) ) |
| ( (3 , 1) ) | ( (3 , 2) ) | ( (3 , 3) ) | ( (3 , 4) ) | ( (3 , 5) ) |
| ( (4 , 1) ) | ( (4 , 2) ) | ( (4 , 3) ) | ( (4 , 4) ) | ( (4 , 5) ) |
| ( (5 , 1) ) | ( (5 , 2) ) | ( (5 , 3) ) | ( (5 , 4) ) | ( (5 , 5) ) |
Wenn man die Reihenfolge, mit der die Kugeln gezogen werden beachtet, dann tritt jedes Ereignis mit
einer Wahrscheinlichkeit von $ P[ (i,j) ] = \frac{1}{25} $
Was aber,wenn man die Reihenfolge nicht beachtet, dann unterscheidet man nicht mehr zwischen (1, 2) und (2, 1).
Diese beiden Fälle aus dem Model oben fallen hier zusammen: $ P[ (i,j) ] = \frac{2}{25} \quad für \quad i \neq j \quad und \quad i,j \in \{1, 2, 3, 4, 5 \} $
Der Fall ( 2,2 ) kommt oben auch nur einmal vor, daher ist $ P[ (i,i) ] = \frac{1}{25} \qquad für \quad i \in \{1, 2, 3, 4, 5 \} $
Zieht man k mal aus einer Urne mit n Kugeln, so gibt es $ n^{k} $ mögliche Kombinationen, also . Bei Beachtung der Reihenfolge erhält man für eine bestimmte Kombination in einer bestimmten Reihenfolge die Wahrscheilichkeit: $$ Reihenfolge \quad nicht \quad achten \\ P[ (x_1,x_2, \ldots ,x_k) ] = \frac{1}{ n^{k}} $$ Jede Kombination kann auf k! Arten angeordnet werden. Beachtet man die Reihenfolge nicht, so erhält man: $$ Reihenfolge \quad achten \\ P[ (x_1,x_2, \ldots ,x_k) ] = \frac{k!}{ n^{k}} $$
Wir betrachten nun eine Urne mit 7 Kugeln, 3 gelben und 4 schwarzen. Wie groß ist die Wahrscheinlichkeit bei zweimaligem
Ziehen, nur weiße Kugeln zu ziehen.
Denkt man sich die Kugeln durchnummeriert, wobei die gelben die Zahlen 1-3 tragen sollen, dann können wir wie oben beim
Ziehen ohne beachtung der Reihenfolge forgehen.
Sei A das Ereignis, 2 gelbe Kugeln werden gezogen.
$ A = \{ \{1,1\},\{1,2\},\{1,3\},\{2,1\},\{2,2\},\{2,3\},\{3,1\},\{3,2\},\{3,3\}\} \Rightarrow \vert A \vert = 3^2 = 9 $
Damit kann man die Wahrscheinlichkeit bestimmen:
$ P[A] = \frac{3^2}{7^2} = \frac{9}{49} $
Zieht man aus l gelben und n-l schwarzen Kugeln k mal mit zurücklegen, so beträgt die Wahrscheinlichkeit für k gelge Kugeln: $$ P[x_1=x_2= \ldots =x_k = gelb] = \frac{l^k}{n^k} $$
Besp:
Wie im Beispiel oben enthält die Urne 5 Kugeln, nummeriert von 1 bis 5. Es wird 2-mal gezogen.
Legt man die Kugeln nicht wieder zurück und beachtet, in welcher Reihenfolge die Zahlen gezogen werden,
hat man den Ereignisraum $ \{1, 2, 3, 4, 5 \}^{2} \setminus \{ ( i,i ) : i \in \{1, 2, 3, 4, 5 \} \} $
die Menge aller Zahlenpaare mit Werten aus 1 bis 5, ohne die Paare aus gleichen Zahlen.
In der Tabelle sieht man die fehlenden Einträge
| { | ( (1 , 2) ) | ( (1 , 3) ) | ( (1 , 4) ) | ( (1 , 5) ) |
| ( (2 , 1) ) | ( (2 , 3) ) | ( (2 , 4) ) | ( (2 , 5) ) | |
| ( (3 , 1) ) | ( (3 , 2) ) | ( (3 , 4) ) | ( (3 , 5) ) | |
| ( (4 , 1) ) | ( (4 , 2) ) | ( (4 , 3) ) | ( (4 , 5) ) | |
| ( (5 , 1) ) | ( (5 , 2) ) | ( (5 , 3) ) | ( (5 , 4) ) | } |
Für den ersten Zug hat man 5 Möglichkeiten, für den nächsten eine weniger, also nur noch 4.
Das heißt: $ \vert \Omega \vert = 5 \cdot 4 $, und damit ist $ P[ ( x,y ) ] = \frac{1}{20} $.
Zieht man nun k mal aus einer Urne mit n Kugeln, so ist:
$$ \vert \Omega \vert = n \cdot ( n-1 ) \cdot \ldots \cdot ( n-k-1 ) = \frac{n!}{( n-k )! }$$
und damit ist die Wahrscheinlichkeit gerade der Kehrwert:
$$ P[ ( x,y ) ] = \frac{( n-k )! }{n!} $$
Ignoriert man die Reihenfolge, so fallen alle Kombinationen mit gleichen Zahlen zusammen. Bei k Zügen sind das jeweils k! Stück. Man muss aus der Mächtigkeit für Ω also noch k! herausteilen. $$ \vert Ω \vert = \frac{n!}{( n-k )! \cdot k! } = {n \choose k } $$ $ {n \choose k } $ entspricht genau der Anzahl der k-elementigen Teilmengen einer n-elementigen Menge. Damit hat man: $$ P[ ( x,y ) ] = \frac{( n-k )! \cdot k! }{n!} = \frac{1}{{n \choose k }} $$
| $ P[ ( x,y ) ] $ | Mit Zurücklegen | Ohne Zurücklegen |
|---|---|---|
| Mit Beachtung der Reihenfolge | $ \frac{1}{ n^{k}} $ | $ \frac{( n-k )! }{n!} $ |
| Ohne Beachtung der Reihenfolge | $\frac{k!}{ n^{k}}$ | $ \frac{( n-k )! \cdot k! }{n!} $ |
Definition:Ein Bernoulli Experiment ist ein Versuch mit 2 möglichen Ausgängen.
Besp:
Münzwurf: Wirft man faire eine Münze, so ist die Wahrscheinlichkeit $ p['kopf'] = \frac{1}{2} = P['Zahl'] $
Ist die Münze nicht fair, so dass Kopf mit einer Wahrscheinlichkeit p fällt, so fällt Zahl mit einer Wahrscheinlichkeit
(1-p).
$ P[\,'Kopf'\,] = p, \; P[ \,'Zahl'\,] = (1-p) $
Experimente mit den Ausgängen 'ja' / 'nein', 'Erfolg' / 'Miserfolg' lassen sich als Bernoulli Experimente mit den Werten 0,1 auffassen. Formal hat man es also immer mit folgendem Model zu tun:
Definition:Eine Bernoulli Kette der Länge n ist ein n fach wiederholtes
Bernoulli Experiment.
Bildet man die Summe $ X = X_1 + X_2 + \ldots + X_n $ von n Bernoulli-verteilten Zuvallsvariablen $ X_i, \; i \in \{1, \ldots , n\} $,
so sagt man: X ist Binomial-verteilt mit den Parametern n und p.
Die Wahrscheinlichkeit auf k Erfolge bei n Versuchen mit einer jeweiligen Erfolgswahrscheinlichkeit p schreibt man:
$ B ( k,p,n ) \; $ oder $\; B_{n,p}( k ) $
Besp:
n facher Münzwurf: Bei einer Münze sei die Wahrscheinlichkeit $ P[\,'es \; fällt \; Kopf'\,] = p $, und damit ist dann
$ P[\,'es \; fällt \; Zahl'\,] = (1-p) $
Wirft man eine Münze n = 3 mal, so ergeben sich alle im Baum dargestellten Möglichkeiten:
Wenn man sich nur für dafür interessiert, wie oft Kopf gefallen ist, so erhält man eine Zufallsvariable X = 'Anzahl Kopf'
Man sieht dass es nur je eine Möglichkeit gibt, nur Kopf oder nur Zahl zu Werfen. Weiter gibt es genau 3 Möglichkeiten genau
einmal Zahl oder Kopf zu werfen.
Die Anzahl der Möglichkeiten für genau 2 mal Kopf und 1 mal Zahl, entspricht der Anzahl der Möglichkeiten, bei welchem
Wurf Kopf fällt. Da dies beim ersten, zweiten oder dritten Wurf geschehen kann, sind das natürlich 3 Stück.
Insgesamt gibt es 8 Wege durch den Baum, damit erhält man die Wahrscheinlichkeiten:
$$ P[ \, X=1 \,] = \frac{3}{8} $$
$$ P[ \, X=2 \,] = \frac{3}{8} $$
$$ P[ \, X=3 \,] = \frac{1}{8} $$
Hat man eine beliebige Bernulli Kette der Länge n, und fragt nach $ B_{n,p}( k ) = P[ \, X=k \,] $ so muss man die Anzahl der Möglichkeiten k Erfolge unter den n Versuchen aufzuteilen ermitteln. Diese betragen jeweils n über k: $ {n \choose k} = \frac{n!}{k! ( n-k ) } $ Die Anzahl der Möglichen Ausgänge des Experimentes beträgt $ 2^n $, also ergibt sich: $$ B_{n,p}( k ) = P[ \, X=k \, ] = \frac{{n \choose k }}{2^n} $$
Eine Binomialverteilte Zuvallsvariable X kann man als die Summe von n Bernoulli-verteilten Zuvallsvariablen $ X_i, \; i \in \{1, \ldots ,n \} schreiben.
Definition: Bedingte Wahrscheinlichkeit
Seien A, B Ereignisse in einem Ereignisraum Ω dann heißt die Wahrscheinlichkeit für B unter der
Bedingung das A eingetreten ist die bedingte Wahrscheinlichkeit für B, und man schreibt:
$ P_A[\,B\,] $ oder $ P[\,B\, \vert \,A\,] $.
Es ist:
$$ P_A[\,B\,] = \frac{P[\,A \cap B\,]}{P[\,A\,]} $$
Definition: Unabhängigkeit
Zwei Ereignisse A und B sind unabhängig, wenn $ P_A[\,B\,] = P[\,B\,] $ gilt.
Dann ist $ P[\, A \cap B \,] = P[\,B\,] \cdot P[\,A\,] $ denn:
$$
\begin{align}
P_A[\,B\,] & = \frac{P[\,A \cap B\,]}{P[\,A\,]} \qquad \vert \quad \cdot P[\,A\,] \\
P_A[\,B\,] \cdot P[\,A\,] & = P[\,A \cap B\,] \qquad \text{A & B sind unabhängig} \\
P[\,B\,] \cdot P[\,A\,] & = P[\, A \cap B \,]
\end{align}
$$
Besp:
Ein zweifacher Münzwurf ist Bernoulli Experiment der Länge 2. Wählt man eine Zufallsvariabel $ X = (X_1,X_2)$, mit:
$$ X_i =
\begin{cases}
1 \text{ $\iff $ i-ter Wurf ist Zahl } \\
0 \text{ $\iff $ i-ter Wurf ist Kopf }
\end{cases}
\quad \text{für $ i \in $ {1, 2}}
$$
Wenn mit der Wahrscheinlichkeit p eine Zahl fällt, dann ist $ P[X_i = 1] = p $
Das Ergebnis des zweiten Wurfs ist unabhängig vom Ergebnis des ersten, es ist:
$$ P_{\{X_1=1\}}[\,X_2=1\,] = p = P[\,X_2 = 1 \,] $$
Besp:
Zieht man 2 mal aus einer Urne mit 3 gelben und 2 schwarzen Kugeln, so kann man eine Zufallsvariable $ X = (X_1, X_2) $
definieren, mit:
$$ X_i =
\begin{cases}
0 \text{ $\iff $ i-te Kugel ist gelb } \\
1 \text{ $\iff $ i-te Kugel ist schwarz }
\end{cases}
\quad \text{für $ i \in $ {1, 2}}
$$
Dann ist $P[\, X_1=1 \,] = \frac{2}{5} $ und $P[\, X_1=0 \,] = \frac{3}{5} $
Wenn man im ersten Zug eine schwarze Kugel gezogen hat, dann ist ändert sich die Wahrscheinlichkeit, im zweiten
Zug ebenfalls eine schwarze Kugel zu ziehen. Man hat:
$$ P_{\{X_1=1\}}[\,X_2=1\,] = \frac{1}{4} \\
P_{\{X_1=0\}}[\,X_2=1\,] = \frac{2}{4}
$$
Berechnet man allgemein die Wahrscheinlichkeit für den Fall, das die zweite Kugel schwarz ist, so kann man
die möglichen Fälle, erster Zug ist gelb / schwarz getrennt berechnen und dann addieren:
$$
P[\,X_2 = 1\,] = P[\,X_1=1\,] \cdot \frac{1}{4} + P_[\,X_1=0\,] \cdot \frac{2}{4} \\
= \frac{2}{5} \cdot \frac{1}{4} + \frac{3}{5} \cdot \frac{2}{4} \\
= \frac{1}{10} + \frac{3}{10} = \frac{2}{5}
$$
Die Zufallsvariablen $ X_1 $ und $ X_2 $ sind also abhängig voneinander.
Nun wird der Ereignisraum in disjunkte Mengen, d.h. Mengen ohne gemeinsame Elemente, zerlegt.
Im Beispiel 'Ziehen ohne Zurücklegen aus 5 Kugeln' hatten wir den Ereignisraum: Ω =
| { | ( (1 , 2) ) | ( (1 , 3) ) | ( (1 , 4) ) | ( (1 , 5) ) |
| ( (2 , 1) ) | ( (2 , 3) ) | ( (2 , 4) ) | ( (2 , 5) ) | |
| ( (3 , 1) ) | ( (3 , 2) ) | ( (3 , 4) ) | ( (3 , 5) ) | |
| ( (4 , 1) ) | ( (4 , 2) ) | ( (4 , 3) ) | ( (4 , 5) ) | |
| ( (5 , 1) ) | ( (5 , 2) ) | ( (5 , 3) ) | ( (5 , 4) ) | } |
Die Mengen $ B_i = \{ Zug \; 1 = i \,\} $ haben keine Elemente gemeinsam, das heißt sie sind disjunkt
und sie zerlegen Ω so dass $ \Omega = B_1 \cup B_2 \cup B_3 \cup B_4 \cup B_5 $.
Dann ist: $ A = ( B_1 \cap A ) \cup \ldots \cup (B_n \cap A ) $
Totale Wahrscheinlichkeit
Wir haben einen Ereignisraum Ω, eine Teilmenge $ A \subset \Omega $ und disjunkte Mengen
$ B_1, \ldots B_n $ mit $ A = ( B_1 \cap A ) \cup \ldots \cup (B_n \cap A ) $. Dann ist:
$$
P[\, A \,] = P[\, A \vert B_1 \,] \cdot P[\, B_1 \,] + \ldots + P[\, A \vert B_n \,] \cdot P[\, B_n \, ]
$$
Satz von Bayes
Für ein Ereignisse A, B mit $ P[\, A \, ] \gt 0 $ gilt:
$$ P_A[\, B \, ] = \frac{P[\, B \,] \cdot P_B[\, A \,]}{P[\,A\,]} $$
Ist $ A = ( B_1 \cap A ) \cup \ldots \cup (B_n \cap A ) $. Dann ist:
$$ P_A[\, B_k \,] = \frac{P[\, B_k \,] \cdot P_{B_k}[\, A \,]}{ P[\, A \vert B_1 \,] \cdot P[\, B_1 \,] + \ldots + P[\, A \vert B_n \,] \cdot P[\, B_n \, ] }$$
Definition:Der Erwartungswert einer diskreten Zufallsgröße X mit Werten in {1,2,...,n} ist die Summe: $$ E[X] = 1 \cdot P[\, X=1 \, ] + 2 \cdot P[\, X=2 \, ] + 3 \cdot P[\, X=3 \, ] + \ldots + n \cdot P[\, X=n \, ] $$ Man summiert die einzelnen Ergebnisse jeweils multipliziert mit der Wahrscheinlichkeit des Eintretens.
Der Erwartungswert gibt damit den Durchschnitt des zu erwartenden Ergebnis eines Experiments an.
Besp:
Beim einmaligen Würfeln mit einem fairen Würfel hat man die möglichen Ausgänge $ Ω = \{1,2,3,4,5,6\} $
Jeweils mit einer Wahrscheinlichkeit $ P[ \, X=k \, ] = \frac{1}{6} \; für \; k \in \{1, 2, 3, 4, 5, 6 \} $
Der Erwartungswert ist also:
$$ E[\, X\, ] = 1 \cdot \frac{1}{3} + 2 \cdot \frac{1}{3} + 3 \cdot \frac{1}{3}
+ 4 \cdot \frac{1}{3} + 5 \cdot \frac{1}{3} + 6 \cdot \frac{1}{3} $$
$$ = \frac{1}{3} \cdot ( 1 + 2 + 3+ 4 + 5 + 6 ) = 3,5 $$
Man sieht, dass der Erwartungswert in diesem Fall nie angenommen werden kann.
Besp:
Bernoulli Experiment: Eine Bernoulli verteilte Zufallsvariabel X mit Werten in $ Ω = \{0,1\} $ und
Wahrscheinlichkeiten $ P[\, X=1 \,] = p \; und \; P[\, X=0 \,] = ( 1-p ) $
hat den Erwartungswert:
$$ E[\, X\, ] = 0 \cdot ( 1-p ) + 1 \cdot p = p $$
Für Zufallsvariablen X, Y und $ c \in \Bbb{R} $ gilt:
Binomialverteilung: Für eine Binomial verteilte Zufallsvariabel X mit Werten $ n, k \in \Bbb{N} $ und $ p \in [0,1] $ ist der Erwartungswert: $$ E[\, X \, ] = np $$ Wendet man die Linearität zur Berechnung des Erwartungswertes einer Binomialverteilten Zuvallsvariable X an, so hat man: $$ E[\, X \,] = \sum_{k=0}^{n} E[ \, X_i \,] = \sum_{k=0}^n p = n \cdot p $$
Definition:Varianz Für eine Zufallsvariable X ist die Varianz: $$ V[\, X \,] = E[ \, (X - E[\, X\,] )^2\, ] = E[\,X^2\,] - E[\,X\,]^2 $$ Damit kann man die Standartabweichung $ \sigma = \sqrt{V[\, X\,]} $ definieren. Man schreibt oft auch $ \sigma^2 $ für die Varianz.
Die Varianz könnte man also als die durchschnittlich erwartete Abweichung vom Erwartungswert bei einem Experiment auffassen.
Rechenregeln für die Varianz
Für n unabhängige Zufallsvariable $ X_1 , X_2 , \ldots , X_n $ kann man die Summe
$ X = X_1 + X_2 + \ldots + X_n $ bilden. Dann gilt für die Varianz:
$$ Var[X] = Var[X_1] + Var[X_2] + \ldots + Var[X_n] $$
Besp:
Die Varianz einer Bernulli-verteilten Zufallsvariablen X
mit $ P[\, X=1 \,] = p $ und $ P[\, X= 0 \,] = (1-p) $ .
Wenn man die 2. Formel $ Var[\,X\,] = E[\,X^2 \,] - E[\, X \, ]^2 $ anwendet, kann man die einzelnen
Komponenten getrennt berechnen:
$$
\begin{align}
& E[\,X^2 \,] = 0^2 \cdot (1-p) + 1^2 \cdot p = p \\
& E[X]^2 = p^2
\end{align}
$$
$$
\begin{align}
Var[X] & = E[X^2] - E[X]^2 \\
& = 0^2 \cdot (1-p) + 1^2 \cdot p - p^2 \\
& = p - p^2 \\
& = p(1-p)
\end{align}
$$
Besp:
Varianz der Binomialferteilung
Bei einer Bernoulli-Kette der Länge n, wie z.B. bei einem n-fachen Münzwurf, sind alle Würfe unabhängig.
Also kann ich die Regel für unabhängige Zufallsvariablen anwenden.
Für eine Binomialverteilte Zufallsvariabel $ X = X_1 + \ldots + X_n $, sind $ X_1, \ldots X_n $ Bernoulli-Verteilt
zum Parameter p.
$$
\begin{align}
Var[\,X\,] & = Var[\,X_1\,] + \ldots + Var[\,X_n\,] \\
& = p(1-p) + \ldots + p(1-p) \qquad \vert \; n-mal \\
& = np(1-p)
\end{align}
$$