Details

Stochastik Grundlagen und Begriffe

Der Artikel soll Schülern der Oberstufe einen Überblick über den Stoff der Stochastik geben. Begriffe und die wichtigsten Aussagen werden aufgeführt und z.T. kurz erläutert.

Definition:Der Ereignisraum Ω ist die Menge aller möglichen Ausgänge, die Eintreten können
Eine Teilmenge des Ereignisraums $ A \subseteq $ Ω heißt Ereignis

Besp: Ein Wurf mit einem Würfel hat den Ereignisraum Ω = $ \{ 1, 2, 3, 4, 5, 6 \} $
Ein Ereignis kann das Fallen einer 6 sein, oder aber auch das Fallen einer geraden Zahl.
Man schreibt: $ A = \{ 6 \} \subseteq Ω \; bzw \; B = \{2, 4, 6 \} \subseteq Ω $

Definition:Eine Zufallsvariable oder ein Zufallswert X ist eine Abbildung $ X : Ω \to \Bbb{R} $

Besp: Beim Würfeln erhält man 1 € bei einem geraden Wurf, und 2 € bei einem ungeraden. Man hat also eine Zufallsvariabl X mit
$ X(1) = X(2) = X(3) = 1 $ & $ X(2) = X(4) = X(6) = 2 $

Die Wahrscheinlichkeit für einen bestimmten Ausgang eines Experimentes wird mit der relativen Häufigkeit dieses Ereignisses bestimmt.

Besp: Beim Würfeln gibt 6 mögliche Ausgänge, davon 3 mit geraden Zahlen, {2,4,6}.
Die relative Häufigkeit beträgt also $ \frac{3}{6} = \frac{1}{2} $.

Im Allgemeinen kann man sagen: Für ein Expreriment mit n möglichen Ausgängen beträgt die relative Häufigkeit für ein Ereignis A, das k mal eintreten kann bei $ \frac{k}{n} $. Wir fassen die Wahrscheinlichkeit als diesen Anteil auf: $ P[\, A \,] = \frac{k}{n} $ Da immer $ n \ge k $ gilt, muss $ 0 \le P[\,A\,] \le 1 $ sein.
Wenn A und B Ereignisse sind, also Teilmangen von Ω, dann ist die Wahrscheinlichkeit für das Eintreten von A und von B: $ P[\, A \cap B\,] $ .

Besp: Ein Wurf mit enem Würfel, A = {2,4,6}, die Menge der geraden Zahlen und B = {4, 5, 6 } die Zahlen größer 3
Dann ist $ P[\, A \cap B \,] = P[\, \text{Wurf ist gerade und größer 3} \,] $.

Definition:Eine Wahrscheinlichkeitsverteilung ist eine Abbildung $ P : Ω \to [0,1] $ mit $ 0 \le P[e] \le 1 $.
Für eine Teilmenge $ A = \{ e_{1}, e_{2},...,e_{n} \} \subseteq Ω $ ist
$ P[A] = P[e_{1}] + P[e_{2}] + ... + P[e_{n}] $

Besp: Bei einem fairen Würfel hat man $ P[i] = \frac{1}{6} $ für $ i \in \{1, 2, 3, 4, 5, 6\} $

Definition:Laplace Experiment
Ein Experiment, bei dem alle Ereignisse gleich Wahrscheinlich sind $ P[e_{i}] = P[e_{j}], \forall e_{i} , e_{j} \in Ω $, heißt Laplace Experiment
oder wird als Laplce-Verteilt bezeichnet

Urnenmodelle

Besp: Bei Experimenten einer Lottoziehung werden Objekte aus einem Behälter gezogen. Man spricht von einer Urne, und stellt sich
die Kugeln durchnummeriert oder z.B. rot und weiß gefärbt vor.

Ziehen mit Zurücklegen

Besp: Eine Urne enthält 5 Kugeln, nummeriert von 1 bis 5. Es wird 2-mal gezogen.
Legt man jede Kugel wieder zurück und beachtet, in welcher Reihenfolge die Zahlen gezogen werden, ist der Fall recht einfach. Man hat den Ereignisraum $ \{1, 2, 3, 4, 5 \}^{2} $ die Menge aller Zahlenpaare mit Werten aus 1 bis 5
Ich stelle den Ereignisraum als Tabelle dar

( (1 , 1) ) ( (1 , 2) ) ( (1 , 3) ) ( (1 , 4) ) ( (1 , 5) )
( (2 , 1) ) ( (2 , 2) ) ( (2 , 3) ) ( (2 , 4) ) ( (2 , 5) )
( (3 , 1) ) ( (3 , 2) ) ( (3 , 3) ) ( (3 , 4) ) ( (3 , 5) )
( (4 , 1) ) ( (4 , 2) ) ( (4 , 3) ) ( (4 , 4) ) ( (4 , 5) )
( (5 , 1) ) ( (5 , 2) ) ( (5 , 3) ) ( (5 , 4) ) ( (5 , 5) )

Wenn man die Reihenfolge, mit der die Kugeln gezogen werden beachtet, dann tritt jedes Ereignis mit einer Wahrscheinlichkeit von $ P[ (i,j) ] = \frac{1}{25} $

Was aber,wenn man die Reihenfolge nicht beachtet, dann unterscheidet man nicht mehr zwischen (1, 2) und (2, 1). Diese beiden Fälle aus dem Model oben fallen hier zusammen: $ P[ (i,j) ] = \frac{2}{25} \quad für \quad i \neq j \quad und \quad i,j \in \{1, 2, 3, 4, 5 \} $
Der Fall ( 2,2 ) kommt oben auch nur einmal vor, daher ist $ P[ (i,i) ] = \frac{1}{25} \qquad für \quad i \in \{1, 2, 3, 4, 5 \} $

Allgemeiner Fall, Ziehen mit Zurücklegen

Zieht man k mal aus einer Urne mit n Kugeln, so gibt es $ n^{k} $ mögliche Kombinationen, also . Bei Beachtung der Reihenfolge erhält man für eine bestimmte Kombination in einer bestimmten Reihenfolge die Wahrscheilichkeit: $$ Reihenfolge \quad nicht \quad achten \\ P[ (x_1,x_2, \ldots ,x_k) ] = \frac{1}{ n^{k}} $$ Jede Kombination kann auf k! Arten angeordnet werden. Beachtet man die Reihenfolge nicht, so erhält man: $$ Reihenfolge \quad achten \\ P[ (x_1,x_2, \ldots ,x_k) ] = \frac{k!}{ n^{k}} $$

Zwei Arten von Kugeln

image/svg+xml 1 2 3 4 5 6 7 Wir betrachten nun eine Urne mit 7 Kugeln, 3 gelben und 4 schwarzen. Wie groß ist die Wahrscheinlichkeit bei zweimaligem Ziehen, nur weiße Kugeln zu ziehen.
Denkt man sich die Kugeln durchnummeriert, wobei die gelben die Zahlen 1-3 tragen sollen, dann können wir wie oben beim Ziehen ohne beachtung der Reihenfolge forgehen.
Sei A das Ereignis, 2 gelbe Kugeln werden gezogen. $ A = \{ \{1,1\},\{1,2\},\{1,3\},\{2,1\},\{2,2\},\{2,3\},\{3,1\},\{3,2\},\{3,3\}\} \Rightarrow \vert A \vert = 3^2 = 9 $ Damit kann man die Wahrscheinlichkeit bestimmen: $ P[A] = \frac{3^2}{7^2} = \frac{9}{49} $

Allgemeiner Fall, n Kugeln, davon l gelbe und n-l schwarze

Zieht man aus l gelben und n-l schwarzen Kugeln k mal mit zurücklegen, so beträgt die Wahrscheinlichkeit für k gelge Kugeln: $$ P[x_1=x_2= \ldots =x_k = gelb] = \frac{l^k}{n^k} $$

Ziehen ohne Zurücklegen

image/svg+xml 1 2 3 4 5 1 3 4 5 Besp: Wie im Beispiel oben enthält die Urne 5 Kugeln, nummeriert von 1 bis 5. Es wird 2-mal gezogen.
Legt man die Kugeln nicht wieder zurück und beachtet, in welcher Reihenfolge die Zahlen gezogen werden, hat man den Ereignisraum $ \{1, 2, 3, 4, 5 \}^{2} \setminus \{ ( i,i ) : i \in \{1, 2, 3, 4, 5 \} \} $ die Menge aller Zahlenpaare mit Werten aus 1 bis 5, ohne die Paare aus gleichen Zahlen.
In der Tabelle sieht man die fehlenden Einträge

{ ( (1 , 2) ) ( (1 , 3) ) ( (1 , 4) ) ( (1 , 5) )
( (2 , 1) ) ( (2 , 3) ) ( (2 , 4) ) ( (2 , 5) )
( (3 , 1) ) ( (3 , 2) ) ( (3 , 4) ) ( (3 , 5) )
( (4 , 1) ) ( (4 , 2) ) ( (4 , 3) ) ( (4 , 5) )
( (5 , 1) ) ( (5 , 2) ) ( (5 , 3) ) ( (5 , 4) ) }

Für den ersten Zug hat man 5 Möglichkeiten, für den nächsten eine weniger, also nur noch 4.
Das heißt: $ \vert \Omega \vert = 5 \cdot 4 $, und damit ist $ P[ ( x,y ) ] = \frac{1}{20} $.
Zieht man nun k mal aus einer Urne mit n Kugeln, so ist: $$ \vert \Omega \vert = n \cdot ( n-1 ) \cdot \ldots \cdot ( n-k-1 ) = \frac{n!}{( n-k )! }$$ und damit ist die Wahrscheinlichkeit gerade der Kehrwert: $$ P[ ( x,y ) ] = \frac{( n-k )! }{n!} $$

Ignoriert man die Reihenfolge, so fallen alle Kombinationen mit gleichen Zahlen zusammen. Bei k Zügen sind das jeweils k! Stück. Man muss aus der Mächtigkeit für Ω also noch k! herausteilen. $$ \vert Ω \vert = \frac{n!}{( n-k )! \cdot k! } = {n \choose k } $$ $ {n \choose k } $ entspricht genau der Anzahl der k-elementigen Teilmengen einer n-elementigen Menge. Damit hat man: $$ P[ ( x,y ) ] = \frac{( n-k )! \cdot k! }{n!} = \frac{1}{{n \choose k }} $$

$ P[ ( x,y ) ] $ Mit Zurücklegen Ohne Zurücklegen
Mit Beachtung der Reihenfolge $ \frac{1}{ n^{k}} $ $ \frac{( n-k )! }{n!} $
Ohne Beachtung der Reihenfolge $\frac{k!}{ n^{k}}$ $ \frac{( n-k )! \cdot k! }{n!} $
$$ \sqrt{27} = \sqrt{9 \cdot 3} = 3 \cdot \sqrt{3} $$

Bernoulli Experiment und Bernoulli Kette

Bernoulli Experiment am Beispiel Münzwurf

Definition:Ein Bernoulli Experiment ist ein Versuch mit 2 möglichen Ausgängen.

Besp: Münzwurf: Wirft man faire eine Münze, so ist die Wahrscheinlichkeit $ p['kopf'] = \frac{1}{2} = P['Zahl'] $
Ist die Münze nicht fair, so dass Kopf mit einer Wahrscheinlichkeit p fällt, so fällt Zahl mit einer Wahrscheinlichkeit (1-p).
$ P[\,'Kopf'\,] = p, \; P[ \,'Zahl'\,] = (1-p) $

Bernoulli Experiment, allgemeiner Fall

Experimente mit den Ausgängen 'ja' / 'nein', 'Erfolg' / 'Miserfolg' lassen sich als Bernoulli Experimente mit den Werten 0,1 auffassen. Formal hat man es also immer mit folgendem Model zu tun:

  • Ereignisraum: $ Ω = \{ 0, 1 \} $
  • Verteilung: $ P[\,1\,] = p , \quad P[\,0\,] = (1-p) $

Bernoulli Kette

Definition:Eine Bernoulli Kette der Länge n ist ein n fach wiederholtes Bernoulli Experiment.
Bildet man die Summe $ X = X_1 + X_2 + \ldots + X_n $ von n Bernoulli-verteilten Zuvallsvariablen $ X_i, \; i \in \{1, \ldots , n\} $, so sagt man: X ist Binomial-verteilt mit den Parametern n und p.
Die Wahrscheinlichkeit auf k Erfolge bei n Versuchen mit einer jeweiligen Erfolgswahrscheinlichkeit p schreibt man: $ B ( k,p,n ) \; $ oder $\; B_{n,p}( k ) $

Besp: n facher Münzwurf: Bei einer Münze sei die Wahrscheinlichkeit $ P[\,'es \; fällt \; Kopf'\,] = p $, und damit ist dann $ P[\,'es \; fällt \; Zahl'\,] = (1-p) $
Wirft man eine Münze n = 3 mal, so ergeben sich alle im Baum dargestellten Möglichkeiten: image/svg+xml K K Z Z Z K K ZZZ - ZZK - ZZK - ZKK - ZZK - ZKK - ZKK - KKK Z K Z Z K K Z K Dreimaliger Münzwurf ohne Beachtung der Reihenfolge
Wenn man sich nur für dafür interessiert, wie oft Kopf gefallen ist, so erhält man eine Zufallsvariable X = 'Anzahl Kopf'
Man sieht dass es nur je eine Möglichkeit gibt, nur Kopf oder nur Zahl zu Werfen. Weiter gibt es genau 3 Möglichkeiten genau einmal Zahl oder Kopf zu werfen.
Die Anzahl der Möglichkeiten für genau 2 mal Kopf und 1 mal Zahl, entspricht der Anzahl der Möglichkeiten, bei welchem Wurf Kopf fällt. Da dies beim ersten, zweiten oder dritten Wurf geschehen kann, sind das natürlich 3 Stück.
Insgesamt gibt es 8 Wege durch den Baum, damit erhält man die Wahrscheinlichkeiten: $$ P[ \, X=1 \,] = \frac{3}{8} $$ $$ P[ \, X=2 \,] = \frac{3}{8} $$ $$ P[ \, X=3 \,] = \frac{1}{8} $$

Allgemeiner Fall: Bernulli Kette der Länge n

Hat man eine beliebige Bernulli Kette der Länge n, und fragt nach $ B_{n,p}( k ) = P[ \, X=k \,] $ so muss man die Anzahl der Möglichkeiten k Erfolge unter den n Versuchen aufzuteilen ermitteln. Diese betragen jeweils n über k: $ {n \choose k} = \frac{n!}{k! ( n-k ) } $ Die Anzahl der Möglichen Ausgänge des Experimentes beträgt $ 2^n $, also ergibt sich: $$ B_{n,p}( k ) = P[ \, X=k \, ] = \frac{{n \choose k }}{2^n} $$

Eine Binomialverteilte Zuvallsvariable X kann man als die Summe von n Bernoulli-verteilten Zuvallsvariablen $ X_i, \; i \in \{1, \ldots ,n \} schreiben.

Bedingte Wahrscheinlichkeit und Unabhängigkeit

Definition: Bedingte Wahrscheinlichkeit Seien A, B Ereignisse in einem Ereignisraum Ω dann heißt die Wahrscheinlichkeit für B unter der Bedingung das A eingetreten ist die bedingte Wahrscheinlichkeit für B, und man schreibt: $ P_A[\,B\,] $ oder $ P[\,B\, \vert \,A\,] $.
Es ist: $$ P_A[\,B\,] = \frac{P[\,A \cap B\,]}{P[\,A\,]} $$

Definition: Unabhängigkeit Zwei Ereignisse A und B sind unabhängig, wenn $ P_A[\,B\,] = P[\,B\,] $ gilt.
Dann ist $ P[\, A \cap B \,] = P[\,B\,] \cdot P[\,A\,] $ denn: $$ \begin{align} P_A[\,B\,] & = \frac{P[\,A \cap B\,]}{P[\,A\,]} \qquad \vert \quad \cdot P[\,A\,] \\ P_A[\,B\,] \cdot P[\,A\,] & = P[\,A \cap B\,] \qquad \text{A & B sind unabhängig} \\ P[\,B\,] \cdot P[\,A\,] & = P[\, A \cap B \,] \end{align} $$

Besp: Ein zweifacher Münzwurf ist Bernoulli Experiment der Länge 2. Wählt man eine Zufallsvariabel $ X = (X_1,X_2)$, mit:
$$ X_i = \begin{cases} 1 \text{ $\iff $ i-ter Wurf ist Zahl } \\ 0 \text{ $\iff $ i-ter Wurf ist Kopf } \end{cases} \quad \text{für $ i \in $ {1, 2}} $$ Wenn mit der Wahrscheinlichkeit p eine Zahl fällt, dann ist $ P[X_i = 1] = p $ Das Ergebnis des zweiten Wurfs ist unabhängig vom Ergebnis des ersten, es ist: $$ P_{\{X_1=1\}}[\,X_2=1\,] = p = P[\,X_2 = 1 \,] $$

Besp: Zieht man 2 mal aus einer Urne mit 3 gelben und 2 schwarzen Kugeln, so kann man eine Zufallsvariable $ X = (X_1, X_2) $ definieren, mit: $$ X_i = \begin{cases} 0 \text{ $\iff $ i-te Kugel ist gelb } \\ 1 \text{ $\iff $ i-te Kugel ist schwarz } \end{cases} \quad \text{für $ i \in $ {1, 2}} $$ image/svg+xml 1 2 3 4 5 2 3 4 5 1 2 3 4 5 1 2 4 5
Dann ist $P[\, X_1=1 \,] = \frac{2}{5} $ und $P[\, X_1=0 \,] = \frac{3}{5} $
Wenn man im ersten Zug eine schwarze Kugel gezogen hat, dann ist ändert sich die Wahrscheinlichkeit, im zweiten Zug ebenfalls eine schwarze Kugel zu ziehen. Man hat: $$ P_{\{X_1=1\}}[\,X_2=1\,] = \frac{1}{4} \\ P_{\{X_1=0\}}[\,X_2=1\,] = \frac{2}{4} $$ Berechnet man allgemein die Wahrscheinlichkeit für den Fall, das die zweite Kugel schwarz ist, so kann man die möglichen Fälle, erster Zug ist gelb / schwarz getrennt berechnen und dann addieren: $$ P[\,X_2 = 1\,] = P[\,X_1=1\,] \cdot \frac{1}{4} + P_[\,X_1=0\,] \cdot \frac{2}{4} \\ = \frac{2}{5} \cdot \frac{1}{4} + \frac{3}{5} \cdot \frac{2}{4} \\ = \frac{1}{10} + \frac{3}{10} = \frac{2}{5} $$ Die Zufallsvariablen $ X_1 $ und $ X_2 $ sind also abhängig voneinander.

Totale Wahrscheinlichkeit und Bayes Formel

Nun wird der Ereignisraum in disjunkte Mengen, d.h. Mengen ohne gemeinsame Elemente, zerlegt.
Im Beispiel 'Ziehen ohne Zurücklegen aus 5 Kugeln' hatten wir den Ereignisraum: Ω =

{ ( (1 , 2) ) ( (1 , 3) ) ( (1 , 4) ) ( (1 , 5) )
( (2 , 1) ) ( (2 , 3) ) ( (2 , 4) ) ( (2 , 5) )
( (3 , 1) ) ( (3 , 2) ) ( (3 , 4) ) ( (3 , 5) )
( (4 , 1) ) ( (4 , 2) ) ( (4 , 3) ) ( (4 , 5) )
( (5 , 1) ) ( (5 , 2) ) ( (5 , 3) ) ( (5 , 4) ) }

Die Mengen $ B_i = \{ Zug \; 1 = i \,\} $ haben keine Elemente gemeinsam, das heißt sie sind disjunkt und sie zerlegen Ω so dass $ \Omega = B_1 \cup B_2 \cup B_3 \cup B_4 \cup B_5 $.
Dann ist: $ A = ( B_1 \cap A ) \cup \ldots \cup (B_n \cap A ) $

Totale Wahrscheinlichkeit
Wir haben einen Ereignisraum Ω, eine Teilmenge $ A \subset \Omega $ und disjunkte Mengen $ B_1, \ldots B_n $ mit $ A = ( B_1 \cap A ) \cup \ldots \cup (B_n \cap A ) $. Dann ist: $$ P[\, A \,] = P[\, A \vert B_1 \,] \cdot P[\, B_1 \,] + \ldots + P[\, A \vert B_n \,] \cdot P[\, B_n \, ] $$

Satz von Bayes
Für ein Ereignisse A, B mit $ P[\, A \, ] \gt 0 $ gilt: $$ P_A[\, B \, ] = \frac{P[\, B \,] \cdot P_B[\, A \,]}{P[\,A\,]} $$ Ist $ A = ( B_1 \cap A ) \cup \ldots \cup (B_n \cap A ) $. Dann ist: $$ P_A[\, B_k \,] = \frac{P[\, B_k \,] \cdot P_{B_k}[\, A \,]}{ P[\, A \vert B_1 \,] \cdot P[\, B_1 \,] + \ldots + P[\, A \vert B_n \,] \cdot P[\, B_n \, ] }$$

Erwartungswert

Definition:Der Erwartungswert einer diskreten Zufallsgröße X mit Werten in {1,2,...,n} ist die Summe: $$ E[X] = 1 \cdot P[\, X=1 \, ] + 2 \cdot P[\, X=2 \, ] + 3 \cdot P[\, X=3 \, ] + \ldots + n \cdot P[\, X=n \, ] $$ Man summiert die einzelnen Ergebnisse jeweils multipliziert mit der Wahrscheinlichkeit des Eintretens.

Der Erwartungswert gibt damit den Durchschnitt des zu erwartenden Ergebnis eines Experiments an.

Besp: Beim einmaligen Würfeln mit einem fairen Würfel hat man die möglichen Ausgänge $ Ω = \{1,2,3,4,5,6\} $ Jeweils mit einer Wahrscheinlichkeit $ P[ \, X=k \, ] = \frac{1}{6} \; für \; k \in \{1, 2, 3, 4, 5, 6 \} $
Der Erwartungswert ist also: $$ E[\, X\, ] = 1 \cdot \frac{1}{3} + 2 \cdot \frac{1}{3} + 3 \cdot \frac{1}{3} + 4 \cdot \frac{1}{3} + 5 \cdot \frac{1}{3} + 6 \cdot \frac{1}{3} $$ $$ = \frac{1}{3} \cdot ( 1 + 2 + 3+ 4 + 5 + 6 ) = 3,5 $$ Man sieht, dass der Erwartungswert in diesem Fall nie angenommen werden kann.

Besp: Bernoulli Experiment: Eine Bernoulli verteilte Zufallsvariabel X mit Werten in $ Ω = \{0,1\} $ und Wahrscheinlichkeiten $ P[\, X=1 \,] = p \; und \; P[\, X=0 \,] = ( 1-p ) $
hat den Erwartungswert: $$ E[\, X\, ] = 0 \cdot ( 1-p ) + 1 \cdot p = p $$

Rechenregeln für Erwartungswerte

Für Zufallsvariablen X, Y und $ c \in \Bbb{R} $ gilt:

  • Monotonie: $ X \ge Y \Rightarrow E[\,X\, ] \ge E[\, Y\,] $
  • Linearität: $ E[\,X + Y \,] = E[\, X\,] + E[\, Y\,] $ und $ E[\,cX\,] = c E[\, X \,] $

Binomialverteilung: Für eine Binomial verteilte Zufallsvariabel X mit Werten $ n, k \in \Bbb{N} $ und $ p \in [0,1] $ ist der Erwartungswert: $$ E[\, X \, ] = np $$ Wendet man die Linearität zur Berechnung des Erwartungswertes einer Binomialverteilten Zuvallsvariable X an, so hat man: $$ E[\, X \,] = \sum_{k=0}^{n} E[ \, X_i \,] = \sum_{k=0}^n p = n \cdot p $$

Varianz und Standartabweichung

Definition:Varianz Für eine Zufallsvariable X ist die Varianz: $$ V[\, X \,] = E[ \, (X - E[\, X\,] )^2\, ] = E[\,X^2\,] - E[\,X\,]^2 $$ Damit kann man die Standartabweichung $ \sigma = \sqrt{V[\, X\,]} $ definieren. Man schreibt oft auch $ \sigma^2 $ für die Varianz.

Die Varianz könnte man also als die durchschnittlich erwartete Abweichung vom Erwartungswert bei einem Experiment auffassen.

Rechenregeln für die Varianz
Für n unabhängige Zufallsvariable $ X_1 , X_2 , \ldots , X_n $ kann man die Summe $ X = X_1 + X_2 + \ldots + X_n $ bilden. Dann gilt für die Varianz: $$ Var[X] = Var[X_1] + Var[X_2] + \ldots + Var[X_n] $$

Besp: Die Varianz einer Bernulli-verteilten Zufallsvariablen X
mit $ P[\, X=1 \,] = p $ und $ P[\, X= 0 \,] = (1-p) $ .
Wenn man die 2. Formel $ Var[\,X\,] = E[\,X^2 \,] - E[\, X \, ]^2 $ anwendet, kann man die einzelnen Komponenten getrennt berechnen: $$ \begin{align} & E[\,X^2 \,] = 0^2 \cdot (1-p) + 1^2 \cdot p = p \\ & E[X]^2 = p^2 \end{align} $$ $$ \begin{align} Var[X] & = E[X^2] - E[X]^2 \\ & = 0^2 \cdot (1-p) + 1^2 \cdot p - p^2 \\ & = p - p^2 \\ & = p(1-p) \end{align} $$

Besp: Varianz der Binomialferteilung
Bei einer Bernoulli-Kette der Länge n, wie z.B. bei einem n-fachen Münzwurf, sind alle Würfe unabhängig. Also kann ich die Regel für unabhängige Zufallsvariablen anwenden.
Für eine Binomialverteilte Zufallsvariabel $ X = X_1 + \ldots + X_n $, sind $ X_1, \ldots X_n $ Bernoulli-Verteilt zum Parameter p. $$ \begin{align} Var[\,X\,] & = Var[\,X_1\,] + \ldots + Var[\,X_n\,] \\ & = p(1-p) + \ldots + p(1-p) \qquad \vert \; n-mal \\ & = np(1-p) \end{align} $$