Binomialverteilung

Die Binomialverteilung ist eine Wahrscheinlichkeitsverteilung, die die Anzahl der Erfolge bei der Wiederholung eines Zufallsexperiments beschreibt.

Urnenmodell II

Es sei eine Urne mit $N$ Kugeln gegeben, von denen $M$ weiß und $N-M$ schwarz seien. Wir ziehen nun aus dieser Urne $n$ Kugeln mit Zurücklegen, d.h. die Anzahl der weißen und schwarzen Kugeln in der Urne ist bei jedem Zug gleich. Die Frage ist nun, wie groß die Wahrscheinlichkeit ist, dass wir genau $k$ weiße Kugeln ziehen. Dabei soll jede Kugel beim einmaligen Ziehen mit der gleichen Wahrscheinlichkeit gezogen werden.
Wir betrachten das Zufallsexperiment als Laplace-Experiment. Als Ergebnisse betrachten wir die $n$-Tupel aus Farben mit Berücksichtigung der Reihenfolge. Es gibt nun $N^n$ Möglichkeiten, um überhaupt $n$ Kugeln zu ziehen. Um genau $k$ weiße und $n-k$ schwarze Kugeln zu ziehen, hat mein bei festgelegter Reihenfolge $M^k\cdot (N-M)^{n-k}$ Möglichkeiten. Da uns aber die Reihenfolge nicht interessiert, sondern nur die Tatsache, dass wir genau $k$ weiße Kugeln ziehen, müssen wir diese Anzahl noch mit ${n\choose k}$ mutliplizieren, da es genau so viele verschiedene Reihenfolgen gibt. Denn die $k$ gezogenen weißen Kugeln können wir in dem $n$-Tupel auf genau ${n\choose k}$ Plätze verschieden anordnen, da wir $n$ Plätze für $k$ Objekte haben. Es ergibt sich somit für die Zufallsvariable $X:\{0,1,\ldots,n\}\to [0,1]$, die einem $n$-maligen Ziehen (mit Zurücklegen) die Anzahl der weißen Kugeln zuordnet:

(1)
\begin{align} P(X=k)={n\choose k}\frac{M^k(N-M)^{n-k}}{N^n}={n\choose k}\left(\frac{M}{N}\right)^k\left(\frac{N-M}{N}\right)^{n-k}={n\choose k}\left(\frac{M}{N}\right)^k\left(1-\frac{M}{N}\right)^{n-k}. \end{align}

Bezeichnet man die Wahrscheinlichkeit für den einmaligen Zug einer weißen Kugel noch mit $p$, d.h. $p=\frac{M}{N}$, so gilt also für das Ereignis $A_k$, dass genau $k$ weiße unter den $n$ gezogenen Kugeln sind:

(2)
\begin{align} P(A_k)=P(X=k)={n\choose k}p^k(1-p)^{n-k}. \end{align}

Bernoulli-Experimente

Die Binomialverteilung kann auch unabhängig vom Urnenmodell noch für andere Zufallsexperimente genutzt werden.
Es sei ein Zufallsexperiment gegeben, bei dem das Ereignis $A$ die Wahrscheinlichkeit $p$ besitze: $p=P(A)$. Dieses Zufallsexperiment werde nun $n$-mal wieder holt. Das Zufallsexperiment, welches aus dem $n$-maligen Wiederholen des einmaligen Zufallsexperiments besteht, heißt Bernoulli-Experiment oder Bernoulli-Versuch der Länge $n$.
Man interessiert sich nun nur für die Anzahl der Ausgänge, in denen das Ereignis $A$ eintritt. Ganz analog zum Urnenmodell II erhält man für die Zufallsvariable $X$, die einem die Anzahl der erfolgreichen Ausgänge (d.h. dieser Ausgänge, bei denen $A$ eintritt) angibt, folgende Verteilung für $k=0,1,\ldots,n$:

(3)
\begin{align} P(X=k)={n\choose k}p^k(1-p)^{n-k}. \end{align}

Dabei gibt ${n\choose k}$ wieder die Möglichkeiten der Anordnung der erfolgreichen Ausgänge an. Das Ereignis $A$ tritt mit der Wahrscheinlichkeit $p^k$ genau $k$-mal ein. Das Gegenereignis $\overline A$ muss dann natürlich genau $n-k$-mal eintreten. Die Wahrscheinlichkeit dafür ist $(1-p)^{n-k}$, da $P(\overline A)=1-p$ gilt. Daraus ergibt sich die Wahrscheinlichkeit $P(X=k)$ als Produkt dieser drei Zahlen.

Beispiel: Wir würfeln mit einem fairen Würfel $10$-mal hintereinander. Wie groß ist die Wahrscheinlichkeit, dass wir genau $3$ Sechsen würfeln? Das Ereignis $A$ ist hier das Würfeln einer Sechs bei einem einmaligen Wurf. Durch $10$-maliges Wiederholen des einmaligen Würfelns kommen wir hier zum Bernoulli-Experiment. In diesem Fall ist $p=\frac{1}{6}$. Interessant ist bei den Versuchen nur, ob eine Sechs gewürfelt wird oder nicht, und nicht, welche andere Zahl gewürfelt wird, falls $A$ nicht eintritt. Als gesuchte Wahrscheinlichkeit ergibt sich:

(4)
\begin{align} P(X=3)={10\choose 3}\left(\frac{1}{6}\right)^3\left(\frac{5}{6}\right)^7=\frac{9375000}{60466176}\approx 0,155=15,5\%. \end{align}

Eigenschaften

Die Binomialverteilung besitzt auch ein eigenes Symbol. Für ein Bernoulli-Experiment mit den Bezeichnungen aus dem letzten Abschnitt (Länge $n$ und $p=P(A)$) schreibt man anstelle von $P(X=k)$ oft auch einfach $B(n;p;k)$ oder $b(n;p;k)$. Diese Schreibweise hat den Vorteil, dass sofort klar ist, wie oft das Experiment wiederholt wird und welche Wahrscheinlichkeit das betrachtete Ereignis $A$ hat. Eine Zufallsvariable, die durch die Binomialverteilung $\{(k,P(X=k)=B(n;p;k))\ |\ k=0,1,\ldots,n\}$ gegeben ist, nennt man $B(n;p)$-verteilt.
Mit dieser Schreibweise ergibt sich wegen

(5)
\begin{align} &B(n;p;k+1)={n\choose k+1}p^{k+1}(1-p)^{n-(k+1)}=\frac{n(n-1)\cdots (n-k+1)(n-k)}{(k+1)!}\cdot p^{k+1}(1-p)^{n-k-1}\cr \cr &=\frac{n-k}{k+1}\cdot \frac{n(n-1)\cdots (n-k+1)}{k!}\cdot p\cdot p^k\cdot \frac{(1-p)^{n-k}}{1-p}=\frac{n-k}{k+1}\cdot \frac{p}{1-p}{n\choose k}p^k(1-p)^{n-k} \end{align}

die Rekursionsformel

(6)
\begin{align} B(n;p;k+1)=\frac{n-k}{k+1}\cdot \frac{p}{1-p}\cdot B(n;p;k). \end{align}

Desweiteren gilt die folgende "Symmetriegleichung":

(7)
\begin{equation} B(n;p;k)=B(n;1-p;n-k), \end{equation}

was wegen ${n\choose n-k}={n\choose k}$ für $0\leq k\leq n$ direkt aus

(8)
\begin{align} B(n;1-p;n-k)={n\choose n-k}(1-p)^{n-k}(1-(1-p))^{n-(n-k)}={n\choose k}(1-p)^{n-k}p^k=B(n;p;k) \end{align}

folgt. Diese Gleichung ist natürlich auch anschaulich klar: Die Wahrscheinlichkeit, dass das Ereignis $A$ genau $k$-mal eintritt, ist natürlich genauso groß wie die Wahrscheinlichkeit, dass das Gegenereignis $\overline A$ genau $n-k$-mal einritt.

Über Wahrscheinlichkeitsverteilungen diskreter Zufallsvariablen wissen wir, dass die Summe der Wahrscheinlichkeiten immer $1$ ergeben muss. Ist dies bei der Binomialverteilung auch wirklich der Fall? Die Frage lässt sich natürlich mit "Ja" beantworten und ergibt sich schon aus der Theorie über Wahrscheinlichkeitsverteilungen. Die folgende Gleichung $(10)$ ergibt sich also aus dieser Tatsache. Aber wir wollen sie auch noch auf andere Weise zeigen. Und zwar folgt diese Eigenschaft mithilfe des binomischen Lehrsatzes:

(9)
\begin{align} (a+b)^n=\sum_{k=0}^n~{n\choose k}a^kb^{n-k}. \end{align}

Setzt man nämlich $a=p$ und $b=1-p$, so folgt:

(10)
\begin{align} \sum_{k=0}^n~P(X=k)=\sum_{k=0}^n~B(n;p;k)=\sum_{k=0}^n~{n\choose k}p^k(1-p)^{n-k}=(p+(1-p))^n=1^n=1. \end{align}

Es sei in der Binomialverteilung $0<p<1$. Veranschaulicht man die Binomialverteilung als Funktion in einem Koordinatensystem, so sieht man, dass sie bis zu einer bestimmten Stelle $m$, an der das Maximum angenommen wird, streng monoton steigt und danach wieder fällt. In einem Spezialfall ist es auch möglich, dass an der Stelle $m-1$ bereits das Maximum angenommen wird und sowohl $m-1$ als auch $m$ Maximalstelle mit gleichen Maximalwert sind. Genauer gilt folgendes:
1. Ist $np+p$ nicht ganzzahlig, so gilt die obige allgemeine Aussage für $m=\lfloor np+p\rfloor$ ($\lfloor \cdot \rfloor$-Gaußklammerfunktion, die einer reellen Zahl $r$ die größte ganze Zahl kleinergleich $r$ zuordnet). In diesem Fall gilt also für $0\leq k_1<k_2<m<k_3<k_4\leq n$:

(11)
\begin{align} B(n;p;k_1)<B(n;p;k_2)<B(n;p;m)\cr B(n;p;m)>B(n;p;k_3)>B(n;p;k_4). \end{align}

2. Ist $np+p$ ganzzahlig, so gilt der oben genannte Spezialfall mit $m=np+p$. Dann gilt also für $0\leq k_1<k_2<m-1<m<k_3<k_4\leq n$:

(12)
\begin{align} B(n;p;k_1)<B(n;p;k_2)<B(n;p;m-1)=B(n;p;m)\cr B(n;p;m-1)=B(n;p;m)>B(n;p;k_3)>B(n;p;k_4). \end{align}

Wie wir später sehen werden, ist der Erwartungswert einer $B(n;p)$-verteilten Zufallsvariablen $X$ gegeben durch $E(X)=np$. Für die oben erwähnte Maximalstelle $m$ gilt die Ungleichung

(13)
\begin{align} np+p-1\leq m\leq np+p. \end{align}

Außerdem ist die Binomialverteilung von der Stelle $m$ aus nach rechts und nach links abfallend. Man sieht also, dass die Ausprägungen in der Nähe des Erwartungswertes mit höheren Wahrscheinlichkeiten angenommen werden als die weiter vom Erwartungswert entfernen Ausprägungen. Somit ist zunächst schon anschaulich klar, dass die Binomialverteilung keine sehr großen Abweichungen besitzt und dass damit die Varianz auch nicht allzu groß sein wird.

Für die Verteilungsfunktion $F:\mathbb R\to\mathbb R$, $F(x)=P(X\leq x)$ gilt:

(14)
\begin{align} F(x)=P(X\leq x)=1-P(X>x). \end{align}

Andersrum gilt natürlich auch

(15)
\begin{align} P(X\geq x)=1-P(X<x) \end{align}

sowie

(16)
\begin{align} P(X<x)=1-P(X\geq x) \end{align}

und

(17)
\begin{align} P(X>x)=1-P(X\leq x). \end{align}

Diese Gleichungen können sehr nützlich sein, wenn bei einem Zufallsexperiment nach einer Mindest- oder Höchstanzahl von Erfolgen gefragt wird. Wenn z.B. gefragt wird, wie groß die Wahrscheinlichkeit sei, bei zehnmaligem Würfeln mit einem fairen Würfel mindestens zwei Sechsen zu werfen, ist es wesentlich effizienter, das Gegenereignis zu betrachten, nämlich dass höchstens eine Sechs gewürfelt wird. Sei $X$ die Zufallsvariable, die die Anzahl der Sechsen angibt. Für das Gegenereignis muss man dann nur $P(X=0)+P(X=1)$ berechnen. Zieht man das Ergebnis dieser Summe von $1$ ab, so hat man die gesuchte Wahrscheinlichkeit. Geht man den direkten Weg, so müsste man

(18)
\begin{equation} $P(X=2)+P(X=3)+P(X=4)+P(X=5)+P(X=6)+P(X=7)+P(X=8)+P(X=9)+P(X=10) \end{equation}

berechnen, was wesentlich mühsamer wäre.

Erwartungswert und Varianz

Elementare Berechnung über die Summendefinition

Der Erwartungswert und die Varianz können mit ein paar geschickten Umformungen elementar über die Summendefinition berechnet werden. Dabei werden wir desöfteren die folgenden Gleichungen benutzen:

(19)
\begin{align} {m\choose l}=\frac{m}{l}\cdot {m-1\choose l-1}, \end{align}
(20)
\begin{align} \sum_{i=0}^{n-1}~{n-1\choose i}p^i(1-p)^{n-1-i}=1\cr \sum_{i=0}^{n-2}~{n-2\choose i}p^i(1-p)^{n-2-i}=1. \end{align}

Die erste Gleichung ergibt sich folgendermaßen aus der Definition des Binomialkoeffizienten:

(21)
\begin{align} {m\choose l}=\frac{m(m-1)\cdots (m-l+1)}{l!}=\frac{m}{l}\cdot \frac{(m-1)\cdots ((m-1)-(l-1)+1)}{(l-1)!}=\frac{m}{l}\cdot {m-1\choose l-1}. \end{align}

Die beiden anderen Gleichungen folgen aus dem Binomischen Satz für $a=p,b=1-p$:

(22)
\begin{align} \sum_{i=0}^{n-1}~{n-1\choose i}p^i(1-p)^{n-1-i}=(p+(1-p))^{n-1}=1^{n-1}=1\cr \sum_{i=0}^{n-2}~{n-2\choose i}p^i(1-p)^{n-2-i}=(p+(1-p))^{n-2}=1^{n-2}=1. \end{align}

Der Erwartungswert lässt sich nun über die Definition berechnen:

(23)
\begin{align} &\mathrm E(X)=\sum_{k=0}^n~k\cdot P(X=k)=\sum_{k=1}^n~k\cdot {n\choose k}p^k(1-p)^{n-k}\stackrel{(21)}{=}\sum_{k=1}^n~k\cdot \frac{n}{k}\cdot {n-1\choose k-1}p^k(1-p)^{n-k}\cr \cr &=n\cdot \sum_{k=1}^n~{n-1\choose k-1}p^k(1-p)^{n-k}=np\cdot \sum_{k=1}^n~{n-1\choose k-1}p^{k-1}(1-p)^{n-1-(k-1)}\cr \cr &=np\cdot \sum_{i=0}^{n-1}~{n-1\choose i}p^i(1-p)^{n-1-i}\stackrel{(22)}{=}np\cdot 1=np. \end{align}

Für $\mathrm E(X^2)$ erhalten wir:

(24)
\begin{align} \begin{align} &\mathrm E(X^2)=\sum_{k=0}^n~k^2\cdot P(X=k)=\sum_{k=1}^n~k^2\cdot {n\choose k}p^k(1-p)^{n-k}\stackrel{(21)}{=}\sum_{k=1}^n~k^2\cdot \frac{n}{k}\cdot {n-1\choose k-1}p^k(1-p)^{n-k}\cr \cr &=n\cdot \sum_{k=1}^n~k{n-1\choose k-1}p^k(1-p)^{n-k}\cr \cr &=n\cdot \sum_{k=1}^n~\left[(k-1){n-1\choose k-1}p^k(1-p)^{n-k}+{n-1\choose k-1}p^k(1-p)^{n-k}\right]\cr \cr &=n\cdot \left[\sum_{k=1}^n~(k-1){n-1\choose k-1}p^k(1-p)^{n-k}+\sum_{k=1}^n~{n-1\choose k-1}p^k(1-p)^{n-k}\right]\cr \cr &\stackrel{(21)}{=}n\cdot \left[\sum_{k=2}^n~(k-1)\frac{n-1}{k-1}{n-2\choose k-2}p^k(1-p)^{n-k}+p\sum_{k=1}^n~{n-1\choose k-1}p^{k-1}(1-p)^{n-1-(k-1)}\right]\cr \cr &=n\cdot \left[(n-1)p^2\sum_{k=2}^n~{n-2\choose k-2}p^{k-2}(1-p)^{n-2-(k-2)}+p\sum_{i=0}^{n-1}~{n-1\choose i}p^{i}(1-p)^{n-1-i}\right]\cr \cr &=n\cdot \left[(n-1)p^2\sum_{i=0}^{n-2}~{n-2\choose i}p^{i}(1-p)^{n-2-i}+p\sum_{i=0}^{n-1}~{n-1\choose i}p^{i}(1-p)^{n-1-i}\right]\cr \cr &\stackrel{(22)}{=}n\cdot \left[(n-1)p^2\cdot 1+p\cdot 1\right]=np[(n-1)p+1]. \end{align}

Mit der Gleichung $\mathrm{Var}(X)=\mathrm E(X^2)-[\mathrm E(X)]^2$ ergibt sich nun:

(25)
\begin{align} \mathrm{Var}(X)=np\cdot [(n-1)p+1]-(np)^2=np\cdot [(n-1)p+1-np]=np\cdot (np-p+1-np)=np(1-p). \end{align}

Ergebnis: Für eine $B(n;p)$-verteilte Zufallsvariable $X$ gilt:

(26)
\begin{align} \begin{align} &\mathrm E(X)=np\cr \cr &\mathrm{Var}(X)=np(1-p). \end{align}

Berechnung über die Summe von Indikatorvariablen

Sei eine $B(n;p)$-verteilte Zufallsvariable $X$ mit $P(A)=p$ gegeben, wobei $A$ das Ereignis ist, wessen Auftreten bei dem Bernoulli-Experiment untersucht wird. Für jedes der $n$ Einzelexperimente führen wir nun eine neue Zufallsvariable ein. Und zwar setzen wir

(27)
\begin{align} X_j=\begin{cases} 1, & \text{falls }A\text{ bei der }j\text{ -ten Durchfuehrung des Einzelexperiments eintritt} \\ 0, & \text{falls }A\text{ bei der }j\text{ -ten Durchfuehrung des Einzelexperiments nicht eintritt} \end{cases}. \end{align}

Wenn bei der Durchführung des Bernoulli-Experiments das Ereignis $A$ genau $k$-mal eintritt, dann nehmen auch genau $k$ der $n$ oben definierten Indikatorvariablen den Wert $1$ und die restlichen $n-k$ den Wert $0$ an. Damit gilt also:

(28)
\begin{align} X=X_1+X_2+\ldots+X_n. \end{align}

Für jede der Indikatorvariablen gilt:

(29)
\begin{align} P(X_j=1)&=P(A)=p\cr P(X_j=0)&=P(\overline A)=1-p \end{align}

und damit erhält man für alle $j=1,2,\ldots,n$:

(30)
\begin{align} \mathrm E(X_j)=\sum_i~x_ip_i=1\cdot p+0\cdot (1-p)=p. \end{align}

Wegen der Linearität des Erwartungswertes folgt daraus für den gesuchten Erwartungswert:

(31)
\begin{align} \mathrm E(X)=\mathrm E(X_1+X_2+\ldots+X_n)=\mathrm E(X_1)+\mathrm E(X_2)+\ldots+\mathrm E(X_n)=p+p+\ldots+p=np. \end{align}

Die Varianz lässt sich ganz ähnlich berechnen. Für die einzelnen Indikatorvariablen gilt:

(32)
\begin{align} \mathrm{Var}(X_j)=\sum_i~(x_i-\mu)^2p_i=(1-p)^2p+(0-p)^2(1-p)=(1-p)^2p+p^2(1-p)=p(1-p)(1-p+p)=p(1-p). \end{align}

Da die $n$ Zufallsvariablen $X_1,\ldots,X_n$ paarweise stochastisch unabhängig sind, folgt:

(33)
\begin{align} \mathrm{Var}(X)=\mathrm{Var}(X_1+\ldots+X_n)=\mathrm{Var}(X_1)+\ldots+\mathrm{Var}(X_n) =p(1-p)+\ldots+p(1-p)=np(1-p). \end{align}

Auf diesem Wege erhalten wir also dasselbe Ergebnis.

Die Summe unabhängiger binomialverteilter Zufallsvariablen

Es seien $X$ und $Y$ zwei (stochastisch) unabhängige Zufallsvariablen. $X$ sei $B(n_1;p)$- und $Y$ sei $B(n_2;p)$-verteilt. Dann ist auch die Summe $Z=X+Y$ der beiden Zufallsvariablen wiederum binomialverteilt, und zwar $B(n_1+n_2;P)$-verteilt.

Um diese Aussage zu beweisen, benötigen wir die Gleichung

(34)
\begin{align} \sum_{i=0}^k~{n_1\choose i}{n_2\choose k-i}={n_1+n_2\choose k}. \end{align}

Der Beweis ist im Artikel zur hypergeometrischen Verteilung zu finden. Mit dieser Gleichung ergibt sich wegen der Unabhängigkeit (d.h. $P(X=i,Y=j)=P(X=i)P(X=j)$):

(35)
\begin{align} \begin{align} &P(Z=k)=P(X+Y=k)=\sum_{\substack{i+j=k \\ 0\leq i,j\leq k}}~P(X=i,Y=j)=\sum_{\substack{i+j=k \\ 0\leq i,j\leq k}}~P(X=i)P(Y=j)\cr \cr &=\sum_{i=0}^k~P(X=i)P(Y=k-i)=\sum_{i=0}^k~\left[{n_1\choose i}p^i(1-p)^{n_1-i}\cdot {n_2\choose k-i}p^{k-i}(1-p)^{n_2-(k-i)}\right]\cr \cr &=\sum_{i=0}^k~\left[{n_1\choose i}{n_2\choose k-i}p^{i+k-i}(1-p)^{n_1-i+n_2-k+i}\right]=\sum_{i=0}^k~\left[{n_1\choose i}{n_2\choose k-i}p^k(1-p)^{n_1+n_2-k}\right]\cr \cr &=p^k(1-p)^{n_1+n_2-k}\cdot \sum_{i=0}^k~{n_1\choose i}{n_2\choose k-i}\stackrel{(34)}{=}p^k(1-p)^{n_1+n_2-k}\cdot {n_1+n_2\choose k}\cr \cr &={n_1+n_2\choose k}p^k(1-p)^{n_1+n_2-k}=B(n_1+n_2;p;k). \end{align}

Induktiv erhält man daraus: Sind $X_1,\ldots,X_m$ vollständig (stochastisch) unabhängige Zufallsvariablen, wobei alle $X_i$ für $i=1,\ldots,m$ binomialverteilt seien, und zwar jeweils mit der Verteilung $\{(k,B(n_i;p;k))\ |\ k=0,1,\ldots,n_i\}$, so ist die Summe $X_1+\ldots+X_m$ ebenfalls binomialverteilt und besitzt die Verteilung $\{(k,B(n_1+\ldots+n_m;p;k))\ |\ k=0,1,\ldots,n_1+\ldots+n_m\}$.

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-Share Alike 2.5 License.