Hypergeometrische Verteilung

Die hypergeometrische Verteilung ist eine Wahrscheinlichkeitsverteilung, die die Anzahl von Kugeln einer Farbe bei mehrmaligem Ziehen ohne Zurücklegen aus einer Urne angibt.

Urnenmodell I

Es sei eine Urne mit $N$ Kugeln gegeben, von denen $M$ weiß und $N-M$ schwarz seien. Wir ziehen nun aus dieser Urne $n$ Kugeln ohne Zurücklegen, d.h. die Anzahl der weißen und schwarzen Kugeln in der Urne hängt bei den Zügen von den vorherigen Zügen ab. Die Frage ist nun, wie groß die Wahrscheinlichkeit ist, dass wir genau $k$ weiße Kugeln ziehen. Dabei soll jede Kugel beim einmaligen Ziehen mit der gleichen Wahrscheinlichkeit gezogen werden wie alle anderen Kugeln, die noch in der Urne vorhanden sind.
Wir betrachten das Zufallsexperiment als Laplace-Experiment. Als Ergebnisse betrachten wir die $n$-Tupel aus Farben mit Berücksichtigung der Reihenfolge. Es gibt nun ${N\choose n}$ Möglichkeiten, um überhaupt $n$ Kugeln ohne Zurücklegen zu ziehen. Um genau $k$ weiße Kugeln zu ziehen, gibt es ${M\choose k}$ Möglichkeiten. Außerdem sollen genau $n-k$ schwarze Kugeln gezogen werden. Dafür gibt es ${N-M\choose n-k}$ Möglichkeiten. Diese beiden Zahlen müssen wir nun noch multiplizieren, um alle Möglichkeiten für das Ziehen von genau $k$ weißen und $n-k$ schwarzen Kugeln zu erhalten. Es ergibt sich somit für die Zufallsvariable $X:\{0,1,\ldots,n\}\to [0,1]$, die einem $n$-maligen Ziehen (ohne Zurücklegen) die Anzahl der weißen Kugeln zuordnet:

(1)
\begin{align} P(X=k)=\frac{{M\choose k}{N-M\choose n-k}}{{N\choose n}}. \end{align}

Eigenschaften

Die hypergeometrische Verteilung wird mit den oben genannten Parametern auch mit $h(k;N;M;n)$ bezeichnet:

(2)
\begin{align} h(k;N;M;n)=\frac{{M\choose k}{N-M\choose n-k}}{{N\choose n}}. \end{align}

Hier erhalten wir wegen

(3)
\begin{align} &\frac{{M\choose k+1}{N-M\choose n-k-1}}{{N\choose n}}\cr \cr &=\frac{M\cdots (M-k)}{(k+1)!}\cdot \frac{(N-M)\cdots (N-M-(n-k))}{(n-k-1)!}\cdot\frac{1}{{N\choose n}}\cr \cr &=\frac{n-k}{N-M-(n-k)+1}\cdot \frac{M\cdots (M-k)}{(k+1)!}\cdot \frac{(N-M)\cdots (N-M-(n-k))(N-M-(n-k)+1)}{(n-k-1)!\cdot (n-k)}\cdot\frac{1}{{N\choose n}}\cr \cr &=\frac{n-k}{N-M-n+k+1}\cdot \frac{M-k}{k+1}\cdot \frac{M\cdots (M-k+1)}{k!}\cdot \frac{(N-M)\cdots (N-M-(n-k)+1)}{(n-k)!}\cdot\frac{1}{{N\choose n}}\cr \cr &=\frac{(n-k)\cdot (M-k)}{(k+1)(N-M-n+k+1)}\cdot \frac{{M\choose k}{N-M\choose n-k}}{{N\choose n}} \end{align}

die Rekursionsgleichung

(4)
\begin{align} h(k+1;N;M;n)=\frac{(n-k)\cdot (M-k)}{(k+1)(N-M-n+k+1)}\cdot h(k;N;M;n). \end{align}

Außerdem gilt folgende "Symmetriegleichung":

(5)
\begin{align} \frac{{M\choose k}{N-M\choose n-k}}{{N\choose n}}=h(k;N;M;n)=h(k;N;n;M)=\frac{{n\choose k}{N-n\choose M-k}}{{N\choose M}}. \end{align}

Dies ergibt sich aus der Definition des Binomialkoeffizienten:

(6)
\begin{align} \begin{align} &\frac{{M\choose k}{N-M\choose n-k}}{{N\choose n}}=\frac{M!}{k!(M-k)!}\cdot \frac{(N-M)!}{(n-k)!(N-M-(n-k))!}\cdot \frac{1}{\frac{N!}{n!(N-n)!}}\cr \cr &=\frac{n!}{k!(n-k)!}\cdot \frac{(N-n)!}{(M-k)!(N-n-(M-k))!}\cdot \frac{1}{\frac{N!}{M!(N-M)!}}=\frac{{n\choose k}{N-n\choose M-k}}{{N\choose M}}. \end{align}

Die Interpretation dieser Gleichung lautet: Zieht man aus einer Urne mit insgesamt $N$ Kugeln und davon $M$ weißen Kugeln $n$-mal ohne Zurücklegen, so ist die Wahrscheinlichkeit für genau $k$ weiße Kugeln genauso groß wie beim $M$-maligen Ziehen ohne Zurücklegen aus einer Urne mit insgesamt $N$ Kugeln und $n$ weißen Kugeln.

Auch bei der hypergeometrischen Verteilung muss die Summe aller Wahrscheinlichkeiten natürlich wieder $1$ ergeben. Dies bedeutet:

(7)
\begin{align} \sum_{k=0}^n~P(X=k)=\sum_{k=0}^n~h(k;N;M;n)=\sum_{k=0}^n~\frac{{M\choose k}{N-M\choose n-k}}{{N\choose n}}=1. \end{align}

Daraus erhalten wir die Gleichung

(8)
\begin{align} \sum_{k=0}^n~{M\choose k}{N-M\choose n-k}={N\choose n}. \end{align}

Diese wollen wir noch auf andere Art herleiten. Es geht um die Gleichung

(9)
\begin{align} \sum_{i=0}^k~{a\choose i}{b\choose k-i}={a+b\choose k} \end{align}

für $a,b\in\mathbb N$. Wir betrachten das Polynom $f:\mathbb R\to\mathbb R$ mit

(10)
\begin{equation} f(x)=(1+x)^{a+b}. \end{equation}

Nach dem Binomischen Satz gilt einerseits

(11)
\begin{align} (1+x)^{a+b}=\sum_{k=0}^{a+b}~{a+b\choose k}x^k \end{align}

und andererseits

(12)
\begin{align} &(1+x)^{a+b}=(1+x)^a(1+x)^b=\left(\sum_{i=0}^a~{a\choose i}x^i\right)\left(\sum_{j=0}^b~{b\choose j}x^j\right)\cr &=\sum_{k=0}^{a+b}~\left[\sum_{i=0}^k~{a\choose i}x^i{b\choose k-i}x^{k-i}\right]=\sum_{k=0}^{a+b}~\left[\sum_{i=0}^k~{a\choose i}{b\choose k-i}x^k\right]. \end{align}

Die Gleichung

(13)
\begin{align} \sum_{k=0}^{a+b}~\left[\sum_{i=0}^k~{a\choose i}{b\choose k-i}x^k\right]=\sum_{k=0}^{a+b}~{a+b\choose k}x^k \end{align}

soll für jedes $x\in\mathbb R$ gelten. Die Koeffizienten vor $x^k$ müssen für festes $k$ auf den beiden Seiten dann gleich sein. Wir machen also einen Koeffizientenvergleich, woraus sich die behauptete Gleichung ergibt:

(14)
\begin{align} \sum_{i=0}^k~{a\choose i}{b\choose k-i}={a+b\choose k}. \end{align}

Erwartungswert und Varianz

Elementare Berechnung über die Summendefinition

Der Erwartungswert und die Varianz können mit ein paar geschickten Umformungen elementar über die Summendefinition berechnet werden. Dabei benutzen wir hier die folgenden Gleichungen:

(15)
\begin{align} {m\choose l}=\frac{m}{l}\cdot {m-1\choose l-1}, \end{align}
(16)
\begin{align} \sum_{i=0}^k~{a\choose i}{b\choose k-i}={a+b\choose k}. \end{align}

Die erste Gleichung ergibt sich folgendermaßen aus der Definition des Binomialkoeffizienten:

(17)
\begin{align} {m\choose l}=\frac{m(m-1)\cdots (m-l+1)}{l!}=\frac{m}{l}\cdot \frac{(m-1)\cdots ((m-1)-(l-1)+1)}{(l-1)!}=\frac{m}{l}\cdot {m-1\choose l-1}. \end{align}

Die zweite Gleichung haben wir oben schon bewiesen.

Der Erwartungswert lässt sich nun über die Definition berechnen:

(18)
\begin{align} &\mathrm E(X)=\sum_{k=0}^n~k\cdot P(X=k)=\sum_{k=1}^n~k\cdot {M\choose k}{N-M\choose n-k}\frac{1}{{N\choose n}}\stackrel{(15)}{=}\frac{1}{{N\choose n}}\cdot \sum_{k=1}^n~k\cdot \frac{M}{k}\cdot {M-1\choose k-1}{N-M\choose n-k}\cr \cr &=\frac{M}{{N\choose n}}\cdot \sum_{k=1}^n~{M-1\choose k-1}{N-M\choose n-1-(k-1)}\stackrel{(15)}{=}\frac{M}{\frac{N}{n}\cdot {N-1\choose n-1}}\cdot \sum_{i=0}^{n-1}~{M-1\choose i}{N-M\choose n-1-i}\cr \cr &\stackrel{(16)}{=}n\cdot \frac{M}{N}\cdot \frac{1}{{N-1\choose n-1}}\cdot {M-1+N-M\choose n-1}=n\cdot \frac{M}{N}\cdot \frac{1}{{N-1\choose n-1}}\cdot {N-1\choose n-1}=n\cdot \frac{M}{N}. \end{align}

Für $\mathrm E(X^2)$ ergibt sich:

(19)
\begin{align} \begin{align} &\mathrm E(X^2)=\sum_{k=0}^n~k^2\cdot P(X=k)=\sum_{k=1}^n~k^2\cdot {M\choose k}{N-M\choose n-k}\frac{1}{{N\choose n}}\cr \cr &\stackrel{(15)}{=}\frac{1}{{N\choose n}}\cdot \sum_{k=1}^n~k^2\cdot \frac{M}{k}\cdot {M-1\choose k-1}{N-M\choose n-k}\cr \cr &=\frac{M}{{N\choose n}}\cdot \sum_{k=1}^n~k{M-1\choose k-1}{N-M\choose n-k}\cr \cr &=\frac{M}{{N\choose n}}\cdot \sum_{k=1}^n~\left[(k-1){M-1\choose k-1}{N-M\choose n-k}+{M-1\choose k-1}{N-M\choose n-k}\right]\cr \cr &=\frac{M}{{N\choose n}}\cdot \left[\sum_{k=1}^n~(k-1){M-1\choose k-1}{N-M\choose n-k}+\sum_{k=1}^n~{M-1\choose k-1}{N-M\choose n-k}\right]\cr \cr &\stackrel{(15)}{=}\frac{M}{{N\choose n}}\cdot \left[\sum_{k=2}^n~(k-1)\frac{M-1}{k-1}{M-2\choose k-2}{N-M\choose n-k}+\sum_{k=1}^n~{M-1\choose k-1}{N-M\choose n-1-(k-1)}\right]\cr \cr &=\frac{M}{{N\choose n}}\cdot \left[(M-1)\sum_{k=2}^n~{M-2\choose k-2}{N-M\choose n-2-(k-2)}+\sum_{i=0}^{n-1}~{M-1\choose i}{N-M\choose n-1-i}\right]\cr \cr &=\frac{M}{{N\choose n}}\cdot \left[(M-1)\sum_{i=0}^{n-2}~{M-2\choose i}{N-M\choose n-2-i}+\sum_{i=0}^{n-1}~{M-1\choose i}{N-M\choose n-1-i}\right]\cr \cr &\stackrel{(16)}{=}\frac{M}{{N\choose n}}\cdot \left[(M-1){M-2+N-M\choose n-2}+{M-1+N-M\choose n-1}\right]\cr \cr &\stackrel{(15)}{=}\frac{M}{\frac{N}{n}\frac{N-1}{n-1}{N-2\choose n-2}}\cdot (M-1){N-2\choose n-2}+\frac{M}{\frac{N}{n}{N-1\choose n-1}}{N-1\choose n-1}=n(n-1)\cdot \frac{M(M-1)}{N(N-1)}+n\cdot \frac{M}{N}. \end{align}

Mit der Gleichung $\mathrm{Var}(X)=\mathrm E(X^2)-[\mathrm E(X)]^2$ erhalten wir daraus:

(20)
\begin{align} &\mathrm{Var}(X)=n(n-1)\cdot \frac{M(M-1)}{N(N-1)}+n\cdot \frac{M}{N}-\left(n\cdot \frac{M}{N}\right)^2\cr \cr &=n\cdot \frac{M}{N}\cdot \left[(n-1)\cdot\frac{M-1}{N-1}+1-n\cdot \frac{M}{N}\right]\cr \cr &=n\cdot \frac{M}{N}\cdot \left[\frac{(n-1)\cdot (M-1)\cdot N+(N-1)N-n\cdot M\cdot (N-1)}{(N-1)N}\right]\cr \cr &=n\cdot \frac{M}{N}\cdot \frac{nMN-nN-MN+N+N^2-N-nMN+nM}{(N-1)N}=n\cdot \frac{M}{N}\cdot \frac{-nN-MN+N^2+nM}{(N-1)N}\cr \cr &=n\cdot \frac{M}{N}\cdot \frac{N(N-M)+n(M-N)}{(N-1)N}=n\cdot \frac{M}{N}\cdot \frac{(N-n)(N-M)}{(N-1)N}=n\cdot \frac{M}{N}\cdot \frac{N-M}{N}\cdot \frac{N-n}{N-1}\cr \cr &=n\cdot \frac{M}{N}\cdot \left(1-\frac{M}{N}\right)\cdot \frac{N-n}{N-1}. \end{align}

Ergebnis: Für eine mit $P(X=k)=h(k;N;M;n)$ hypergeometrisch verteilte Zufallsvariable $X$ gilt:

(21)
\begin{align} \begin{align} &\mathrm E(X)=n\cdot \frac{M}{N}\cr \cr &\mathrm{Var}(X)=n\cdot \frac{M}{N}\cdot \left(1-\frac{M}{N}\right)\cdot \frac{N-n}{N-1}. \end{align}

Mit $p=\frac{M}{N}$ bedeutet dies:

(22)
\begin{align} \begin{align} &\mathrm E(X)=np\cr \cr &\mathrm{Var}(X)=np(1-p)\cdot \frac{N-n}{N-1}. \end{align}

Berechnung über die Summe von Indikatorvariablen

Sei $X$ eine Zufallsvariable mit einer hypergeometrischen Verteilung, die durch

(23)
\begin{equation} P(X=k)=h(k;N;M;n) \end{equation}

gegeben sei. Wir können $X$ mit dem Urnenmodell als Zufallsvariable, die beim $n$-maligen Ziehen aus einer Urne mit $M$ weißen und $N-M$ schwarzen Kugeln die Anzahl der gezogenen weißen Kugeln angibt, interpretieren.
Wir betrachten nun eine bestimmte der weißen Kugeln. $A$ sei das Ereignis, dass diese feste weiße Kugel während der $n$ Züge gezogen wird. Wir denken uns die ausgewählte, feste weiße Kugel rot und die restlichen $N-1$ Kugeln in der Urne grün gefärbt. Dann ist nach der Formel für eine hypergeometrische Verteilung (hier ist $M=1,k=1$ und $n$ gegeben) die Wahrscheinlichkeit für das gesuchte Ereignis gegeben durch:

(24)
\begin{align} P(A)=\frac{{1\choose 1}{N-1\choose n-1}}{{N\choose n}}\stackrel{(17)}{=}\frac{{N-1\choose n-1}}{\frac{N}{n}{N-1\choose n-1}}=\frac{n}{N}. \end{align}

Wir nummerieren nun die weißen Kugeln von $1$ bis $M$ durch und führen für $i=1,\ldots,M$ folgende Indikatorvariablen ein:

(25)
\begin{align} X_i=\begin{cases} 1, & \text{ falls die }i\text{-te weisse Kugel unter den }n\text{ gezogenen ist} \\ 0, & \text{ falls die }i\text{-te weisse Kugel nicht unter den }n\text{ gezogenen ist}\end{cases}. \end{align}

Diese Zufallsvariablen sind paarweise stochastisch abhängig und es gilt:

(26)
\begin{align} &\mathrm E(X_i)=1\cdot P(X_i=1)+0\cdot P(X_i=0)=P(X_i=1)=P(A)=\frac{n}{N}\cr &\mathrm E(X_i^2)=1^2\cdot P(X_i=1)+0^2\cdot P(X_i=0)=P(X_i=1)=\frac{n}{N}\cr &\mathrm E(X_iX_j)=1\cdot P(X_iX_j=1)+0\cdot P(X_iX_j=0)=P(X_iX_j=1)=P(X_i=1,X_j=1)\cr &=P(X_i=1|X_j=1)P(X_j=1)=\frac{n-1}{N}\frac{n}{N} \end{align}

für alle $i,j=1,\ldots, M$ mit $i\neq j$. $X$ ergibt sich als Summe aus den Indikatorvariablen folgendermaßen:

(27)
\begin{align} X=X_1+\ldots+X_M. \end{align}

Daraus folgt wegen der Linearität des Erwartungswertes:

(28)
\begin{align} \mathrm E(X)=\mathrm E(X_1+\ldots+X_M)=\mathrm E(X_1)+\ldots+\mathrm E(X_M)=\frac{n}{N}+\ldots+\frac{n}{N}=M\cdot \frac{n}{N}=n\cdot \frac{M}{N}. \end{align}

Nun zur Varianz. Für den Erwartungswert gilt eine Art "Distributivgesetz": Für Zufallsvariablen $X,Y,Z$ gelten die Gleichungen

(29)
\begin{align} &\mathrm E(X\cdot (Y+Z))=\mathrm E(X\cdot Y+X\cdot Z)\cr &\mathrm E((X+Y)\cdot Z)=\mathrm E(X\cdot Z+Y\cdot Z), \end{align}

obwohl die Zufallsvariablen auf der linken und rechten Seite des Gleichheitszeichens im Allgemeinen verschieden sind. Zum Beweis siehe hier. Dies benutzen wir nun:
In der Darstellung

(30)
\begin{align} \mathrm E(X\cdot X)=\mathrm E\left(\left(\sum_{i=1}^M~X_i\right)\left(\sum_{j=1}^M~X_j\right)\right)=\mathrm E\left(\sum_{i=1}^M~X_iX_i+\sum_{\substack{i,j=1 \\ i\neq j}}^M~X_iX_j\right) \end{align}

gibt es insgesamt $M(M-1)$ Produkte $X_iX_j$ mit $i\neq j$. Wegen $\mathrm E(X_iX_j)=\frac{n-1}{N-1}\frac{n}{N}$ für $i\neq j$ und wegen $\mathrm E(Y^2)=\mathrm E(Y\cdot Y)$ für eine beliebige Zufallsvariable $Y$ (siehe dazu hier) folgt:

(31)
\begin{align} &\mathrm E(X^2)=\mathrm E(X\cdot X)=\mathrm E\left(\sum_{i=1}^M~X_iX_i+\sum_{\substack{i,j=1 \\ i\neq j}}^M~X_iX_j\right)=\mathrm E\left(\sum_{i=1}^M~X_iX_i\right)+\mathrm E\left(\sum_{\substack{i,j=1 \\ i\neq j}}^M~X_iX_j\right)\cr \cr &=\sum_{i=1}^M~\mathrm E(X_iX_i)+\sum_{\substack{i,j=1 \\ i\neq j}}^M~\mathrm E(X_iX_j)=\sum_{i=1}^M~\mathrm E(X_i^2)+\sum_{\substack{i,j=1 \\ i\neq j}}^M~\mathrm E(X_iX_j)=n\cdot\frac{M}{N}+M(M-1)\cdot \frac{n-1}{N-1}\frac{n}{N}. \end{align}

Wie im letzten Abschnitt ergibt sich daraus wegen der Gleichung $\mathrm{Var}(X)=\mathrm E(X^2)-[\mathrm E(X)]^2$:

(32)
\begin{align} \mathrm{Var}(X)=n\cdot \frac{M}{N}\cdot \left(1-\frac{M}{N}\right)\cdot \frac{N-n}{N-1}. \end{align}

Auf diesem Wege erhalten wir also dasselbe Ergebnis.

Zusammenhang zur Binomialverteilung

Ist die Gesamtzahl $N$ aller Objekte sehr groß, $n$ dazu vergleichsweise klein und $M$ weder zu nah an $0$ noch an $N$, so ist es quasi unerheblich, ob man mit oder ohne Zurücklegen zieht, da sich die Verhältnisse der Anzahlen von allen Objekten und von den ausgezeichneten $M$ Objekten im Prinzip nicht verändert. Für genügend große $N$ und günstige Größen von $M$ bedeutet die Veränderung von $N$ Gesamtobjekten und $M$ ausgezeichneten Objekten zu $N-1$ Gesamtobjekten und $M-1$ ausgezeichneten Objekten keinen Unterschied. Man kann also dann die hypergeometrische Verteilung dann auch mit der Binomialverteilung annähern. Je größer $N$ und je kleiner $n$ sind, desto besser ist diese Näherung. Für sehr große $N$ im Vergleich zu $n$ macht man mit dieser Näherung letztendlich sogut wie keinen Fehler. Man sagt im Allgemeinen, dass die hypergeometrische Verteilung durch die Binomialverteilung gut angenähert wird, falls $n\leq\frac{N}{10}$ ist. Überhaupt erst gerechtfertigt wird diese Näherung durch den folgenden Satz.

Satz: Lässt man $N$ bei festem $n$ gegen unendlich gehen, wobei $\frac{M}{N}=p$ gelte ($M$ geht damit natürlich auch gegen unendlich), so konvergiert die hypergeometrische Verteilung gegen die Binomialverteilung in folgendem Sinne:

(33)
\begin{align} \lim_{N\to\infty}h(k;N;M;n)=B(n;p;k)\qquad\qquad\text{fuer }k=0,1,\ldots,n. \end{align}

Beweis: Für festes $n$ und $k$ gilt mit $p=\frac{M}{N}$ und $q=1-p=1-\frac{M}{N}=\frac{N-M}{N}$:

(34)
\begin{align} &h(k;N;M;n)=\frac{{M\choose k}{N-M\choose n-k}}{{N\choose n}}=\frac{\frac{M(M-1)\cdots (M-k+1)}{k!}\cdot \frac{(N-M)(N-M-1)\cdots (N-M-(n-k)+1)}{(n-k)!}}{\frac{N(N-1)\cdots (N-n+1)}{n!}}\cr \cr &=\frac{n!}{k!(n-k)!}\cdot \frac{\frac{1}{N^n}}{\frac{1}{N^n}}\cdot \frac{M(M-1)\cdots (M-k+1)\cdot (N-M)(N-M-1)\cdots (N-M-n+k+1)}{N(N-1)\cdots (N-n+1)}\cr \cr &={n\choose k}\cdot \frac{\frac{M}{N}\left(\frac{M}{N}-\frac{1}{N}\right)\cdots \left(\frac{M}{N}-\frac{k-1}{N}\right)\cdot \frac{N-M}{N}\left(\frac{N-M}{N}-\frac{1}{N}\right)\cdots \left(\frac{N-M}{N}-\frac{n-k-1}{N}\right)}{\frac{N}{N}\left(\frac{N}{N}-\frac{1}{N}\right)\cdots \left(\frac{N}{N}-\frac{n-1}{N}\right)}\cr \cr &={n\choose k}\cdot \frac{p\left(p-\frac{1}{N}\right)\cdots \left(p-\frac{k-1}{N}\right)\cdot q\left(q-\frac{1}{N}\right)\cdots \left(q-\frac{n-k-1}{N}\right)}{\left(1-\frac{1}{N}\right)\cdots \left(1-\frac{n-1}{N}\right)}. \end{align}

Nun folgt:

(35)
\begin{align} &\lim_{N\to\infty}h(k;N;M;n)=\lim_{N\to\infty}\left[{n\choose k}\cdot \frac{p\left(p-\frac{1}{N}\right)\cdots \left(p-\frac{k-1}{N}\right)\cdot q\left(q-\frac{1}{N}\right)\cdots \left(q-\frac{n-k-1}{N}\right)}{\left(1-\frac{1}{N}\right)\cdots \left(1-\frac{n-1}{N}\right)}\right]\cr \cr &={n\choose k}\cdot \frac{\overbrace{p\cdot p\cdots p}^{k\text{-mal}}\cdot \overbrace{q\cdot q\cdots q}^{(n-k)\text{-mal}}}{1\cdots 1}={n\choose k}p^kq^{n-k}={n\choose k}p^k(1-p)^{n-k}.\ \Box \end{align}

Für große $N$ haben wir, falls $p=\frac{M}{N}$ nicht allzu klein ist, also die Näherung

(36)
\begin{equation} h(k;N;M;n)=B(n;p;k). \end{equation}
Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-Share Alike 2.5 License.