Wahrscheinlichkeitsverteilung für große N

From bio-physics-wiki

Revision as of 17:51, 12 January 2013 by Andreas Piehler (Talk | contribs)

(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
Jump to: navigation, search

Die symmetrische Binomialverteilung (p=q) kann für große $N$ durch die Gaus'sche Normalverteilung näherungsweise beschrieben werden. Für große $N$ hat die Binomialverteilung ein ausgeprägtes Maximum für $n_1=\tilde{n}_1$ und fällt mit zunehmender Entfernung vom Maximum nach beiden Seiten ab. In der Nähe des Maximums gilt außerdem, dass $|P(n_1+1)-P(n_1)|<<P(n_1)$ ist, wir können daher annehmen, dass die Verteilung für große $N$ annähernd eine kontinuierliche Funktion ist. Das Maximum wird dann durch den Punkt charakterisiert, bei dem die Ableitung der Funktion $W(n_1)$ mit der kontinuierlichen Variablen $n_1$ Null ist. \begin{equation} \frac{d W}{dn_1}=0 \hspace{2cm} bzw. \hspace{2cm} \frac{d \ln(W)}{dn_1}=0 \end{equation} Wir entwickeln nun diese Funktion um ihr Maximum $n_1=\tilde{n}_1+\eta$. Weil die Funktion $\ln(W)$ mit $n_1$ aber viel langsamer wächst und daher die Taylorreichenentwicklung schneller konvergiert, betrachten wir diese Funktion. \begin{align} \ln W(\eta) = \underbrace{W(\tilde{n}_1)}_{\ln \tilde{W}} + \underbrace{ \frac{d \ln W(\tilde{n}_1)}{dn_1}}_{:=B_1=0} \hspace{0.1cm} \eta + \frac{1}{2} \underbrace{\frac{d^2 \ln W(\tilde{n}_1)}{dn_1^2}}_{:=B_2 \leq 0} \hspace{0.1cm} \eta^2 +\dots \end{align} Vernachlässigen wir Terme dritter und höherer Ordnung erhalten wir

\begin{align} W(\eta) \approx \tilde{W} e^{- \frac{1}{2} |B_2| \eta^2 } \end{align} In den nächsten Schritten bestimmen wir die Konstanten $B_1,B_2$. Wir wissen bereits, dass laut Voraussetzung die einfache Ableitung von $\ln W$ Null sein muss. Wir können aber trotzdem einiges lernen indem wir die Ableitung ausführen. Dazu setzen wir für $W(n_1)$ die Binomialverteilung ein \begin{align} \ln W(n_1) = \ln N! - \ln n! - \ln(N-n)! + n_1 \ln p + (N-n_1) \ln q \end{align} In der statistischen Mechanik wird man oft Ausdrücken wie $\ln N!$ begegnen. Man schreibt Ausdrücke dieser Art erst als Summe und approximiert diese dann durch ein Integral, somit erhält man die Stirling Näherung

\[\ln(N!)=\sum_{n=1}^{N}\ln(n)\approx\int_{1}^{N}\ln(x)\,\mathrm{d}x=\left[x\ln(x)-x\right]_{1}^{N}=N\ln(N)-N+1\approx N\ln(N)-N\]

und damit gilt für die Ableitung \[\frac{d \ln(N!)}{dN} \approx \ln(N)\] Wir benutzen dieses Ergebnis und bilden die Ableitung der Wahrscheinlichkeitsverteilung, dann setzen wir diese Null. \begin{align} \frac{d \ln W(n_1)}{dn_1}&= - \ln n_1 + \ln(N-n_1) + \ln p - \ln q \\ &= \ln \left( \frac{(N- \tilde{n}_1 )p}{\tilde{n}_1 q} \right)=0 \\ (N- \tilde{n}_1 )p &= \tilde{n}_1 q\\ N p &= \tilde{n}_1(p+ q)\\ \end{align} Wir sehen mit dem Ergebnis \begin{align} \tilde{n}_1 &= Np,\\ \end{align} dass der Mittelwert der Verteilung dem Maximum der Verteilung entspricht.

Die Zweite Ableitung liefert die Konstatne $B_2$ \begin{align} \frac{d^2 \ln W(n_1)}{dn_1^2}&= \frac{d}{dn_1} - \ln n_1 + \ln(N-n_1) + \ln p - \ln q \\ &= - \frac{1}{N-\tilde{n}_1} - \frac{1}{\tilde{n}_1}\\ \end{align} Setzen wir nun für $\tilde{n}_1$ den Erwartungswert $Np$ ein \begin{align} B_2 &= \frac{d^2 \ln W(n_1)}{dn_1^2} = - \frac{1}{N-Np} - \frac{1}{Np}\\ &= -\frac{1}{N} \left( \frac{1}{1-p}+ \frac{1}{p} \right)=-\frac{1}{N} \left( \frac{p+q}{pq} \right) \end{align} also gilt für $p=q=1/2$ \begin{align} B_2 &= -\frac{1}{Npq} \end{align} $Npq$ ist genau die Varianz $\langle \Delta n \rangle ^2 = \sigma^2$ der Binomialverteilung. Wir können die Wahrscheinlichkeitsverteilung nun näherungsweise durch ein Integral ersetzen. Die Summe der Wahrscheinlichkeiten über alle $n_1$ muss auf eins normiert sein.

\begin{align} \sum_{n_1} W(\eta) \approx\int_{- \infty}^{\infty} W(\eta) \,\mathrm{d}\eta = 1 \end{align} Mit dieser Bedignung bestimmen wir den Vorfaktor $\tilde{W}$ \begin{align} \int_{- \infty}^{\infty} W(\eta) \,\mathrm{d}\eta =\int_{- \infty}^{\infty} \tilde{W} e^{- \frac{1}{2} |B_2| \eta^2 } \,\mathrm{d}\eta = \int_{- \infty}^{\infty} \tilde{W} e^{- \left( \frac{(n_1-\tilde{n}_1)^2}{2Npq} \right) } \,\mathrm{d}n_1 = 1 \end{align} Lösen des Gauß'schen Integrals liefert \begin{align} \tilde{W}\sqrt{\pi 2 Npq} =\tilde{W} \sqrt{2 \pi} \sigma = 1 \end{align} umfomren ergibt \begin{align} \tilde{W}=\frac{1}{\sqrt{2 \pi Npq}} =\frac{1}{ \sqrt{2 \pi} \sigma} \end{align} Mit der Standardabweichung $\sigma$ erhalten wir so die Wahrscheinlichkeitsverteilung für große $N$, welche durch Variablentransformation in die Gauß'sche Wahrscheinlichkeitsverteilung transformiert werden kann. \begin{align} W(n_1) \,\mathrm{d}n_1 =\frac{1}{ \sqrt{2 \pi} \sigma} e^{- \left( \frac{(n_1-\tilde{n}_1)^2}{2 \sigma^2} \right) } \,\mathrm{d}n_1 \end{align}