Kanonisches Ensemble

From bio-physics-wiki

Jump to: navigation, search
Ein kanonisches Ensemble ist eine Menge von Systemen mit konstanter Anzahl von Teilchen $N$ und konstantem Volumen $V$, bei konstanter Termperatur $T$
und verschiedenen Energien $E$.
Betrachten wir eine Menge von $\mathfrak{N}$ Systemen die jeweils $N$ Teilchen und Volumen $V$ besitzen.
Supersystem.png
Die Systeme seien durch wärmeleitende Wände getrennt, lassen aber keine Moleküle hindruch. Wir nennen die Menge dieser $\mathfrak{N}$ Systeme "Supersystem" um Verwechslungen zu vermeiden. Das Supersystem ist im thermischen Gleichgewicht mit einem Wärmebad und wird isoliert, sodass es keine Energie mit der Umgebung austauschen kann, die Gesamtenergie des Supersystems bleibt dann konstant $E_G$. Jedes der Systeme kann Energie mit seinem Nachbarsystem austauschen, die Energie eines Systems kann also fluktuieren. Für $\mathfrak{N} \rightarrow \infty$ lässt sich auf diese weise ein kanonisches Ensemble realisieren.



Da auch das Supersystem ein System bildet für welches das zweite Postulat gilt, sind alle Systeme mit gleicher Wahrscheinlichkeit zugänglich. Die Systeme haben unterschiedliche Energien $E_i$. Manche dieser Energieniveaus sind vielfach besetzt, man nennt solche Energieniveaus entartet (engl. degenerate). Sind $n_i$ Systeme auf dem gleichen Energieniveau $E_i$, sagt man das Energieniveau ist $n_i$-fach entartet. Man nennt die Menge $n=\{n_1, n_2, \dots \}$ der Besetzungszahlen $n_i$ auch Besetzung oder Verteilung.

Multiko.png

Für die Gesamtenergie $E_G$ des Supersystems gilt \begin{align} E_G=\sum_i n_i E_i \end{align} außerdem ist die Summe über alle Besetzungszahlen $\mathfrak{N}$ \begin{align} \mathfrak{N}=\sum_i n_i \end{align} Für jede Verteilung $n$ gibt es viele Möglichkeiten $n_i$ Systemen die Energie $E_i$ zuzuordnen, denn die Systeme sind unterscheidbar, d.h. wenn z.B. das Energieniveau $E_1$ von System S1 besetzt wird und $E_2$ von System S2, dann unterscheidet man zwischen der Besetzung bei der $E_1$ von S2 und $E_2$ von S1 besetzt ist. Dies führt auf ein klassisches Problem der Kombinatorik (siehe Permutation von klassenweise äquivalenten Objekten). Nehmen wir an jedes Energieniveau ist nur einmal besetzt $n_i=1$, dann gäbe es $\mathfrak{N}!$ Wege den Energieniveaus ein System zuzuordnen. Wenn aber manche Systeme die selbe Energie haben $n_i > 1$, dann muss man die Anzahl der möglichen Wege durch $n_i!$ teilen, weil Systeme auf gleichem Enerigeniveau nicht unterscheidbar sind, bzw. ihre Reihenfolge nicht von bedeutung ist.

\[\Omega(n) = {\mathfrak{N} \choose n_1, \dots , n_r} := \frac{\mathfrak{N}!}{\prod_i n_i!} \]

$\Omega$ wird die Entartungsfunktion einer Verteilung $n$ genannt (nicht zu Verwechseln mit der Entartung eines Energieniveaus) und entspricht hier dem Multinomialkoeffizienten. Die Entartung gibt also an, auf wie viele Wege die Energieniveaus besetzt werden können unter der Voraussetzung, dass diese Verteilungen auf dieselbe Gesamtenergie $E_G$ des Systems führen.

Zur Veranschaulichung betrachten wir ein Supersystem von drei Systemen das zwei Verteilungen hat die zur selben Gesamtenergie $E_G$ führen, aber zu verschiedenen $\Omega$. Die Energieniveaus könnten z.B. $E_1=0,E_2=1,E_3=2$ sein.

$n_1E_1$ $n_2E_2$ $n_3E_3$ $\Omega$
1$E_1$ 2$E_2$ 1$E_3$ 12
2$E_1$ 0$E_2$ 2$E_3$ 6

(noch mehr Beispiele gibt es in dieser Videovorlesung von Prathap Haridoss) Die Anzahl der entarteten Zustände $\Omega(n)$ des Supersystems ändert sich also für unterschiedliche Verteilungen. Wir können nun nach der mittleren Besetzungszahl $\langle n_j \rangle$ des $j$-ten Energieniveaus fragen. Wir bilden den Mittelwert

\begin{align} \langle n_j \rangle = \frac{\sum_n \Omega(n) \cdot n_j}{\sum_n \Omega(n)} \end{align} wobei $\Omega(n)$ die Anzahl der möglichen Mikrozustände für die Besetzung $n$ ist. So erhalten wir für unser konkretes Beispiel

\begin{align} \langle n_3 \rangle = \frac{1 \cdot 12 + 2 \cdot 6}{12+6}=\frac{4}{3} \end{align} In der ersten Verteilung ist $E_3$ einfach besetzt in der zweiten Verteilung zweifach. Die Wahrscheinlichkeit ein Teilchen auf $E_3$ zu finden ist daher \begin{align} \frac{\langle n_3 \rangle}{\mathfrak{N}} = \frac{1}{3} \end{align}

Also gilt für die Wahrscheinlichkeit, ein Teilchen auf dem Energieniveau $E_i$ zu finden
\begin{align}
 P_i = \frac{\langle n_i \rangle}{\mathfrak{N}}=\frac{\sum_n \Omega(n) \cdot n_j}{\mathfrak{N} \sum_n \Omega(n)}
 \end{align}
Die mittlere Energie des Systems ist dann
\begin{align}
 \langle E \rangle = \sum_i P_i E_i
 \end{align}

Für sehr viele Teilchen ist $\Omega(n)$ scharf um einen Punkt verteilt und bildet für $\mathfrak{N} \rightarrow \infty$ schließlich eine $\delta$-Distribution. Wir können uns das Veranschaulichen indem wir annehmen, es gäbe nur zwei Energieniveaus $E_1,E_2$. Wie viele Möglichkeiten gibt es diese zu besetzen, sodass man die Gesamtenergie $E_G$ erhält? Dieses Problem führt wie beim Random Walk zu einer Binomialverteilung, die für große $\mathfrak{N}$ näherungsweise durch eine Normalverteilung beschrieben werden kann. Die relative Breite der Verteilung ist bekanntlich $\propto \frac{1}{\sqrt{\mathfrak{N}}}$, nimmt also mit größerwerdendem $\mathfrak{N}$ ab. Deshalb ergibt sich also im Grenzfall $\mathfrak{N} \rightarrow \infty$ eine $\delta$-Distribution.

Entmax.png

Das selbe gilt auch für eine Multinomialverteilung wobei jede Variable $n_i$ ein Maximum annimmt (mehrere Dimensionen). Wir nehmen nun an, dass $\Omega(n)$ eine scharfe Funktion im den Punkt $n=n^*$ ist, sodass $\Omega(n^*)$ die Entartungszahl des wahrscheinlichsten Zustandes ist. Unter dieser Bedingung können wir also die Beiträge aller anderen $\Omega(n)$ vernachlässigen.

Also gilt für die Wahrscheinlichkeit, ein Teilchen auf dem Energieniveau $E_i$ zu finden unter der Voraussetzung $\mathfrak{N} \rightarrow \infty$
\begin{align}
 P_i = \frac{ n^*_i }{\mathfrak{N}}
 \end{align}

Die Wahrscheinlichste Verteilung

Wie finden wir die zugehörige Besetzung zu $\Omega(n^*)$? Welche $n_i$s maximieren $\Omega(n)$ unter den Bedingungen \begin{align} \sum_i n_i =\mathfrak{N}\\ \sum_i n_i E_i=E_G \\ \end{align}

Maximierung unter Nebenbedingunge ist eine klassische Optimierungsaufgabe die mit der Lagrange-Methode gelöst werden kann. Anstatt $\Omega(n)$ zu maximieren lösen wir das Optimierungsproblem für $\ln \Omega(n)$, das bringt eine rechentechnische Vorteile und ändert nichts an der Lösung, da der Logarithmus eine monotone Funktion ist. Außerdem verwenden wir $n_i=\mathfrak{N} P_i$

\begin{align} \ln \Omega(n) &= \ln \left(\frac{\mathfrak{N}!}{n_1! n_2! \dots} \right) \\ &=\ln \mathfrak{N}! - \sum_i \ln n_i!\\ &=\mathfrak{N} \cdot \ln \mathfrak{N} - \mathfrak{N} - \left( \sum_i n_i \ln n_i - n_i \right)\\ &=\mathfrak{N} \cdot \ln \mathfrak{N} - \left( \sum_i \mathfrak{N} P_i \ln \mathfrak{N} P_i \right)\\ &=\mathfrak{N} \cdot \ln \mathfrak{N} - \left( \sum_i \mathfrak{N} P_i (\ln \mathfrak{N} +\ln P_i) \right)\\ &= - \mathfrak{N} \left( \sum_i P_i \ln P_i \right)\\ &= - \left( \sum_i n_i \ln \frac{n_i}{\mathfrak{N} } \right)\\ &= \sum_i n_i \ln \mathfrak{N} - \sum_i n_i \ln {n_i} \\ \end{align} Der Ausdruck $\sum_i P_i \ln P_i$ ist genau die Entropie. Wir machen den Ansatz für die Optimierung mit den Lagrange-Mulitplikatoren $\alpha, \beta$

\begin{align} \frac{\partial}{\partial n_j} \left( \ln \Omega(n) - \alpha \sum_i n_i - \beta \sum_i n_i E_i \right) &= \frac{\partial}{\partial n_j} \left(\sum_i n_i \ln \mathfrak{N} - \sum_i n_i \ln {n_i} - \alpha \sum_i n_i - \beta \sum_i n_i E_i \right)=0\\ \end{align} Man kann die Gleichung für jedes $i$ separat lösen \begin{align} & \ln \mathfrak{N} - \ln n^*_j -1 -\alpha - \beta E_j=0 \end{align} so erhalten wir für die wahrscheinlichsten Besetzungszahlen $n^*_j$ eine Exponentialverteilung die von den Energien $E_j$ der jeweiligen Besetzungszahl abhängt. Man kann nach anderen Berechnungsmethoden auch den Mulitplikator ${\alpha}' = \alpha +1$ erhalten, das hat aber keine physikalische Bedeutung (vergleiche dazu die Videovorlesung über Statistical Mechanics von Leonard Susskind und Maxwell Boltzmann Statistics von Prathap Haridoss). \begin{align} n^*_j= \mathfrak{N} \cdot e^{- (\alpha+1)} e^{-\beta E_j} \end{align} Für die Besetzungswahrscheinlichkeit des $j$-ten Energieniveaus ergibt sich somit \begin{align} P_j=\frac{n^*_j}{\mathfrak{N}}=e^{- (\alpha+1)} e^{-\beta E_j} \end{align} Das ist die berühmte Maxwell-Boltzmann-Verteilung, die wir noch umschreiben können, indem wir die Notation zu $Z=e^{ (\alpha+1)}$ und $\beta=1/kT$ ändern \begin{align} P_j=\frac{1}{Z} e^{- E_j /kT} \end{align} $Z$ wird Zustandssumme (engl. Partitionfunction) genannt. Man erhält $Z$ durch Einsetzen der Maxwell-Boltzmann-Verteilung in $\sum_i P_i =1$ \begin{align} \frac{1}{Z} \sum_i e^{- E_j /kT} &=1\\ Z&=\sum_i e^{- E_j /kT} \end{align} auf ähnliche Weise bestimmen wir den Zusammenhang zwischen $\langle E \rangle$ und $Z$ indem wir $P_i$ in $\langle E \rangle = \sum_i P_i E_i$ einsetzen. \begin{align} \frac{1}{Z} \sum_i e^{- \beta E_i} E_i &=\langle E \rangle\\ \langle E \rangle &= \frac{1}{Z} - \frac{\partial}{\partial \beta}\sum_i e^{- \beta E_i} = - \frac{1}{Z}\frac{\partial Z}{\partial \beta}=\frac{\partial \ln Z}{\partial \beta}\\ \end{align}

Man beachte, dass die Maxwell-Boltzmann-Verteilung eine mit $E_j$ exponentiell abfallende Funktion ist. Niedrige Energieniveaus sind also öfters besetzt als hohe Energieniveaus.

Plank'sche Strahlungsgesetz $E_n=nh\nu$ für größer werdende $n$ sinkt die Wahrscheinlichkeit exponentiell.
Die Wahrscheinlichste Verteilung $n$ ist jene, bei der die zugehörigen Besetzungszahlen $n_i$ des Energienivaus $E_i$, 
mit gößer werdender Energie $E_i$ exponentiell abnehmen.
\begin{align} n^*_j=\mathfrak{N} \cdot \frac{e^{{- E_j}/{k T}}}{Z} \end{align} Diese Verteilung wird Maxwell-Boltzmann-Verteilung genannt und wurde bereits 1860 von J.C. Maxwell und L. Boltzmann aufgestellt.

Beispiele für die Anwendung der statistischen Mechanik ist die Herleitung des Plank'schen Strahlungsgesetzes und die Berechnung der Wahrscheinlichkeit, dass ein Transkriptionsfaktor an die DNA bindet (Transcriptionfactor Binding in Gene Regulation).