Entropie

From bio-physics-wiki

Jump to: navigation, search

Die Entropie eines abgeschlossenen Systems nimmt so lange zu, bis das thermodynamische Gleichgewicht erreicht ist. Nimmt die Entropie bei einem Prozess zu, so ist dieser irreversibel. Bleibt die Entropie bei einem Prozess konstant, so ist dieser reversibel, wie es z.B. beim Carnot Prozess der Fall ist. Der Begriff der Entropie wurde zum ersten Mal von Rudolf Clausius erwähnt, welcher damit eine Zustandsgröße im Rahmen der Thermodynamik festlegte. Boltzmann betrachtete die Entropie aus der Perspektive der Wahrscheinlichkeitstheorie in Verbindung mit der Anzahl der möglichen mikroskopischen Zustände die ein System einnehmen kann. Das System strebt dabei immer nach dem wahrscheinlichsten Zustand, welcher gleichzeitig der Zustand maximaler Unordnung ist. Entropie ist bei Boltzmann also ein Maß für die Unordnung in einem System. Modernere Theorien wie die Informationstheorie benutzen den Begriff der Entropie ebenfalls, dort stellt er eine Möglichkeit dar den Informationsgehalt einer Nachricht zu beurteilen.

Entropie in der Thermodynamik

Die einem System zugeführte Wärmemenge $dQ$ ist keine Zustandsgröße. $dQ$ ist kein totales Differential und lässt sich deshalb auch nicht in Form einer exakten Differentialgleichung bringen. Damit ist $Q$ auch keine Zustandsgröße eines thermodynamischen Systems. Rudolf Clausius führte als erster das Verhältnis $dQ/T$ ein und nannte es Entropie. Die Entropie ist wie Druck, Volumen und Temperatur eine Zustandsgröße. Ihr Wert hängt also nur vom Anfangs und Endpunkt im $T-S$-Diagramm ab und nicht vom gewählten Weg. Für Kreisprozesse gilt daher, dass die Entropieänderung nach durchlaufen eines Zyklus null ist.

Nach dem zweiten Hauptsatz der Thermodynamik gilt, dass die Entropie in einem abgeschlossenen System immer zunimmt. Betrachten wir zur genaueren Untersuchung zwei Körper mit unterschiedlichen Temperaturen $T_2<T_1$ und specifischer Wärme $c$. Die Körper seinen Anfangs getrennt und haben die Wärmemenge $Q_1=mcT1$ und $Q_2=mcT_2$. Bringt man die Körper in Kontakt tauschen sie so lange thermische Energie aus bis sie das thermodynamische Gleichgewicht erreichen und bei die Mischtemperatur $T_m$ erreichen. Geht keine Energie an die Umgebung verloren gilt \begin{align} \Delta Q_1=mc(T_m-T_1)&=\Delta Q_2 =mc(T_2-T_m)\\ T_m&=\frac{T_1+T_2}{2} \end{align} Die Änderung der Entropie des ersten Körpers ist \begin{align} \Delta S_1= \int\limits_{T_1}^{T_m} \frac{dQ}{T}=mc \int\limits_{T_1}^{T_m} \frac{dT}{T}=mc \ln{T_m / T_1} \end{align} Weil $T_m<T_1$ ist, muss auch $\Delta S<0$ sein. Für die Entropie des zweiten Köprers gilt entsprichend \begin{align} \Delta S_1= \int\limits_{T_m}^{T_2} \frac{dQ}{T}=mc \int\limits_{T_m}^{T_2} \frac{dT}{T}=mc \ln{T_2 / T_m} \end{align} mit $\Delta S>0$. Die Gesamtänderung der Entropie $\Delta S$ ist dann \begin{align} \Delta S= \Delta S_1+\Delta S_2= mc \ln{T_m^2 / T_1 \cdot T_2} \end{align} Weil $T_m^2=(T_1+T_2)^2/4$ immer größer als das geometrische Mittel $(T_1T_2)$ ist, muss die Entropie also immer zunehmen $\Delta S > 0$.


Überströmversuch von Gay-Lussac. Der Versuch mit einem idealen Gas in einem abgeschlossenen System zeigt, dass sich nach dem Druck- und Temperaturausgleich die Anfangstemperatur einstellt (\(t_2 = t_1\)). Da sich die innere Energie nicht ändern konnte, kann im Umkehrschluss gefolgert werden, dass die innere Energie einer bestimmten Menge des idealen Gases nur temperaturabhängig, nicht aber druck- oder volumenabhängig ist.
Expansionsversuch von Gay-Lussac

In der Abbidlung rechts wird das Experiment von Gay-Lussac beschrieben. Das Experiment zeigt, dass beim Überströmen eines idealen Gases in ein größeres Volumen keine Temperaturänderung stattfindet, d.h. die innere Energie des Gases hat sich nicht verändert (\(\mathrm{d}U=0\)). Wie groß ist nun die Entropieänderung in dem beschriebenen Versuch? Da die Entropie eine Zustandsgröße ist, ist sie wegunabhängig. Anstatt die Trennwand herauszuziehen, kann man sie auch langsam nach rechts schieben, bis das Endvolumen erreicht ist. Für eine infinitesimale Verschiebung vergrößert sich das Volumen um \(\mathrm dV\), die Entropie steigt um \(\mathrm{d}S = \delta Q / T\). Es handelt sich dabei um einen isothermen Prozess, die Innere Ennergie wird direkt in Volumsarbeit \(\delta W = -p \mathrm{d}V\) umgesetzt: \[ \mathrm{d}S = \frac{p}{T} \mathrm{d}V\] Aus der Zustandsgleichung für ideale Gase (\(N\,\) ist die Anzahl der Gasatome): \[ p=\frac{k_\mathrm{B}NT}{V}\] folgt: \[ \mathrm{d}S = \frac{k_\mathrm{B}N}{V} \mathrm{d}V\]. Hieraus ergibt sich durch Integration sofort: \[\Delta S= \int_{S_1}^{S_2} \mathrm{d}S = \int_{V_1}^{V_2} \frac{k_\mathrm{B}N}{V} \mathrm{d}V = k_\mathrm{B} N \ln(V_2/V_1) = k_\mathrm{B}N\ln2\,.\] z. B. 1 mol Atome, also \(N = N_\mathrm{A} = 6{,}022\cdot 10^{23}\) Atome, womit sich \[\Delta S = N_\mathrm{A} \cdot k_\mathrm{B}\ln2 = 5{,}76\;\mathrm{J/K}\] ergibt.

Entropie in der Statistischen Mechanik

Die Entropie eines Makrozustands lässt sich auch über über die Anzahl der zugänglichen Mikrozustände berechnen. Boltzmann definierte die Entropie als proportional zum Logarithmus des mikrokononischen Ensembles $\Omega$ eines Systems. Diese Definition der Entropie ziert den Grabstein von Ludwig Boltzmann

\begin{align} S=k_B \ln \Omega \end{align}

der Proportionalitätsfaktor ist die nach Boltzmann benannte Boltzmannkonstante $k_\mathrm{B} = 1{,}380\;6488\; \cdot 10^{-23} \mathrm{J}/\mathrm{K}$


Erläuterung am Gay-Lussac Experiment
Untersuchen wir nun die statistische Deutung der Entropie beim Gay-Lussac Versuchs als Maß für die Unordnung im System der zwei Kolben untersuchen. Sind \(n\,\) Moleküle so auf die zwei Kolben verteilt, dass sich in der einen Hälfte \(n_1\) und in der anderen \(n_2\) Moleküle befinden, gilt für das Mikrokanonische Ensemble \[ \Omega(n_1, n_2) = \frac{n!}{n_1!\;n_2!} \]

und die Entropie dieses Zustands \( S(n_1, n_2) = k_\mathrm{B}\cdot\ln \Omega \) . Befindet sich ein ganzes Mol (\(n = N_\mathrm{A}\)) in einer Hälfte (und in der anderen nichts), dann ist

\[ \Omega(N_\mathrm{A},0) = \frac{N_\mathrm{A}!}{N_\mathrm{A}!\;0!} = 1 \]

und die Entropie \( S(N_\mathrm{A}, 0) = k_\mathrm{B} \cdot \ln1 = 0 \) . Bei gleichmäßiger Aufteilung wird

\[ \Omega \left(\frac{N_\mathrm{A}}{2}, \frac{N_\mathrm{A}}{2}\right) = \frac{6\cdot10^{23}!}{3\cdot10^{23}! \;3\cdot10^{23}!} \] .

Die Fakultät kann man mit der Stirling-Formel annähern, wobei man sich auf \(n! \approx n^n\) beschränken kann. Der Logarithmus von \(n^n\) ist \(n\cdot\ln n\). Damit wird \[\ln (6\cdot10^{23}!) \approx 6\cdot10^{23}\cdot\ln (6\cdot10^{23})\] und \[ \ln\left[\Omega \left(\frac{N_\mathrm{A}}{2},\frac{N_\mathrm{A}}{2}\right)\right]\approx6\cdot10^{23}\cdot\ln(6\cdot10^{23})- 2\cdot3\cdot10^{23}\cdot\ln(3\cdot10^{23})=6\cdot10^{23}\cdot(\ln6-\ln3)\] .

Mit kB = 1,3807·10-23 J/K und NA = 6,0220·1023 Mol-1 erhält man für die Entropie nach der Expansion \[S=k_B\cdot\ln\left[\Omega \left(\frac{N_\mathrm{A}}{2},\frac{N_\mathrm{A}}{2}\right)\right] = 5{,}76\;\mathrm{J/K}\] wie aus der thermodynamischen Rechnung.

Entropie in der Informationstheorie