Entropie und statistische Physik
- Entropie in der statistischen Mechanik (vgl. Physik
2):
- definiert über die Zahl W möglicher Zustände, die den gleichen
makroskopischen Zustand beschreiben
- Maß für die Ordnung eines Systems (hohe Ordnung →
S klein)
- Erklärung des 2. Hauptsatzes aus der statistischen Mechanik:
- Zahl der Zustände mit höherer Entropie bedeutend größer
als mit kleinerer Entropie
- Übergang zu kleinerer Entropie nicht verboten, aber extrem
unwahrscheinlich
- Kartenspiel als Beispiel:
- am Anfang geordnet (niedrige Entropie)
- Mischen → Unordnung steigt (Entropie wächst)
- spontanes Sortieren durch Mischen extrem unwahrscheinlich
- ausströmendes Gas
- Teilchen verteilen sich über ganzes Volumen
- spontane Sammlung auf einer Seite grundsätzlich möglich
- sehr unwahrscheinlich
- bei großen Teilchenzahlen (~ 1022) extrem
unwahrscheinlich
- tritt praktisch nie auf
- Beispiel: adiabate Expansion des idealen Gases
- ideales Gas dehne sich adiabatisch und isotherm in ein
Vakuum auf doppeltes Volumen aus
- Entropie klassisch
- Entropie statistisch
- Entropie bei n Teilchen im linken Teilvolumen
- am Anfang n = N, also W = 1, somit S1 =
0
- am Ende n = N/2, daher