Jede Methode, die den Begriff der Entropie beinhaltet, deren Existenz vom zweiten Hauptsatz der Thermodynamik abhängt, wird zweifellos vielen weit hergeholt erscheinen und Anfänger als dunkel und schwer verständlich abstoßen.

Willard Gibbs, Graphische Methoden in der Thermodynamik von Flüssigkeiten

das Konzept Der Entropie beschrieben zwei grundsätzliche Ansätze, die makroskopische Perspektive der klassischen Thermodynamik und der mikroskopischen Beschreibung zentralen statistischen mechanik., Der klassische Ansatz definiert die Entropie in Bezug auf makroskopisch messbare physikalische Eigenschaften wie Schüttmasse, Volumen, Druck und Temperatur. Die statistische Definition der Entropie definiert sie in Bezug auf die Statistik der Bewegungen der mikroskopischen Bestandteile eines zunächst klassisch modellierten Systems, z. B. Newtonsche Teilchen, die ein Gas bilden, und später quantenmechanisch (Photonen, Phononen, Spins usw.).)., Die beiden Ansätze bilden eine konsistente, einheitliche Sicht auf dasselbe Phänomen, wie es im zweiten Hauptsatz der Thermodynamik ausgedrückt wird, der universelle Anwendbarkeit auf physikalische Prozesse gefunden hat.

Funktion von stateEdit

Viele thermodynamische Eigenschaften haben eine besondere Eigenschaft, dass sie eine Reihe von physikalischen Variablen bilden, die einen Gleichgewichtszustand definieren; Sie sind Zustandsfunktionen. Wenn zwei Eigenschaften des Systems bestimmt werden, wird häufig der Zustand bestimmt und die Werte der anderen Eigenschaften können ebenfalls bestimmt werden., Zum Beispiel hat eine Gasmenge bei einer bestimmten Temperatur und einem bestimmten Druck ihren Zustand durch diese Werte festgelegt und hat somit ein bestimmtes Volumen, das durch diese Werte bestimmt wird. Als weiteres Beispiel wird ein System aus einer reinen Substanz einer einzelnen Phase bei einer bestimmten gleichmäßigen Temperatur und einem bestimmten Druck bestimmt (und ist somit ein bestimmter Zustand) und ist nicht nur bei einem bestimmten Volumen, sondern auch bei einer bestimmten Entropie. Die Tatsache, dass Entropie eine Funktion des Staates ist, ist ein Grund, warum sie nützlich ist., Im Carnot-Zyklus kehrt das Arbeitsfluid in den gleichen Zustand zurück, den es zu Beginn des Zyklus hatte, daher ist das Linienintegral jeder Zustandsfunktion, wie Entropie, über diesen reversiblen Zyklus Null.

Reversibler prozessEdit

Die Entropie bleibt für einen reversiblen Prozess erhalten. Ein reversibler Prozess ist einer, der nicht vom thermodynamischen Gleichgewicht abweicht und gleichzeitig die maximale Arbeit erzeugt. Jeder Prozess, der schnell genug abläuft, um vom thermischen Gleichgewicht abzuweichen, kann nicht reversibel sein., In diesen Fällen geht Energie durch Wärme verloren, die Gesamtentropie nimmt zu und das Potenzial für maximale Arbeit im Übergang geht ebenfalls verloren. Genauer gesagt wird die totale Entropie in einem reversiblen Prozess und nicht in einem irreversiblen Prozess konserviert., Während beispielsweise im Carnot-Zyklus der Wärmestrom vom heißen Reservoir zum kalten Reservoir eine Zunahme der Entropie darstellt, stellt die Arbeitsleistung, wenn sie in einem Energiespeichermechanismus reversibel und perfekt gespeichert ist, eine Abnahme der Entropie dar, die verwendet werden könnte, um die Wärmekraftmaschine rückwärts zu betreiben und in den vorherigen Zustand zurückzukehren, sodass die gesamte Entropieänderung immer noch Null ist, wenn der gesamte Prozess reversibel ist. Ein irreversibler Prozess erhöht die Entropie.

Carnot cycleEdit

das Konzept Der Entropie entstand aus Rudolf Clausius Studie des Carnot-Zyklus., In einem Carnot-Zyklus wird Wärme QH isotherm bei Temperatur TH von einem „heißen“ Reservoir absorbiert und isotherm als Wärme QC zu einem „kalten“ Reservoir bei TC abgegeben. Nach Carnot prinzip, arbeit kann nur produziert werden durch das system, wenn es ist eine temperatur unterschied, und die arbeit sollte einige funktion der unterschied in temperatur und die wärme absorbiert (QH)., Carnot unterschied nicht zwischen QH und QC, da er die falsche Hypothese verwendete, dass die Kalorientheorie gültig war und daher Wärme konserviert wurde (die falsche Annahme, dass QH und QC gleich waren), wenn QH tatsächlich größer als QC ist., Durch die Bemühungen von Clausius und Kelvin ist nun bekannt, dass die maximale Arbeit, die eine Wärmekraftmaschine erzeugen kann, das Produkt des Carnot − Wirkungsgrades und der vom heißen Reservoir absorbierten Wärme ist:

Um den Carnot–Wirkungsgrad abzuleiten, der 1-TC/TH (eine Zahl weniger als eins) beträgt, musste Kelvin das Verhältnis der Arbeitsleistung zu der während der isothermen Expansion absorbierten Wärme mit Hilfe der Carnot-Clapeyron-Gleichung bewerten, die eine unbekannte Funktion namens Carnot-Funktion enthielt., Die Möglichkeit, dass die Carnot-Funktion die Temperatur sein könnte, wie sie von einer Nulltemperatur gemessen wird, wurde von Joule in einem Brief an Kelvin vorgeschlagen. Dies ermöglichte Kelvin, seine absolute Temperaturskala festzulegen.,div>

(2)

Da letzteres über den gesamten Zyklus gültig ist, gab dies Clausius den Hinweis, dass bei jedem Zyklus phase des Zyklus, Arbeit und Wärme wären nicht gleich, sondern ihre Differenz wäre eine Zustandsfunktion, die nach Abschluss des Zyklus verschwinden würde., Die Zustandsfunktion wurde innere Energie genannt und wurde zum ersten Hauptsatz der Thermodynamik.

Nun Gleichsetzung (1) und (2) ergibt

Q H T H − Q C T C = 0 {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}-{\frac {Q_{\text{C}}}{T_{\text{C}}}=0}

oder

Q H T H = Q C T C {\displaystyle {\frac {\text {H}}} {T_ {\text {H}}}={\frac {Q_ {\text {C}}} {T_ {\text {C}}}}

Dies impliziert, dass es eine Zustandsfunktion gibt, die über einen vollständigen Zyklus des Carnot-Zyklus erhalten bleibt. Clausius nannte diesen Zustand Funktion Entropie., Man kann sehen, dass Entropie eher durch Mathematik als durch Laborergebnisse entdeckt wurde. Es ist ein mathematisches Konstrukt und hat keine einfache physikalische Analogie. Dies macht das Konzept etwas obskur oder abstrakt, ähnlich wie das Konzept der Energie entstand.

Clausius fragte dann, was passieren würde, wenn das System weniger Arbeit produzieren würde als nach Carnots Prinzip vorhergesagt.,<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}\right)Q_{\text{H}}}

Wenn die zweite Gleichung verwendet wird, um die Arbeit als Wärmedifferenz auszudrücken, erhalten wir

Q H − Q C < ( 1 − T C T H ) Q H {\displaystyle Q_{\text{H}}-Q_{\text{C}}<\left(1-{\frac {T_{\text{C}}} {T_{\text{H}}}}\right)Q_{\text{H}}} oder Q C > T C T H Q H {\displaystyle Q_{\text{C}}>{\frac {T_{\text{C}}} {T_{\text{H}}}} Q_{\text{H}}}

So wird dem kalten Reservoir mehr Wärme zugeführt als im Carnot-Zyklus., Wenn wir die Entropien für die beiden Zustände mit Si = Qi/Ti bezeichnen, kann die obige Ungleichung als Abnahme der Entropie geschrieben werden

S H − S C < 0 {\displaystyle S_{\text{H}}-S_{\text{C}}<0} oder S H < S C {\displaystyle S_{\text{H}}<S_{\text{C}}}

Die Entropie, die das System verlässt, ist größer als die Entropie, die in das System eintritt, was bedeutet, dass ein irreversibler Prozess verhindert, dass der Zyklus die maximale Menge an Arbeit erzeugt, die durch die Carnot-Gleichung vorhergesagt wird.,

Der Carnot-Zyklus und die Effizienz sind nützlich, da sie die Obergrenze der möglichen Arbeitsleistung und die Effizienz eines klassischen thermodynamischen Systems definieren. Andere Zyklen, wie der Otto-Zyklus, der Diesel-Zyklus und der Brayton-Zyklus, können vom Standpunkt des Carnot-Zyklus aus analysiert werden. Jede Maschine oder jedes Verfahren, das Wärme in Arbeit umwandelt und einen Wirkungsgrad von mehr als dem Carnot-Wirkungsgrad erzeugt, ist nicht rentabel, da sie gegen den zweiten Hauptsatz der Thermodynamik verstößt. Für sehr kleine Partikelzahlen im System muss die statistische Thermodynamik verwendet werden., Die Effizienz von Geräten wie Photovoltaikzellen erfordert eine Analyse vom Standpunkt der Quantenmechanik.

Klassische Thermodynamikedit

Hauptartikel: Entropie (klassische Thermodynamik)

Die thermodynamische Definition der Entropie wurde in den frühen 1850er Jahren von Rudolf Clausius entwickelt und beschreibt im Wesentlichen, wie die Entropie eines isolierten Systems im thermodynamischen Gleichgewicht mit seinen Teilen gemessen wird. Clausius schuf den Begriff Entropie als umfangreiche thermodynamische Variable, von der sich zeigte, dass sie zur Charakterisierung des Carnot-Zyklus nützlich ist., Es wurde festgestellt, dass die Wärmeübertragung entlang der Isothermenschritte des Carnot-Zyklus proportional zur Temperatur eines Systems (als absolute Temperatur bezeichnet) ist. Diese Beziehung wurde in Schritten der Entropie ausgedrückt, die dem Verhältnis der inkrementellen Wärmeübertragung dividiert durch die Temperatur entsprachen, von dem festgestellt wurde, dass es im thermodynamischen Zyklus variiert, aber schließlich am Ende jedes Zyklus auf den gleichen Wert zurückkehrt. Somit wurde festgestellt, dass es sich um eine Funktion des Zustands handelt, insbesondere um einen thermodynamischen Zustand des Systems.,

Während Clausius seine Definition auf einen reversiblen Prozess stützte, gibt es auch irreversible Prozesse, die die Entropie verändern. Nach dem zweiten Hauptsatz der Thermodynamik nimmt die Entropie eines isolierten Systems bei irreversiblen Prozessen immer zu. Der Unterschied zwischen einem isolierten System und einem geschlossenen System besteht darin, dass Wärme möglicherweise nicht zu und von einem isolierten System fließt, aber Wärmefluss zu und von einem geschlossenen System ist möglich. Dennoch können sowohl für geschlossene als auch für isolierte Systeme und in der Tat auch für offene Systeme irreversible thermodynamische Prozesse auftreten.,

So können wir eine Zustandsfunktion S namens Entropie definieren, die d S = δ Q rev T erfüllt . {\displaystyle dS={\frac {\delta Q_{\text{rev}}}{T}}.}

Um die Entropiedifferenz zwischen zwei beliebigen Zuständen eines Systems zu ermitteln, muss das Integral für einen reversiblen Pfad zwischen dem Anfangs-und dem Endzustand ausgewertet werden. Da Entropie eine Zustandsfunktion ist, ist die Entropieänderung des Systems für einen irreversiblen Pfad dieselbe wie für einen reversiblen Pfad zwischen denselben beiden Zuständen. Die Entropie-Veränderung der Umgebung ist jedoch anders.,

Wir können die Änderung der Entropie nur durch Integration der obigen Formel erhalten. Um den absoluten Wert der Entropie zu erhalten, benötigen wir den dritten Hauptsatz der Thermodynamik, der besagt, dass S = 0 bei absolutem Nullpunkt für perfekte Kristalle ist.

Aus makroskopischer Sicht wird in der klassischen Thermodynamik die Entropie als Zustandsfunktion eines thermodynamischen Systems interpretiert, dh als Eigenschaft, die nur vom aktuellen Zustand des Systems abhängt, unabhängig davon, wie dieser Zustand erreicht wurde., In jedem Prozess, in dem das System Energie ΔE abgibt und seine Entropie um ΔS fällt, muss eine Menge von mindestens TR ΔS dieser Energie als unbrauchbare Wärme an die Umgebung des Systems abgegeben werden (TR ist die Temperatur der äußeren Umgebung des Systems). Andernfalls kann der Prozess nicht fortgesetzt werden. In der klassischen Thermodynamik wird die Entropie eines Systems nur dann definiert, wenn es sich im thermodynamischen Gleichgewicht befindet.

Statistische Mechanikedit

Die statistische Definition wurde von Ludwig Boltzmann in den 1870er Jahren durch Analyse des statistischen Verhaltens der mikroskopischen Komponenten des Systems entwickelt., Boltzmann zeigte, dass diese Definition der Entropie der thermodynamischen Entropie innerhalb eines konstanten Faktors entsprach—bekannt als Boltzmanns Konstante. Zusammenfassend liefert die thermodynamische Definition der Entropie die experimentelle Definition der Entropie, während die statistische Definition der Entropie das Konzept erweitert und eine Erklärung und ein tieferes Verständnis seiner Natur liefert.,

Die Interpretation der Entropie in der statistischen Mechanik ist das Maß der Unsicherheit, oder mixedupness in der Phrase von Gibbs, die über ein System bleibt, nachdem seine beobachtbaren makroskopischen Eigenschaften, wie Temperatur, Druck und Volumen, berücksichtigt wurden. Für einen gegebenen Satz makroskopischer Variablen misst die Entropie den Grad, in dem die Wahrscheinlichkeit des Systems auf verschiedene mögliche Mikrostate verteilt ist., Im Gegensatz zum Makrozustand, der eindeutig beobachtbare Durchschnittsgrößen charakterisiert, gibt ein Mikrozustand alle molekularen Details über das System an, einschließlich der Position und Geschwindigkeit jedes Moleküls. Je mehr solche Zustände dem System mit nennenswerter Wahrscheinlichkeit zur Verfügung stehen, desto größer ist die Entropie. In der statistischen Mechanik ist Entropie ein Maß für die Anzahl der Arten, wie ein System angeordnet werden kann, oft als ein Maß für „Störung“ (je höher die Entropie, desto höher die Störung)., Diese Definition beschreibt die Entropie als proportional zum natürlichen Logarithmus der Anzahl möglicher mikroskopischer Konfigurationen der einzelnen Atome und Moleküle des Systems (Mikrostate), die den beobachteten makroskopischen Zustand (Makrostate) des Systems verursachen könnten. Die Proportionalitätskonstante ist die Boltzmann-Konstante.

Boltzmanns Konstante und damit Entropie haben Dimensionen der Energie geteilt durch Temperatur, die eine Einheit von Joule pro Kelvin (J⋅K−1) im Internationalen Einheitensystem (oder kg⋅m2⋅s−2⋅K−1 in Bezug auf Basiseinheiten) hat., Die Entropie einer Substanz wird üblicherweise als intensive Eigenschaft angegeben-entweder Entropie pro Masseneinheit (SI−Einheit: J⋅K−1⋅kg−1) oder Entropie pro Stoffeinheit (SI−Einheit: J⋅K-1⋅mol-1).,

Insbesondere ist die Entropie ein logarithmisches Maß für die Anzahl der Zustände mit signifikanter Wahrscheinlichkeit der Belegung:

S = − k B ∑ i p i log ⁡ p i, {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i},}

oder gleichwertig der erwartete Wert des Logarithmus der Wahrscheinlichkeit, dass ein Mikrozustand belegt ist

S = − k B ⟨ log ⁡ p ⟩ {\displaystyle S=-k_{\mathrm {B} }\langle \log p\rangle }

wobei kB die Boltzmann-Konstante ist, gleich 1.38065×10-23 J/K.,Die Summation ist über alle möglichen Mikrozustände des Systems, und pi ist die Wahrscheinlichkeit, dass das System im i-ten Mikrozustand ist. Diese Definition setzt voraus, dass der Basissatz von Zuständen ausgewählt wurde, so dass keine Informationen über ihre relativen Phasen vorliegen., In einer anderen Basismenge ist der allgemeinere Ausdruck

S = − k B Tr ⁡ ( ρ ^ log ⁡ ( ρ^)), {\displaystyle S=-k_{\mathrm {B} }\operatorname {Tr} ({\widehat {\rho }}\log({\widehat {\rho}})),}

wobei ρ ^ {\displaystyle {\widehat {\rho}} die Dichtematrix ist, Tr {\displaystyle \operatorname {Tr}} ist trace und log {\displaystyle \log } ist der Matrix-Logarithmus. Diese Dichtematrix-Formulierung wird bei thermischem Gleichgewicht nicht benötigt, solange die Basiszustände als Energieeigenstaaten gewählt werden., Für die meisten praktischen Zwecke kann dies als grundlegende Definition der Entropie angesehen werden, da alle anderen Formeln für S mathematisch daraus abgeleitet werden können, aber nicht umgekehrt.

In der sogenannten Grundannahme der statistischen Thermodynamik oder dem Grundpostulat in der statistischen Mechanik wird angenommen, dass die Besetzung eines Mikrozustands gleichermaßen wahrscheinlich ist (dh pi = 1/Ω, wobei Ω die Anzahl der Mikrozustände ist); Diese Annahme ist normalerweise für ein isoliertes System im Gleichgewicht gerechtfertigt. Dann reduziert sich die vorherige Gleichung auf

S = k B log Ω Ω ., {\displaystyle S=k_{\mathrm {B} }\log \Omega .}

In der Thermodynamik ist ein solches System eines, in dem das Volumen, die Anzahl der Moleküle und die innere Energie festgelegt sind (das mikrokanonische Ensemble).

Für ein gegebenes thermodynamisches System ist die überschüssige Entropie definiert als die Entropie minus der eines idealen Gases bei gleicher Dichte und Temperatur, eine Menge, die immer negativ ist, weil ein ideales Gas maximal ungeordnet ist. Dieses Konzept spielt eine wichtige Rolle in der Flüssigkeitstheorie., Zum Beispiel besagt Rosenfelds Überschussentropie-Skalierungsprinzip, dass reduzierte Transportkoeffizienten im gesamten zweidimensionalen Phasendiagramm Funktionen sind, die eindeutig durch die Überschussentropie bestimmt werden.

Die allgemeinste Interpretation der Entropie ist als Maß für unsere Unsicherheit über ein System. Der Gleichgewichtszustand eines Systems maximiert die Entropie, weil wir alle Informationen über die Anfangsbedingungen mit Ausnahme der konservierten Variablen verloren haben; Die Maximierung der Entropie maximiert unsere Unkenntnis über die Details des Systems., Diese Unsicherheit ist nicht alltäglich subjektiv, sondern die Unsicherheit, die der experimentellen Methode und dem Interpretationsmodell innewohnt.

Das interpretative Modell spielt eine zentrale Rolle bei der Bestimmung der Entropie. Das obige Qualifikationsmerkmal“ Für einen bestimmten Satz makroskopischer Variablen “ hat tiefe Auswirkungen: Wenn zwei Beobachter unterschiedliche Sätze makroskopischer Variablen verwenden, sehen sie unterschiedliche Entropien., Wenn beispielsweise Beobachter A die Variablen U, V und W verwendet und Beobachter B U, V, W, X verwendet, kann Beobachter B durch Ändern von X einen Effekt hervorrufen, der wie eine Verletzung des zweiten Hauptsatzes der Thermodynamik für Beobachter A aussieht A. Mit anderen Worten: Die Menge makroskopischer Variablen, die man auswählt, muss alles einschließen, was sich im Experiment ändern kann, sonst könnte man eine abnehmende Entropie sehen!

Die Entropie kann für alle Markov-Prozesse mit reversibler Dynamik und der Eigenschaft detailed balance definiert werden.,

In Boltzmanns Vorlesungen zur Gastheorie von 1896 zeigte er, dass dieser Ausdruck ein Maß für die Entropie von Systemen von Atomen und Molekülen in der Gasphase liefert und somit ein Maß für die Entropie der klassischen Thermodynamik darstellt.

Entropie eines Systems

Ein Temperatur-Entropie-Diagramm für Dampf. Die vertikale Achse repräsentiert eine gleichmäßige Temperatur und die horizontale Achse repräsentiert eine spezifische Entropie. Jede dunkle Linie in der Grafik repräsentiert einen konstanten Druck, und diese bilden ein Netz mit hellgrauen Linien mit konstantem Volumen., (Dunkelblau ist flüssiges Wasser, hellblau ist Flüssig-Dampf-Mischung und schwach-blau ist Dampf. Grau-Blau steht für überkritisches flüssiges Wasser.)

Entropie entsteht direkt aus dem Carnot-Zyklus. Es kann auch als reversible Wärme geteilt durch Temperatur beschrieben werden. Entropie ist eine grundlegende Funktion des Staates.

In einem thermodynamischen System neigen Druck, Dichte und Temperatur dazu, im Laufe der Zeit einheitlich zu werden, da der Gleichgewichtszustand eine höhere Wahrscheinlichkeit hat (mehr mögliche Kombinationen von Mikrostaten) als jeder andere Zustand.,

Bei einem Glas Eiswasser in Luft bei Raumtemperatur beginnt beispielsweise der Temperaturunterschied zwischen einem warmen Raum (der Umgebung) und einem kalten Glas Eis und Wasser (dem System und nicht einem Teil des Raums) auszugleichen, wenn sich Teile der Wärmeenergie aus der warmen Umgebung auf das kühlere System aus Eis und Wasser ausbreiten. Mit der Zeit werden die Temperatur des Glases und sein Inhalt sowie die Temperatur des Raumes gleich. Mit anderen Worten, die Entropie des Raumes hat abgenommen, da ein Teil seiner Energie auf Eis und Wasser verteilt wurde.,

Wie im Beispiel berechnet, hat die Entropie des Systems aus Eis und Wasser jedoch stärker zugenommen als die Entropie des umgebenden Raumes. In einem isolierten System wie dem Raum – und Eiswasser zusammengenommen führt die Verteilung der Energie von wärmer zu Kühler immer zu einem Nettoanstieg der Entropie. Wenn also das „Universum“ des Raum-und Eiswassersystems ein Temperaturgleichgewicht erreicht hat, ist die Entropieänderung vom Ausgangszustand maximal. Die Entropie des thermodynamischen Systems ist ein Maß dafür, wie weit der Ausgleich fortgeschritten ist.,

Die thermodynamische Entropie ist eine nicht konservierte Zustandsfunktion, die in den Wissenschaften der Physik und Chemie von großer Bedeutung ist. Historisch gesehen entwickelte sich das Konzept der Entropie, um zu erklären, warum einige Prozesse (erlaubt durch Naturschutzgesetze) spontan auftreten, während ihre Zeitumkehrungen (auch erlaubt durch Naturschutzgesetze) dies nicht tun; Systeme neigen dazu, in Richtung zunehmender Entropie voranzukommen. Bei isolierten Systemen nimmt die Entropie niemals ab., Diese Tatsache hat mehrere wichtige Konsequenzen in der Wissenschaft: Erstens verbietet sie „Perpetuum mobile“ Maschinen; und zweitens impliziert es, dass der Pfeil der Entropie die gleiche Richtung wie der Pfeil der Zeit hat. Erhöhungen der Entropie entsprechen irreversiblen Veränderungen in einem System, da ein Teil der Energie als Abwärme verbraucht wird, was die Menge an Arbeit begrenzt, die ein System leisten kann.

Im Gegensatz zu vielen anderen Zustandsfunktionen kann die Entropie nicht direkt beobachtet, sondern muss berechnet werden., Die Entropie kann für eine Substanz als standardmolare Entropie vom absoluten Nullpunkt (auch als absolute Entropie bezeichnet) oder als Differenz der Entropie von einem anderen als Nullentropie definierten Referenzzustand berechnet werden. Die Entropie hat die Dimension der Energie geteilt durch die Temperatur, die im Internationalen Einheitensystem eine Einheit von Joule pro Kelvin (J/K) aufweist. Während dies die gleichen Einheiten wie die Wärmekapazität sind, unterscheiden sich die beiden Konzepte., Entropie ist keine konservierte Menge: Beispielsweise kann in einem isolierten System mit ungleichmäßiger Temperatur Wärme irreversibel fließen und die Temperatur gleichmäßiger werden, so dass die Entropie zunimmt. Der zweite Hauptsatz der Thermodynamik besagt, dass ein geschlossenes System eine Entropie aufweist, die zunehmen oder auf andere Weise konstant bleiben kann. Chemische Reaktionen verursachen Veränderungen in der Entropie und Entropie spielt eine wichtige Rolle bei der Bestimmung, in welche Richtung eine chemische Reaktion spontan abläuft.,

Eine Wörterbuchdefinition der Entropie ist, dass es sich um „ein Maß für die Wärmeenergie pro Temperatureinheit handelt, das für nützliche Arbeiten nicht verfügbar ist“. Zum Beispiel ist eine Substanz bei gleichmäßiger Temperatur bei maximaler Entropie und kann keine Wärmekraftmaschine antreiben. Eine Substanz bei ungleichmäßiger Temperatur ist bei einer niedrigeren Entropie (als wenn die Wärmeverteilung ausgeglichen werden darf) und ein Teil der Wärmeenergie kann eine Wärmekraftmaschine antreiben.

Ein besonderer Fall von Entropieanstieg, die Entropie des Mischens, tritt auf, wenn zwei oder mehr verschiedene Substanzen gemischt werden., Wenn die Substanzen die gleiche Temperatur und den gleichen Druck haben, gibt es keinen Nettoaustausch von Wärme oder Arbeit – die Entropieänderung ist vollständig auf das Mischen der verschiedenen Substanzen zurückzuführen. Auf statistischer mechanischer Ebene ergibt sich dies aufgrund der Änderung des verfügbaren Volumens pro Partikel mit Mischen.,

Äquivalenz der Definitionedit

Äquivalenznachweise zwischen der Definition der Entropie in der statistischen Mechanik (die Gibbs − Entropieformel S = -k B ∑ i p i log ⁡ p i {\displaystyle S=–k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i}} ) und in der klassischen Thermodynamik ( d S = δ Q rev T {\displaystyle dS={\frac {\delta Q_{\text{rev}}}{T}} zusammen mit der grundlegenden thermodynamischen Beziehung) sind für das mikrokanonische Ensemble, das kanonische Ensemble, das Grand canonical Ensemble und das isothermal-isobare Ensemble bekannt., Diese Beweise basieren auf der Wahrscheinlichkeitsdichte von Mikrostaten der verallgemeinerten Boltzmann-Verteilung und der Identifizierung der thermodynamischen inneren Energie als Ensembledurchschnitt U = ⟨ E i ⟩ {\displaystyle U=\left\langle E_{i}\right\rangle } . Thermodynamische Beziehungen werden dann verwendet, um die bekannte Gibbs-Entropie-Formel abzuleiten. Die Äquivalenz zwischen der Gibbs-Entropie-Formel und der thermodynamischen Definition der Entropie ist jedoch keine fundamentale thermodynamische Beziehung, sondern eine Folge der Form der generalisierten Boltzmann-Verteilung.