Willard Gibbs, metody graficzne w termodynamice płynów
pojęcie entropii jest opisane przez dwa główne podejścia, makroskopową perspektywę termodynamiki klasycznej i mikroskopowy opis centralny do mechaniki statystycznej., Klasyczne podejście definiuje entropię pod względem mierzalnych makroskopowo właściwości fizycznych, takich jak masa, objętość, ciśnienie i temperatura. Statystyczna definicja entropii określa ją w kategoriach statystyk ruchów mikroskopowych składników układu-modelowanych początkowo klasycznie, np. cząstek newtonowskich tworzących gaz, a później kwantowo-mechanicznie (fotonów, fononów, spinów itp.)., Oba podejścia tworzą spójny, jednolity pogląd na to samo zjawisko, co wyrażone w drugiej zasadzie termodynamiki, która znalazła uniwersalne zastosowanie do procesów fizycznych.
funkcja stanu
wiele właściwości termodynamicznych ma szczególną cechę, ponieważ tworzą zbiór zmiennych fizycznych określających stan równowagi; są funkcjami stanu. Często, jeśli dwie właściwości układu są określone, wtedy określa się stan i można również określić wartości innych właściwości., Na przykład, ilość gazu w określonej temperaturze i ciśnieniu ma swój stan ustalony przez te wartości, a zatem ma określoną objętość, która jest określona przez te wartości. Innym przykładem jest układ złożony z czystej substancji jednofazowej o określonej jednorodnej temperaturze i ciśnieniu (a więc jest szczególnym stanem) i jest nie tylko określoną objętością, ale także określoną entropią. Fakt, że entropia jest funkcją stanu, jest jednym z powodów, dla których jest przydatna., W cyklu Carnota ciecz robocza powraca do tego samego stanu, który miał na początku cyklu, stąd Całka liniowa dowolnej funkcji stanu, takiej jak Entropia, w tym odwracalnym cyklu jest równa zeru.
proces odwracalny
Entropia jest zachowana dla procesu odwracalnego. Proces odwracalny to taki, który nie odbiega od równowagi termodynamicznej, wytwarzając jednocześnie maksimum pracy. Każdy proces, który zachodzi wystarczająco szybko, aby odbiegać od równowagi termicznej, nie może być odwracalny., W takich przypadkach energia jest tracona na ciepło, całkowita Entropia wzrasta, a potencjał maksymalnej pracy do wykonania w okresie przejściowym również jest tracony. Entropia całkowita jest zachowywana w procesie odwracalnym, a nie w procesie nieodwracalnym., Na przykład w cyklu Carnota, podczas gdy przepływ ciepła z gorącego zbiornika do zimnego zbiornika reprezentuje wzrost entropii, wydajność pracy, jeśli odwracalnie i doskonale przechowywana w pewnym mechanizmie magazynowania energii, stanowi spadek entropii, która może być wykorzystana do pracy silnika cieplnego w odwrotnym kierunku i powrotu do poprzedniego stanu, a zatem całkowita zmiana entropii jest nadal zerowa przez cały czas, jeśli cały proces jest odwracalny. Nieodwracalny proces zwiększa entropię.
cykl Carnota
koncepcja entropii powstała w wyniku badań Rudolfa Clausiusa nad cyklem Carnota., W cyklu Carnota ciepło QH jest absorbowane izotermicznie w temperaturze TH ze zbiornika „gorącego” i oddawane izotermicznie jako ciepło QC do zbiornika „zimnego” w TC. Zgodnie z zasadą Carnota praca może być wytwarzana przez system tylko wtedy, gdy występuje różnica temperatur, a praca powinna być pewną funkcją różnicy temperatury i pochłoniętego ciepła (QH)., Carnot nie rozróżnił QH i QC, ponieważ używał błędnej hipotezy, że teoria kaloryczna jest ważna, a zatem ciepło było zachowywane (błędne założenie, że QH i QC są równe), gdy w rzeczywistości QH jest większe niż QC., Dzięki staraniom Clausiusa i Kelvina wiadomo, że maksymalna praca, jaką może wykonać silnik cieplny, jest iloczynem wydajności Carnota i ciepła pochłoniętego ze zbiornika gorącego:
aby uzyskać wydajność Carnota, która wynosi 1 − TC / TH (liczba mniejsza niż jedna), Kelvin musiał ocenić stosunek wydajności pracy do ciepła pochłoniętego podczas ekspansji izotermicznej za pomocą równania Carnota–Clapeyrona, które zawierało nieznaną funkcję zwaną funkcją Carnota., Możliwość, że funkcja Carnota może być temperaturą mierzoną od temperatury zerowej, została zasugerowana przez Joule ' a w liście do Kelvina. To pozwoliło Kelvinowi ustalić jego absolutną skalę temperatury.,div>
td
(2)
ponieważ ta ostatnia jest ważna przez cały cykl, dało to clausiusowi wskazówkę, że na każdym etapie cyklu praca i ciepło nie będą równe, ale raczej ich różnica będzie funkcją stanu, która zniknie po zakończeniu cyklu., Funkcja stanu została nazwana energią wewnętrzną i stała się pierwszym prawem termodynamiki.
teraz zrównanie (1) i (2) daje
Q H T H − Q C T C = 0 {\displaystyle {\frac {Q_{\text{H}}}} {T_{\text{C}}}}=0}
lub
Q H T H = Q C T C{\displaystyle {\frac {q_ {\text{h}}} {t_ {\text {H}}}={\frac {Q_{\text{c}}}{T_{\text{C}}}}}
oznacza to, że istnieje funkcja stanu, która jest zachowana w całym cyklu Carnota. Clausius nazwał ten stan entropią funkcji., Widać, że entropia została odkryta przez matematykę, a nie przez wyniki laboratoryjne. Jest to konstrukcja matematyczna i nie ma łatwej analogii fizycznej. To sprawia, że pojęcie jest nieco niejasne lub abstrakcyjne, podobne do tego, jak powstało pojęcie energii.
Clausius zapytał wtedy, co by się stało, gdyby system wyprodukował mniej pracy niż przewidywała zasada Carnota.,<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}}\right)Q_{\text{H}}}
gdy drugie równanie jest używane do wyrażenia pracy jako różnicy temperatur, otrzymujemy
Q H − Q c < ( 1 − T C T h ) q h {\displaystyle q_{\text{h}}-q_{\text{c}}<\left(1-{\frac {T_{\text{c}}} {T_{\text{H}}}}\right)q_{\text{H}}} lub q c > T C T h q h {\displaystyle q_{\text{c}}>{\frac {T_{\text{c}}} {T_{\text{h}}}} q_{\text{h}}}
tak więc więcej ciepła jest oddawane do zimnego zbiornika niż w cyklu Carnota., Jeśli dla dwóch stanów oznaczamy entropie przez Si = Qi/Ti, to powyższa nierówność może być zapisana jako spadek entropii
S H − S C < 0 {\displaystyle s_{\text{H}}-s_{\text{C}}<0} lub S H < s c {\displaystyle S_{\text{H}}<S_{\text{c}}}
Entropia, która opuszcza układ, jest większa niż Entropia, która wchodzi do układu, co oznacza, że jakiś nieodwracalny proces uniemożliwia cyklowi wyprodukowanie maksymalnej ilości pracy przewidywanej przez równanie Carnota.,
cykl Carnota i sprawność są użyteczne, ponieważ określają górną granicę możliwej wydajności pracy i sprawność dowolnego klasycznego układu termodynamicznego. Inne cykle, takie jak cykl Otto, cykl Diesla i cykl Braytona, mogą być analizowane z punktu widzenia cyklu Carnota. Każda maszyna lub proces, który przekształca ciepło w pracę i twierdzi się, że wytwarza sprawność większą niż sprawność Carnota, nie jest opłacalna, ponieważ narusza drugie prawo termodynamiki. Dla bardzo małej liczby cząstek w układzie należy zastosować termodynamikę statystyczną., Wydajność urządzeń takich jak ogniwa fotowoltaiczne wymaga analizy z punktu widzenia mechaniki kwantowej.
Termodynamika Klasycznaedytuj
termodynamiczna definicja entropii została opracowana we wczesnych latach pięćdziesiątych XX wieku przez Rudolfa Clausiusa i zasadniczo opisuje, jak zmierzyć entropię izolowanego układu w równowadze termodynamicznej z jego częściami. Clausius stworzył termin Entropia jako obszerną zmienną termodynamiczną, która okazała się przydatna w charakteryzowaniu cyklu Carnota., Przepływ ciepła wzdłuż izoterm cyklu Carnota okazał się być proporcjonalny do temperatury układu (znanej jako jego temperatura bezwzględna). Zależność ta została wyrażona w przyrostach entropii równej stosunkowi przyrostowego transferu ciepła podzielonego przez temperaturę, która okazała się zmieniać w cyklu termodynamicznym, ale ostatecznie powrócić do tej samej wartości na końcu każdego cyklu. W ten sposób stwierdzono, że jest funkcją stanu, a konkretnie stanu termodynamicznego układu.,
chociaż Clausius oparł swoją definicję na procesie odwracalnym, istnieją również procesy nieodwracalne, które zmieniają entropię. Zgodnie z drugim prawem termodynamiki Entropia układu izolowanego zawsze wzrasta dla procesów nieodwracalnych. Różnica między układem izolowanym a układem zamkniętym polega na tym, że ciepło nie może przepływać do i z układu izolowanego, ale przepływ ciepła do i z układu zamkniętego jest możliwy. Niemniej jednak, zarówno w układach zamkniętych, jak i izolowanych, a nawet w układach otwartych, mogą wystąpić nieodwracalne procesy termodynamiczne.,
możemy więc zdefiniować funkcję stanu s zwaną entropią, która spełnia d S = δ Q rev T . {\displaystyle dS={\frac {\delta Q_ {\text{rev}}} {T}}.}
aby znaleźć różnicę entropii pomiędzy dowolnymi dwoma stanami układu, Całka musi być oceniona dla pewnej odwracalnej ścieżki między Stanami początkowymi i końcowymi. Ponieważ Entropia jest funkcją stanu, zmiana entropii układu dla ścieżki nieodwracalnej jest taka sama jak dla ścieżki odwracalnej między tymi samymi dwoma stanami. Jednak zmiana entropii otoczenia jest inna.,
zmianę entropii możemy uzyskać tylko poprzez całkowanie powyższego wzoru. Aby otrzymać wartość bezwzględną entropii, potrzebujemy trzeciego prawa termodynamiki, które mówi, że S = 0 przy zero absolutnym dla kryształów doskonałych.
w termodynamice klasycznej Entropia jest interpretowana jako funkcja stanu układu termodynamicznego, czyli właściwość zależna tylko od aktualnego stanu układu, niezależna od sposobu osiągnięcia tego stanu., W każdym procesie, w którym układ oddaje energię ΔE, a jego Entropia spada o ΔS, ilość co najmniej TR ΔS tej energii musi być oddana do otoczenia układu jako ciepło bezużyteczne (TR jest temperaturą zewnętrznego otoczenia układu). W przeciwnym razie proces nie może iść do przodu. W termodynamice klasycznej Entropia układu jest zdefiniowana tylko wtedy, gdy znajduje się w równowadze termodynamicznej.
mechanizmy Statystyczneedytuj
definicja statystyczna została opracowana przez Ludwiga Boltzmanna w 1870 roku poprzez analizę zachowania statystycznego mikroskopijnych składników systemu., Boltzmann wykazał, że ta definicja entropii jest równoważna entropii termodynamicznej do czynnika stałego—znanego jako stała Boltzmanna. Podsumowując, termodynamiczna definicja entropii dostarcza eksperymentalnej definicji entropii, podczas gdy statystyczna definicja entropii rozszerza pojęcie, dostarczając wyjaśnienia i głębszego zrozumienia jego natury.,
interpretacja entropii w mechanice statystycznej jest miarą niepewności lub pomieszania w frazie Gibbsa, która pozostaje wokół układu po uwzględnieniu jego obserwowalnych właściwości makroskopowych, takich jak temperatura, ciśnienie i objętość. Dla danego zbioru zmiennych makroskopowych Entropia mierzy stopień, w jakim prawdopodobieństwo układu jest rozłożone na różne możliwe mikrostaty., W przeciwieństwie do makrostatu, który charakteryzuje wyraźnie obserwowalne wielkości średnie, mikrostat określa wszystkie szczegóły molekularne dotyczące układu, w tym położenie i prędkość każdej cząsteczki. Im więcej takich stanów jest dostępnych dla systemu z dużym prawdopodobieństwem, tym większa Entropia. W mechanice statystycznej Entropia jest miarą liczby sposobów ułożenia układu, często traktowaną jako miara „zaburzenia” (im wyższa Entropia, tym wyższe zaburzenie)., Definicja ta opisuje entropię jako proporcjonalną do naturalnego logarytmu liczby możliwych konfiguracji mikroskopowych poszczególnych atomów i cząsteczek układu (mikrostatów), które mogłyby spowodować obserwowany stan makroskopowy (makrostat) układu. Stałą proporcjonalności jest stała Boltzmanna.
stała Boltzmanna, a więc Entropia, ma wymiary energii podzielone przez temperaturę, która ma jednostkę dżuli na kelwin (J⋅K-1) w Międzynarodowym układzie jednostek (lub kg⋅m2 s s−2⋅K−1 w kategoriach jednostek podstawowych)., Entropia substancji jest zwykle podawana jako własność intensywna-Entropia na jednostkę masy (jednostka SI: J⋅K−1 kg kg−1) lub Entropia na jednostkę ilości substancji (jednostka SI: J⋅K−1⋅mol-1).,
Entropia jest logarytmiczną miarą liczby stanów o znacznym prawdopodobieństwie zajętości:
S = − k B ∑ I P I log P i, {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log P_{i},}
lub, równoważnie, wartość oczekiwaną logarytmu prawdopodobieństwa zajętości mikrostanu
S = − k b ⟨ log p {{\displaystyle S=-K_ {\mathrm {B} }\Langle \log p\rangle }
gdzie Kb jest stałą Boltzmanna, równą 1,38065×10-23 J/K.,Suma jest ponad wszystkimi możliwymi mikrostatami układu, A pi jest prawdopodobieństwem, że układ znajduje się w i-tym mikrostacie. Definicja ta zakłada, że podstawowy zbiór stanów został tak dobrany, że nie ma informacji o ich względnych fazach., W innym zbiorze podstawowym bardziej ogólnym wyrażeniem jest
S = − k B Tr ( ρ ^ log ( ρ^)), {\displaystyle S=-k_{\mathrm {B} }\operatorname {Tr} ({\widehat {\Rho }}\log({\widehat {\Rho}})),}
Gdzie ρ ^ {\displaystyle {\widehat {\Rho}}}} jest macierzą gęstości, Tr {\displaystyle \operatorname {tr}} to ślad, a log {\displaystyle \Log} to logarytm macierzy. Ta formuła macierzy gęstości nie jest potrzebna w przypadkach równowagi termicznej tak długo, jak Stany bazowe są wybierane jako eigenstates energii., Dla najbardziej praktycznych celów można to przyjąć jako podstawową definicję entropii, ponieważ wszystkie inne formuły dla S mogą być matematycznie wyprowadzone z niej, ale nie odwrotnie.
w tym, co zostało nazwane fundamentalnym założeniem termodynamiki statystycznej lub podstawowym postulatem mechaniki statystycznej, zajęcie dowolnego mikrostatu przyjmuje się za równie prawdopodobne (tj. pi = 1 / Ω, gdzie Ω jest liczbą mikrostatów); założenie to jest zwykle uzasadnione dla izolowanego układu w równowadze. Następnie poprzednie równanie zmniejsza się do
S = k b log Ω Ω ., {\displaystyle S=k_ {\mathrm {B}} \ log \ Omega .
w termodynamice taki układ to taki, w którym stała się objętość, liczba cząsteczek i energia wewnętrzna (zespół mikrokanoniczny).
dla danego układu termodynamicznego entropię nadmiarową definiuje się jako entropię pomniejszoną o entropię gazu idealnego o tej samej gęstości i temperaturze, która jest zawsze ujemna, ponieważ gaz idealny jest maksymalnie nieuporządkowany. Pojęcie to odgrywa ważną rolę w teorii stanu ciekłego., Na przykład zasada skalowania nadmiaru entropii Rosenfelda mówi, że zredukowane współczynniki transportu w dwuwymiarowym diagramie fazowym są funkcjami jednoznacznie wyznaczonymi przez nadmiar entropii.
najbardziej ogólna interpretacja entropii jest miarą naszej niepewności co do układu. Stan równowagi systemu maksymalizuje entropię, ponieważ utraciliśmy wszystkie informacje o warunkach początkowych z wyjątkiem zachowanych zmiennych; maksymalizacja entropii maksymalizuje naszą niewiedzę o szczegółach systemu., Ta niepewność nie jest codziennym subiektywnym rodzajem, ale raczej niepewnością nieodłączną metodzie eksperymentalnej i modelowi interpretacyjnemu.
model interpretacyjny odgrywa centralną rolę w określaniu entropii. Powyższy kwalifikator” dla danego zbioru zmiennych makroskopowych ” ma głębokie implikacje: jeśli dwóch obserwatorów używa różnych zestawów zmiennych makroskopowych, widzą różne entropie., Na przykład, jeśli obserwator A używa zmiennych U, V i w, a obserwator B używa U, V, W, X, to zmieniając x, obserwator B może spowodować efekt, który wygląda na naruszenie drugiego prawa termodynamiki do obserwatora A. innymi słowy: zestaw zmiennych makroskopowych, które wybierzemy musi zawierać wszystko, co może się zmienić w eksperymencie, w przeciwnym razie można zobaczyć malejącą entropię!
entropię można zdefiniować dla dowolnych procesów Markowa o dynamice odwracalnej i własności równowagi szczegółowej.,
w wykładach Boltzmanna z 1896 roku na temat teorii gazów wykazał, że wyrażenie to daje miarę entropii układów atomów i cząsteczek w fazie gazowej, zapewniając tym samym miarę entropii klasycznej termodynamiki.
Entropia systemu
diagram entropii temperatury dla pary. Oś pionowa reprezentuje jednolitą temperaturę, a oś pozioma reprezentuje określoną entropię. Każda ciemna linia na wykresie reprezentuje stałe ciśnienie, a te tworzą siatkę z jasnoszarymi liniami o stałej objętości., (Ciemnoniebieski to płynna woda, Jasnoniebieski to mieszanina ciecz-para, a Jasnoniebieski to para. Szaro-niebieski reprezentuje nadkrytyczną ciekłą wodę.)
Entropia powstaje bezpośrednio z cyklu Carnota. Można go również opisać jako odwracalne ciepło podzielone przez temperaturę. Entropia jest podstawową funkcją Państwa.
w układzie termodynamicznym ciśnienie, gęstość i temperatura stają się z czasem jednolite, ponieważ stan równowagi ma większe prawdopodobieństwo (więcej możliwych kombinacji mikrostatów) niż jakikolwiek inny stan.,
jako przykład, dla szklanki wody lodowej w powietrzu w temperaturze pokojowej, różnica w temperaturze między ciepłym pomieszczeniu (otoczenie) i zimnej szklanki lodu i wody (system, a nie część pokoju), zaczyna się wyrównywać, jak części energii cieplnej z ciepłego otoczenia rozprzestrzenia się do chłodniejszego systemu lodu i wody. Z czasem temperatura szkła i jego zawartość oraz temperatura pomieszczenia stają się równe. Innymi słowy, Entropia pomieszczenia zmniejszyła się, ponieważ część jego energii została rozproszona na lód i wodę.,
jednak, jak obliczono w przykładzie, Entropia układu lodu i wody wzrosła bardziej niż Entropia otaczającego pokoju zmniejszyła się. W odizolowanym układzie, takim jak pomieszczenie i woda lodowa wzięte razem, rozproszenie energii z cieplejszego do chłodniejszego zawsze powoduje wzrost entropii netto. Tak więc, gdy „Wszechświat” pokoju i systemu wody lodowej osiągnie równowagę temperaturową, zmiana entropii w stosunku do stanu początkowego jest na maksimum. Entropia układu termodynamicznego jest miarą stopnia zaawansowania równania.,
Entropia termodynamiczna jest niezachowaną funkcją stanu, która ma ogromne znaczenie w naukach fizyki i chemii. Historycznie pojęcie entropii ewoluowało, aby wyjaśnić, dlaczego niektóre procesy (dozwolone przez prawa ochrony) zachodzą spontanicznie, podczas gdy ich odwrócenia czasu (również dozwolone przez prawa ochrony) nie; systemy mają tendencję do postępu w kierunku rosnącej entropii. W przypadku układów izolowanych Entropia nigdy się nie zmniejsza., Fakt ten ma kilka ważnych konsekwencji w nauce: po pierwsze, zakazuje maszyn „Perpetuum Mobile”, a po drugie, implikuje, że strzałka entropii ma ten sam kierunek, co strzałka czasu. Wzrost entropii odpowiada nieodwracalnym zmianom w układzie, ponieważ część energii zużywana jest jako ciepło odpadowe, ograniczając ilość pracy jaką może wykonać układ.
W przeciwieństwie do wielu innych funkcji stanu, entropii nie można bezpośrednio obserwować, ale trzeba ją obliczyć., Entropia może być obliczona dla substancji jako standardowa Entropia molowa od zera bezwzględnego (znana również jako Entropia absolutna) lub jako różnica w entropii od jakiegoś innego stanu odniesienia zdefiniowanego jako Entropia zerowa. Entropia ma wymiar energii podzielony przez temperaturę, która ma jednostkę dżuli na kelwin (J / K) w Międzynarodowym układzie jednostek. Chociaż są to te same jednostki co pojemność cieplna, te dwa pojęcia są różne., Entropia nie jest zachowaną ilością: na przykład, w układzie izolowanym o niejednorodnej temperaturze, ciepło może płynąć nieodwracalnie, a temperatura staje się bardziej jednolita, tak że entropia wzrasta. Drugie prawo termodynamiki mówi, że układ zamknięty ma entropię, która może wzrastać lub w inny sposób pozostawać stała. Reakcje chemiczne powodują zmiany w entropii i Entropia odgrywa ważną rolę w określaniu, w którym kierunku przebiega reakcja chemiczna spontanicznie.,
jedna ze słownikowych definicji entropii mówi, że jest to „miara energii cieplnej na jednostkę temperatury, która nie jest dostępna do użytecznej pracy”. Na przykład substancja o jednolitej temperaturze ma maksymalną entropię i nie może napędzać silnika cieplnego. Substancja w niejednorodnej temperaturze ma niższą entropię (niż w przypadku, gdy rozkład ciepła jest dozwolony), a część energii cieplnej może napędzać silnik cieplny.
szczególny przypadek wzrostu entropii, entropii mieszania, występuje, gdy zmieszane są dwie lub więcej różnych substancji., Jeśli substancje znajdują się w tej samej temperaturze i ciśnieniu, nie ma netto wymiany ciepła lub pracy – zmiana entropii jest całkowicie spowodowana mieszaniem różnych substancji. Na statystycznym poziomie mechanicznym wynika to ze zmiany dostępnej objętości na cząstkę przy mieszaniu.,
równoważność definicjedytuj
dowody równoważności między definicją entropii w mechanice statystycznej (wzór entropii Gibbsa S = − k B ∑ I P I log p i {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log P_{i}} ) i w termodynamice klasycznej ( d s = δ Q rev T {\displaystyle DS={\frac {\delta q_{\text{Rev}}}{T}}} wraz z fundamentalną relacją termodynamiczną) są znane z zespołu mikrokanonicznego, zespołu kanonicznego, wielkiego zespołu Kanonicznego i zespołu izotermiczno–izobarycznego., Dowody te opierają się na gęstości prawdopodobieństwa mikrostatów uogólnionego rozkładu Boltzmanna i identyfikacji termodynamicznej energii wewnętrznej jako średniej zespolonej U = E E i ⟩ {\displaystyle U=\left\langle E_{i}\right\rangle } . Relacje termodynamiczne są następnie wykorzystywane do wyprowadzenia znanego wzoru entropii Gibbsa. Jednak równoważność między wzorem entropii Gibbsa a termodynamiczną definicją entropii nie jest podstawową relacją termodynamiczną, lecz raczej konsekwencją postaci uogólnionego rozkładu Boltzmanna.