Orice metodă care implică noțiunea de entropie, existența de care depinde în cea de-a doua lege a termodinamicii, fără îndoială va părea pentru mulți exagerată, și poate respinge incepatori la fel de obscur și dificil de înțelegere.conceptul de entropie este descris de două abordări principale, perspectiva macroscopică a termodinamicii clasice și descrierea microscopică centrală a mecanicii statistice., Abordarea clasică definește entropia în termeni de proprietăți fizice măsurabile macroscopic, cum ar fi masa în vrac, volumul, presiunea și temperatura. Definiția statistică a entropiei o definește în termeni de statistici ale mișcărilor constituenților microscopici ai unui sistem modelat la început clasic, de exemplu particule newtoniene care constituie un gaz, iar mai târziu cuantic – mecanic (fotoni, fononi, rotiri etc.)., Cele două abordări formează o viziune consecventă și unificată a aceluiași fenomen exprimat în a doua lege a termodinamicii, care a găsit aplicabilitate universală proceselor fizice.multe proprietăți termodinamice au o caracteristică specială prin faptul că formează un set de variabile fizice care definesc o stare de echilibru; ele sunt funcții de stare. Adesea, dacă se determină două proprietăți ale sistemului, atunci starea este determinată și valorile celorlalte proprietăți pot fi, de asemenea, determinate., De exemplu, o cantitate de gaz la o anumită temperatură și presiune are starea sa stabilită de aceste valori și, prin urmare, are un volum specific care este determinat de aceste valori. Ca un alt exemplu, se determină un sistem compus dintr-o substanță pură dintr-o singură fază la o anumită temperatură și presiune uniformă (și este astfel o stare particulară) și este nu numai la un anumit volum, ci și la o anumită entropie. Faptul că entropia este o funcție de stat este un motiv pentru care este util., În ciclul Carnot, fluidul de lucru revine la aceeași stare pe care o avea la începutul ciclului, prin urmare, integrala liniei oricărei funcții de stare, cum ar fi entropia, pe acest ciclu reversibil este zero.

proces Reversibiledit

entropia este conservată pentru un proces reversibil. Un proces reversibil este unul care nu se abate de la echilibrul termodinamic, producând în același timp munca maximă. Orice proces care se întâmplă suficient de repede pentru a se abate de la echilibrul termic nu poate fi reversibil., În aceste cazuri, energia se pierde la căldură, entropia totală crește, iar potențialul de muncă maximă care trebuie făcut în tranziție este, de asemenea, pierdut. Mai exact, entropia totală este conservată într-un proces reversibil și nu conservată într-un proces ireversibil., De exemplu, în ciclul Carnot, în timp ce fluxul de căldură din rezervor la rece rezervor reprezintă o creștere de entropie, activitatea de ieșire, dacă reversibil și perfect stocate într-un mecanism de stocare a energiei, reprezintă o scădere de entropie care ar putea fi utilizate pentru a opera motor termic în marșarier și a reveni la starea anterioară, astfel totală a variatiei entropiei este zero în orice moment, dacă întregul proces este reversibil. Un proces ireversibil crește entropia.

ciclul Carnotedit

conceptul de entropie a apărut din studiul lui Rudolf Clausius asupra ciclului Carnot., Într-un ciclu Carnot, căldură, QH este absorbit isothermally la temperatura LEA dintr-o „fierbinte” rezervor și dat isothermally de căldură QC la un „rece” rezervor la TC. Conform principiului lui Carnot, munca poate fi produsă de sistem numai atunci când există o diferență de temperatură, iar lucrarea ar trebui să fie o funcție a diferenței de temperatură și a căldurii absorbite (QH)., Carnot nu a făcut distincția între QH și QC, deoarece folosea ipoteza incorectă că teoria calorică era valabilă și, prin urmare, căldura era conservată (presupunerea incorectă că QH și QC erau egale) când, de fapt, QH este mai mare decât QC., Prin eforturile lui Clausius și Kelvin, se știe acum că munca maximă pe care o poate produce un motor termic este produsul eficienței Carnot și al căldurii absorbite din rezervorul fierbinte:

pentru a obține eficiența Carnot, care este 1 − TC/TH (un număr mai mic de unul), Kelvin a trebuit să evalueze raportul dintre producția de lucru și căldura absorbită în timpul expansiunii izotermice cu ajutorul ecuației Carnot–Clapeyron, care conținea o funcție necunoscută numită funcția Carnot., Posibilitatea ca funcția Carnot să fie temperatura măsurată de la o temperatură zero, a fost sugerată de Joule într-o scrisoare către Kelvin. Acest lucru ia permis lui Kelvin să-și stabilească scara absolută a temperaturii.,div>

(2)

Deoarece aceasta din urmă este valabilă pe întreaga durată a ciclului, acest lucru a dat Clausius indiciu că, la fiecare etapă a ciclului, de muncă și de căldură nu ar fi egale, ci mai degrabă diferența lor ar fi o funcție a statului care ar dispărea la finalizarea ciclului., Funcția de stat a fost numită energia internă și a devenit prima lege a termodinamicii.

Acum echivalarea (1) și (2) oferă

Q H T H − Q C T C = 0 {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}-{\frac {Q_{\text{C}}}{T_{\text{C}}}}=0}

sau

Q H T H = Q C T C {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}={\frac {Q_{\text{C}}}{T_{\text{C}}}}}

Acest lucru implică faptul că există o funcție de stare care este conservată pe un ciclu complet de ciclul Carnot. Clausius a numit această entropie a funcției de stat., Se poate observa că entropia a fost descoperită mai degrabă prin matematică decât prin rezultatele de laborator. Este o construcție matematică și nu are o analogie fizică ușoară. Acest lucru face ca conceptul să fie oarecum obscur sau abstract, asemănător cu modul în care a apărut conceptul de energie.Clausius a întrebat apoi ce s-ar întâmpla dacă ar exista mai puțină muncă produsă de sistem decât cea prezisă de principiul lui Carnot.,<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\right)Q_{\text{H}}}

atunci Când cea de-a doua ecuație este folosit pentru a exprima activitatea ca o diferență în incalzeste, ajungem

Q H − Q C < ( 1 − T C T H ) Q H {\displaystyle Q_{\text{H}}-Q_{\text{C}}<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\right)Q_{\text{H}}} sau Q C > T C T H Q H {\displaystyle Q_{\text{C}}>{\frac {T_{\text{C}}}{T_{\text{H}}}}Q_{\text{H}}}

Deci, mai multă căldură este dat la rece rezervor decât în ciclul Carnot., Dacă notăm entropies de Si = Qi/Ti pentru cele două state, atunci inegalitatea de mai sus poate fi scris ca o scădere a entropiei

S H S C < 0 {\displaystyle S_{\text{H}}-S_{\text{C}}<0} sau S H < S C {\displaystyle S_{\text{H}}<S_{\text{C}}}

entropia care părăsește sistemul este mai mare decât entropia care intră în sistem, ceea ce înseamnă că un proces ireversibil previne ciclu de produc suma maximă de lucru a prezis de către Carnot ecuație.,ciclul și eficiența Carnot sunt utile deoarece definesc limita superioară a producției posibile de lucru și eficiența oricărui sistem termodinamic clasic. Alte cicluri, cum ar fi ciclul Otto, ciclul Diesel și ciclul Brayton, pot fi analizate din punctul de vedere al ciclului Carnot. Orice mașină sau proces care transformă căldura în muncă și se pretinde că produce o eficiență mai mare decât eficiența Carnot nu este viabilă, deoarece încalcă a doua lege a termodinamicii. Pentru un număr foarte mic de particule din sistem, trebuie utilizată termodinamica statistică., Eficiența dispozitivelor precum celulele fotovoltaice necesită o analiză din punctul de vedere al mecanicii cuantice.definiția termodinamică a entropiei a fost dezvoltată la începutul anilor 1850 de Rudolf Clausius și descrie în esență modul de măsurare a entropiei unui sistem izolat în echilibru termodinamic cu părțile sale. Clausius a creat termenul entropie ca o variabilă termodinamică extinsă care sa dovedit a fi utilă în caracterizarea ciclului Carnot., Transferul de căldură de-a lungul treptelor izoterme ale ciclului Carnot s-a dovedit a fi proporțional cu temperatura unui sistem (cunoscut sub numele de temperatura sa absolută). Această relație a fost exprimată în trepte de entropie egale cu raportul transferului de căldură incremental împărțit la temperatură, care s-a dovedit a varia în ciclul termodinamic, dar în cele din urmă a reveni la aceeași valoare la sfârșitul fiecărui ciclu. Astfel, sa dovedit a fi o funcție de stare, în special o stare termodinamică a sistemului.,în timp ce Clausius și-a bazat definiția pe un proces reversibil, există și procese ireversibile care schimbă entropia. În urma celei de-a doua legi a termodinamicii, entropia unui sistem izolat crește întotdeauna pentru procese ireversibile. Diferența dintre un sistem izolat și un sistem închis este că căldura nu poate curge către și de la un sistem izolat, dar fluxul de căldură către și de la un sistem închis este posibil. Cu toate acestea, atât pentru sistemele închise, cât și pentru cele izolate și, într-adevăr, și în sistemele deschise, pot apărea procese termodinamice ireversibile.,deci, putem defini o funcție de stare s numită entropie, care satisface d s = δ q rev t . {\displaystyle dS={\frac {\delta Q_{\text{rev}}}{T}}.}

pentru a găsi diferența de entropie între oricare două stări ale unui sistem, integrala trebuie evaluată pentru o cale reversibilă între stările inițiale și cele finale. Deoarece entropia este o funcție de stare, schimbarea entropiei sistemului pentru o cale ireversibilă este aceeași ca și pentru o cale reversibilă între aceleași două stări. Cu toate acestea, schimbarea entropiei împrejurimilor este diferită.,putem obține schimbarea entropiei doar prin integrarea formulei de mai sus. Pentru a obține valoarea absolută a entropiei, avem nevoie de a treia lege a termodinamicii, care afirmă că S = 0 la zero absolut pentru Cristale perfecte.dintr-o perspectivă macroscopică, în termodinamica clasică entropia este interpretată ca o funcție de stare a unui sistem termodinamic: adică o proprietate care depinde doar de starea actuală a sistemului, independent de modul în care a ajuns să fie atinsă această stare., În orice proces în care sistemul renunță la energia ΔE, iar entropia sa scade cu ΔS, o cantitate cel puțin TR ΔS din acea energie trebuie să fie dată mediului înconjurător al sistemului ca căldură inutilizabilă (TR este temperatura mediului extern al sistemului). În caz contrar, procesul nu poate merge mai departe. În termodinamica clasică, entropia unui sistem este definită numai dacă este în echilibru termodinamic.definiția statistică a fost dezvoltată de Ludwig Boltzmann în anii 1870 prin analizarea comportamentului statistic al componentelor microscopice ale sistemului., Boltzmann a arătat că această definiție a entropiei era echivalentă cu entropia termodinamică într—un factor constant-cunoscut sub numele de constanta lui Boltzmann. În rezumat, definiția termodinamică a entropiei oferă definiția experimentală a entropiei, în timp ce definiția statistică a entropiei extinde conceptul, oferind o explicație și o înțelegere mai profundă a naturii sale.,

interpretarea entropiei în mecanica statistică este măsura incertitudinii, sau mixedupness în fraza de Gibbs, care rămâne despre un sistem după observabile macroscopic proprietăți, cum ar fi temperatura, presiunea și volumul, au fost luate în considerare. Pentru un set dat de variabile macroscopice, entropia măsoară gradul în care probabilitatea sistemului este răspândită pe diferite microstate posibile., Spre deosebire de macrostatul, care caracterizează cantitățile medii observabile, o microstată Specifică toate detaliile moleculare despre sistem, inclusiv poziția și viteza fiecărei molecule. Cu cât sunt mai multe astfel de stări disponibile sistemului cu probabilitate apreciabilă, cu atât este mai mare entropia. În mecanica statistică, entropia este o măsură a numărului de moduri în care un sistem poate fi aranjat, adesea considerat a fi o măsură a „tulburării” (cu cât entropia este mai mare, cu atât tulburarea este mai mare)., Această definiție descrie entropia ca fiind proporțională cu logaritmul natural al numărului de posibile microscopice configurații ale atomilor și moleculelor din sistem (micro) care ar putea provoca observate macroscopic stat (macro-stare) de sistem. Constanta proporționalității este constanta Boltzmann.constanta lui Boltzmann și, prin urmare, entropia, au dimensiuni de energie împărțite la temperatură, care are o unitate de jouli pe kelvin (J⋅K−1) în Sistemul Internațional de unități (sau kg⋅m2⋅s−2⋅K−1 în ceea ce privește unitățile de bază)., Entropia unei substanțe este de obicei dată ca o proprietate intensivă – fie entropie pe unitate de masă (unitate SI: J⋅K−1⋅kg−1), fie entropie pe unitate de cantitate de substanță (unitate SI: J⋅K−1⋅mol−1).,

mai Exact, entropia este o măsură logaritmică a numărului de state cu o probabilitate semnificativă de a fi ocupat:

S = − k B ∑ i p i log ⁡ p i , {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i},}

sau, echivalent, valoarea estimată a logaritmul probabilității ca un microstare este ocupat

S = − k B ⟨ log ⁡ p ⟩ {\displaystyle S=-k_{\mathrm {B} }\langle \log p\rangle }

în cazul în care kB este constanta Boltzmann, egală cu 1.38065×10-23 J/K.,Însumarea este peste toate microstatele posibile ale sistemului, iar pi este probabilitatea ca sistemul să se afle în microstatul I. Această definiție presupune că setul de bază al Statelor a fost ales astfel încât să nu existe informații despre fazele lor relative., Într-un alt set de bază, cea mai generală expresie este

S = − k B Tr ⁡ ( ρ ^ log ⁡ ( ρ ^ ) ) , {\displaystyle S=-k_{\mathrm {B} }\operatorname {Tr} ({\widehat {\rho }}\log({\widehat {\rho }})),}

în cazul în care ρ ^ {\displaystyle {\widehat {\rho }}} este matricea de densitate, Tr {\displaystyle \operatorname {Tr} } este de a urmări și jurnal {\displaystyle \log } este matricea logaritm. Această formulare a matricei de densitate nu este necesară în cazurile de echilibru termic, atât timp cât stările de bază sunt alese pentru a fi State proprii de energie., În cele mai multe scopuri practice, aceasta poate fi luată ca definiție fundamentală a entropiei, deoarece toate celelalte formule pentru S pot fi derivate matematic din ea, dar nu invers.în ceea ce s-a numit ipoteza fundamentală a termodinamicii statistice sau postulatul fundamental în mecanica statistică, se presupune că ocuparea oricărei microstate este la fel de probabilă (adică pi = 1/Ω, unde Ω este numărul de microstate); această ipoteză este de obicei justificată pentru un sistem izolat în echilibru. Apoi ecuația anterioară se reduce la

S = k b log ⁡ Ω ., {\displaystyle S=k_{\mathrm {B} }\log \Omega .}

în termodinamică, un astfel de sistem este unul în care volumul, numărul de molecule și energia internă sunt fixate (ansamblul microcanonic).pentru un sistem termodinamic dat, entropia în exces este definită ca entropia minus cea a unui gaz ideal la aceeași densitate și temperatură, o cantitate care este întotdeauna negativă, deoarece un gaz ideal este maxim dezordonat. Acest concept joacă un rol important în teoria stării lichide., De exemplu, principiul de scalare a excesului de entropie al lui Rosenfeld afirmă că coeficienții de transport reduși de-a lungul diagramei de fază bidimensională sunt funcții determinate în mod unic de excesul de entropie.cea mai Generală Interpretare a entropiei este ca o măsură a incertitudinii noastre cu privire la un sistem. Starea de echilibru a unui sistem maximizează entropia, deoarece am pierdut toate informațiile despre condițiile inițiale, cu excepția variabilelor conservate; maximizarea entropiei maximizează ignoranța noastră despre detaliile sistemului., Această incertitudine nu este de natură subiectivă de zi cu zi, ci mai degrabă incertitudinea inerentă metodei experimentale și modelului interpretativ.modelul interpretativ are un rol central în determinarea entropiei. Calificativul” pentru un anumit set de variabile macroscopice ” de mai sus are implicații profunde: dacă doi observatori folosesc seturi diferite de variabile macroscopice, ei văd entropii diferite., De exemplu, dacă Un observator utilizează variabilele U, V și W, și observator B folosește U, V, W, X, apoi, prin schimbarea X, observator B poate provoca un efect care pare a fi o încălcare a legii a doua a termodinamicii pentru observator A. cu alte cuvinte: set de variabile macroscopice o alege trebuie să includă tot ceea ce se poate schimba în experiment, în caz contrar s-ar putea vedea scăderea entropiei!

entropia poate fi definită pentru orice procese Markov cu dinamică reversibilă și proprietatea detaliată a echilibrului.,în prelegerile lui Boltzmann din 1896 despre teoria gazelor, el a arătat că această expresie oferă o măsură a entropiei pentru sistemele de atomi și molecule în faza gazoasă, oferind astfel o măsură pentru entropia termodinamicii clasice.

Entropia unui systemEdit

O temperatură–entropie diagrama pentru abur. Axa verticală reprezintă temperatura uniformă, iar axa orizontală reprezintă entropia specifică. Fiecare linie întunecată din grafic reprezintă o presiune constantă, iar acestea formează o plasă cu linii gri deschis de volum constant., (Albastru închis este apă lichidă, Albastru deschis este amestec lichid-abur, iar albastru slab este abur. Gri-albastru reprezintă apa lichidă supercritică.)

entropia apare direct din ciclul Carnot. De asemenea, poate fi descrisă ca căldura reversibilă împărțită la temperatură. Entropia este o funcție fundamentală a statului.într-un sistem termodinamic, presiunea, densitatea și temperatura tind să devină uniforme în timp, deoarece starea de echilibru are o probabilitate mai mare (mai multe combinații posibile de microstate) decât orice altă stare.,

Ca un exemplu, pentru un pahar de apă cu gheață în aer, la temperatura camerei, diferența de temperatură între o cameră caldă (împrejurimi) și sticlă rece de gheață și apă (sistem și nu o parte a camerei), începe să egaliza și porțiuni de energie termică din împrejurimi calde extins la sistemul de răcire cu gheață și apă. În timp, temperatura sticlei și conținutul acesteia și temperatura camerei devin egale. Cu alte cuvinte, entropia camerei a scăzut, deoarece o parte din energia sa a fost dispersată în gheață și apă.,cu toate acestea, așa cum se calculează în exemplu, entropia sistemului de gheață și apă a crescut mai mult decât entropia camerei înconjurătoare a scăzut. Într-un sistem izolat, cum ar fi camera și apa de gheață luate împreună, dispersarea energiei de la mai cald la mai rece duce întotdeauna la o creștere netă a entropiei. Astfel, atunci când „universul” sistemului de apă din cameră și gheață a atins un echilibru de temperatură, schimbarea entropiei de la starea inițială este la maxim. Entropia sistemului termodinamic este o măsură a cât de departe a progresat egalizarea.,entropia termodinamică este o funcție de stare care nu este conservată, care are o importanță deosebită în științele fizicii și chimiei. Din punct de vedere istoric, conceptul de entropie a evoluat pentru a explica de ce unele procese (permise de legile de conservare) apar spontan, în timp ce inversările lor de timp (permise și de legile de conservare) nu; sistemele tind să progreseze în direcția creșterii entropiei. Pentru sistemele izolate, entropia nu scade niciodată., Acest fapt are câteva consecințe importante în știință: în primul rând, interzice mașinile „mișcării perpetue”; și în al doilea rând, implică că săgeata entropiei are aceeași direcție ca săgeata timpului. Creșterile entropiei corespund schimbărilor ireversibile dintr-un sistem, deoarece o anumită energie este cheltuită ca căldură reziduală, limitând cantitatea de muncă pe care un sistem o poate face.spre deosebire de multe alte funcții ale statului, entropia nu poate fi observată direct, ci trebuie calculată., Entropia poate fi calculată pentru o substanță ca entropie molară standard de la zero absolut (cunoscută și sub denumirea de entropie absolută) sau ca o diferență de entropie față de o altă stare de referință definită ca entropie zero. Entropia are dimensiunea energiei împărțită la temperatură, care are o unitate de jouli pe kelvin (J/K) în Sistemul Internațional de unități. În timp ce acestea sunt aceleași unități ca și capacitatea de căldură, cele două concepte sunt distincte., Entropia nu este o cantitate conservată: de exemplu, într-un sistem izolat cu temperatură neuniformă, căldura poate curge ireversibil, iar temperatura devine mai uniformă, astfel încât entropia crește. A doua lege a termodinamicii afirmă că un sistem închis are entropie care poate crește sau altfel rămâne constantă. Reacțiile chimice provoacă modificări ale entropiei, iar entropia joacă un rol important în determinarea direcției în care se desfășoară spontan o reacție chimică.,

un dicționar definiția entropiei este că este „o măsură a energiei termice pe unitatea de temperatură care nu este disponibilă pentru o muncă utilă”. De exemplu, o substanță la temperatură uniformă este la entropie maximă și nu poate conduce un motor termic. O substanță la temperatură neuniformă este la o entropie mai mică (decât în cazul în care distribuția căldurii este lăsată să iasă) și o parte din energia termică poate conduce un motor termic.un caz special de creștere a entropiei, entropia amestecării, apare atunci când două sau mai multe substanțe diferite sunt amestecate., Dacă substanțele sunt la aceeași temperatură și presiune, nu există un schimb net de căldură sau de muncă – schimbarea entropiei se datorează în întregime amestecării diferitelor substanțe. La nivel mecanic statistic, acest lucru se datorează modificării volumului disponibil pe particulă cu amestecare.,

Echivalența definitionsEdit

Dovezi de corespondență între definiția entropiei în mecanica statistică (Gibbs formula entropiei S = − k B ∑ i p i log ⁡ p i {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i}} ) și în termodinamica clasică ( d S = δ Q rev T {\displaystyle dS={\frac {\delta Q_{\text{rev}}}{T}}} împreună cu termodinamice fundamentale legătură) sunt cunoscute pentru microcanonical ansamblu, canonic de ansamblu, marele canonice ansamblu, și izoterma–isobaric ansamblu., Aceste dovezi se bazează pe densitatea de probabilitate de micro-stări generalizate distributie Boltzmann și identificarea termodinamic energia internă ca ansamblul medie U = ⟨ u n ⟩ {\displaystyle U=\left\langle E_{i}\corect\rangle } . Relațiile termodinamice sunt apoi folosite pentru a obține binecunoscuta formulă de entropie Gibbs. Cu toate acestea, echivalența dintre formula entropiei Gibbs și definiția termodinamică a entropiei nu este o relație termodinamică fundamentală, ci mai degrabă o consecință a formei distribuției generalizate Boltzmann.