Qualsiasi metodo che implichi la nozione di entropia, la cui esistenza stessa dipende dalla seconda legge della termodinamica, sembrerà senza dubbio a molti inverosimile e potrebbe respingere i principianti come oscuri e difficili da comprendere.

Willard Gibbs, Metodi grafici nella termodinamica dei fluidi

Il concetto di entropia è descritto da due approcci principali, la prospettiva macroscopica della termodinamica classica e la descrizione microscopica centrale della meccanica statistica., L’approccio classico definisce l’entropia in termini di proprietà fisiche macroscopicamente misurabili, come massa, volume, pressione e temperatura. La definizione statistica di entropia la definisce in termini di statistiche dei moti dei costituenti microscopici di un sistema – modellato in un primo momento classicamente, ad esempio particelle newtoniane che costituiscono un gas, e in seguito quantomeccanicamente (fotoni, fononi, spin, ecc.)., I due approcci formano una visione coerente e unificata dello stesso fenomeno espresso nella seconda legge della termodinamica, che ha trovato applicabilità universale ai processi fisici.

Funzione di stateEdit

Molte proprietà termodinamiche hanno una caratteristica speciale in quanto formano un insieme di variabili fisiche che definiscono uno stato di equilibrio; sono funzioni di stato. Spesso, se vengono determinate due proprietà del sistema, viene determinato lo stato e possono essere determinati anche i valori delle altre proprietà., Ad esempio, una quantità di gas a una particolare temperatura e pressione ha il suo stato fissato da tali valori e quindi ha un volume specifico determinato da tali valori. Come altro esempio, un sistema composto da una sostanza pura di una singola fase a una particolare temperatura e pressione uniforme è determinato (ed è quindi uno stato particolare) ed è non solo a un particolare volume ma anche a una particolare entropia. Il fatto che l’entropia sia una funzione dello stato è una ragione per cui è utile., Nel ciclo di Carnot, il fluido di lavoro ritorna allo stesso stato che aveva all’inizio del ciclo, quindi l’integrale di linea di qualsiasi funzione di stato, come l’entropia, su questo ciclo reversibile è zero.

Processo reversibilemodifica

L’entropia viene conservata per un processo reversibile. Un processo reversibile è quello che non si discosta dall’equilibrio termodinamico, mentre produce il massimo lavoro. Qualsiasi processo che avvenga abbastanza rapidamente da deviare dall’equilibrio termico non può essere reversibile., In questi casi l’energia viene persa in calore, l’entropia totale aumenta e viene perso anche il potenziale per il massimo lavoro da fare nella transizione. Più specificamente, l’entropia totale è conservata in un processo reversibile e non conservata in un processo irreversibile., Per esempio, nel ciclo di Carnot, mentre il flusso di calore dall’acqua calda serbatoio per il freddo serbatoio rappresenta un aumento di entropia, il lavoro di output, se reversibilmente e perfettamente conservata in un po ‘ di energia meccanismo di stoccaggio, rappresenta una diminuzione di entropia, che potrebbe essere utilizzato per far funzionare il calore del motore in retromarcia e tornare allo stato precedente, quindi il totale la variazione di entropia è ancora zero a tutti i tempi se l’intero processo è reversibile. Un processo irreversibile aumenta l’entropia.

Ciclo di Carnotmodifica

Il concetto di entropia è nato dallo studio di Rudolf Clausius del ciclo di Carnot., In un ciclo di Carnot, il calore QH viene assorbito isotermicamente a temperatura TH da un serbatoio “caldo” e abbandonato isotermicamente come calore QC in un serbatoio “freddo” a TC. Secondo il principio di Carnot, il lavoro può essere prodotto dal sistema solo quando c’è una differenza di temperatura e il lavoro dovrebbe essere una funzione della differenza di temperatura e del calore assorbito (QH)., Carnot non ha fatto distinzione tra QH e QC, poiché stava usando l’ipotesi errata che la teoria calorica fosse valida, e quindi il calore era conservato (l’ipotesi errata che QH e QC fossero uguali) quando, in realtà, QH è maggiore di QC., Attraverso gli sforzi di Clausius e di Kelvin, è ormai noto che il massimo lavoro che un motore termico in grado di produrre è il prodotto di Carnot, rendimento e il calore assorbito dall’acqua calda del serbatoio:

Per ricavare la Carnot, rendimento, 1 − TC/TH (un numero minore di uno), Kelvin era di valutare il rapporto di lavoro in uscita per il calore assorbito durante l’espansione isoterma con l’aiuto di Carnot–equazione di Clapeyron, che conteneva una funzione incognita chiamata Carnot funzione., La possibilità che la funzione di Carnot potesse essere la temperatura misurata da una temperatura zero, è stata suggerita da Joule in una lettera a Kelvin. Ciò ha permesso a Kelvin di stabilire la sua scala di temperatura assoluta.,div>

(2)

Dal momento che quest’ultimo è valido sull’intero ciclo, questo dato di Clausius il suggerimento che, in ogni fase del ciclo, il lavoro e il calore non sarebbe uguale, ma la differenza dovrebbe essere una funzione di stato che svaniva dopo il completamento del ciclo., La funzione di stato era chiamata energia interna e divenne la prima legge della termodinamica.

Ora pari (1) e (2) dà

Q H T H − Q C T C = 0 {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}-{\frac {Q_{\text{C}}}{T_{\text{C}}}}=0}

o

Q H T H = Q C T C {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}={\frac {Q_{\text{C}}}{T_{\text{C}}}}}

Questo significa che c’è una funzione di stato, che è conservato nel corso di un ciclo completo del ciclo di Carnot. Clausius chiamò questa funzione di stato entropia., Si può vedere che l’entropia è stata scoperta attraverso la matematica piuttosto che attraverso i risultati di laboratorio. È un costrutto matematico e non ha facile analogia fisica. Ciò rende il concetto un po ‘ oscuro o astratto, simile a come è sorto il concetto di energia.

Clausius chiese quindi cosa succederebbe se ci fosse meno lavoro prodotto dal sistema di quello previsto dal principio di Carnot.,<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\right)Q_{\text{H}}}

Quando la seconda è l’equazione utilizzata per esprimere il lavoro come una differenza di manche, abbiamo

Q H Q C < ( 1 − T C T H Q H {\displaystyle Q_{\text{H}}-Q_{\text{C}}<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\right)Q_{\text{H}}} o Q C > T C T H Q H {\displaystyle Q_{\text{C}}>{\frac {T_{\text{C}}}{T_{\text{H}}}}Q_{\text{H}}}

Così più calore viene trasferito al serbatoio freddo rispetto al ciclo di Carnot., Se indichiamo il entropie da parte di Si = Qi/Ti per i due stati, quindi le disuguaglianze di cui sopra può essere scritto come una diminuzione di entropia,

S − H- S C < 0 {\displaystyle S_{\text{H}}-S_{\text{C}}<0} o S H < S C {\displaystyle S_{\text{H}}<S_{\text{C}}}

L’entropia, che lascia il sistema è maggiore di entropia, che entra nel sistema, il che implica che alcune irreversibile processo impedisce il ciclo da produrre la massima quantità di lavoro previsto dal Carnot equazione.,

Il ciclo di Carnot e l’efficienza sono utili perché definiscono il limite superiore della possibile produzione di lavoro e l’efficienza di qualsiasi sistema termodinamico classico. Altri cicli, come il ciclo Otto, il ciclo Diesel e il ciclo di Brayton, possono essere analizzati dal punto di vista del ciclo di Carnot. Qualsiasi macchina o processo che converte il calore in lavoro e si afferma di produrre un’efficienza maggiore dell’efficienza di Carnot non è praticabile perché viola la seconda legge della termodinamica. Per un numero molto piccolo di particelle nel sistema, deve essere utilizzata la termodinamica statistica., L’efficienza di dispositivi come le celle fotovoltaiche richiede un’analisi dal punto di vista della meccanica quantistica.

Termodinamica classicamodifica

Articolo principale: Entropia (termodinamica classica)

La definizione termodinamica di entropia è stata sviluppata nei primi anni 1850 da Rudolf Clausius e descrive essenzialmente come misurare l’entropia di un sistema isolato in equilibrio termodinamico con le sue parti. Clausius ha creato il termine entropia come una variabile termodinamica estesa che si è dimostrata utile per caratterizzare il ciclo di Carnot., Il trasferimento di calore lungo le fasi isotermiche del ciclo di Carnot è risultato proporzionale alla temperatura di un sistema (nota come temperatura assoluta). Questa relazione è stata espressa in incrementi di entropia pari al rapporto di trasferimento di calore incrementale diviso per la temperatura, che è stato trovato per variare nel ciclo termodinamico, ma alla fine tornare allo stesso valore alla fine di ogni ciclo. Così è stato trovato per essere una funzione dello stato, specificamente uno stato termodinamico del sistema.,

Mentre Clausius basava la sua definizione su un processo reversibile, ci sono anche processi irreversibili che cambiano l’entropia. Seguendo la seconda legge della termodinamica, l’entropia di un sistema isolato aumenta sempre per processi irreversibili. La differenza tra un sistema isolato e un sistema chiuso è che il calore non può fluire da e verso un sistema isolato, ma il flusso di calore da e verso un sistema chiuso è possibile. Tuttavia, sia per i sistemi chiusi che isolati, e in effetti, anche nei sistemi aperti, possono verificarsi processi termodinamici irreversibili.,

Quindi possiamo definire una funzione di stato S chiamata entropia, che soddisfa d S = δ Q rev T . Per maggiori informazioni clicca qui.}

Per trovare la differenza di entropia tra due stati qualsiasi di un sistema, l’integrale deve essere valutato per un percorso reversibile tra gli stati iniziale e finale. Poiché l’entropia è una funzione di stato, il cambiamento di entropia del sistema per un percorso irreversibile è lo stesso di un percorso reversibile tra gli stessi due stati. Tuttavia, il cambiamento di entropia dell’ambiente circostante è diverso.,

Possiamo ottenere il cambiamento di entropia solo integrando la formula sopra. Per ottenere il valore assoluto dell’entropia, abbiamo bisogno della terza legge della termodinamica, che afferma che S = 0 a zero assoluto per cristalli perfetti.

Da una prospettiva macroscopica, nella termodinamica classica l’entropia è interpretata come una funzione di stato di un sistema termodinamico: cioè una proprietà dipendente solo dallo stato attuale del sistema, indipendente da come tale stato è stato raggiunto., In qualsiasi processo in cui il sistema cede energia ΔE e la sua entropia diminuisce di ΔS, una quantità almeno TR ΔS di tale energia deve essere data all’ambiente circostante del sistema come calore inutilizzabile (TR è la temperatura dell’ambiente esterno del sistema). Altrimenti il processo non può andare avanti. Nella termodinamica classica, l’entropia di un sistema è definita solo se è in equilibrio termodinamico.

Meccanica statisticamodifica

La definizione statistica fu sviluppata da Ludwig Boltzmann nel 1870 analizzando il comportamento statistico delle componenti microscopiche del sistema., Boltzmann ha mostrato che questa definizione di entropia era equivalente all’entropia termodinamica all’interno di un fattore costante—noto come costante di Boltzmann. In sintesi, la definizione termodinamica di entropia fornisce la definizione sperimentale di entropia, mentre la definizione statistica di entropia estende il concetto, fornendo una spiegazione e una comprensione più profonda della sua natura.,

L’interpretazione dell’entropia nella meccanica statistica è la misura dell’incertezza, o mixedupness nella frase di Gibbs, che rimane su un sistema dopo che le sue proprietà macroscopiche osservabili, come temperatura, pressione e volume, sono state prese in considerazione. Per un dato insieme di variabili macroscopiche, l’entropia misura il grado in cui la probabilità del sistema è distribuita su diversi microstati possibili., In contrasto con il macrostato, che caratterizza le quantità medie chiaramente osservabili, un microstato specifica tutti i dettagli molecolari sul sistema, inclusa la posizione e la velocità di ogni molecola. Più tali stati sono disponibili per il sistema con probabilità apprezzabile, maggiore è l’entropia. Nella meccanica statistica, l’entropia è una misura del numero di modi in cui un sistema può essere organizzato, spesso considerato una misura di “disturbo” (maggiore è l’entropia, maggiore è il disturbo)., Questa definizione descrive l’entropia come proporzionale al logaritmo naturale del numero di possibili configurazioni microscopiche dei singoli atomi e molecole del sistema (microstati) che potrebbero causare lo stato macroscopico osservato (macrostato) del sistema. La costante di proporzionalità è la costante di Boltzmann.

La costante di Boltzmann, e quindi l’entropia, hanno dimensioni di energia divise per temperatura, che ha un’unità di joule per kelvin (J K K−1) nel Sistema internazionale di Unità (o kg kg m2 kg s−2 K K−1 in termini di unità di base)., L’entropia di una sostanza è solitamente data come proprietà intensiva-entropia per unità di massa (unità SI: J K K−1 kg kg−1) o entropia per unità di quantità di sostanza (unità SI: J K K−1 mo mol−1).,

in particolare, l’entropia è una misura logaritmica del numero di stati con una significativa probabilità di essere occupato:

S = − k B ∑ i p i log ⁡ p i , {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i},}

o, equivalentemente, il valore del logaritmo della probabilità che un microstato è occupato

S = − k B ⟨ registro ⁡ p ⟩ {\displaystyle S=-k_{\mathrm {B} }\langle \log p\rangle }

dove kB è la costante di Boltzmann, pari a 1.38065×10-23 J/K.,La sommatoria è su tutti i possibili microstati del sistema e pi è la probabilità che il sistema si trovi nel microstato i-esimo. Questa definizione presuppone che l’insieme di base degli stati sia stato scelto in modo che non ci siano informazioni sulle loro fasi relative., In una base diversa, più generale espressione è

S = − k B Tr ⁡ ( ρ ^ log ⁡ ( ρ ^ ) ) , {\displaystyle S=-k_{\mathrm {B} }\operatorname {Tr} ({\widehat {\rho }}\log({\widehat {\rho }})),}

dove ρ ^ {\displaystyle {\widehat {\rho }}} è la densità della matrice, Tr {\displaystyle \operatorname {Tr} } è di tracciare e registrare {\displaystyle \log } è la matrice di logaritmo. Questa formulazione della matrice di densità non è necessaria nei casi di equilibrio termico, purché gli stati di base siano scelti come autostati energetici., Per la maggior parte degli scopi pratici, questo può essere preso come la definizione fondamentale di entropia poiché tutte le altre formule per S possono essere matematicamente derivate da esso, ma non viceversa.

In quella che è stata chiamata l’assunzione fondamentale della termodinamica statistica o il postulato fondamentale nella meccanica statistica, si presume che l’occupazione di qualsiasi microstato sia ugualmente probabile (cioè pi = 1/Ω, dove Ω è il numero di microstati); questa ipotesi è solitamente giustificata per un sistema isolato in equilibrio. Quindi l’equazione precedente si riduce a

S = k B log Ω Ω ., Per maggiori informazioni clicca qui .}

In termodinamica, un tale sistema è quello in cui sono fissati il volume, il numero di molecole e l’energia interna (l’insieme microcanonico).

Per un dato sistema termodinamico, l’entropia in eccesso è definita come l’entropia meno quella di un gas ideale alla stessa densità e temperatura, una quantità che è sempre negativa perché un gas ideale è al massimo disordinato. Questo concetto svolge un ruolo importante nella teoria dello stato liquido., Ad esempio, il principio di scala dell’eccesso di entropia di Rosenfeld afferma che i coefficienti di trasporto ridotti in tutto il diagramma di fase bidimensionale sono funzioni determinate in modo univoco dall’entropia in eccesso.

L’interpretazione più generale dell’entropia è come misura della nostra incertezza su un sistema. Lo stato di equilibrio di un sistema massimizza l’entropia perché abbiamo perso tutte le informazioni sulle condizioni iniziali ad eccezione delle variabili conservate; massimizzando l’entropia massimizziamo la nostra ignoranza sui dettagli del sistema., Questa incertezza non è di tipo soggettivo quotidiano, ma piuttosto l’incertezza inerente al metodo sperimentale e al modello interpretativo.

Il modello interpretativo ha un ruolo centrale nel determinare l’entropia. Il qualificatore” per un dato insieme di variabili macroscopiche ” sopra ha profonde implicazioni: se due osservatori usano diversi insiemi di variabili macroscopiche, vedono diverse entropie., Ad esempio, se l’osservatore A usa le variabili U, V e W e l’osservatore B usa U, V, W, X, allora, cambiando X, l’osservatore B può causare un effetto che sembra una violazione della seconda legge della termodinamica all’osservatore A. In altre parole: l’insieme delle variabili macroscopiche che si sceglie deve includere tutto ciò che può cambiare nell’esperimento, altrimenti si potrebbe vedere l’entropia decrescente!

L’entropia può essere definita per qualsiasi processo di Markov con dinamica reversibile e la proprietà di bilanciamento dettagliata.,

Nelle Lezioni di Boltzmann del 1896 sulla teoria dei gas, mostrò che questa espressione fornisce una misura dell’entropia per i sistemi di atomi e molecole nella fase gassosa, fornendo così una misura per l’entropia della termodinamica classica.

Entropia di un sistemamodifica

Un diagramma temperatura–entropia per vapore. L’asse verticale rappresenta la temperatura uniforme e l’asse orizzontale rappresenta l’entropia specifica. Ogni linea scura sul grafico rappresenta una pressione costante, e queste formano una maglia con linee grigio chiaro di volume costante., (Il blu scuro è acqua liquida, il blu chiaro è miscela liquido-vapore e il blu tenue è vapore. Il grigio-blu rappresenta l’acqua liquida supercritica.)

L’entropia nasce direttamente dal ciclo di Carnot. Può anche essere descritto come il calore reversibile diviso per temperatura. L’entropia è una funzione fondamentale dello stato.

In un sistema termodinamico, pressione, densità e temperatura tendono a diventare uniformi nel tempo perché lo stato di equilibrio ha probabilità più elevate (più combinazioni possibili di microstati) rispetto a qualsiasi altro stato.,

per esempio, per un bicchiere di acqua ghiacciata in aria a temperatura ambiente, la differenza di temperatura tra una stanza calda (dintorni) e vetro freddo di ghiaccio e l’acqua, il sistema e non parte della stanza), si inizia a pareggiare come porzioni di energia termica dall’ambiente caldo diffuso il radiatore del sistema di ghiaccio e acqua. Nel tempo la temperatura del vetro e il suo contenuto e la temperatura della stanza diventano uguali. In altre parole, l’entropia della stanza è diminuita poiché parte della sua energia è stata dispersa nel ghiaccio e nell’acqua.,

Tuttavia, come calcolato nell’esempio, l’entropia del sistema di ghiaccio e acqua è aumentata più dell’entropia della stanza circostante è diminuita. In un sistema isolato come la stanza e l’acqua ghiacciata presi insieme, la dispersione di energia dal più caldo al più freddo si traduce sempre in un netto aumento dell’entropia. Quindi, quando l ‘”universo” della stanza e del sistema di acqua ghiacciata ha raggiunto un equilibrio di temperatura, il cambiamento di entropia dallo stato iniziale è al massimo. L’entropia del sistema termodinamico è una misura di quanto l’equalizzazione è progredita.,

L’entropia termodinamica è una funzione di stato non conservata che è di grande importanza nelle scienze della fisica e della chimica. Storicamente, il concetto di entropia si è evoluto per spiegare perché alcuni processi (consentiti dalle leggi di conservazione) si verificano spontaneamente mentre i loro inversioni di tempo (consentiti anche dalle leggi di conservazione) non lo fanno; i sistemi tendono a progredire nella direzione di aumentare l’entropia. Per i sistemi isolati, l’entropia non diminuisce mai., Questo fatto ha diverse conseguenze importanti nella scienza: in primo luogo, proibisce le macchine “a moto perpetuo”; e in secondo luogo, implica che la freccia dell’entropia abbia la stessa direzione della freccia del tempo. Gli aumenti di entropia corrispondono a cambiamenti irreversibili in un sistema, perché una certa energia viene spesa come calore di scarto, limitando la quantità di lavoro che un sistema può fare.

A differenza di molte altre funzioni di stato, l’entropia non può essere osservata direttamente ma deve essere calcolata., L’entropia può essere calcolata per una sostanza come entropia molare standard da zero assoluto (noto anche come entropia assoluta) o come differenza di entropia da qualche altro stato di riferimento definito come entropia zero. L’entropia ha la dimensione dell’energia divisa per la temperatura, che ha un’unità di joule per kelvin (J/K) nel Sistema internazionale di unità. Mentre queste sono le stesse unità di capacità termica, i due concetti sono distinti., L’entropia non è una quantità conservata: ad esempio, in un sistema isolato con temperatura non uniforme, il calore potrebbe fluire irreversibilmente e la temperatura diventare più uniforme in modo tale che l’entropia aumenti. La seconda legge della termodinamica afferma che un sistema chiuso ha entropia che può aumentare o comunque rimanere costante. Le reazioni chimiche causano cambiamenti nell’entropia e l’entropia svolge un ruolo importante nel determinare in quale direzione procede spontaneamente una reazione chimica.,

Una definizione del dizionario di entropia è che è “una misura di energia termica per unità di temperatura che non è disponibile per il lavoro utile”. Ad esempio, una sostanza a temperatura uniforme è alla massima entropia e non può guidare un motore termico. Una sostanza a temperatura non uniforme è ad una entropia inferiore (che se la distribuzione del calore è permesso di uniformare) e parte dell’energia termica può guidare un motore termico.

Un caso speciale di aumento dell’entropia, l’entropia della miscelazione, si verifica quando si mescolano due o più sostanze diverse., Se le sostanze sono alla stessa temperatura e pressione, non c’è scambio netto di calore o lavoro – il cambiamento di entropia è interamente dovuto alla miscelazione delle diverse sostanze. A livello meccanico statistico, ciò risulta dovuto alla variazione del volume disponibile per particella con miscelazione.,

Equivalenza di definitionsEdit

Prove di equivalenza tra la definizione di entropia in meccanica statistica (l’entropia di Gibbs formula S = − k B ∑ i p i log ⁡ p i {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i}} ) e in termodinamica classica ( d S = δ Q rev T {\displaystyle dS={\frac {\delta Q_{\text{ap}}}{T}}} con il fondamentale termodinamico relazione) sono noti per l’ensemble microcanonico, canonico ensemble, il grand ensemble canonico, e isoterma isobarici ensemble., Queste prove sono basate sulla densità di probabilità dei microstati della distribuzione generalizzata di Boltzmann e sull’identificazione dell’energia interna termodinamica come media d’insieme U = E E i {{\displaystyle U = \ left \ langle E_{i} \ right \ rangle }. Le relazioni termodinamiche sono quindi impiegate per derivare la ben nota formula di entropia di Gibbs. Tuttavia, l’equivalenza tra la formula di entropia di Gibbs e la definizione termodinamica di entropia non è una relazione termodinamica fondamentale, ma piuttosto una conseguenza della forma della distribuzione di Boltzmann generalizzata.