Willard Gibbs, Graphical Methods in the Thermodynamics of Fluids
The concept of entropy is described by two principal approaches, the macroscopic perspective of classical thermodynamics, and the microscopic description central to statistical mechanics., A abordagem clássica define entropia em termos de propriedades físicas macroscopicamente mensuráveis, tais como massa, volume, pressão e temperatura. A definição estatística de entropia define-a em termos das estatísticas dos movimentos dos constituintes microscópicos de um sistema modelado em primeira classe, por exemplo, partículas Newtonianas que constituem um gás, e posteriormente quantum – mecanicamente (fótons, fonões, giros, etc.)., As duas abordagens formam uma visão consistente e unificada do mesmo fenômeno expresso na Segunda Lei da termodinâmica, que encontrou aplicabilidade universal aos processos físicos.
função de stateEdit
muitas propriedades termodinâmicas têm uma característica especial em que formam um conjunto de variáveis físicas que definem um estado de equilíbrio; elas são funções de Estado. Muitas vezes, se duas propriedades do sistema são determinadas, então o estado é determinado e os valores das outras propriedades também podem ser determinados., Por exemplo, uma quantidade de gás a uma determinada temperatura e pressão tem seu estado fixado por esses valores e, portanto, tem um volume específico que é determinado por esses valores. Como outro exemplo, um sistema composto por uma substância pura de uma única fase a uma temperatura e pressão uniformes particulares é determinado (e é, portanto, um estado particular) e está não só em um volume particular, mas também em uma entropia particular. O fato de que a entropia é uma função do Estado é uma razão pela qual é útil., No ciclo Carnot, o fluido de trabalho retorna ao mesmo estado que tinha no início do ciclo, daí a integral de linha de qualquer função de Estado, como a Entropia, durante este ciclo reversível é zero.
processEdit reversível
entropia é conservada para um processo reversível. Um processo reversível é aquele que não se desvia do equilíbrio termodinâmico, enquanto produz o trabalho máximo. Qualquer processo que ocorra com rapidez suficiente para se desviar do equilíbrio térmico não pode ser reversível., Nestes casos a energia é perdida para o calor, a Entropia total aumenta, e o potencial para o máximo trabalho a ser feito na transição também é perdido. Mais especificamente, a Entropia total é conservada em um processo reversível e não conservada em um processo irreversível., Por exemplo, no ciclo de Carnot, enquanto o fluxo de calor quente reservatório de água para o reservatório frio, o que representa um aumento de entropia, o resultado do trabalho, se reversivelmente e perfeitamente armazenado em algum mecanismo de armazenamento de energia, representa uma diminuição de entropia, que pode ser utilizado para operar o calor do motor no sentido inverso e voltar para o estado anterior, assim, o total de entropia mudança ainda é zero em todos os momentos se todo o processo é reversível. Um processo irreversível aumenta a Entropia.
Carnot cycleEdit
o conceito de entropia surgiu do estudo de Rudolf Clausius sobre o ciclo Carnot., Num ciclo de Carnot, o calor QH é absorvido isotérmicamente à temperatura TH de um reservatório “quente” e é cedido isotérmicamente como calor QC para um reservatório “frio” em TC. De acordo com o princípio de Carnot, o trabalho só pode ser produzido pelo sistema quando há uma diferença de temperatura, e o trabalho deve ser alguma função da diferença de temperatura e do calor absorvido (QH)., Carnot não fez distinção entre QH e QC, uma vez que ele estava usando a hipótese incorreta de que a teoria calórica era válida, e, portanto, o calor foi conservado (a suposição incorreta de que QH e QC eram iguais) quando, de fato, QH é maior que QC., Através dos esforços de Clausius e Kelvin, é agora sabido que o trabalho máximo que um mecanismo de calor que pode produzir é o produto de Carnot, a eficiência e o calor absorvido quente reservatório:
Para derivar o Carnot, a eficiência, o que é 1 − TC/TH (um número menor do que um), Kelvin tinha para avaliar a relação entre o trabalho de produção para o calor absorvido durante a expansão isotérmica, com a ajuda de Carnot–equação de Clapeyron, que continha uma função desconhecida chamada Carnot função., A possibilidade de que a função Carnot poderia ser a temperatura medida a partir de uma temperatura zero, foi sugerida por Joule em uma carta a Kelvin. Isso permitiu que Kelvin estabelecesse sua escala de temperatura absoluta.,div>
(2)
Desde que o último é válido durante todo o ciclo, isso deu Clausius a sugestão de que, em cada fase do ciclo, o trabalho e o calor não ser igual, mas sim a sua diferença seria uma função do estado que desapareceria após a conclusão do ciclo., A função de Estado foi chamada de energia interna e tornou-se a primeira lei da termodinâmica.
Agora, igualando (1) e (2) dá
Q H T H − P C T C = 0 {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}-{\frac {Q_{\text{C}}}{T_{\text{C}}}}=0}
ou
Q H T H = Q C T C {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}={\frac {Q_{\text{C}}}{T_{\text{C}}}}}
Isto implica que existe uma função do estado que é mantido ao longo de um ciclo completo do ciclo de Carnot. Clausius chamou a esta função de Estado entropia., Pode-se ver que a Entropia foi descoberta através da matemática e não através de resultados laboratoriais. É uma construção matemática e não tem uma analogia física fácil. Isso torna o conceito um tanto obscuro ou abstrato, semelhante a como o conceito de energia surgiu.Clausius então perguntou o que aconteceria se houvesse menos trabalho produzido pelo sistema do que o previsto pelo princípio de Carnot.,<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\right)Q_{\text{H}}}
Quando a segunda equação é utilizada para expressar o trabalho como uma diferença nos aquece, temos
Q H − Q C < ( 1 − T C T ) Q H {\displaystyle Q_{\text{H}}-Q_{\text{C}}<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\right)Q_{\text{H}}} ou P C > T C T H Q H {\displaystyle Q_{\text{C}}>{\frac {T_{\text{C}}}{T_{\text{H}}}}Q_{\text{H}}}
Então, mais calor é dado até o reservatório frio do que no ciclo de Carnot., Se denotamos o entropies por Si = Qi/Ti para os dois estados, então, a desigualdade acima pode ser escrito como uma diminuição na entropia
S H − S C < 0 {\displaystyle S_{\text{H}}-S_{\text{C}}<0} ou S H < S C {\displaystyle S_{\text{H}}<S_{\text{C}}}
A entropia que deixa o sistema é maior do que a entropia que entra no sistema, o que implica que algumas processo irreversível impede que o ciclo de produção a quantidade máxima de trabalho prevista pelo Carnot equação.,
O ciclo de Carnot e a eficiência são úteis porque definem o limite superior da possível saída de trabalho e a eficiência de qualquer sistema termodinâmico clássico. Outros ciclos, como o ciclo Otto, o ciclo Diesel e o ciclo Brayton, podem ser analisados do ponto de vista do ciclo Carnot. Qualquer máquina ou processo que converte calor para o trabalho e é reivindicado para produzir uma eficiência maior do que a eficiência Carnot não é viável porque viola a Segunda Lei da termodinâmica. Para um número muito pequeno de partículas no sistema, termodinâmica estatística deve ser usada., A eficiência de dispositivos como células fotovoltaicas requer uma análise do ponto de vista da mecânica quântica.
Clássico thermodynamicsEdit
A definição termodinâmica de entropia foi desenvolvida no início da década de 1850 por Rudolf Clausius e essencialmente descreve como medir a entropia de um sistema isolado em equilíbrio termodinâmico com suas partes. Clausius criou o termo entropia como uma variável termodinâmica extensiva que se mostrou útil para caracterizar o ciclo de Carnot., A transferência de calor ao longo dos passos isotérmicos do ciclo de Carnot foi considerada proporcional à temperatura de um sistema (conhecida como sua temperatura absoluta). Esta relação foi expressa em incrementos de entropia igual à razão de transferência de calor incremental dividida pela temperatura, que foi encontrada para variar no ciclo termodinâmico, mas eventualmente retornar ao mesmo valor no final de cada ciclo. Assim, descobriu-se que era uma função de Estado, especificamente um estado termodinâmico do sistema.,enquanto Clausius baseou sua definição em um processo reversível, há também processos irreversíveis que mudam a Entropia. Seguindo a Segunda Lei da termodinâmica, a entropia de um sistema isolado sempre aumenta para processos irreversíveis. A diferença entre um sistema isolado e um sistema fechado é que o calor pode não fluir de e para um sistema isolado, mas o fluxo de calor de e para um sistema fechado é possível. No entanto, para sistemas fechados e isolados, e na verdade, também em sistemas abertos, podem ocorrer processos termodinâmicos irreversíveis.,
assim podemos definir uma função de Estado S chamada entropia, que satisfaz d s = δ Q rev T. {\displaystyle dS={\frac {\delta Q_{\text{rev}}} {T}}.}
para encontrar a diferença de entropia entre quaisquer dois estados de um sistema, a integral deve ser avaliada para algum caminho reversível entre os Estados inicial e final. Uma vez que a entropia é uma função de estado, a mudança de entropia do sistema para um caminho irreversível é a mesma que para um caminho reversível entre os mesmos dois estados. No entanto, a mudança de entropia do ambiente é diferente.,
só podemos obter a mudança de entropia integrando a fórmula acima. Para obter o valor absoluto da entropia, precisamos da terceira lei da termodinâmica, que afirma que S = 0 no zero absoluto para cristais perfeitos.
a Partir de uma perspectiva macroscópica, clássica, termodinâmica, a entropia é interpretado como uma função do estado de um sistema termodinâmico, isto é, uma propriedade, dependendo apenas do estado atual do sistema, independente de como o estado veio a ser alcançado., Em qualquer processo em que o sistema cede energia ΔE, e a sua entropia cai ΔS, deve ser dada uma quantidade de pelo menos TR ΔS dessa energia à envolvente do sistema como calor inutilizável (TR é a temperatura da envolvente externa do sistema). Caso contrário, o processo não pode avançar. Em termodinâmica clássica, a entropia de um sistema é definida somente se estiver em equilíbrio termodinâmico.a definição estatística foi desenvolvida por Ludwig Boltzmann na década de 1870, analisando o comportamento estatístico dos componentes microscópicos do sistema., Boltzmann mostrou que esta definição de entropia era equivalente à entropia termodinâmica dentro de um fator constante—conhecido como constante de Boltzmann. Em Resumo, A definição termodinâmica de entropia fornece a definição experimental de entropia, enquanto a definição estatística de entropia estende o conceito, fornecendo uma explicação e uma compreensão mais profunda de sua natureza.,
A interpretação da entropia na mecânica estatística é a medida da incerteza, ou mistura na frase de Gibbs, que permanece sobre um sistema após suas propriedades macroscópicas observáveis, tais como temperatura, pressão e volume, terem sido levados em conta. Para um dado conjunto de variáveis macroscópicas, a Entropia mede o grau em que a probabilidade do sistema é espalhada por diferentes microestados possíveis., Em contraste com o macroestado, que caracteriza quantidades médias claramente observáveis, um microestado especifica todos os detalhes moleculares sobre o sistema, incluindo a posição e velocidade de cada molécula. Quanto mais tais estados disponíveis para o sistema com probabilidade apreciável, maior a Entropia. Em Mecânica Estatística, entropia é uma medida do número de maneiras que um sistema pode ser arranjado, muitas vezes tomado como uma medida de “desordem” (quanto maior a Entropia, maior a desordem)., Esta definição descreve a Entropia como sendo proporcional ao logaritmo natural do número de Configurações microscópicas possíveis dos átomos e moléculas individuais do sistema (microestados) que poderiam causar o estado macroscópico observado (macroestado) do sistema. A constante de proporcionalidade é a constante de Boltzmann.a constante de Boltzmann, e portanto a Entropia, têm dimensões de energia divididas pela temperatura, que tem uma unidade de joules por kelvin (J⋅K−1) no Sistema Internacional de unidades (ou kg m2 m2 s s−2⋅K−1 em termos de unidades de base)., A entropia de uma substância é geralmente dada como uma propriedade intensiva – seja entropia por unidade de massa (unidade SI: J⋅K-1⋅kg-1) ou entropia por unidade de quantidade de substância (unidade SI: J⋅K−1 1 mol−1).,
Especificamente, a entropia é uma medida logarítmica do número de estados com probabilidade significativa de ser ocupada:
S = − k B ∑ i p i log p i , {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i},}
ou, equivalentemente, o valor esperado do logaritmo da probabilidade de que um micro-estado é ocupada
S = − k B ⟨ log p ⟩ {\displaystyle S=-k_{\mathrm {B} }\langle \log p\rangle }
onde kB é a constante de Boltzmann, igual a 1.38065×10-23 J/K.,A soma é sobre todos os microestados possíveis do sistema, e pi é a probabilidade de que o sistema está no microestado i-ésimo. Esta definição pressupõe que o conjunto de bases dos estados foi escolhido para que não haja informações sobre suas fases relativas., Em uma outra base para definir, a express ao mais geral ī
S = − k B Tr ( ρ ^ log ( ρ ^ ) ) , {\displaystyle S=-k_{\mathrm {B} }\operatorname {Tr} ({\widehat {\rho }}\log({\widehat {\rho }})),}
onde ρ ^ {\displaystyle {\widehat {\rho }}} é a matriz densidade, Tr {\displaystyle \operatorname {Tr} } é de rastreio e log {\displaystyle \log } é a matriz de logaritmo. Esta formulação da matriz de densidade não é necessária em casos de equilíbrio térmico, desde que os estados de base sejam escolhidos para serem eigenstates de energia., Para a maioria dos propósitos práticos, isto pode ser considerado como a definição fundamental da entropia, uma vez que todas as outras fórmulas para S podem ser matematicamente derivadas dela, mas não vice-versa.
no que foi chamado a suposição fundamental da termodinâmica estatística ou o postulado fundamental na mecânica estatística, assume-se que a ocupação de qualquer microestado é igualmente provável (ou seja, pi = 1/Ω, onde Ω é o número de microestados); esta suposição é normalmente justificada para um sistema isolado em equilíbrio. Então a equação anterior reduz para
s = k b log Ω ., {\displaystyle S = k_{\mathrm {B} }} \log \Omega . em termodinâmica, tal sistema é aquele em que o volume, número de moléculas e energia interna são fixos (o conjunto microcanónico).
para um dado sistema termodinâmico, o excesso de entropia é definido como a Entropia menos a de um gás ideal na mesma densidade e temperatura, uma quantidade que é sempre negativa porque um gás ideal é maximalmente desordenado. Este conceito desempenha um papel importante na teoria do estado líquido., Por exemplo, o princípio da escala de excesso de entropia de Rosenfeld afirma que os coeficientes de transporte reduzidos ao longo do diagrama de fase bidimensional são funções exclusivamente determinadas pelo excesso de entropia.
A interpretação mais geral da entropia é como uma medida da nossa incerteza sobre um sistema. O estado de equilíbrio de um sistema maximiza a Entropia porque nós perdemos toda a informação sobre as condições iniciais exceto para as variáveis conservadas; maximizando a Entropia maximiza nossa ignorância sobre os detalhes do sistema., Essa incerteza não é do tipo subjetivo cotidiano, mas da incerteza inerente ao método experimental e ao modelo interpretativo.
O modelo interpretativo tem um papel central na determinação da entropia. O qualificador “para um dado conjunto de variáveis macroscópicas” acima tem implicações profundas: se dois observadores usam diferentes conjuntos de variáveis macroscópicas, eles vêem diferentes entropias., Por exemplo, se Um observador usa as variáveis U, V e W, e o observador B usa U, V, W, X, em seguida, alterando X, observador B, pode causar um efeito que parece uma violação da segunda lei da termodinâmica, para o observador A. Em outras palavras: o conjunto de variáveis macroscópicas de um escolhe deve incluir tudo o que pode mudar na experiência, caso contrário, pode ver a diminuir a entropia!
entropia pode ser definida para qualquer processo de Markov com dinâmica reversível e a propriedade detalhada de equilíbrio.,em 1896, ele mostrou que esta expressão dá uma medida de entropia para sistemas de átomos e moléculas na fase gasosa, fornecendo assim uma medida para a entropia da termodinâmica clássica.
entropia de um systemEdit
um diagrama de temperatura–entropia do vapor. O eixo vertical representa temperatura uniforme e o eixo horizontal representa entropia específica. Cada linha escura no grafo representa pressão constante, e estes formam uma malha com linhas cinza claro de volume constante., (Azul-escuro é água líquida, azul-claro é mistura vapor-líquido, e azul-fraco é vapor. Azul cinzento representa água líquida supercrítica.)
Entropia surge diretamente do ciclo de Carnot. Também pode ser descrito como o calor reversível dividido pela temperatura. A entropia é uma função fundamental do estado.
em um sistema termodinâmico, pressão, densidade e temperatura tendem a se tornar uniformes ao longo do tempo porque o estado de equilíbrio tem maior probabilidade (mais combinações possíveis de microestados) do que qualquer outro estado.,
Como exemplo, para um copo de água gelada no ar, em temperatura ambiente, a diferença de temperatura entre uma sala quente (os arredores) e o copo de gelo e água (o sistema e não parte da sala), começa a equalizar como porções da energia térmica de ambientes quentes, se espalhar para o sistema de arrefecimento de gelo e água. Ao longo do tempo, a temperatura do vidro e seu conteúdo e a temperatura da sala tornam-se iguais. Em outras palavras, a entropia da sala diminuiu à medida que parte de sua energia foi dispersada para o gelo e a água.,
no entanto, conforme calculado no exemplo, a entropia do sistema de gelo e água aumentou mais do que a entropia da sala circundante diminuiu. Em um sistema isolado, como a sala e a água gelada tomadas em conjunto, a dispersão de energia de mais quente para mais frio sempre resulta em um aumento líquido na entropia. Assim, quando o “universo” do sistema de água da sala e gelo atingiu um equilíbrio de temperatura, a mudança de entropia do estado inicial está no máximo. A entropia do sistema termodinâmico é uma medida de como a equalização progrediu.,a Entropia Termodinâmica é uma função de Estado não conservada que é de grande importância nas ciências da física e da química. Historicamente, o conceito de entropia evoluiu para explicar por que alguns processos (permitidos pelas leis de conservação) ocorrem espontaneamente enquanto seu tempo reversa (também permitido pelas leis de conservação) não; os sistemas tendem a progredir na direção do aumento da entropia. Para sistemas isolados, a Entropia nunca diminui., Este fato tem várias consequências importantes na ciência: primeiro, proíbe máquinas de “movimento perpétuo”; e segundo, implica que a seta da entropia tem a mesma direção que a seta do tempo. Aumentos na entropia correspondem a mudanças irreversíveis em um sistema, porque alguma energia é gasta como calor residual, limitando a quantidade de trabalho que um sistema pode fazer.ao contrário de muitas outras funções de estado, a entropia não pode ser diretamente observada, mas deve ser calculada., A entropia pode ser calculada para uma substância como a Entropia molar padrão do zero absoluto (também conhecida como entropia absoluta) ou como uma diferença na entropia de algum outro estado de referência definido como entropia zero. A Entropia tem a dimensão da energia dividida pela temperatura, que tem uma unidade de joules por kelvin (J/K) no Sistema Internacional de Unidades. Embora estas sejam as mesmas unidades que a capacidade de calor, os dois conceitos são distintos., A entropia não é uma quantidade conservada: por exemplo, em um sistema isolado com temperatura não uniforme, o calor pode irreversivelmente fluir e a temperatura tornar-se mais uniforme, de modo que a Entropia aumenta. A Segunda Lei da termodinâmica afirma que um sistema fechado tem entropia que pode aumentar ou permanecer constante. As reações químicas causam mudanças na entropia e a Entropia desempenha um papel importante na determinação em que direção uma reação química se processa espontaneamente.,
uma definição de dicionário de entropia é que é “uma medida de energia térmica por unidade de temperatura que não está disponível para o trabalho útil”. Por exemplo, uma substância a temperatura uniforme está na entropia máxima e não pode conduzir um motor de calor. Uma substância a uma temperatura não uniforme está em uma entropia mais baixa (do que se a distribuição de calor é permitida para equilibrar) e parte da energia térmica pode conduzir um motor de calor.um caso especial de aumento da entropia, a entropia da mistura, ocorre quando duas ou mais substâncias diferentes são misturadas., Se as substâncias estiverem à mesma temperatura e pressão, não há troca líquida de calor ou Trabalho – a mudança de entropia deve-se inteiramente à mistura das diferentes substâncias. A um nível mecânico estatístico, isto resulta da variação do volume disponível por partícula com mistura.,
a Equivalência de definitionsEdit
Provas de equivalência entre a definição de entropia em mecânica estatística (Gibbs entropia fórmula S = − k B ∑ i p i log p i {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i}} ) e na termodinâmica clássica ( d S = δ Q rev T {\displaystyle dS={\frac {\delta Q_{\text{rot}}}{T}}} juntamente com o fundamental termodinâmicos relação) são conhecidos para a microcanonical ensemble, ensemble canônico, o grand ensemble canônico, e a isotérmica–isobaric ensemble., Estas provas são baseadas na densidade de probabilidade dos microestados da distribuição generalizada de Boltzmann e na identificação da energia interna termodinâmica como a média ensemble U = ⟨ e i {{\displaystyle U=\left\langle E_ {i}\right\rangle } . Relações termodinâmicas são então empregadas para derivar a bem conhecida fórmula de entropia Gibbs. Entretanto, a equivalência entre a fórmula de entropia de Gibbs e a definição termodinâmica da entropia não é uma relação termodinâmica fundamental, mas uma consequência da forma da distribuição generalizada de Boltzmann.