Toute méthode impliquant la notion d’entropie, dont l’existence même dépend de la deuxième loi de la thermodynamique, semblera sans doute farfelue à beaucoup, et pourra repousser les débutants comme obscure et difficile de compréhension.

Willard Gibbs, Graphical Methods in the Thermodynamics of Fluids

Le concept d’entropie est décrit par deux approches principales, la perspective macroscopique de la thermodynamique classique et la description microscopique centrale de la mécanique statistique., L’approche classique définit l’entropie en termes de propriétés physiques macroscopiquement mesurables, telles que la masse en vrac, le volume, la pression et la température. La définition statistique de l’entropie la définit en termes de statistiques des mouvements des constituants microscopiques d’un système – modélisé d’abord classiquement, par exemple les particules newtoniennes constituant un gaz, puis quantum-mécaniquement (photons, phonons, spins, etc.)., Les deux approches forment une vision cohérente et unifiée du même phénomène telle qu’exprimée dans la deuxième loi de la thermodynamique, qui a trouvé une applicabilité universelle aux processus physiques.

Fonction d’ÉtatModifier

De nombreuses propriétés thermodynamiques ont une caractéristique particulière en ce qu’elles forment un ensemble de variables physiques qui définissent un état d’équilibre; ce sont des fonctions d’état. Souvent, si deux propriétés du système sont déterminées, alors l’état est déterminé et les valeurs des autres propriétés peuvent également être déterminées., Par exemple, une quantité de gaz à une température et une pression particulières a son état fixé par ces valeurs et a donc un volume spécifique qui est déterminé par ces valeurs. Comme autre exemple, un système composé d’une substance pure d’une seule phase à une température et une pression uniformes particulières est déterminé (et est donc un état particulier) et est non seulement à un volume particulier mais aussi à une entropie particulière. Le fait que l’entropie soit une fonction d’état est l’une des raisons pour lesquelles elle est utile., Dans le cycle de Carnot, le fluide de travail revient au même état qu’il avait au début du cycle, d’où la ligne intégrale de toute fonction d’état, telle que l’entropie, sur ce cycle réversible est nulle.

Processus réversibledit

L’entropie est conservée pour un processus réversible. Un processus réversible est un processus qui ne s’écarte pas de l’équilibre thermodynamique, tout en produisant le maximum de travail. Tout processus qui se produit assez rapidement pour s’écarter de l’équilibre thermique ne peut pas être réversible., Dans ces cas, l’énergie est perdue en chaleur, l’entropie totale augmente et le potentiel de travail maximal à effectuer dans la transition est également perdu. Plus précisément, l’entropie totale est conservée dans un processus réversible et pas conservées dans un processus irréversible., Par exemple, dans le cycle de Carnot, alors que le flux de chaleur du réservoir chaud vers le réservoir froid représente une augmentation de l’entropie, la production de travail, si elle est stockée de manière réversible et parfaitement dans un mécanisme de stockage d’énergie, représente une diminution de l’entropie qui pourrait être utilisée pour faire fonctionner le moteur thermique en sens inverse et revenir à l’état précédent, ainsi le changement d’entropie totale est toujours nul si l’ensemble du processus est réversible. Un processus irréversible augmente l’entropie.

Cycle de Carnotmodifier

Le concept d’entropie est né de l’étude du cycle de Carnot par Rudolf Clausius., Dans un cycle de Carnot, la chaleur QH est absorbée isothermiquement à la température TH à partir d’un réservoir « chaud » et abandonnée isothermiquement sous forme de chaleur QC à un réservoir « froid » à TC. Selon le principe de Carnot, le travail ne peut être produit par le système qu’en cas de différence de température, et le travail doit être fonction de la différence de température et de la chaleur absorbée (QH)., Carnot n’a pas fait de distinction entre QH et QC, car il utilisait l’hypothèse incorrecte selon laquelle la théorie calorique était valide, et donc la chaleur était conservée (l’hypothèse incorrecte selon laquelle QH et QC étaient égaux) alors qu’en fait, QH est supérieur à QC., Grâce aux efforts de Clausius et Kelvin, on sait maintenant que le travail maximal qu’un moteur thermique peut produire est le produit de l’efficacité de Carnot et de la chaleur absorbée par le réservoir chaud:

Pour dériver l’efficacité de Carnot, qui est 1 − TC/TH (un nombre inférieur à un), Kelvin a dû évaluer le rapport du travail produit à la chaleur absorbée lors de l’expansion isotherme à l’aide de l’équation de Carnot–Clapeyron, qui contenait une fonction inconnue appelée fonction de Carnot., La possibilité que la fonction de Carnot puisse être la température telle que mesurée à partir d’une température nulle, a été suggérée par Joule dans une lettre à Kelvin. Cela a permis à Kelvin d’établir son échelle de température absolue.,div>

(2)

Depuis le dernier est valable sur l’ensemble du cycle, cela a donné Clausius le soupçon que, à chaque étape du cycle, le travail et la chaleur ne serait pas l’égalité, mais plutôt de leur différence serait une fonction d’état qui disparaîtrait lors de l’achèvement du cycle., La fonction d’état s’appelait l’énergie interne et elle est devenue la première loi de la thermodynamique.

Maintenant, assimilant (1) et (2) donne

Q H T H − Q C T C = 0 {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}-{\frac {Q_{\text{C}}}{T_{\text{C}}}}=0}

ou

Q H T H = Q C T C {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}={\frac {Q_{\text{C}}}{T_{\text{C}}}}}

Cela implique qu’il existe une fonction d’état qui est conservée au cours d’un cycle complet du cycle de Carnot. Clausius a appelé cette fonction d’état entropie., On peut voir que l’entropie a été découverte par les mathématiques plutôt que par les résultats de laboratoire. C’est une construction mathématique et n’a pas d’analogie physique facile. Cela rend le concept quelque peu obscur ou abstrait, semblable à la façon dont le concept d’énergie est né.

Clausius a ensuite demandé ce qui se passerait s’il devait y avoir moins de travail produit par le système que celui prédit par le principe de Carnot.,<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\right)Q_{\text{H}}}

Lors de la deuxième équation est utilisée pour exprimer le travail comme une différence de chauffe, nous obtenons

Q H Q C < ( 1 − T C T H ) Q H {\displaystyle Q_{\text{H}}-Q_{\text{C}}<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\right)Q_{\text{H}}} ou Q C > T C T H Q H {\displaystyle Q_{\text{C}}>{\frac {T_{\text{C}}}{T_{\text{H}}}}Q_{\text{H}}}

Donc plus de chaleur est cédée à la source froide que dans le cycle de Carnot., Si nous désignons les entropies par Si = Qi/Ti pour les deux états, alors l’inégalité ci − dessus peut être écrite comme une diminution de l’entropie

S H-S C < 0 {\displaystyle S_{\text{H}} – S_{\text{C}}<0} ou S H < S C {\displaystyle S_{\text{H}}<S_{\text{C}}}

L’entropie qui quitte le système est supérieure à l’entropie qui entre dans le système, ce qui implique qu’un processus irréversible empêche le cycle de produire la quantité maximale de travail prévue par l’équation de Carnot.,

Le cycle de Carnot et l’efficacité sont utiles car ils définissent la limite supérieure de la production de travail possible et l’efficacité de tout système thermodynamique classique. D’autres cycles, tels que le cycle Otto, le cycle Diesel et le cycle de Brayton, peuvent être analysés du point de vue du cycle de Carnot. Toute machine ou procédé qui convertit la chaleur en travail et qui est censé produire une efficacité supérieure à l’efficacité de Carnot n’est pas viable car il viole la deuxième loi de la thermodynamique. Pour un très petit nombre de particules dans le système, la thermodynamique statistique doit être utilisée., L’efficacité des dispositifs tels que les cellules photovoltaïques nécessite une analyse du point de vue de la mécanique quantique.

Thermodynamique classiquemodifier

Article principal: Entropie (thermodynamique classique)

La définition thermodynamique de l’entropie a été développée au début des années 1850 par Rudolf Clausius et décrit essentiellement comment mesurer l’entropie d’un système isolé en équilibre thermodynamique avec ses parties. Clausius a créé le terme entropie comme une variable thermodynamique étendue qui s’est révélée utile pour caractériser le cycle de Carnot., Le transfert de chaleur le long des étapes isothermes du cycle de Carnot s’est avéré proportionnel à la température d’un système (connue sous le nom de température absolue). Cette relation a été exprimée par incréments d’entropie égaux au rapport de transfert de chaleur incrémental divisé par la température, qui a été trouvé pour varier dans le cycle thermodynamique, mais revenir finalement à la même valeur à la fin de chaque cycle. Ainsi, il s’est avéré être une fonction d’état, en particulier un état thermodynamique du système.,

Alors que Clausius a basé sa définition sur un processus réversible, il existe également des processus irréversibles qui modifient l’entropie. Suivant la deuxième loi de la thermodynamique, l’entropie d’un système isolé augmente toujours pour les processus irréversibles. La différence entre un système isolé et un système fermé est que la chaleur peut ne pas s’écouler vers et depuis un système isolé, mais un flux de chaleur vers et depuis un système fermé est possible. Néanmoins, pour les systèmes fermés et isolés, et même dans les systèmes ouverts, des processus thermodynamiques irréversibles peuvent se produire.,

On peut donc définir une fonction d’état S appelée entropie, qui satisfait d S = δ Q rev T. {\displaystyle dS={\frac {\delta Q_{\text{rev}}}{T}}.}

Pour trouver la différence d’entropie entre deux états d’un système, l’intégrale doit être évalué pour certains réversible chemin entre les états initial et final. Puisque l’entropie est une fonction d’état, le changement d’entropie du système pour un chemin irréversible est le même que pour un chemin réversible entre les mêmes deux états. Cependant, le changement d’entropie de l’environnement est différent.,

On ne peut obtenir le changement d’entropie qu’en intégrant la formule ci-dessus. Pour obtenir la valeur absolue de l’entropie, nous avons besoin de la troisième loi de la thermodynamique, qui stipule que S = 0 à zéro absolu pour les cristaux parfaits.

D’un point de vue macroscopique, en thermodynamique classique, l’entropie est interprétée comme une fonction d’état d’un système thermodynamique: c’est-à-dire une propriété ne dépendant que de l’état actuel du système, indépendamment de la façon dont cet état a été atteint., Dans tout processus où le système abandonne l’énergie ΔE et où son entropie diminue de ΔS, une quantité au moins TR ΔS de cette énergie doit être donnée à l’environnement du système sous forme de chaleur inutilisable (TR est la température de l’environnement extérieur du système). Sinon, le processus ne peut pas aller de l’avant. En thermodynamique classique, l’entropie d’un système n’est définie que s’il est en équilibre thermodynamique.

Mécanique statistiquemodifier

La définition statistique a été développée par Ludwig Boltzmann dans les années 1870 en analysant le comportement statistique des composants microscopiques du système., Boltzmann a montré que cette définition de l’entropie était équivalente à l’entropie thermodynamique à l’intérieur d’un facteur constant—connu sous le nom de constante de Boltzmann. En résumé, la définition thermodynamique de l’entropie fournit la définition expérimentale de l’entropie, tandis que la définition statistique de l’entropie étend le concept, fournissant une explication et une compréhension plus profonde de sa nature.,

L’interprétation de l’entropie en mécanique statistique est la mesure de l’incertitude, ou mixedupness dans la phrase de Gibbs, qui reste à propos d’un système après que ses propriétés macroscopiques observables, telles que la température, la pression et le volume, ont été prises en compte. Pour un ensemble donné de variables macroscopiques, l’entropie mesure le degré auquel la probabilité du système est répartie sur différents micro-états possibles., Contrairement au macro-état, qui caractérise les quantités moyennes clairement observables, un micro-état spécifie tous les détails moléculaires sur le système, y compris la position et la vitesse de chaque molécule. Plus de tels états sont disponibles pour le système avec une probabilité appréciable, plus l’entropie est grande. En mécanique statistique, l’entropie est une mesure du nombre de voies d’un système peuvent être organisées, souvent considéré comme une mesure de « trouble » (plus l’entropie est élevée, plus le désordre)., Cette définition décrit l’entropie comme étant proportionnelle au logarithme naturel du nombre de configurations microscopiques des atomes et des molécules du système (les micro-états) qui pourraient provoquer l’observé état macroscopique (macrostate) du système. La constante de proportionnalité est la constante de Boltzmann.

La constante de Boltzmann, et donc l’entropie, ont des dimensions d’énergie divisées par la température, qui a une unité de joules par kelvin (J⋅K−1) dans le Système international d’Unités (ou kg kg m2 s s−2⋅K−1 en termes d’unités de base)., L’entropie d’une substance est généralement donnée comme une propriété intensive – soit l’entropie par unité de masse (unité SI: J⋅K−1⋅kg−1) ou de l’entropie par unité de quantité de matière (unité SI: J⋅K−1⋅mol−1).,

Plus précisément, l’entropie est une mesure logarithmique du nombre d’états avec une probabilité significative d’être occupé:

S = − k B i i p i log log p i , {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i},}

ou, de manière équivalente, la valeur attendue du logarithme de la probabilité qu’un micro − état soit occupé

S = -k B B log ⁡ p {{\displaystyle S= – k_ {\mathrm {B} }\langle \log p\rangle }

où kB est la constante de Boltzmann, égale à 1,38065×10-23 J/K.,La somme est sur tous les micro-états possibles du système, et pi est la probabilité que le système soit dans le i-th micro-état. Cette définition suppose que l’ensemble de base des États a été choisi de sorte qu’il n’y ait aucune information sur leurs phases relatives., Dans un autre set de base, l’expression plus générale est

S = − k B Tr ⁡ ( ρ ^ journal ⁡ ( ρ ^ ) ) , {\displaystyle S=-k_{\mathrm {B} }\operatorname {Tr} ({\widehat {\rho }}\log({\widehat {\rho }})),}

où ρ ^ {\displaystyle {\widehat {\rho }}} est la matrice de densité, Tr {\displaystyle \operatorname {Tr} } est trace et log {\displaystyle \log } est la matrice de logarithme. Cette formulation de matrice de densité n’est pas nécessaire en cas d’équilibre thermique tant que les états de base sont choisis pour être des états propres d’énergie., Pour la plupart des fins pratiques, cela peut être considéré comme la définition fondamentale de l’entropie puisque toutes les autres formules pour S peuvent en être dérivées mathématiquement, mais pas l’inverse.

Dans ce qu’on a appelé l’hypothèse fondamentale de la thermodynamique statistique ou le postulat fondamental en mécanique statistique, l’occupation de tout micro-état est supposée être également probable (c’est-à-dire pi = 1/Ω, où Ω est le nombre de micro-états); cette hypothèse est généralement justifiée pour un système isolé en équilibre. Ensuite, l’équation précédente se réduit à

S = k B log Ω Ω ., {\displaystyle S=k_{\mathrm {B} }\log \Omega .}

En thermodynamique, un tel système est un système dans lequel le volume, le nombre de molécules et l’énergie interne sont fixés (l’ensemble microcanonique).

Pour un système thermodynamique donné, l’entropie excédentaire est définie comme l’entropie moins celle d’un gaz idéal à la même densité et température, une quantité qui est toujours négative car un gaz idéal est désordonné au maximum. Ce concept joue un rôle important dans la théorie de l’état liquide., Par exemple, le principe de mise à l’échelle de l’excès d’entropie de Rosenfeld indique que les coefficients de transport réduits dans le diagramme de phase bidimensionnel sont des fonctions déterminées de manière unique par l’excès d’entropie.

L’interprétation la plus générale de l’entropie est comme une mesure de notre incertitude sur un système. L’état d’équilibre d’un système maximise l’entropie parce que nous avons perdu toutes les informations sur les conditions initiales à l’exception des variables conservées; maximiser l’entropie maximise notre ignorance des détails du système., Cette incertitude n’est pas du genre subjectif quotidien, mais plutôt l’incertitude inhérente à la méthode expérimentale et au modèle interprétatif.

Le modèle interprétatif joue un rôle central dans la détermination de l’entropie. Le qualificatif « pour un ensemble donné de variables macroscopiques » ci-dessus a des implications profondes: si deux observateurs utilisent des ensembles différents de variables macroscopiques, ils voient des entropies différentes., Par exemple, si l’observateur A utilise les variables U, V et W, et que l’observateur B utilise U, V, W, X, alors, en changeant X, l’observateur B peut provoquer un effet qui ressemble à une violation de la deuxième loi de la thermodynamique à l’observateur A. En d’autres termes: l’ensemble des variables macroscopiques que l’on choisit doit

L’entropie peut être définie pour tous les processus de Markov avec une dynamique réversible et la propriété d’équilibre détaillée.,

Dans les conférences de Boltzmann sur la théorie des gaz en 1896, il a montré que cette expression donne une mesure de l’entropie pour les systèmes d’atomes et de molécules en phase gazeuse, fournissant ainsi une mesure de l’entropie de la thermodynamique classique.

l’Entropie d’un systemEdit

température–entropie diagramme de vapeur. L’axe vertical représente une température uniforme et l’axe horizontal représente une entropie spécifique. Chaque ligne sombre sur le graphique représente une pression constante, et ceux-ci forment un maillage avec des lignes gris clair de volume constant., (Le bleu foncé est l’eau liquide, le bleu clair est le mélange liquide-vapeur et le bleu pâle est la vapeur. Le gris-bleu représente l’eau liquide supercritique.)

l’Entropie découle directement du cycle de Carnot. Il peut également être décrit comme la chaleur réversible divisée par la température. L’entropie est une fonction fondamentale de l’état.

Dans un système thermodynamique, la pression, la densité et la température ont tendance à devenir uniformes au fil du temps parce que l’état d’équilibre a une probabilité plus élevée (plus de combinaisons possibles de micro-états) que tout autre état.,

À titre d’exemple, pour un verre d’eau glacée dans l’air à température ambiante, la différence de température entre une pièce chaude (l’environnement) et un verre froid de glace et d’eau (le système et non une partie de la pièce) commence à s’égaliser à mesure que des portions de l’énergie thermique de l’environnement chaud Au fil du temps, la température du verre et de son contenu et la température de la pièce deviennent égales. En d’autres termes, l’entropie de la pièce a diminué car une partie de son énergie a été dispersée dans la glace et l’eau.,

Cependant, comme calculé dans l’exemple, l’entropie du système de glace et d’eau a augmenté plus que l’entropie de la pièce environnante n’a diminué. Dans un système isolé tel que la pièce et l’eau glacée prises ensemble, la dispersion de l’énergie du plus chaud au plus froid entraîne toujours une augmentation nette de l’entropie. Ainsi, lorsque « l’univers » de la pièce et du système d’eau glacée a atteint un équilibre de température, le changement d’entropie par rapport à l’état initial est au maximum. L’entropie du système thermodynamique est une mesure de la progression de l’égalisation.,

L’entropie thermodynamique est une fonction d’état non conservée qui revêt une grande importance dans les sciences de la physique et de la chimie. Historiquement, le concept d’entropie a évolué pour expliquer pourquoi certains processus (autorisés par les lois de conservation) se produisent spontanément alors que leurs inversions temporelles (également autorisées par les lois de conservation) ne le font pas; les systèmes ont tendance à progresser dans le sens d’une augmentation de l’entropie. Pour les systèmes isolés, l’entropie ne diminue jamais., Ce fait a plusieurs conséquences importantes en science: premièrement, il interdit les machines à « mouvement perpétuel »; et deuxièmement, il implique que la flèche de l’entropie a la même direction que la flèche du temps. Les augmentations de l’entropie correspondent à des changements irréversibles dans un système, car une partie de l’énergie est dépensée sous forme de chaleur perdue, limitant la quantité de travail qu’un système peut faire.

Contrairement à de nombreuses autres fonctions d’état, l’entropie ne peut pas être directement observée mais doit être calculée., L’entropie peut être calculée pour une substance comme l’entropie molaire standard à partir du zéro absolu (également appelée entropie absolue) ou comme une différence d’entropie par rapport à un autre état de référence défini comme l’entropie nulle. L’entropie a la dimension de l’énergie divisée par la température, qui a une unité de joules par kelvin (J/K) dans le Système international d’unités. Bien qu’il s’agisse des mêmes unités que la capacité thermique, les deux concepts sont distincts., L’entropie n’est pas une quantité conservée: par exemple, dans un système isolé avec une température non uniforme, la chaleur peut s’écouler de manière irréversible et la température devenir plus uniforme de sorte que l’entropie augmente. La deuxième loi de la thermodynamique stipule qu’un système fermé a une entropie qui peut augmenter ou rester constante. Les réactions chimiques provoquent des changements dans l’entropie et l’entropie joue un rôle important dans la détermination dans quelle direction une réaction chimique se produit spontanément.,

Une définition du dictionnaire de l’entropie est que c’est « une mesure de l’énergie thermique par unité de température qui n’est pas disponible pour un travail utile ». Par exemple, une substance à température uniforme est à entropie maximale et ne peut pas entraîner un moteur thermique. Une substance à une température non uniforme est à une entropie inférieure (que si la distribution de chaleur est autorisée à égaliser) et une partie de l’énergie thermique peut entraîner un moteur thermique.

Un cas spécial de l’augmentation de l’entropie l’entropie de mélange, se produit lorsque deux ou plusieurs substances différentes sont mélangés., Si les substances sont à la même température et pression, il n’y a pas d’échange net de chaleur ou de travail – le changement d’entropie est entièrement dû au mélange des différentes substances. Au niveau mécanique statistique, cela résulte de la variation du volume disponible par particule avec le mélange.,

Équivalence des définitionsmodifier

Preuves d’équivalence entre la définition de l’entropie en mécanique statistique (la formule d’entropie de Gibbs S = − k B i i p i log p p i {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i}} ) et en thermodynamique classique ( d S = δ Q rev T {\displaystyle dS={\frac {\delta Q_{\text{rev}}}{T}}} ainsi que la relation thermodynamique fondamentale) sont connus pour l’ensemble microcanonique, l’ensemble canonique, l’ensemble grand canonique et l’ensemble isotherme–isobare., Ces preuves sont basées sur la densité de probabilité des micro-états de la distribution de Boltzmann généralisée et l’identification de l’énergie interne thermodynamique comme la moyenne d’ensemble U = E E I {{\displaystyle U=\left\langle E_ {i}\right\rangle } . Les relations thermodynamiques sont ensuite utilisées pour dériver la formule bien connue d’entropie de Gibbs. Cependant, l’équivalence entre la formule d’entropie de Gibbs et la définition thermodynamique de l’entropie n’est pas une relation thermodynamique fondamentale mais plutôt une conséquence de la forme de la distribution de Boltzmann généralisée.