cualquier método que involucre la noción de entropía, cuya existencia depende de la segunda ley de la termodinámica, sin duda parecerá descabellado, y puede repeler a los principiantes como oscuro y difícil de comprensión.

Willard Gibbs, Graphical Methods in the Thermodynamics of Fluids

El concepto de entropía se describe mediante dos enfoques principales, la perspectiva macroscópica de la termodinámica clásica y la descripción microscópica central de la mecánica estadística., El enfoque clásico define la entropía en términos de propiedades físicas macroscópicamente medibles, tales como masa a granel, volumen, presión y temperatura. La definición estadística de entropía la define en términos de las estadísticas de los movimientos de los componentes microscópicos de un sistema – modelados en primer lugar clásicamente, por ejemplo, partículas newtonianas que constituyen un gas, y más tarde cuántico-mecánicamente (fotones, fonones, espines, etc.)., Los dos enfoques forman una visión coherente y unificada del mismo fenómeno como se expresa en la segunda ley de la termodinámica, que ha encontrado aplicabilidad universal a los procesos físicos.

función de estadoeditar

muchas propiedades termodinámicas tienen una característica especial en que forman un conjunto de variables físicas que definen un estado de equilibrio; son funciones de estado. A menudo, si se determinan dos propiedades del sistema, entonces se determina el estado y los valores de las otras propiedades También se pueden determinar., Por ejemplo, una cantidad de gas a una temperatura y presión particulares tiene su estado fijado por esos valores y, por lo tanto, tiene un volumen específico que está determinado por esos valores. Como otro ejemplo, un sistema compuesto de una sustancia pura de una sola fase a una temperatura y presión uniformes particulares se determina (y es así un estado particular) y está en no solo un volumen particular sino también en una entropía particular. El hecho de que la entropía sea una función del Estado es una de las razones por las que es útil., En el ciclo de Carnot, el fluido de trabajo regresa al mismo estado que tenía al comienzo del ciclo, por lo tanto, la integral de línea de cualquier función de estado, como la entropía, durante este ciclo reversible es cero.

proceso Reversibleeditar

La entropía se conserva para un proceso reversible. Un proceso reversible es aquel que no se desvía del equilibrio termodinámico, mientras produce el máximo trabajo. Cualquier proceso que ocurre lo suficientemente rápido como para desviarse del equilibrio térmico no puede ser reversible., En estos casos, la energía se pierde por calor, la entropía total aumenta y también se pierde el potencial de trabajo máximo a realizar en la transición. Más específicamente, la entropía total se conserva en un proceso reversible y no se conserva en un proceso irreversible., Por ejemplo, en el ciclo de Carnot, mientras que el flujo de calor del depósito caliente al depósito frío representa un aumento en la entropía, la salida de trabajo, si se almacena reversible y perfectamente en algún mecanismo de almacenamiento de energía, representa una disminución en la entropía que podría usarse para operar el motor térmico en reversa y regresar al estado anterior, por lo tanto, el cambio total de entropía sigue siendo cero en todo momento si todo el proceso es reversible. Un proceso irreversible aumenta la entropía.

ciclo de Carnoteditar

El concepto de entropía surgió del estudio de Rudolf Clausius del ciclo de Carnot., En un ciclo de Carnot, el calor QH se absorbe isotérmicamente a la temperatura TH de un reservorio ‘ caliente ‘y se da isotérmicamente como calor QC a un reservorio’ frío ‘ A TC. Según el principio de Carnot, el trabajo solo puede ser producido por el sistema cuando hay una diferencia de temperatura, y el trabajo debe ser alguna función de la diferencia de temperatura y el calor absorbido (QH)., Carnot no distinguió entre QH y QC, ya que estaba utilizando la hipótesis incorrecta de que la teoría calórica era válida, y por lo tanto el calor se conservaba (la suposición incorrecta de que QH y QC eran iguales) cuando, de hecho, QH es mayor que QC., A través de los esfuerzos de Clausius y Kelvin, ahora se sabe que el trabajo máximo que un motor de calor puede producir es el producto de la eficiencia de Carnot y el calor absorbido del depósito caliente:

para derivar la eficiencia de Carnot, que es 1 − TC/TH (un número menor que uno), Kelvin tuvo que evaluar la relación de la salida de trabajo al calor absorbido durante la expansión isotérmica con la ayuda de la ecuación de Carnot–Clapeyron, que contenía una función desconocida llamada función de Carnot., La posibilidad de que la función de Carnot pudiera ser la temperatura medida a partir de una temperatura cero, fue sugerida por Joule en una carta a Kelvin. Esto permitió a Kelvin establecer su escala de temperatura absoluta.,div>

(2)

Puesto que el último es válido durante todo el ciclo, esto dio Clausius la sugerencia de que, en cada etapa del ciclo, el trabajo y el calor no sería igual, sino más bien su diferencia sería de una función estatal que se desvanecen tras la finalización del ciclo., La función de Estado fue llamada energía interna y se convirtió en la primera ley de la termodinámica.

Ahora igualando (1) y (2) da

Q H T H − Q C T C = 0 {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}-{\frac {Q_{\text{C}}}{T_{\text{C}}}}=0}

o

Q H T H = Q C T C {\displaystyle {\frac {Q_{\text{H}}}{T_{\text{H}}}}={\frac {Q_{\text{C}}}{T_{\text{C}}}}}

Esto implica que no es una función de estado que se conserva a lo largo de un ciclo completo del ciclo de Carnot. Clausius llamó a esta función de estado entropía., Se puede ver que la entropía se descubrió a través de las matemáticas en lugar de a través de los resultados de laboratorio. Es una construcción matemática y no tiene una analogía Física fácil. Esto hace que el concepto sea algo oscuro o abstracto, similar a cómo surgió el concepto de energía.

Clausius preguntó Entonces qué pasaría si hubiera menos trabajo producido por el sistema que el predicho por el principio de Carnot.,<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\right)Q_{\text{H}}}

Cuando la segunda ecuación se utiliza para expresar el trabajo como una diferencia en la calienta, llegamos

Q H Q C < ( 1 − T C T ) Q H {\displaystyle Q_{\text{H}}-Q_{\text{C}}<\left(1-{\frac {T_{\text{C}}}{T_{\text{H}}}}\derecho)Q_{\text{H}}} o P C > T C T H Q H {\displaystyle Q_{\text{C}}>{\frac {T_{\text{C}}}{T_{\text{H}}}}Q_{\text{H}}}

Así que más calor se da hasta el reservorio frío que en el ciclo de Carnot., Si denotamos las entropías por Si = Qi/Ti para los dos estados, entonces la desigualdad anterior se puede escribir como una disminución en la entropía

S H − S C < 0 {\displaystyle s_{\text{H}}-S_{\text{C}}<0} o S H < s c {\displaystyle s_{\text{h}}<s_{\text{c}}}

la entropía que sale del sistema es mayor que la entropía que entra en el sistema, lo que implica que algún proceso irreversible impide que el ciclo produzca la cantidad máxima de trabajo predicha por la ecuación de Carnot.,

El ciclo de Carnot y la eficiencia son útiles porque definen el límite superior de la posible producción de trabajo y la eficiencia de cualquier sistema termodinámico clásico. Otros ciclos, como el ciclo Otto, el ciclo Diesel y el ciclo Brayton, se pueden analizar desde el punto de vista del ciclo Carnot. Cualquier máquina o proceso que convierte el calor en trabajo y se afirma que produce una eficiencia mayor que la eficiencia de Carnot no es viable porque viola la segunda ley de la termodinámica. Para cantidades muy pequeñas de partículas en el sistema, se debe utilizar la termodinámica estadística., La eficiencia de dispositivos como las células fotovoltaicas requiere un análisis desde el punto de vista de la mecánica cuántica.

Termodinámica Clásicaeditar

Artículo principal: entropía (termodinámica clásica)

La definición termodinámica de entropía fue desarrollada a principios de la década de 1850 por Rudolf Clausius y esencialmente describe cómo medir la entropía de un sistema aislado en equilibrio termodinámico con sus partes. Clausius creó el término entropía como una variable termodinámica extensa que demostró ser útil para caracterizar el ciclo de Carnot., Se encontró que la transferencia de calor a lo largo de los pasos de isoterma del ciclo de Carnot era proporcional a la temperatura de un sistema (conocida como su temperatura absoluta). Esta relación se expresó En incrementos de entropía iguales a la relación de transferencia de calor incremental dividida por la temperatura, que se encontró que varía en el ciclo termodinámico pero finalmente regresa al mismo valor al final de cada ciclo. Por lo tanto, se encontró que era una función del estado, específicamente un estado termodinámico del sistema.,

mientras Clausius basó su definición en un proceso reversible, también hay procesos irreversibles que cambian la entropía. Siguiendo la segunda ley de la termodinámica, la entropía de un sistema aislado siempre aumenta para procesos irreversibles. La diferencia entre un sistema aislado y un sistema cerrado es que el calor puede no fluir hacia y desde un sistema aislado, pero el flujo de calor hacia y desde un sistema cerrado es posible. Sin embargo, tanto para sistemas cerrados como aislados, y de hecho, también en sistemas abiertos, pueden ocurrir procesos termodinámicos irreversibles.,

así que podemos definir una función de estado S llamada entropía, que satisface d s = δ Q rev T . {\displaystyle dS = {\frac {\delta Q_{\text{rev}}}{T}}.}

para encontrar la diferencia de entropía entre dos Estados cualesquiera de un sistema, la integral debe ser evaluada para algún camino reversible entre los Estados inicial y final. Dado que la entropía es una función de Estado, el cambio de entropía del sistema para una ruta irreversible es el mismo que para una ruta reversible entre los mismos dos Estados. Sin embargo, el cambio de entropía de los alrededores es diferente.,

solo podemos obtener el cambio de entropía integrando la fórmula anterior. Para obtener el valor absoluto de la entropía, necesitamos la tercera ley de la termodinámica, que establece que S = 0 en cero absoluto para los cristales perfectos.

desde una perspectiva macroscópica, en la termodinámica clásica la entropía se interpreta como una función de estado de un sistema termodinámico: es decir, una propiedad que depende solo del estado actual del sistema, independientemente de cómo ese estado llegó a ser alcanzado., En cualquier proceso en el que el sistema entregue energía ΔE, y su entropía caiga en ΔS, una cantidad al menos TR ΔS de esa energía debe entregarse al entorno del sistema como calor inutilizable (TR es la temperatura del entorno externo del sistema). De lo contrario, el proceso no puede seguir adelante. En la termodinámica clásica, la entropía de un sistema se define solo si está en equilibrio termodinámico.

mecánica Estadísticaeditar

La definición estadística fue desarrollada por Ludwig Boltzmann en la década de 1870 mediante el análisis del comportamiento estadístico de los componentes microscópicos del sistema., Boltzmann demostró que esta definición de entropía era equivalente a la entropía termodinámica dentro de un factor constante-conocido como constante de Boltzmann. En Resumen, La definición termodinámica de entropía proporciona la definición experimental de entropía, mientras que la definición estadística de entropía amplía el concepto, proporcionando una explicación y una comprensión más profunda de su naturaleza.,

la interpretación de la entropía en la mecánica estadística es la medida de incertidumbre, o mixedupness en la frase de Gibbs, que permanece sobre un sistema después de que sus propiedades macroscópicas observables, como la temperatura, la presión y el volumen, se han tenido en cuenta. Para un conjunto dado de variables macroscópicas, la entropía mide el grado en que la probabilidad del sistema se extiende sobre diferentes microestados posibles., En contraste con el macroestado, que caracteriza cantidades medias claramente observables, un microestado especifica todos los detalles moleculares sobre el sistema incluyendo la posición y la velocidad de cada molécula. Cuantos más estados estén disponibles para el sistema con probabilidad apreciable, mayor será la entropía. En Mecánica Estadística, la entropía es una medida del número de formas en que un sistema puede ser organizado, a menudo tomada como una medida de «trastorno» (cuanto mayor es la entropía, mayor es el trastorno)., Esta definición describe la entropía como proporcional al logaritmo natural del número de posibles configuraciones microscópicas de los átomos y moléculas individuales del sistema (microestados) que podrían causar el estado macroscópico observado (macroestado) del sistema. La constante de proporcionalidad es la constante de Boltzmann.

la constante de Boltzmann, y por lo tanto la entropía, tienen dimensiones de energía divididas por temperatura, que tiene una unidad de julios por kelvin (J⋅K-1) en el sistema internacional de unidades (o kg⋅m2⋅S−2⋅K−1 en términos de unidades base)., La entropía de una sustancia generalmente se da como una propiedad intensiva, ya sea entropía por unidad de masa (unidad SI: J⋅K−1⋅kg−1) o entropía por unidad de cantidad de sustancia (unidad SI: J⋅K−1⋅mol−1).,

específicamente, la entropía es una medida logarítmica del número de estados con probabilidad significativa de ser ocupados:

S = − k B ∑ I p I log ⁡ p i , {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i},}

o, equivalentemente, el valor esperado del logaritmo de la probabilidad de que un microestado esté ocupado

s = − k b log log ⁡ p ⟩ {\displaystyle S=-k_{\mathrm {B} }\Langle \log p\rangle }

donde KB es la constante de Boltzmann, igual a 1.38065×10-23 J/K.,La suma es sobre todos los microestados posibles del sistema, y pi es la probabilidad de que el sistema está en el microestado i-ésimo. Esta definición parte del supuesto de que se ha elegido el conjunto básico de estados de manera que no se dispone de información sobre sus fases relativas., En un conjunto de bases diferente, la expresión más general es

S = − k B Tr ⁡ ( ρ ^ log ⁡ ( ρ ^ ) ) , {\displaystyle S=-k_{\mathrm {B} }\operatorname {Tr} ({\widehat {\rho }}\log({\widehat {\rho }})),}

donde ρ ^ {\displaystyle {\widehat {\rho }}} es la matriz de densidad, Tr {\displaystyle \operatorname {Tr} } es Trace y log {\displaystyle \Log } es el logaritmo de la matriz. Esta formulación de matriz de densidad no es necesaria en casos de equilibrio térmico, siempre y cuando los Estados base sean Estados propios de energía., Para la mayoría de los propósitos prácticos, esto puede tomarse como la definición fundamental de entropía ya que todas las demás fórmulas para S pueden derivarse matemáticamente de ella, pero no viceversa.

en lo que se ha llamado la suposición fundamental de la termodinámica estadística o el postulado fundamental en la mecánica estadística, se asume que la ocupación de cualquier microestado es igualmente probable (es decir, pi = 1/Ω, Donde Ω es el número de microestados); esta suposición generalmente se justifica para un sistema aislado en equilibrio. Entonces la ecuación anterior se reduce a

S = k b log ⁡ Ω ., {\displaystyle S = k_ {\mathrm {B} } \ log \ Omega .}

en termodinámica, tal sistema es uno en el que el volumen, el número de moléculas y la energía interna son fijos (el conjunto microcanónico).

para un sistema termodinámico dado, el exceso de entropía se define como la entropía menos la de un gas ideal a la misma densidad y temperatura, Una cantidad que siempre es negativa porque un gas ideal está máximo desordenado. Este concepto juega un papel importante en la teoría del estado líquido., Por ejemplo, el principio de escalado de exceso de entropía de Rosenfeld establece que los coeficientes de transporte reducidos a lo largo del diagrama de fase bidimensional son funciones determinadas únicamente por el exceso de entropía.

la interpretación más general de la entropía es como una medida de nuestra incertidumbre sobre un sistema. El estado de equilibrio de un sistema maximiza la entropía porque hemos perdido toda la información sobre las condiciones iniciales excepto las variables conservadas; maximizar la entropía maximiza nuestra ignorancia sobre los detalles del sistema., Esta incertidumbre no es de tipo subjetivo cotidiano, sino la incertidumbre inherente al método experimental y al modelo interpretativo.

el modelo interpretativo tiene un papel central en la determinación de la entropía. El calificador «para un conjunto dado de variables macroscópicas» anterior tiene implicaciones profundas: si dos observadores utilizan diferentes conjuntos de variables macroscópicas, ven diferentes entropías., Por ejemplo, si el observador a usa las variables U, V Y W, y el observador B USA U, V, W, X, entonces, al cambiar X, El Observador B puede causar un efecto que parece una violación de la segunda ley de la termodinámica para el observador A. En otras palabras: el conjunto de variables macroscópicas que uno elija debe incluir todo lo que pueda cambiar en el experimento, de lo contrario uno podría ver una entropía decreciente.

La entropía se puede definir para cualquier proceso de Markov con dinámica reversible y la propiedad balance detallada.,

en las Conferencias de Boltzmann de 1896 sobre la teoría del Gas, demostró que esta expresión da una medida de entropía para los sistemas de átomos y moléculas en la fase gaseosa, proporcionando así una medida para la entropía de la termodinámica clásica.

la Entropía de un systemEdit

temperatura–entropía diagrama de vapor. El eje vertical representa la temperatura uniforme, y el eje horizontal representa la Entropía específica. Cada línea oscura en el gráfico representa la presión constante, y estos forman una malla con líneas de color gris claro de volumen constante., (El azul oscuro es agua líquida, el azul claro es una mezcla de vapor líquido y el azul débil es vapor. El gris-azul representa el agua líquida supercrítica.)

La entropía surge directamente del ciclo de Carnot. También se puede describir como el calor reversible dividido por la temperatura. La entropía es una función fundamental del estado.

en un sistema termodinámico, la presión, la densidad y la temperatura tienden a ser uniformes con el tiempo porque el estado de equilibrio tiene mayor probabilidad (más combinaciones posibles de microestados) que cualquier otro estado.,

como ejemplo, para un vaso de agua helada en el aire a temperatura ambiente, la diferencia de temperatura entre una habitación caliente (el entorno) y un vaso frío de hielo y agua (el sistema y no parte de la habitación), comienza a igualarse a medida que las porciones de la energía térmica del entorno cálido se extienden al sistema más frío de hielo y agua. Con el tiempo, la temperatura del vidrio y su contenido y la temperatura de la habitación se vuelven iguales. En otras palabras, la entropía de la habitación ha disminuido ya que parte de su energía se ha dispersado al hielo y al agua.,

sin embargo, como se calcula en el ejemplo, la entropía del sistema de hielo y agua ha aumentado más que la entropía de la habitación circundante ha disminuido. En un sistema aislado como la habitación y el agua helada tomados juntos, la dispersión de energía de más cálido a más frío siempre resulta en un aumento neto de la entropía. Por lo tanto, cuando el «universo» de la habitación y el sistema de agua helada ha alcanzado un equilibrio de temperatura, el cambio de entropía desde el estado inicial está en un máximo. La entropía del sistema termodinámico es una medida de cuán lejos ha progresado la ecualización.,

La entropía termodinámica es una función de estado no conservada que es de gran importancia en las ciencias de la física y la química. Históricamente, el concepto de entropía evolucionó para explicar por qué algunos procesos (permitidos por las leyes de conservación) ocurren espontáneamente mientras que sus reversiones de tiempo (también permitidas por las leyes de conservación) no lo hacen; los sistemas tienden a progresar en la dirección de aumentar la entropía. Para sistemas aislados, la entropía nunca disminuye., Este hecho tiene varias consecuencias importantes en la ciencia: Primero, prohíbe las máquinas de «movimiento perpetuo»; y segundo, implica que la flecha de la entropía tiene la misma dirección que la flecha del tiempo. Los aumentos en la entropía corresponden a cambios irreversibles en un sistema, porque parte de la energía se gasta como calor residual, limitando la cantidad de trabajo que un sistema puede hacer.

a diferencia de muchas otras funciones de estado, la entropía no puede ser observada directamente sino que debe ser calculada., La entropía puede calcularse para una sustancia como la entropía molar estándar a partir del cero absoluto (también conocida como entropía absoluta) o como una diferencia en la entropía de algún otro Estado de referencia definido como entropía cero. La entropía tiene la dimensión de la energía dividida por la temperatura, que tiene una unidad de julios por kelvin (J / K) en el sistema internacional de unidades. Si bien estas son las mismas unidades que la capacidad de calor, los dos conceptos son distintos., La entropía no es una cantidad conservada: por ejemplo, en un sistema aislado con una temperatura no uniforme, el calor puede fluir irreversiblemente y la temperatura se vuelve más uniforme, de modo que la entropía aumenta. La segunda ley de la termodinámica establece que un sistema cerrado tiene entropía que puede aumentar o permanecer constante. Las reacciones químicas causan cambios en la entropía y la entropía juega un papel importante en determinar en qué dirección una reacción química procede espontáneamente.,

Una definición del diccionario de entropía es que es «una medida de energía térmica por unidad de temperatura que no está disponible para un trabajo útil». Por ejemplo, una sustancia a temperatura uniforme se encuentra en la entropía máxima y no puede conducir un motor térmico. Una sustancia a una temperatura no uniforme está en una entropía más baja (que si se permite que la distribución de calor se equilibre) y parte de la energía térmica puede conducir un motor térmico.

un caso especial de aumento de la entropía, la entropía de la mezcla, ocurre cuando se mezclan dos o más sustancias diferentes., Si las sustancias están a la misma temperatura y presión, no hay intercambio neto de calor o trabajo – el cambio de entropía se debe enteramente a la mezcla de las diferentes sustancias. A nivel estadístico mecánico, esto resulta debido al cambio en el volumen disponible por partícula con la mezcla.,

equivalencia de definicióneseditar

pruebas de equivalencia entre la definición de entropía en Mecánica Estadística (la fórmula de entropía de Gibbs S = − K B ∑ I p I log ⁡ p i {\displaystyle S=-k_{\mathrm {B} }\sum _{i}p_{i}\log p_{i}} ) y en termodinámica clásica ( d s = δ q rev t {\displaystyle dS={\frac {\delta Q_{\text{Rev}}}{t}}} junto con la relación termodinámica fundamental) son conocidos por el conjunto microcanónico, el conjunto canónico, el gran conjunto canónico y el conjunto isotérmico–isobárico., Estas pruebas se basan en la densidad de probabilidad de los microestados de la distribución generalizada de Boltzmann y la identificación de la energía interna termodinámica como el promedio del conjunto U = E E i ⟩ {\displaystyle U=\left\langle E_{I}\right\rangle } . Las relaciones termodinámicas se emplean entonces para derivar la conocida fórmula de entropía de Gibbs. Sin embargo, la equivalencia entre la fórmula de entropía de Gibbs y la definición termodinámica de entropía no es una relación termodinámica fundamental, sino más bien una consecuencia de la forma de la distribución generalizada de Boltzmann.