Entropía (termodinámica estadística)

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

El concepto de entropía fue desarrollado por primera vez por el físico alemán Rudolf Clausius a mediados del siglo XIX como una propiedad termodinámica que predice que ciertos procesos espontáneos son irreversibles o imposibles. En mecánica estadística, la entropía se formula como una propiedad estadística utilizando la teoría de la probabilidad. La perspectiva de la entropía estadística fue introducida en 1870 por el físico austríaco Ludwig Boltzmann, quien estableció un nuevo campo de la física que proporcionaba el vínculo descriptivo entre la observación macroscópica de la naturaleza y la visión microscópica basada en el tratamiento riguroso de grandes conjuntos de estados microscópicos que constituyen los sistemas termodinámicos.

El principio de Boltzmann

Ludwig Boltzmann definió la entropía como una medida del número de posibles estados microscópicos (microestados) de un sistema en equilibrio termodinámico, consistente con sus propiedades termodinámicas macroscópicas, que constituyen el macroestado del sistema. Un ejemplo útil es el de una muestra de gas contenida en un recipiente. Los parámetros fácilmente medibles de volumen, presión y temperatura del gas describen su condición macroscópica (estado). A nivel microscópico, el gas consiste en una gran cantidad de átomos o moléculas que se mueven libremente, que chocan aleatoriamente entre sí y con las paredes del recipiente. Las colisiones con las paredes producen la presión macroscópica del gas, que ilustra la conexión entre los fenómenos microscópicos y macroscópicos.

Un microestado del sistema es una descripción de las posiciones y momentos de todas sus partículas. La gran cantidad de partículas del gas proporciona una cantidad infinita de posibles microestados para la muestra, pero colectivamente exhiben un promedio bien definido de configuración, que se exhibe como el macroestado del sistema, al cual la contribución de cada microestado individual es despreciablemente pequeña. El conjunto de microestados comprende una distribución estadística de probabilidad para cada microestado, y el grupo de configuraciones más probables representa el estado macroscópico. Por lo tanto, el sistema puede describirse como un todo mediante solo unos pocos parámetros macroscópicos, llamados las variables termodinámicas: la energía total E, el volumen V, la presión P, la temperatura T, etc. Sin embargo, esta descripción es relativamente simple solo cuando el sistema está en un estado de equilibrio.

El equilibrio se puede ilustrar con un ejemplo sencillo: una gota de colorante alimentario que cae en un vaso de agua. El colorante se difunde de una manera complicada, que es difícil de predecir con precisión. Sin embargo, después de que haya pasado suficiente tiempo, el sistema alcanza un color uniforme, un estado mucho más fácil de describir y explicar.

Boltzmann formuló una relación simple entre la entropía y el número de microestados posibles de un sistema, que se denota con el símbolo Ω. La entropía S es proporcional al logaritmo natural de este número:

La constante de proporcionalidad kB es una de las constantes fundamentales de la física y se denomina constante de Boltzmann en honor a su descubridor.

Dado que |Ω| es isomorfo con el conjunto de números naturales (1,2,3,...), la entropía es cero o positiva (ln 1 = 0, ln Ω ≥ 0).

La entropía de Boltzmann describe el sistema en el que todos los microestados accesibles tienen la misma probabilidad. Es la configuración correspondiente al máximo de entropía en el equilibrio. La aleatoriedad o desorden es máximo, y también lo es la falta de distinción (o información) de cada microestado.

La entropía es una propiedad termodinámica, al igual que la presión, el volumen o la temperatura. Por lo tanto, conecta la visión del mundo microscópica con la macroscópica.

El principio de Boltzmann se considera la base de la mecánica estadística.

Gibbs entropía fórmula

El estado macroscópico de un sistema se caracteriza por una distribución en los microestados. La entropía de esta distribución es dada por la fórmula entropía Gibbs, llamada por J. Willard Gibbs. Para un sistema clásico (es decir, una colección de partículas clásicas) con un conjunto discreto de microstates, si es la energía de microstate i, y es la probabilidad que ocurre durante las fluctuaciones del sistema, entonces la entropía del sistema es

Cambios de entropía para sistemas en estado canónico

Un sistema con una temperatura bien definida, es decir, uno en equilibrio térmico con un depósito térmico, tiene una probabilidad de estar en un microstate i dada por la distribución de Boltzmann.

Los cambios en la entropía causados por los cambios en las limitaciones externas son entonces dados por:

donde hemos utilizado dos veces la conservación de la probabilidad, . i = 0.

Ahora, .i d()Ei pi) es el valor de expectativa del cambio en la energía total del sistema.

Si los cambios son suficientemente lentos, por lo que el sistema permanece en el mismo estado microscópico, pero el estado cambia lentamente (y reversiblemente) .i ()DEi) pi es el valor de expectativa del trabajo realizado en el sistema a través de este proceso reversible, rev.

Pero de la primera ley de la termodinámica, DE = δw + δq. Por lo tanto,

En el límite termodinámico, la fluctuación de las cantidades macroscópicas de sus valores promedio se vuelve insignificante, por lo que se reproduce la definición de entropía de la termodinámica clásica, dada anteriormente.

La cantidad es una constante física conocida como la constante de Boltzmann. El factor restante de la ecuación, toda la suma es sin dimensión, ya que el valor es una probabilidad y por lo tanto sin dimensión, y el logaritmo es a la base de la constante matemática sin dimensión e. De ahí que las unidades derivadas de SI en ambos lados de la ecuación sean iguales a la capacidad de calor:

Esta definición sigue siendo significativa incluso cuando el sistema está lejos del equilibrio. Otras definiciones suponen que el sistema está en equilibrio térmico, ya sea como un sistema aislado o como un sistema en intercambio con su entorno. El conjunto de microestados (con distribución de probabilidad) sobre el que se realiza la suma se denomina conjunto estadístico. Cada tipo de conjunto estadístico (microcanónico, canónico, grancanónico, etc.) describe una configuración diferente de los intercambios del sistema con el exterior, que varía desde un sistema completamente aislado hasta un sistema que puede intercambiar una o más cantidades con un reservorio, como energía, volumen o moléculas. En cada conjunto, la configuración de equilibrio del sistema está dictada por la maximización de la entropía de la unión del sistema y su reservorio, de acuerdo con la segunda ley de la termodinámica (véase el artículo de mecánica estadística).

Despreciar las correlaciones (o, más generalmente, las dependencias estadísticas) entre los estados de partículas individuales conducirá a una distribución de probabilidad incorrecta en los microestados y, por lo tanto, a una sobrestimación de la entropía. Tales correlaciones ocurren en cualquier sistema con partículas que interactúan de manera no trivial, es decir, en todos los sistemas más complejos que un gas ideal.

Esta S se denomina casi universalmente simplemente entropía. También se la puede llamar entropía estadística o entropía termodinámica sin cambiar el significado. Nótese que la expresión anterior de la entropía estadística es una versión discretizada de la entropía de Shannon. La fórmula de la entropía de von Neumann es una extensión de la fórmula de la entropía de Gibbs al caso de la mecánica cuántica.

Se ha demostrado que la Entropía Gibbs es igual a la entropía clásica del "motor de calor" caracterizada por , y la distribución generalizada Boltzmann es una condición suficiente y necesaria para esta equivalencia. Además, la Entropía Gibbs es la única entropía que equivale a la entropía clásica del "motor de calor" bajo los siguientes postulados:

  1. La función de densidad de probabilidad es proporcional a alguna función de los parámetros de conjunto y variables aleatorias.
  2. Las funciones termodinámicas del estado se describen por promedios conjuntos de variables aleatorias.
  3. A temperatura infinita, todos los microstates tienen la misma probabilidad.

Conjuntos

Los diversos conjuntos utilizados en la termodinámica estadística están vinculados a la entropía por las siguientes relaciones:

  • es la función de partición microcanónica
  • es la función de partición canónica
  • es la gran función de partición canónica

Orden por el caos y la segunda ley de la termodinámica

Podemos pensar en Ω como una medida de nuestra falta de conocimiento sobre un sistema. Para ilustrar esta idea, considere un conjunto de 100 monedas, cada una de las cuales es cara o cruz. En este ejemplo, supongamos que los macroestados se especifican por el número total de caras y cruces, mientras que los microestados se especifican por las caras de cada moneda individual (es decir, el orden exacto en el que aparecen caras y cruces). Para los macroestados de 100 caras o 100 cruces, hay exactamente una configuración posible, por lo que nuestro conocimiento del sistema es completo. En el extremo opuesto, el macroestado que nos da el menor conocimiento sobre el sistema consiste en 50 caras y 50 cruces en cualquier orden, para lo cual hay 100.891.344.545.564.193.334.812.497.256 (100 elige 50) ≈ 1029 posibles microestados.

Incluso cuando un sistema está completamente aislado de las influencias externas, su microestado cambia constantemente. Por ejemplo, las partículas de un gas se mueven constantemente y, por lo tanto, ocupan una posición diferente en cada momento; sus momentos también cambian constantemente cuando chocan entre sí o con las paredes del recipiente. Supongamos que preparamos el sistema en un estado de equilibrio artificialmente muy ordenado. Por ejemplo, imaginemos dividir un recipiente con un tabique y colocar un gas en un lado del tabique y el vacío en el otro lado. Si quitamos el tabique y observamos el comportamiento posterior del gas, descubriremos que su microestado evoluciona de acuerdo con un patrón caótico e impredecible y que, en promedio, estos microestados corresponderán a un macroestado más desordenado que antes. Es posible, pero extremadamente improbable, que las moléculas de gas reboten entre sí de tal manera que permanezcan en una mitad del recipiente. Es sumamente probable que el gas se distribuya para llenar el recipiente de manera uniforme, lo que constituye el nuevo macroestado de equilibrio del sistema.

Este es un ejemplo que ilustra la segunda ley de la termodinámica:

la entropía total de cualquier sistema termodinámico aislado tiende a aumentar con el tiempo, acercándose a un valor máximo.

Desde su descubrimiento, esta idea ha sido objeto de una gran cantidad de reflexiones, algunas de ellas confusas. Un punto de confusión principal es el hecho de que la Segunda Ley se aplica sólo a sistemas aislados. Por ejemplo, la Tierra no es un sistema aislado porque recibe constantemente energía en forma de luz solar. En cambio, el universo puede considerarse un sistema aislado, de modo que su entropía total aumenta constantemente. (Necesita una aclaración. Véase: Segunda ley de la termodinámica#cite note-Grandy 151-21)

Contando microestados

En la mecánica estadística clásica, el número de microestados es en realidad incontablemente infinito, ya que las propiedades de los sistemas clásicos son continuas. Por ejemplo, un microestado de un gas ideal clásico se especifica por las posiciones y los momentos de todos los átomos, que varían continuamente a lo largo de los números reales. Si queremos definir Ω, tenemos que idear un método para agrupar los microestados para obtener un conjunto contable. Este procedimiento se conoce como granulado grueso. En el caso del gas ideal, contamos dos estados de un átomo como el "mismo" estado si sus posiciones y momentos están dentro de δx y δp entre sí. Dado que los valores de δx y δp se pueden elegir arbitrariamente, la entropía no está definida de forma única. Está definida solo hasta una constante aditiva. (Como veremos, la definición termodinámica de entropía también está definida sólo hasta una constante.)

Para evitar el granulado grueso, se puede tomar la entropía tal como se define en el teorema H.

Sin embargo, esta ambigüedad se puede resolver con la mecánica cuántica. El estado cuántico de un sistema se puede expresar como una superposición de estados "base", que se pueden elegir como estados propios de energía (es decir, estados propios del hamiltoniano cuántico). Por lo general, los estados cuánticos son discretos, aunque puede haber un número infinito de ellos. Para un sistema con una energía específica E, se toma Ω como el número de estados propios de energía dentro de un rango de energía macroscópicamente pequeño entre E y E + δE. En el límite termodinámico, la entropía específica se vuelve independiente de la elección de δE.

Un resultado importante, conocido como el teorema de Nernst o la tercera ley de la termodinámica, establece que la entropía de un sistema a temperatura absoluta cero es una constante bien definida. Esto se debe a que un sistema a temperatura cero existe en su estado de energía más bajo, o estado fundamental, de modo que su entropía está determinada por la degeneración del estado fundamental. Muchos sistemas, como las redes cristalinas, tienen un estado fundamental único y (dado que ln(1) = 0) esto significa que tienen entropía cero en el cero absoluto. Otros sistemas tienen más de un estado con la misma energía más baja y tienen una "entropía de punto cero" que no desaparece. Por ejemplo, el hielo ordinario tiene una entropía de punto cero de 3,41 J/(mol⋅K), porque su estructura cristalina subyacente posee múltiples configuraciones con la misma energía (un fenómeno conocido como frustración geométrica).

La tercera ley de la termodinámica establece que la entropía de un cristal perfecto en el cero absoluto (0 kelvin) es cero. Esto significa que casi todo movimiento molecular debería cesar. La ecuación del oscilador para predecir los niveles vibracionales cuantizados muestra que incluso cuando el número cuántico vibracional es 0, la molécula aún tiene energía vibracional:

Donde Es constante de Planck, es la frecuencia característica de la vibración, y es el número cuántico vibracional. Incluso cuando (la energía de cero puntos), no es igual 0, en cumplimiento del principio de incertidumbre Heisenberg.

Véase también

  • Pertzmann constante
  • Configuración entropía
  • Entropía conformacional
  • Enthalpy
  • Entropy
  • Entropía ( termodinámica clásica)
  • Entropía (dispersión energética)
  • Entropía de mezcla
  • Entropía (orden y trastorno)
  • Entropía (teoría de la información)
  • Historia de la entropía
  • Teoría de la información
  • Energía libre termodinámica
  • Tsallis entropy

Referencias

  1. ^ a b E.T. Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391 (1965); https://doi.org/10.1119/1.1971557
  2. ^ Gao, Xiang; Gallicchio, Emilio; Roitberg, Adrian (2019). "La distribución generalizada de Boltzmann es la única distribución en la que la entropía Gibbs-Shannon equivale a la entropía termodinámica". The Journal of Chemical Physics. 151 (3): 034113. arXiv:1903.021. Bibcode:2019JChPh.151c4113G. doi:10.1063/1.5111333. PMID 31325924. S2CID 118981017.
  3. ^ Gao, Xiang (marzo 2022). "Las matemáticas de la teoría del conjunto". Resultados en Física. 34: 105230. arXiv:2006.00485. Bibcode:2022 ResPh..3405230G. doi:10.1016/j.rinp.2022.105230. S2CID 221978379.
  4. ^ Boltzmann, Ludwig (enero de 1995). Conferencias sobre Teoría de Gas. Courier Corporation. ISBN 0-486-68455-5.
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save