Entropía

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

La entropía es un concepto científico, así como una propiedad física medible que se asocia más comúnmente con un estado de desorden, aleatoriedad o incertidumbre. El término y el concepto se utilizan en diversos campos, desde la termodinámica clásica, donde se reconoció por primera vez, hasta la descripción microscópica de la naturaleza en la física estadística y los principios de la teoría de la información. Ha encontrado aplicaciones de gran alcance en química y física, en sistemas biológicos y su relación con la vida, en cosmología, economía, sociología, meteorología, cambio climático y sistemas de información, incluida la transmisión de información en telecomunicaciones.

El científico e ingeniero escocés Macquorn Rankine se refirió al concepto termodinámico en 1850 con los nombres función termodinámica y potencial calorífico. En 1865, el físico alemán Rudolf Clausius, uno de los principales fundadores del campo de la termodinámica, la definió como el cociente entre una cantidad infinitesimal de calor y la temperatura instantánea. Inicialmente lo describió como contenido de transformación, en alemán Verwandlungsinhalt, y luego acuñó el término entropía de una palabra griega para transformación. Refiriéndose a la constitución y estructura microscópica, en 1862, Clausius interpretó el concepto en el sentido de disgregación.

Una consecuencia de la entropía es que ciertos procesos son irreversibles o imposibles, además del requisito de no violar la conservación de la energía, esta última expresada en la primera ley de la termodinámica. La entropía es fundamental para la segunda ley de la termodinámica, que establece que la entropía de los sistemas aislados que se dejan en evolución espontánea no puede disminuir con el tiempo, ya que siempre llegan a un estado de equilibrio termodinámico, donde la entropía es más alta.

El físico austriaco Ludwig Boltzmann explicó la entropía como la medida del número de arreglos o estados microscópicos posibles de átomos y moléculas individuales de un sistema que cumplen con la condición macroscópica del sistema. Introdujo así el concepto de desorden estadístico y distribuciones de probabilidad en un nuevo campo de la termodinámica, llamado mecánica estadística, y encontró el vínculo entre las interacciones microscópicas, que fluctúan alrededor de una configuración promedio, con el comportamiento observable macroscópicamente, en forma de un logarítmico simple. ley, con una constante de proporcionalidad, la constante de Boltzmann, que se ha convertido en una de las constantes universales definitorias para el Sistema Internacional de Unidades (SI) moderno.

En 1948, el científico de Bell Labs, Claude Shannon, desarrolló conceptos estadísticos similares para medir la incertidumbre microscópica y la multiplicidad para el problema de las pérdidas aleatorias de información en las señales de telecomunicaciones. Por sugerencia de John von Neumann, Shannon nombró entropía a esta entidad de información faltante de manera análoga a su uso en la mecánica estadística, y dio origen al campo de la teoría de la información. Esta descripción ha sido identificada como una definición universal del concepto de entropía.

Historia

En su artículo de 1803, Principios fundamentales de equilibrio y movimiento, el matemático francés Lazare Carnot propuso que en cualquier máquina, las aceleraciones y sacudidas de las partes móviles representan pérdidas de momento de actividad; en todo proceso natural existe una tendencia inherente a la disipación de energía útil. En 1824, basándose en ese trabajo, el hijo de Lazare, Sadi Carnot, publicó Reflexiones sobre la fuerza motriz del fuego., que postulaba que en todas las máquinas térmicas, siempre que "calórico" (lo que ahora se conoce como calor) cae a través de una diferencia de temperatura, se puede producir trabajo o fuerza motriz a partir de las acciones de su caída de un cuerpo caliente a uno frío. Usó una analogía con cómo cae el agua en una rueda de agua. Esa fue una visión temprana de la segunda ley de la termodinámica. Carnot basó sus puntos de vista sobre el calor parcialmente en la "hipótesis newtoniana" de principios del siglo XVIII de que tanto el calor como la luz eran tipos de formas indestructibles de materia, que son atraídas y repelidas por otra materia, y parcialmente en los puntos de vista contemporáneos del Conde Rumford, quien mostró en 1789 que el calor podía generarse por fricción, como cuando se mecanizan los orificios de los cañones.Carnot razonó que si el cuerpo de la sustancia de trabajo, como un cuerpo de vapor, vuelve a su estado original al final de un ciclo completo del motor, "no se produce ningún cambio en la condición del cuerpo de trabajo".

La primera ley de la termodinámica, deducida de los experimentos calor-fricción de James Joule en 1843, expresa el concepto de energía y su conservación en todos los procesos; la primera ley, sin embargo, no es adecuada para cuantificar por separado los efectos de la fricción y la disipación.

En las décadas de 1850 y 1860, el físico alemán Rudolf Clausius se opuso a la suposición de que no se produce ningún cambio en el cuerpo de trabajo y le dio a ese cambio una interpretación matemática al cuestionar la naturaleza de la pérdida inherente de calor utilizable cuando se realiza trabajo, por ejemplo, calor. producido por la fricción. Describió sus observaciones como un uso disipativo de energía, que resulta en una transformación-contenido (Verwandlungsinhalt en alemán), de un sistema termodinámico o cuerpo de trabajo de especies químicas durante un cambio de estado.Eso contrastaba con puntos de vista anteriores, basados ​​en las teorías de Isaac Newton, de que el calor era una partícula indestructible que tenía masa. Clausius descubrió que la energía no utilizable aumenta a medida que el vapor pasa de la entrada al escape en una máquina de vapor. Del prefijo en-, como en 'energía', y de la palabra griega τροπή [tropē], que se traduce en un léxico establecido como giro o cambio y que él tradujo en alemán como Verwandlung, una palabra a menudo traducida al inglés como transformación, en 1865 Clausius acuñó el nombre de esa propiedad como entropía. La palabra fue adoptada en el idioma inglés en 1868.

Más tarde, científicos como Ludwig Boltzmann, Josiah Willard Gibbs y James Clerk Maxwell dieron a la entropía una base estadística. En 1877, Boltzmann visualizó una forma probabilística de medir la entropía de un conjunto de partículas de gas ideal, en la que definió la entropía como proporcional al logaritmo natural del número de microestados que podría ocupar dicho gas. La constante de proporcionalidad en esta definición, llamada constante de Boltzmann, se ha convertido en una de las constantes universales definitorias para el Sistema Internacional de Unidades (SI) moderno. De ahora en adelante, el problema esencial en termodinámica estadística ha sido determinar la distribución de una cantidad dada de energía E sobre Nsistemas idénticos. Constantin Carathéodory, un matemático griego, vinculó la entropía con una definición matemática de irreversibilidad, en términos de trayectorias e integrabilidad.

Etimología

En 1865, Clausius denominó entropía (Entropie) al concepto de "la diferencia de una cantidad que depende de la configuración del sistema", por la palabra griega que significa "transformación". Dio "contenido transformacional" (Verwandlungsinhalt) como sinónimo, en paralelo con su "contenido térmico y ergonal" (Wärme- und Werkinhalt) como el nombre de tu, pero prefiriendo el término entropía como un paralelo cercano de la palabra energía, ya que encontró los conceptos casi "análogos en su significado físico". Este término se formó reemplazando la raíz de ἔργον ('ergon', 'trabajo') por la de τροπή ('tropía', 'transformación').

Con más detalle, Clausius explicó su elección de "entropía" como nombre de la siguiente manera:

Prefiero ir a las lenguas antiguas para los nombres de cantidades científicas importantes, para que puedan significar lo mismo en todas las lenguas vivas. Propongo, por tanto, llamar S a la entropía de un cuerpo, por la palabra griega "transformación". He acuñado a propósito la palabra entropía para que sea similar a la energía, porque estas dos cantidades son tan análogas en su significado físico, que una analogía de las denominaciones me parece útil.

Leon Cooper agregó que de esta manera “logró acuñar una palabra que significaba lo mismo para todos: nada”.

Definiciones y descripciones

Cualquier método que involucre la noción de entropía, cuya existencia misma depende de la segunda ley de la termodinámica, sin duda les parecerá a muchos inverosímil y puede repeler a los principiantes por ser oscuro y difícil de comprender.

Willard Gibbs, Métodos gráficos en la termodinámica de fluidos

El concepto de entropía se describe mediante dos enfoques principales, la perspectiva macroscópica de la termodinámica clásica y la descripción microscópica central de la mecánica estadística. El enfoque clásico define la entropía en términos de propiedades físicas medibles macroscópicamente, como la masa aparente, el volumen, la presión y la temperatura. La definición estadística de entropía la define en términos de las estadísticas de los movimientos de los constituyentes microscópicos de un sistema, modelado al principio de forma clásica, por ejemplo, partículas newtonianas que constituyen un gas, y luego de forma mecánica cuántica (fotones, fonones, espines, etc.). Los dos enfoques forman una visión uniforme y unificada del mismo fenómeno tal como se expresa en la segunda ley de la termodinámica, que ha encontrado una aplicabilidad universal a los procesos físicos.

Variables de estado y funciones de estado

Muchas propiedades termodinámicas están definidas por variables físicas que definen un estado de equilibrio termodinámico; estas son variables de estado. Las variables de estado dependen únicamente de la condición de equilibrio, no del camino de evolución hacia ese estado. Las variables de estado pueden ser funciones de estado, también llamadas funciones de estado, en el sentido de que una variable de estado es una función matemática de otras variables de estado. A menudo, si se determinan algunas propiedades de un sistema, son suficientes para determinar el estado del sistema y, por lo tanto, los valores de otras propiedades. Por ejemplo, la temperatura y la presión de una determinada cantidad de gas determinan su estado y, por lo tanto, también su volumen mediante la ley de los gases ideales. Se determina un sistema compuesto por una sustancia pura de una sola fase a una temperatura y presión uniformes particulares, y por lo tanto es un estado particular, y tiene no solo un volumen particular sino también una entropía específica.El hecho de que la entropía sea una función de estado lo hace útil. En el ciclo de Carnot, el fluido de trabajo vuelve al mismo estado que tenía al comienzo del ciclo, por lo tanto, el cambio o la integral de línea de cualquier función de estado, como la entropía, en este ciclo reversible es cero.

Proceso reversible

La entropía total puede conservarse durante un proceso reversible. El cambio de entropía del sistema (sin incluir los alrededores) está bien definida como calor transferido al sistema dividido por la temperatura del sistema , {textstyle dS={frac {delta Q_{text{rev}}}{T}}}. Un proceso reversible es cuasiestático que se desvía solo infinitesimalmente del equilibrio termodinámico y evita la fricción u otra disipación. Cualquier proceso que ocurra lo suficientemente rápido como para desviarse del equilibrio térmico no puede ser reversible, la entropía total aumenta y también se pierde el potencial para realizar el máximo trabajo en el proceso. Por ejemplo, en el ciclo de Carnot, mientras que el flujo de calor del reservorio caliente al reservorio frío representa un aumento en la entropía, la producción de trabajo, si se almacena de manera reversible y perfecta en algún mecanismo de almacenamiento de energía, representa una disminución en la entropía que podría usarse operar el motor térmico en reversa y volver al estado anterior; por lo tanto el totalel cambio de entropía aún puede ser cero en todo momento si todo el proceso es reversible. Un proceso irreversible aumenta la entropía total del sistema y sus alrededores.

Ciclo de carnot

El concepto de entropía surgió del estudio de Rudolf Clausius sobre el ciclo de Carnot. En un ciclo de Carnot, el calor Q H se absorbe isotérmicamente a la temperatura T H de un reservorio 'caliente' y se entrega isotérmicamente como calor Q C a un reservorio 'frío' a T C. De acuerdo con el principio de Carnot, el sistema solo puede producir trabajo cuando hay una diferencia de temperatura, y el trabajo debe ser una función de la diferencia de temperatura y el calor absorbido (Q H). Carnot no distinguió entre Q H y Q C, ya que estaba utilizando la hipótesis incorrecta de que la teoría calórica era válida y, por lo tanto, el calor se conservaba (la suposición incorrecta de que Q H y Q C eran iguales en magnitud) cuando, de hecho, Q H es mayor que la magnitud de Q C. Gracias a los esfuerzos de Clausius y Kelvin, ahora se sabe que el trabajo máximo que puede producir una máquina térmica es el producto de la eficiencia de Carnot y el calor absorbido del depósito caliente:

{displaystyle W=left({frac {T_{text{H}}-T_{text{C}}}{T_{text{H}}}}right)Q_{text{H }}=left(1-{frac {T_{text{C}}}{T_{text{H}}}}right)Q_{text{H}}} (1)

Para obtener la eficiencia de Carnot, que es 1 − T C / T H (un número menor que uno), Kelvin tuvo que evaluar la relación entre la producción de trabajo y el calor absorbido durante la expansión isotérmica con la ayuda de la ecuación de Carnot-Clapeyron., que contenía una función desconocida llamada función de Carnot. La posibilidad de que la función de Carnot pudiera ser la temperatura medida desde un punto cero de temperatura fue sugerida por Joule en una carta a Kelvin. Esto permitió a Kelvin establecer su escala de temperatura absoluta. También se sabe que el trabajo neto W producido por el sistema en un ciclo es el calor neto absorbido, que es la suma (o diferencia de las magnitudes) del calor Q H> 0 absorbido del depósito caliente y el calor residual Q C < 0 cedido al depósito frío:

{displaystyle W=Q_{text{H}}+Q_{text{C}}} (2)

Dado que este último es válido durante todo el ciclo, esto le dio a Clausius la pista de que en cada etapa del ciclo, el trabajo y el calor no serían iguales, sino que su diferencia sería el cambio de una función de estado que se desvanecería al completar el ciclo. ciclo. La función de estado se denominó energía interna central de la primera ley de la termodinámica.

Ahora igualando (1) y (2) da

{displaystyle {frac {Q_{text{H}}}{T_{text{H}}}}+{frac {Q_{text{C}}}{T_{text{C}} }}=0}

Esto implica que existe una función de estado cuyo cambio es Q / T y que se conserva durante un ciclo completo del ciclo de Carnot. Clausius llamó a esta función de estado entropía. Se puede ver que la entropía se descubrió a través de las matemáticas y no a través de resultados de laboratorio. Es una construcción matemática y no tiene una analogía física fácil. Esto hace que el concepto sea algo oscuro o abstracto, similar a cómo surgió el concepto de energía.

Clausius luego preguntó qué pasaría si el sistema produjera menos trabajo que el predicho por el principio de Carnot. El lado derecho de la primera ecuación sería el límite superior de la producción de trabajo del sistema, que ahora se convertiría en una desigualdad

<img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/f9fa0959c4857413a137bb560b9c0e2c88af976b" alt="{displaystyle W

Cuando se usa la segunda ecuación para expresar el trabajo como calor neto o total intercambiado en un ciclo, obtenemos

<img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/3ec191b9e67decc6f9a538939d8fba09cd9050f6" alt="{displaystyle Q_{text{H}}+Q_{text{C}}o

{frac {T_{text{C}}}{T_{text{H}}}}Q_{text{H}}}">

Por lo tanto, se entrega más calor al depósito frío que en el ciclo de Carnot. Si denotamos los cambios de entropía por Δ S i = Q i / T i para las dos etapas del proceso, entonces la desigualdad anterior se puede escribir como una disminución en la entropía

<img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/72ec855ffb4e1a0bc78dcd55c8f81931280a41e7" alt="{displaystyle Delta S_{text{H}}+Delta S_{text{C}}o

<img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/8fa7b372cbea4388617e4388e00726156231622b" alt="{displaystyle Delta S_{text{H}}

La magnitud de la entropía que sale del sistema es mayor que la entropía que entra en el sistema, lo que implica que algún proceso irreversible impide que el ciclo produzca la cantidad máxima de trabajo predicha por la ecuación de Carnot.

El ciclo de Carnot y la eficiencia son útiles porque definen el límite superior de la posible producción de trabajo y la eficiencia de cualquier máquina térmica termodinámica clásica. Otros ciclos, como el ciclo Otto, el ciclo Diesel y el ciclo Brayton, pueden analizarse desde el punto de vista del ciclo Carnot. Cualquier máquina o proceso cíclico que convierta calor en trabajo y se afirme que produce una eficiencia mayor que la eficiencia de Carnot no es viable porque viola la segunda ley de la termodinámica. Para cantidades muy pequeñas de partículas en el sistema, se debe usar la termodinámica estadística. La eficiencia de dispositivos como las células fotovoltaicas requiere un análisis desde el punto de vista de la mecánica cuántica.

Termodinámica clásica

La definición termodinámica de entropía fue desarrollada a principios de la década de 1850 por Rudolf Clausius y esencialmente describe cómo medir la entropía de un sistema aislado en equilibrio termodinámico con sus partes. Clausius creó el término entropía como una variable termodinámica extensa que demostró ser útil para caracterizar el ciclo de Carnot. Se encontró que la transferencia de calor a lo largo de los pasos de la isoterma del ciclo de Carnot es proporcional a la temperatura de un sistema (conocida como su temperatura absoluta). Esta relación se expresó en incrementos de entropía iguales a la relación de la transferencia de calor incremental dividida por la temperatura, que se encontró que variaba en el ciclo termodinámico pero eventualmente volvía al mismo valor al final de cada ciclo. Así se encontró que era una función de estado, específicamente un estado termodinámico del sistema.

Si bien Clausius basó su definición en un proceso reversible, también existen procesos irreversibles que cambian la entropía. Siguiendo la segunda ley de la termodinámica, la entropía de un sistema aislado siempre aumenta para procesos irreversibles. La diferencia entre un sistema aislado y un sistema cerrado es que es posible que la energía no fluya hacia y desde un sistema aislado, pero sí es posible el flujo de energía hacia y desde un sistema cerrado. Sin embargo, tanto para sistemas cerrados como aislados y, de hecho, también en sistemas abiertos, pueden ocurrir procesos termodinámicos irreversibles.

Según la igualdad de Clausius, para un proceso cíclico reversible: {textstyle oint {frac {delta Q_{text{rev}}}{T}}=0}. Esto significa que la integral de línea {estilo de texto int _{L}{frac {delta Q_{text{rev}}}{T}}}es independiente de la ruta.

Entonces podemos definir una función de estado S llamada entropía, que satisface {textstyle dS={frac {delta Q_{text{rev}}}{T}}}.

Para encontrar la diferencia de entropía entre dos estados cualesquiera de un sistema, la integral debe evaluarse para algún camino reversible entre los estados inicial y final. Dado que la entropía es una función de estado, el cambio de entropía del sistema para un camino irreversible es el mismo que para un camino reversible entre los mismos dos estados. Sin embargo, el calor transferido hacia o desde, y el cambio de entropía del entorno es diferente.

Solo podemos obtener el cambio de entropía integrando la fórmula anterior. Para obtener el valor absoluto de la entropía, necesitamos la tercera ley de la termodinámica, que establece que S = 0 en el cero absoluto para cristales perfectos.

Desde una perspectiva macroscópica, en la termodinámica clásica la entropía se interpreta como una función de estado de un sistema termodinámico: es decir, una propiedad que depende únicamente del estado actual del sistema, independientemente de cómo se haya alcanzado ese estado. En cualquier proceso en el que el sistema cede energía Δ E, y su entropía cae en Δ S, una cantidad de al menos T R Δ S de esa energía debe entregarse al entorno del sistema en forma de calor (T Res la temperatura del entorno externo del sistema). De lo contrario, el proceso no puede seguir adelante. En termodinámica clásica, la entropía de un sistema se define solo si está en equilibrio termodinámico físico (pero no se requiere equilibrio químico: la entropía de una mezcla de dos moles de hidrógeno y un mol de oxígeno a 1 bar de presión y 298 K es bien definido).

Mecánica estadística

La definición estadística fue desarrollada por Ludwig Boltzmann en la década de 1870 al analizar el comportamiento estadístico de los componentes microscópicos del sistema. Boltzmann demostró que esta definición de entropía era equivalente a la entropía termodinámica dentro de un factor constante, conocido como la constante de Boltzmann. En resumen, la definición termodinámica de entropía proporciona la definición experimental de entropía, mientras que la definición estadística de entropía amplía el concepto, proporcionando una explicación y una comprensión más profunda de su naturaleza.

La interpretación de la entropía en la mecánica estadística es la medida de la incertidumbre, el desorden o la confusión.en la frase de Gibbs, que permanece sobre un sistema después de que se han tenido en cuenta sus propiedades macroscópicas observables, como la temperatura, la presión y el volumen. Para un conjunto dado de variables macroscópicas, la entropía mide el grado en que la probabilidad del sistema se distribuye entre diferentes microestados posibles. En contraste con el macroestado, que caracteriza cantidades promedio claramente observables, un microestado especifica todos los detalles moleculares sobre el sistema, incluidas la posición y la velocidad de cada molécula. Cuantos más estados de este tipo estén disponibles para el sistema con una probabilidad apreciable, mayor será la entropía. En mecánica estadística, la entropía es una medida del número de formas en que se puede organizar un sistema, a menudo tomada como una medida de "desorden" (cuanto mayor es la entropía, mayor es el desorden).Esta definición describe la entropía como proporcional al logaritmo natural del número de posibles configuraciones microscópicas de los átomos y moléculas individuales del sistema (microestados) que podrían causar el estado macroscópico observado (macroestado) del sistema. La constante de proporcionalidad es la constante de Boltzmann.

La constante de Boltzmann y, por lo tanto, la entropía, tienen dimensiones de energía dividida por la temperatura, que tiene una unidad de julios por kelvin (J⋅K) en el Sistema Internacional de Unidades (o kg⋅m ⋅s ⋅K en términos de unidades base). La entropía de una sustancia generalmente se da como una propiedad intensiva, ya sea entropía por unidad de masa (unidad SI: J⋅K ⋅kg) o entropía por unidad de cantidad de sustancia (unidad SI: J⋅K ⋅mol).

Específicamente, la entropía es una medida logarítmica del número de estados del sistema con una probabilidad significativa de estar ocupados: {displaystyle S=-k_{mathrm {B} }sum_{i}p_{i}log p_{i},}

(Pi}es la probabilidad de que el sistema esté en ith estado, generalmente dado por la distribución de Boltzmann; si los estados se definen de manera continua, la suma se reemplaza por una integral sobre todos los estados posibles) o, de manera equivalente, el valor esperado del logaritmo de la probabilidad de que un microestado esté ocupado {displaystyle S=-k_{mathrm {B} }langle log prangle }

donde k B es la constante de Boltzmann, igual a1,380 65 × 10 J/K. La sumatoria es sobre todos los posibles microestados del sistema, y ​​p i es la probabilidad de que el sistema se encuentre en el i -ésimo microestado. Esta definición asume que el conjunto base de estados ha sido escogido para que no haya información sobre sus fases relativas. En un conjunto base diferente, la expresión más general es {displaystyle S=-k_{mathrm {B} }operatorname {Tr} ({widehat {rho }}log({widehat {rho }})),}

donde { sombrero ancho { rho}}es la matriz de densidad, nombre del operador {Tr}es rastro y Iniciar sesiónes el logaritmo matricial. Esta formulación de matriz de densidad no es necesaria en casos de equilibrio térmico siempre que los estados básicos se elijan como estados propios de energía. Para la mayoría de los propósitos prácticos, esta puede tomarse como la definición fundamental de entropía, ya que todas las demás fórmulas para S pueden derivarse matemáticamente de ella, pero no al revés.

En lo que se ha llamado el supuesto fundamental de la termodinámica estadística o el postulado fundamental de la mecánica estadística, entre los microestados del sistema de la misma energía (microestados degenerados) se supone que cada microestado está poblado con igual probabilidad; esta suposición suele estar justificada para un sistema aislado en equilibrio. Entonces para un sistema aislado p i = 1/Ω, donde Ω es el número de microestados cuya energía es igual a la energía del sistema, y ​​la ecuación anterior se reduce a {displaystyle S=k_{mathrm {B} }log Omega.}

En termodinámica, dicho sistema es aquel en el que el volumen, el número de moléculas y la energía interna son fijos (el conjunto microcanónico).

Para un sistema termodinámico dado, el exceso de entropía se define como la entropía menos la de un gas ideal a la misma densidad y temperatura, una cantidad que siempre es negativa porque un gas ideal está desordenado al máximo. Este concepto juega un papel importante en la teoría del estado líquido. Por ejemplo, el principio de escala de exceso de entropía de Rosenfeld establece que los coeficientes de transporte reducidos en todo el diagrama de fase bidimensional son funciones determinadas únicamente por el exceso de entropía.

La interpretación más general de la entropía es como una medida del grado de incertidumbre sobre un sistema. El estado de equilibrio de un sistema maximiza la entropía porque no refleja toda la información sobre las condiciones iniciales, excepto las variables conservadas. Esta incertidumbre no es del tipo subjetivo cotidiano, sino la incertidumbre inherente al método experimental y al modelo interpretativo.

El modelo interpretativo tiene un papel central en la determinación de la entropía. El calificador anterior "para un conjunto dado de variables macroscópicas" tiene profundas implicaciones: si dos observadores usan diferentes conjuntos de variables macroscópicas, ven diferentes entropías. Por ejemplo, si el observador A usa las variables U, V y W, y el observador B usa U, V, W, X, entonces, al cambiar X, el observador B puede causar un efecto que parece una violación de la segunda ley de la termodinámica al observador A. En otras palabras: el conjunto de variables macroscópicas que uno elija debe incluir todo lo que puede cambiar en el experimento, de lo contrario, podría ver una entropía decreciente.

La entropía se puede definir para cualquier proceso de Markov con dinámica reversible y la propiedad de equilibrio detallada.

En Lectures on Gas Theory de Boltzmann de 1896, demostró que esta expresión da una medida de la entropía para los sistemas de átomos y moléculas en la fase gaseosa, proporcionando así una medida de la entropía de la termodinámica clásica.

Entropía de un sistema

La entropía surge directamente del ciclo de Carnot. También se puede describir como el calor reversible dividido por la temperatura. La entropía es una función fundamental del estado.

En un sistema termodinámico, la presión y la temperatura tienden a volverse uniformes con el tiempo porque el estado de equilibrio tiene mayor probabilidad (más combinaciones posibles de microestados) que cualquier otro estado.

Por ejemplo, para un vaso de agua helada en el aire a temperatura ambiente, la diferencia de temperatura entre la habitación cálida (los alrededores) y el vaso frío de hielo y agua (el sistema y no parte de la habitación) disminuye a medida que las porciones de la energía térmica del entorno cálido se extendió al sistema más frío de hielo y agua. Con el tiempo, la temperatura del vaso y su contenido y la temperatura de la habitación se igualan. En otras palabras, la entropía de la habitación ha disminuido ya que parte de su energía se ha dispersado en el hielo y el agua, cuya entropía ha aumentado.

Sin embargo, como se calcula en el ejemplo, la entropía del sistema de hielo y agua ha aumentado más de lo que ha disminuido la entropía de la habitación circundante. En un sistema aislado como el de la habitación y el agua helada tomados juntos, la dispersión de energía de un lugar más cálido a uno más frío siempre da como resultado un aumento neto de la entropía. Por lo tanto, cuando el "universo" de la habitación y el sistema de agua helada ha alcanzado un equilibrio de temperatura, el cambio de entropía desde el estado inicial es máximo. La entropía del sistema termodinámico es una medida de cuánto ha progresado la ecualización.

La entropía termodinámica es una función de estado no conservada de gran importancia en las ciencias de la física y la química. Históricamente, el concepto de entropía evolucionó para explicar por qué algunos procesos (permitidos por las leyes de conservación) ocurren espontáneamente mientras que sus inversiones temporales (también permitidas por las leyes de conservación) no lo hacen; Los sistemas tienden a progresar en la dirección de una entropía creciente. Para sistemas aislados, la entropía nunca disminuye.Este hecho tiene varias consecuencias importantes en la ciencia: primero, prohíbe las máquinas de "movimiento perpetuo"; y segundo, implica que la flecha de la entropía tiene la misma dirección que la flecha del tiempo. Los aumentos en la entropía total del sistema y los alrededores corresponden a cambios irreversibles, porque parte de la energía se gasta como calor residual, lo que limita la cantidad de trabajo que puede realizar un sistema.

A diferencia de muchas otras funciones de estado, la entropía no puede observarse directamente sino que debe calcularse. La entropía molar estándar absoluta de una sustancia se puede calcular a partir de la dependencia de la temperatura medida de su capacidad calorífica. La entropía molar de los iones se obtiene como diferencia de entropía a partir de un estado de referencia definido como entropía cero. La segunda ley de la termodinámica establece que la entropía de un sistema aislado debe aumentar o permanecer constante. Por lo tanto, la entropía no es una cantidad conservada: por ejemplo, en un sistema aislado con temperatura no uniforme, el calor puede fluir irreversiblemente y la temperatura se vuelve más uniforme, de modo que la entropía aumenta.Las reacciones químicas provocan cambios en la entropía y la entropía del sistema, junto con la entalpía, juega un papel importante para determinar en qué dirección procede espontáneamente una reacción química.

Una definición de diccionario de entropía es que es "una medida de energía térmica por unidad de temperatura que no está disponible para trabajo útil" en un proceso cíclico. Por ejemplo, una sustancia a temperatura uniforme tiene la máxima entropía y no puede impulsar un motor térmico. Una sustancia a temperatura no uniforme tiene una entropía más baja (que si se permitiera que la distribución de calor se igualara) y parte de la energía térmica puede impulsar un motor térmico.

Un caso especial de aumento de entropía, la entropía de mezcla, ocurre cuando se mezclan dos o más sustancias diferentes. Si las sustancias están a la misma temperatura y presión, no hay intercambio neto de calor o trabajo; el cambio de entropía se debe por completo a la mezcla de las diferentes sustancias. A nivel mecánico estadístico, esto resulta debido al cambio en el volumen disponible por partícula con la mezcla.

Equivalencia de definiciones

Pruebas de equivalencia entre la definición de entropía en mecánica estadística (la fórmula de entropía de Gibbs {textstyle S=-k_{mathrm {B} }sum_{i}p_{i}log p_{i}}) y en la termodinámica clásica ({textstyle dS={frac {delta Q_{text{rev}}}{T}}}junto con la relación termodinámica fundamental) son conocidos por el conjunto microcanónico, el conjunto canónico, el gran conjunto canónico y el conjunto isotérmico-isobárico. Estas pruebas se basan en la densidad de probabilidad de microestados de la distribución de Boltzmann generalizada y la identificación de la energía interna termodinámica como el promedio del conjunto. {displaystyle U=leftlangle E_{i}rightrangle }. Luego se emplean relaciones termodinámicas para derivar la conocida fórmula de entropía de Gibbs. Sin embargo, la equivalencia entre la fórmula de entropía de Gibbs y la definición termodinámica de entropía no es una relación termodinámica fundamental sino una consecuencia de la forma de la distribución de Boltzmann generalizada.

Además, se ha demostrado que las definiciones de entropía en mecánica estadística es la única entropía que es equivalente a la entropía de la termodinámica clásica bajo los siguientes postulados:

  1. La función de densidad de probabilidad es proporcional a alguna función de los parámetros del conjunto y las variables aleatorias.
  2. Las funciones de estado termodinámicas se describen mediante promedios de conjuntos de variables aleatorias.
  3. A temperatura infinita, todos los microestados tienen la misma probabilidad.

Segunda ley de la termodinámica

La segunda ley de la termodinámica requiere que, en general, la entropía total de cualquier sistema no disminuya más que aumentando la entropía de algún otro sistema. Por tanto, en un sistema aislado de su entorno, la entropía de ese sistema tiende a no disminuir. De ello se deduce que el calor no puede fluir de un cuerpo más frío a un cuerpo más caliente sin la aplicación de trabajo al cuerpo más frío. En segundo lugar, es imposible que cualquier dispositivo que funcione en un ciclo produzca trabajo neto a partir de un solo depósito de temperatura; la producción de trabajo neto requiere el flujo de calor desde un reservorio más caliente a un reservorio más frío, o un solo reservorio en expansión que experimenta un enfriamiento adiabático, el cual realiza un trabajo adiabático. Como resultado, no hay posibilidad de una máquina de movimiento perpetuo. De ello se deduce que una reducción en el aumento de la entropía en un proceso específico,

De la segunda ley de la termodinámica se deduce que la entropía de un sistema que no está aislado puede disminuir. Un acondicionador de aire, por ejemplo, puede enfriar el aire de una habitación, reduciendo así la entropía del aire de ese sistema. El calor expulsado de la habitación (el sistema), que el acondicionador de aire transporta y descarga al aire exterior, siempre contribuye más a la entropía del ambiente que la disminución de la entropía del aire de ese sistema. Así, la suma de la entropía de la habitación más la entropía del ambiente aumenta, de acuerdo con la segunda ley de la termodinámica.

En mecánica, la segunda ley, junto con la relación termodinámica fundamental, impone límites a la capacidad de un sistema para realizar un trabajo útil. El cambio de entropía de un sistema a temperatura { estilo de texto T}absorbiendo una cantidad infinitesimal de calor { estilo de texto  delta q}de forma reversible, está dada por { estilo de texto  delta q / T}. Más explícitamente, una energía {textstyle T_{R}S}no está disponible para hacer un trabajo útil, donde { estilo de texto T_{R}}es la temperatura del depósito accesible más frío o del disipador de calor externo al sistema. Para más información, consulte Exergía.

La mecánica estadística demuestra que la entropía se rige por la probabilidad, lo que permite una disminución del desorden incluso en un sistema aislado. Aunque esto es posible, dicho evento tiene una pequeña probabilidad de ocurrir, lo que lo hace poco probable.

La aplicabilidad de una segunda ley de la termodinámica está limitada a sistemas en o suficientemente cerca del estado de equilibrio, de modo que tengan una entropía definida. Algunos sistemas no homogéneos fuera del equilibrio termodinámico aún satisfacen la hipótesis del equilibrio termodinámico local, por lo que la densidad de entropía se define localmente como una cantidad intensiva. Para tales sistemas, puede aplicarse un principio de máxima tasa de producción de entropía en el tiempo. Establece que tal sistema puede evolucionar a un estado estable que maximiza su tasa de producción de entropía en el tiempo. Esto no significa que tal sistema esté necesariamente siempre en una condición de máxima tasa de producción de entropía en el tiempo; significa que puede evolucionar a tal estado estable.

Aplicaciones

La relación termodinámica fundamental

La entropía de un sistema depende de su energía interna y de sus parámetros externos, como su volumen. En el límite termodinámico, este hecho conduce a una ecuación que relaciona el cambio en la energía interna tua cambios en la entropía y los parámetros externos. Esta relación se conoce como la relación termodinámica fundamental. Si la presión externa pagosos en el volumen Vcomo único parámetro externo, esta relación es: {displaystyle dU=T,dS-p,dV}

Dado que tanto la energía interna como la entropía son funciones monótonas de la temperatura T, lo que implica que la energía interna es fija cuando se especifica la entropía y el volumen, esta relación es válida incluso si el cambio de un estado de equilibrio térmico a otro con una entropía y un volumen infinitesimalmente mayores ocurre de forma no cuasiestática (por lo que durante este cambiar el sistema puede estar muy lejos del equilibrio térmico y entonces la entropía, la presión y la temperatura de todo el sistema pueden no existir).

La relación termodinámica fundamental implica muchas identidades termodinámicas que son válidas en general, independientemente de los detalles microscópicos del sistema. Ejemplos importantes son las relaciones de Maxwell y las relaciones entre capacidades caloríficas.

Entropía en termodinámica química

La entropía termodinámica es fundamental en la termodinámica química, ya que permite cuantificar los cambios y predecir el resultado de las reacciones. La segunda ley de la termodinámica establece que la entropía en un sistema aislado, la combinación de un subsistema en estudio y su entorno, aumenta durante todos los procesos químicos y físicos espontáneos. La ecuación de Clausius de {displaystyle delta q_{text{rev}}/T=Delta S}introduce la medición del cambio de entropía, Delta S. El cambio de entropía describe la dirección y cuantifica la magnitud de cambios simples como la transferencia de calor entre sistemas, siempre de más caliente a más frío de forma espontánea.

La entropía termodinámica por lo tanto tiene la dimensión de energía dividida por la temperatura, y la unidad julio por kelvin (J/K) en el Sistema Internacional de Unidades (SI).

La entropía termodinámica es una propiedad extensiva, lo que significa que escala con el tamaño o la extensión de un sistema. En muchos procesos es útil especificar la entropía como una propiedad intensiva independiente del tamaño, como una entropía específica característica del tipo de sistema estudiado. La entropía específica se puede expresar en relación con una unidad de masa, normalmente el kilogramo (unidad: J⋅kg ⋅K). Alternativamente, en química, también se refiere a un mol de sustancia, en cuyo caso se llama entropía molar con una unidad de J⋅mol ⋅K.

Así, cuando un mol de sustancia a aproximadamente0 K es calentado por su entorno a298 K, la suma de los valores incrementales de {textstyle q_{text{rev}}/T}constituyen la entropía molar estándar de cada elemento o compuesto, un indicador de la cantidad de energía almacenada por una sustancia en298 k. El cambio de entropía también mide la mezcla de sustancias como una suma de sus cantidades relativas en la mezcla final.

La entropía es igualmente esencial para predecir el alcance y la dirección de reacciones químicas complejas. Para tales aplicaciones, Delta Sdebe incorporarse en una expresión que incluya tanto al sistema como a su entorno, {displaystyle Delta S_{text{universo}}=Delta S_{text{entorno}}+Delta S_{text{sistema}}}. Esta expresión se convierte, mediante algunos pasos, en la ecuación de energía libre de Gibbs para reactivos y productos en el sistema: Delta G[el cambio de energía libre de Gibbs del sistema] { estilo de visualización =  Delta H}[el cambio de entalpía] { estilo de visualización -T ,  Delta S}[el cambio de entropía].

Capacidad tecnológica mundial para almacenar y comunicar información entrópica

Un estudio de 2011 en Science (revista) estimó la capacidad tecnológica mundial para almacenar y comunicar información comprimida de manera óptima normalizada en los algoritmos de compresión más efectivos disponibles en el año 2007, estimando así la entropía de las fuentes tecnológicamente disponibles.La estimación del autor de que la capacidad tecnológica de la humanidad para almacenar información creció de 2,6 exabytes (comprimidos entrópicamente) en 1986 a 295 exabytes (comprimidos entrópicamente) en 2007. La capacidad tecnológica mundial para recibir información a través de redes de transmisión unidireccionales fue de 432 exabytes de comprimida) en 1986, a 1,9 zettabytes en 2007. La capacidad efectiva del mundo para intercambiar información a través de redes de telecomunicaciones bidireccionales fue de 281 petabytes de información (comprimida entrópicamente) en 1986, a 65 exabytes (comprimidos entrópicamente) en 2007.

Ecuación de balance de entropía para sistemas abiertos

En ingeniería química, los principios de la termodinámica se aplican comúnmente a "sistemas abiertos", es decir, aquellos en los que el calor, el trabajo y la masa fluyen a través de la frontera del sistema. Los flujos de calor ({ punto {Q}}) y trabajo, es decir {displaystyle {punto {W}}_{text{S}}}(trabajo del eje) y { estilo de visualización P (dV/dt)}(trabajo de presión-volumen), a través de los límites del sistema, en general causan cambios en la entropía del sistema. La transferencia como calor implica transferencia de entropía. {punto {Q}}/T, donde Tes la temperatura termodinámica absoluta del sistema en el punto del flujo de calor. Si hay flujos de masa a través de los límites del sistema, también influyen en la entropía total del sistema. Esta cuenta, en términos de calor y trabajo, es válida sólo para los casos en los que las transferencias de trabajo y calor son por caminos físicamente distintos de los caminos de entrada y salida de la materia del sistema.

Para derivar una ecuación balanceada de entropía generalizada, comenzamos con la ecuación de balance general para el cambio en cualquier cantidad extensiva  thetaen un sistema termodinámico, una cantidad que puede conservarse, como la energía, o no conservarse, como la entropía. La expresión básica de equilibrio genérico establece que d  theta / dt, es decir, la tasa de cambio de  thetaen el sistema, es igual a la tasa a la cual  thetaentra al sistema en los límites, menos la tasa a la cual  thetadeja el sistema a través de los límites del sistema, más la velocidad a la que  thetase genera dentro del sistema. Para un sistema termodinámico abierto en el que el calor y el trabajo se transfieren por caminos separados de los caminos para la transferencia de materia, usando esta ecuación de equilibrio genérica, con respecto a la tasa de cambio con el tiempo tde la entropía cuantitativa extensiva S, la ecuación de balance de entropía es: {displaystyle {frac {dS}{dt}}=sum _{k=1}^{K}{dot {M}}_{k}{hat {S}}_{k}+{ frac {dot {Q}}{T}}+{dot {S}}_{text{gen}}}

donde

  • {estilo de texto sum _{k=1}^{K}{dot {M}}_{k}{sombrero {S}}_{k}}es la tasa neta de flujo de entropía debido a los flujos de masa dentro y fuera del sistema (donde {sombreros}}es la entropía por unidad de masa).
  • {textstyle {frac {dot {Q}}{T}}}es la tasa de flujo de entropía debido al flujo de calor a través del límite del sistema.
  • {textstyle {dot {S}}_{text{gen}}}es la tasa de producción de entropía dentro del sistema. Esta producción de entropía surge de procesos dentro del sistema, incluidas reacciones químicas, difusión de materia interna, transferencia de calor interna y efectos de fricción como la viscosidad que ocurre dentro del sistema debido a la transferencia de trabajo mecánico hacia o desde el sistema.

Si hay múltiples flujos de calor, el término {punto {Q}}/Tes reemplazado por {estilo de texto sum {dot {Q}}_{j}/T_{j},}donde {punto {Q}}_{j}es el flujo de calor y T_{j}es la temperatura en el jth puerto de flujo de calor en el sistema.

Tenga en cuenta que la nomenclatura "equilibrio de entropía" es engañosa y, a menudo, se considera inapropiada porque la entropía no es una cantidad conservada. En otras palabras, el término {displaystyle {dot {S}}_{text{gen}}}nunca es una cantidad conocida sino siempre una derivada basada en la expresión anterior. Por lo tanto, la versión de sistema abierto de la segunda ley se describe más apropiadamente como la "ecuación de generación de entropía", ya que especifica que {displaystyle {dot {S}}_{text{gen}}geq 0}, con cero para procesos reversibles o mayor que cero para irreversibles.

Fórmulas de cambio de entropía para procesos simples

Para ciertas transformaciones simples en sistemas de composición constante, los cambios de entropía vienen dados por fórmulas simples.

Expansión o compresión isotérmica de un gas ideal

Para la expansión (o compresión) de un gas ideal a partir de un volumen inicial V_{0}y presión P_{0}a un volumen final Vy presión PAGa cualquier temperatura constante, el cambio de entropía viene dado por: Delta S=nRln {frac {V}{V_{0}}}=-nRln {frac {P}{P_{0}}}.

Aquí nortees la cantidad de gas (en moles) y Res la constante de los gases ideales. Estas ecuaciones también se aplican a la expansión en un vacío finito o un proceso de estrangulamiento, donde la temperatura, la energía interna y la entalpía de un gas ideal permanecen constantes.

Refrigeración y calefacción

Para calentamiento o enfriamiento puro de cualquier sistema (gas, líquido o sólido) a presión constante desde una temperatura inicial T_{0}a una temperatura final T, el cambio de entropía es {displaystyle Delta S=nC_{P}ln {frac {T}{T_{0}}}.}

siempre que la capacidad calorífica molar a presión constante (o calor específico) C P sea constante y que no ocurra ninguna transición de fase en este intervalo de temperatura.

De manera similar, a volumen constante, el cambio de entropía es {displaystyle Delta S=nC_{v}ln {frac {T}{T_{0}}},}

donde la capacidad calorífica molar a volumen constante C v es constante y no hay cambio de fase.

A bajas temperaturas cercanas al cero absoluto, las capacidades caloríficas de los sólidos descienden rápidamente hasta casi cero, por lo que no se aplica la suposición de una capacidad calorífica constante.

Dado que la entropía es una función de estado, el cambio de entropía de cualquier proceso en el que varíen la temperatura y el volumen es el mismo que para un camino dividido en dos pasos: calentamiento a volumen constante y expansión a temperatura constante. Para un gas ideal, el cambio de entropía total es {displaystyle Delta S=nC_{v}ln {frac {T}{T_{0}}}+nRln {frac {V}{V_{0}}}.}

De manera similar, si la temperatura y la presión de un gas ideal varían, {displaystyle Delta S=nC_{P}ln {frac {T}{T_{0}}}-nRln {frac {P}{P_{0}}}.}

Transiciones de fase

Las transiciones de fase reversibles ocurren a temperatura y presión constantes. El calor reversible es el cambio de entalpía de la transición, y el cambio de entropía es el cambio de entalpía dividido por la temperatura termodinámica. Para la fusión (fusión) de un sólido a un líquido en el punto de fusión T m, la entropía de fusión es Delta S_{text{fus}}={frac {Delta H_{text{fus}}}{T_{text{m}}}}.

De manera similar, para la vaporización de un líquido a gas en el punto de ebullición Tb , la entropía de vaporización es Delta S_{text{vap}}={frac {Delta H_{text{vap}}}{T_{text{b}}}}.

Enfoques para comprender la entropía

Como aspecto fundamental de la termodinámica y la física, son válidos varios enfoques diferentes de la entropía más allá del de Clausius y Boltzmann.

Definiciones estándar de libros de texto

La siguiente es una lista de definiciones adicionales de entropía de una colección de libros de texto:

  • una medida de la dispersión de energía a una temperatura específica.
  • una medida del desorden en el universo o de la disponibilidad de energía en un sistema para realizar trabajo.
  • una medida de la energía térmica de un sistema por unidad de temperatura que no está disponible para realizar un trabajo útil.

En el análisis de Boltzmann en términos de partículas constituyentes, la entropía es una medida del número de posibles estados microscópicos (o microestados) de un sistema en equilibrio termodinámico.

Orden y desorden

La entropía a menudo se asocia vagamente con la cantidad de orden o desorden, o de caos, en un sistema termodinámico. La descripción cualitativa tradicional de la entropía es que se refiere a los cambios en el status quo del sistema y es una medida del "desorden molecular" y la cantidad de energía desperdiciada en una transformación de energía dinámica de un estado o forma a otro. En esta dirección, varios autores recientes han derivado fórmulas de entropía exactas para explicar y medir el desorden y el orden en conjuntos atómicos y moleculares.Una de las fórmulas de orden/desorden de entropía más simples es la derivada en 1984 por el físico termodinámico Peter Landsberg, basada en una combinación de argumentos de termodinámica y teoría de la información. Argumenta que cuando las restricciones operan en un sistema, de modo que se le impide entrar en uno o más de sus estados posibles o permitidos, en contraste con sus estados prohibidos, la medida de la cantidad total de "desorden" en el sistema está dada por: {displaystyle {text{Desorden}}={C_{text{D}} over C_{text{I}}}.,}

De manera similar, la cantidad total de "pedido" en el sistema está dada por: {displaystyle {text{Orden}}=1-{C_{text{O}} sobre C_{text{I}}}.,}

Donde C D es la capacidad de "desorden" del sistema, que es la entropía de las partes contenidas en el conjunto permitido, C I es la capacidad de "información" del sistema, expresión similar a la capacidad del canal de Shannon, y C O es la capacidad de "pedido" del sistema.

Dispersión de energía

El concepto de entropía se puede describir cualitativamente como una medida de la dispersión de energía a una temperatura específica. Se han utilizado términos similares desde principios de la historia de la termodinámica clásica, y con el desarrollo de la termodinámica estadística y la teoría cuántica, los cambios de entropía se han descrito en términos de la mezcla o "esparcimiento" de la energía total de cada constituyente de un sistema. sobre sus niveles de energía cuantizados particulares.

Las ambigüedades en los términos desorden y caos, que suelen tener significados directamente opuestos a equilibrio, contribuyen a una confusión generalizada y dificultan la comprensión de la entropía para la mayoría de los estudiantes. Como muestra la segunda ley de la termodinámica, en un sistema aislado, las porciones internas a diferentes temperaturas tienden a ajustarse a una sola temperatura uniforme y, por lo tanto, producen el equilibrio. Un enfoque educativo desarrollado recientemente evita los términos ambiguos y describe la dispersión de la energía como dispersión, lo que lleva a la pérdida de los diferenciales necesarios para el trabajo aunque la energía total permanezca constante de acuerdo con la primera ley de la termodinámica (compárese la discusión en la siguiente sección).. El químico físico Peter Atkins, en su libro de texto Química física, introduce la entropía con la afirmación de que "los cambios espontáneos siempre van acompañados de una dispersión de energía o materia y, a menudo, ambas".

Relacionar la entropía con la utilidad de la energía

Siguiendo con lo anterior, es posible (en un contexto térmico) considerar la entropía más baja como un indicador o medida de la efectividad o utilidad de una cantidad particular de energía. Esto se debe a que la energía suministrada a una temperatura más alta (es decir, con baja entropía) tiende a ser más útil que la misma cantidad de energía disponible a una temperatura más baja. Mezclar un paquete caliente de un fluido con uno frío produce un paquete de temperatura intermedia, en el que el aumento general de entropía representa una "pérdida" que nunca puede ser reemplazada.

Por lo tanto, el hecho de que la entropía del universo aumente constantemente significa que su energía total se está volviendo menos útil: eventualmente, esto conduce a la "muerte térmica del Universo".

Entropía y accesibilidad adiabática

EHLieb y J. Yngvason dieron una definición de entropía basada completamente en la relación de accesibilidad adiabática entre estados de equilibrio en 1999. Este enfoque tiene varios predecesores, incluido el trabajo pionero de Constantin Carathéodory de 1909 y la monografía de R. Giles. En el contexto de Lieb e Yngvason, uno comienza seleccionando, para una cantidad unitaria de la sustancia en consideración, dos estados de referencia X_{0}y X_{1}tal que este último es accesible adiabáticamente desde el primero pero no viceversa. Definir las entropías de los estados de referencia como 0 y 1, respectivamente, la entropía de un estado Xse define como el mayor número lambdatal que Xes accesible adiabáticamente desde un estado compuesto que consta de una cantidad lambdaen el estado X_{1}y una cantidad complementaria, (1-lambda), en el estado X_{0}. Un resultado simple pero importante dentro de este escenario es que la entropía está determinada únicamente, aparte de una elección de unidad y una constante aditiva para cada elemento químico, por las siguientes propiedades: Es monótona con respecto a la relación de accesibilidad adiabática, aditiva sobre compuesto sistemas, y extenso bajo escalamiento.

Entropía en mecánica cuántica

En mecánica estadística cuántica, el concepto de entropía fue desarrollado por John von Neumann y generalmente se lo denomina "entropía de von Neumann". {displaystyle S=-k_{mathrm {B} }operatorname {Tr} (rho log rho),}

donde ρ es la matriz de densidad y Tr es el operador de traza.

Esto confirma el principio de correspondencia, porque en el límite clásico, cuando las fases entre los estados básicos utilizados para las probabilidades clásicas son puramente aleatorias, esta expresión es equivalente a la conocida definición clásica de entropía, {displaystyle S=-k_{mathrm {B} }sum _{i}p_{i},log ,p_{i},}

es decir, en tal base la matriz de densidad es diagonal.

Von Neumann estableció un marco matemático riguroso para la mecánica cuántica con su trabajo Mathematische Grundlagen der Quantenmechanik. Proporcionó en este trabajo una teoría de la medición, donde la noción habitual de colapso de la función de onda se describe como un proceso irreversible (el llamado von Neumann o medición proyectiva). Usando este concepto, junto con la matriz de densidad, extendió el concepto clásico de entropía al dominio cuántico.

Teoría de la información

Pensé en llamarlo "información", pero la palabra se usó demasiado, así que decidí llamarlo "incertidumbre". [...] Von Neumann me dijo: "Debería llamarlo entropía, por dos razones. En primer lugar, su función de incertidumbre se ha utilizado en mecánica estadística con ese nombre, por lo que ya tiene un nombre. En segundo lugar, y lo que es más importante, nadie sabe qué es realmente la entropía, así que en un debate siempre tendrás la ventaja".

Conversación entre Claude Shannon y John von Neumann sobre qué nombre dar a la atenuación en las señales de la línea telefónica

Cuando se ve en términos de teoría de la información, la función de estado de entropía es la cantidad de información en el sistema que se necesita para especificar completamente el microestado del sistema. La entropía es la medida de la cantidad de información faltante antes de la recepción. A menudo llamada entropía de Shannon, fue ideada originalmente por Claude Shannon en 1948 para estudiar el tamaño de la información de un mensaje transmitido. La definición de entropía de la información se expresa en términos de un conjunto discreto de probabilidades Pi}así que eso H(X)=-sum_{i=1}^{n}p(x_{i})log p(x_{i}).

En el caso de los mensajes transmitidos, estas probabilidades eran las probabilidades de que un mensaje en particular se transmitiera realmente, y la entropía del sistema de mensajes era una medida del tamaño promedio de la información de un mensaje. Para el caso de probabilidades iguales (es decir, cada mensaje es igualmente probable), la entropía de Shannon (en bits) es solo el número de preguntas binarias necesarias para determinar el contenido del mensaje.

La mayoría de los investigadores consideran que la entropía de la información y la entropía termodinámica están directamente vinculadas al mismo concepto, mientras que otros argumentan que son distintas. Ambas expresiones son matemáticamente similares. Si Wes el número de microestados que pueden producir un macroestado dado, y cada microestado tiene la misma probabilidad a priori, entonces esa probabilidad es { estilo de visualización 1 = p = 1 / W}. La entropía de Shannon (en nats) es: H=-sum _{i=1}^{W}plog(p)=log(W)y si la entropía se mide en unidades de kper nat, entonces la entropía viene dada por: {displaystyle H=klog(W)}

que es la fórmula de la entropía de Boltzmann, donde kes la constante de Boltzmann, que puede interpretarse como la entropía termodinámica por nat. Algunos autores abogan por eliminar la palabra entropía por la Hfunción de la teoría de la información y utilizando en su lugar el otro término de Shannon, "incertidumbre".

Medición

La entropía de una sustancia se puede medir, aunque de forma indirecta. La medición, conocida como entropimetría, se realiza en un sistema cerrado (con el número de partículas N y el volumen V constantes) y utiliza la definición de temperatura en términos de entropía, al tiempo que limita el intercambio de energía al calor ({displaystyle dUrightarrow dQ}). {displaystyle T:=left({frac {U parcial}{S parcial}}right)_{V,N}Rightarrow cdots Rightarrow ;dS=dQ/T}

La relación resultante describe cómo cambia la entropía dScuando una pequeña cantidad de energía dQse introduce en el sistema a una determinada temperatura T.

El proceso de medición es el siguiente. Primero, una muestra de la sustancia se enfría lo más cerca posible del cero absoluto. A tales temperaturas, la entropía se aproxima a cero, debido a la definición de temperatura. Luego, se introducen pequeñas cantidades de calor en la muestra y se registra el cambio de temperatura, hasta que la temperatura alcanza el valor deseado (generalmente 25 °C). Los datos obtenidos permiten al usuario integrar la ecuación anterior, dando el valor absoluto de entropía de la sustancia a la temperatura final. Este valor de entropía se llama entropía calorimétrica.

Aplicaciones interdisciplinarias

Aunque el concepto de entropía fue originalmente un concepto termodinámico, se ha adaptado en otros campos de estudio, incluida la teoría de la información, la psicodinámica, la termoeconomía/economía ecológica y la evolución.

Por primera vez, Kangovi ha categorizado los sistemas en tres categorías. Son: (i) naturales, (ii) híbridos y (iii) hechos por el hombre. Consulte la tabla a continuación para ver algunos ejemplos. Estas categorías se basan en el grado de influencia que poseemos los humanos para reducir la tasa de crecimiento de la entropía o el desorden en estos sistemas. No tenemos control sobre el crecimiento de la entropía en sistemas naturales como el universo, el sistema solar, la evolución y la flecha del tiempo. No hay absolutamente ninguna duda de que nuestras vidas dependen de estos sistemas naturales. Sin embargo, el hecho es que no hay mucho que podamos hacer con respecto a estos sistemas naturales. Estos sistemas naturales están fuera de nuestro control.

Hay muchos sistemas híbridos, como los sistemas biológicos y ecológicos, que también gobiernan nuestras actividades diarias. Tenemos cierto control sobre el crecimiento de la entropía en los sistemas híbridos. Por ejemplo, nuestras acciones influyen en la vida biológica, incluida la vida vegetal, lo que a su vez afecta nuestra ecología y clima.

Cuando se trata de sistemas hechos por el hombre como nuestra sociedad, nuestras leyes y nuestra economía, tenemos una influencia considerable para controlar el crecimiento de la entropía o el desorden en los sistemas hechos por el hombre.

NúmeroSistemaCategoríaEnergía impulsoraEquivalente de entropíaPrincipales contribuyentes
1.Máquinas de vaporArtificialCalorCalor no utilizableCarnot (1824), Lord Kelvin (1851) y Clausisus (1865). La palabra "Entropía" se agregó al idioma inglés en 1868.
2.UniversoNaturalEnergía inicial en Big BangEnergía no disponible que aumenta a medida que el universo se expandeClausiso (1865).
3.Sistema solarNaturalEnergía solarDisipación de energía solar.Clausiso (1865).
4.Sistemas BiológicosHíbridocomida del entornoDesorden del entorno.Schrödinger en su libro ¿Qué es la vida? (1934),
5.Vida vegetalHíbridoGradiente de Temperatura entre el Sol y la TierraDisipación de energía solar por transducción y fotosíntesis.Prigogine (1955), Schneider y Kay (1994)
6.SociedadArtificialOrganización de la SociedadDisipación de la organización en el aumento de la libertad individual.Nedjelka Petric (1991).
7.Imperio de la leyImperio de la leyleyesDisipación de la(s) ley(s) por manipulación, nuevas tecnologías, mala implementación, etc.Nicolás Butler (1923).
8.Organización Mundial del Comercio (OMC)ArtificialAcuerdosDesobediencia desenfrenada de los Acuerdos por parte de los paísesDavid Collins (2013).

El segundo punto importante que da Kangovi (ref. 97) es que las escalas de tiempo de los sistemas que pertenecen a las categorías naturales, híbridas y hechas por el hombre difieren. El universo perderá toda su energía útil y la organización resultante en decenas de miles de millones de años, el sol se convertirá en una estrella oscura en unos pocos miles de millones de años y la Tierra probablemente también puede terminar como la conocemos en unos pocos miles de millones de años. Los sistemas híbridos, como la ecología y los sistemas biológicos, tienen una escala de tiempo de cientos de años, mientras que los sistemas hechos por el hombre tienen una escala de tiempo de unos pocos años a unas pocas décadas.

Uno puede hacer la pregunta: cuando el universo mismo se dirige hacia un mayor desorden, ¿por qué deberíamos preocuparnos por la civilización y las leyes sociales? Es una pregunta muy válida. La respuesta a esa pregunta radica en el hecho de que los humanos tenemos una vida útil de solo unas pocas décadas. En otras palabras, en la duración de la vida de nuestro universo, que es mucho mayor que la nuestra, muchas generaciones de humanos tienen que vivir en este planeta. Por lo tanto, es imperativo para nosotros cortar el crecimiento del desorden para nuestra propia supervivencia.

Filosofía y física teórica

La entropía es la única cantidad en las ciencias físicas que parece implicar una dirección particular de progreso, a veces llamada flecha del tiempo. A medida que avanza el tiempo, la segunda ley de la termodinámica establece que la entropía de un sistema aislado nunca disminuye en sistemas grandes durante períodos de tiempo significativos. Por lo tanto, desde esta perspectiva, la medición de la entropía se considera como un reloj en estas condiciones.

Biología

Chiavazo et al. propuso que el lugar donde las arañas de las cavernas eligen poner sus huevos puede explicarse mediante la minimización de la entropía.

Se ha demostrado que la entropía es útil en el análisis de secuencias de pares de bases en el ADN. Se ha demostrado que muchas medidas basadas en la entropía distinguen entre diferentes regiones estructurales del genoma, diferencian entre regiones codificantes y no codificantes del ADN, y también se pueden aplicar para la recreación de árboles evolutivos al determinar la distancia evolutiva entre diferentes especies.

Cosmología

Suponiendo que un universo finito es un sistema aislado, la segunda ley de la termodinámica establece que su entropía total aumenta continuamente. Se ha especulado, desde el siglo XIX, que el universo está destinado a una muerte térmica en la que toda la energía termina como una distribución homogénea de energía térmica de modo que no se puede extraer más trabajo de ninguna fuente.

Si se puede considerar que el universo tiene una entropía generalmente creciente, entonces, como ha señalado Roger Penrose, la gravedad juega un papel importante en el aumento porque la gravedad hace que la materia dispersa se acumule en estrellas, que finalmente colapsan en agujeros negros. La entropía de un agujero negro es proporcional al área de superficie del horizonte de eventos del agujero negro. Jacob Bekenstein y Stephen Hawking han demostrado que los agujeros negros tienen la máxima entropía posible de cualquier objeto del mismo tamaño. Esto los convierte en puntos finales probables de todos los procesos de aumento de entropía, si son trampas de materia y energía totalmente efectivas. Sin embargo, el escape de energía de los agujeros negros podría ser posible debido a la actividad cuántica (ver radiación de Hawking).

El papel de la entropía en la cosmología sigue siendo un tema controvertido desde la época de Ludwig Boltzmann. Trabajos recientes han arrojado algunas dudas sobre la hipótesis de la muerte por calor y la aplicabilidad de cualquier modelo termodinámico simple al universo en general. Aunque la entropía aumenta en el modelo de un universo en expansión, la máxima entropía posible aumenta mucho más rápidamente, alejando al universo de la muerte por calor con el tiempo, no acercándolo. Esto da como resultado una "brecha de entropía" que empuja al sistema más lejos del equilibrio postulado de muerte por calor. Otros factores de complicación, como la densidad de energía del vacío y los efectos cuánticos macroscópicos, son difíciles de reconciliar con los modelos termodinámicos, lo que hace que cualquier predicción de la termodinámica a gran escala sea extremadamente difícil.

Las teorías actuales sugieren que la brecha de entropía se abrió originalmente por la rápida expansión exponencial temprana del universo.

Ciencias económicas

El economista rumano-estadounidense Nicholas Georgescu-Roegen, progenitor de la economía y fundador de un paradigma de la economía ecológica, hizo un amplio uso del concepto de entropía en su obra magna sobre La ley de la entropía y el proceso económico. Debido al trabajo de Georgescu-Roegen, las leyes de la termodinámica ahora forman parte integral de la escuela de economía ecológica. Aunque su trabajo estuvo algo manchado por errores, se ha incluido con aprobación un capítulo completo sobre la economía de Georgescu-Roegen en un libro de texto de física elemental sobre el desarrollo histórico de la termodinámica.

En economía, el trabajo de Georgescu-Roegen ha generado el término 'pesimismo de entropía'. Desde la década de 1990, el destacado economista ecológico y teórico del estado estacionario Herman Daly, estudiante de Georgescu-Roegen, ha sido el defensor más influyente de la posición pesimista de la entropía en la profesión económica.

Contenido relacionado

Ley de Stefan-Boltzmann

Pierre Louis Maupertuis

Pierre Louis Moreau de Maupertuis fue un matemático, filósofo y hombre de letras francés. Se convirtió en el Director de la Académie des Sciences y el...

Velocidad de grupo

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save