Función de partición (matemáticas)
Definición
Dado un conjunto de variables aleatorias teniendo en cuenta los valores , y algún tipo de función potencial o Hamiltonian , la función de partición se define como
La función H se entiende que es una función de valor real en el espacio de los estados , mientras es un parámetro libre de valor real (convencionalmente, la temperatura inversa). La suma sobre la se entiende que es una suma sobre todos los valores posibles que cada una de las variables aleatorias puede tomar. Así, la suma debe ser reemplazada por una integral cuando la son continuos, en lugar de discretos. Así, uno escribe
para el caso de invariable .
Cuando H es un observable, como una matriz de dimensión finita o un operador de espacio de Hilbert de dimensión infinita o un elemento de un álgebra de C-estrella, es común expresar la suma como una traza, de modo que
Cuando H es de dimensión infinita, entonces, para que la notación anterior sea válida, el argumento debe ser de clase traza, es decir, de una forma tal que la suma exista y esté acotada.
Número de variables no debe ser contable, en cuyo caso las sumas deben ser reemplazadas por integrales funcionales. Aunque hay muchas notaciones para las integrales funcionales, una común sería
Tal es el caso de la función de partición en la teoría cuántica de campos.Una modificación común y útil de la función de partición consiste en introducir funciones auxiliares. Esto permite, por ejemplo, utilizar la función de partición como función generadora de funciones de correlación. Esto se explica con más detalle a continuación.
El parámetro β
El papel o significado del parámetro se puede entender de diversas maneras. En la termodinámica clásica, es una temperatura inversa. Más generalmente, uno diría que es la variable que está conjugada a alguna función (arbitraria) de las variables aleatorias . La palabra conjugado aquí se utiliza en el sentido de las coordenadas conjugadas generalizadas en la mecánica lagrangiana, por lo tanto, correctamente es un multiplicador Lagrange. No se llama comúnmente la fuerza generalizada. Todos estos conceptos tienen en común la idea de que un valor está destinado a mantenerse fijo, ya que otros, interconectados de alguna manera complicada, pueden variar. En el caso actual, el valor a mantener fijo es el valor de expectativa , incluso como muchas distribuciones de probabilidad diferentes pueden dar lugar a exactamente este mismo valor (fijo).
Para el caso general, se considera un conjunto de funciones que cada uno depende de las variables aleatorias . Estas funciones son elegidas porque uno quiere mantener sus valores de expectativa constante, por una razón u otra. Para limitar los valores de expectativa de esta manera, se aplica el método de multiplicadores Lagrange. En el caso general, los métodos máximos de entropía ilustran la forma en que se hace.
Algunos ejemplos específicos están en orden. En los problemas termodinámicos básicos, al usar el conjunto canónico, el uso de un solo parámetro refleja el hecho de que sólo hay un valor de expectativa que debe mantenerse constante: la energía libre (debido a la conservación de la energía). Para los problemas de química que implican reacciones químicas, el gran conjunto canónico proporciona la base adecuada, y hay dos multiplicadores Lagrange. Uno es mantener la constante de la energía, y otro, la fugacidad, es mantener constante el conteo de partículas (como las reacciones químicas implican la recombinación de un número fijo de átomos).
Para el caso general, se tiene:con un punto en un espacio.
Para una colección de observables , uno escribiría
Como antes, se supone que el argumento de tr es la clase de traza.
La medida correspondiente de Gibbs entonces proporciona una distribución de probabilidad tal que el valor de expectativa de cada es un valor fijo. Más precisamente, uno tiene
con los soportes de ángulo denotando el valor esperado de , y ser una notación alternativa común. A continuación se presenta una definición precisa de este valor de expectativa.
Aunque el valor de se toma comúnmente para ser real, no necesita ser, en general; esto se discute en la sección Normalización abajo. Los valores de puede ser entendido como las coordenadas de los puntos en un espacio; este espacio es de hecho un múltiple, como se muestra a continuación. El estudio de estos espacios como múltiples constituye el campo de la geometría de la información.
Simmetría
donde la suma supera s es una suma sobre algún subconjunto del sistema de energía P()X) del conjunto . Por ejemplo, en la mecánica estadística, como el modelo Ising, la suma es sobre pares de vecinos más cercanos. En teoría de probabilidad, como las redes Markov, la suma podría estar sobre las camarillas de un gráfico; por lo tanto, para el modelo de Ising y otros modelos de lattice, las camarillas máximas son bordes.
El hecho de que la función potencial pueda escribirse como una suma suele reflejar su invariancia bajo la acción de una simetría de grupo, como la invariancia traslacional. Dichas simetrías pueden ser discretas o continuas; se materializan en las funciones de correlación de las variables aleatorias (que se analizan más adelante). Por lo tanto, una simetría en el hamiltoniano se convierte en una simetría de la función de correlación (y viceversa).Esta simetría tiene una interpretación crucial en la teoría de la probabilidad: implica que la medida de Gibbs posee la propiedad de Markov; es decir, es independiente de las variables aleatorias en cierto modo o, equivalentemente, la medida es idéntica en las clases de equivalencia de la simetría. Esto lleva a la aparición generalizada de la función de partición en problemas con la propiedad de Markov, como las redes de Hopfield.Como medida
El valor de la expresión
puede ser interpretado como una probabilidad de que una configuración específica de los valores ocurre en el sistema. Así, dada una configuración específica ,
es la probabilidad de la configuración que ocurre en el sistema, que ahora se normaliza adecuadamente para que , y tal que la suma sobre todas las configuraciones totaliza a una. Como tal, se puede entender que la función de partición proporciona una medida (medida de probabilidad) en el espacio de probabilidad; formalmente, se llama la medida Gibbs. Generaliza los conceptos más estrechos del gran conjunto canónico y conjunto canónico en la mecánica estadística.
Existe al menos una configuración para la cual se maximiza la probabilidad; esta configuración se llama convencionalmente el estado del suelo. Si la configuración es única, se dice que el estado de tierra no degenerado, y se dice que el sistema es ergonódico; de lo contrario el estado del suelo es degenerado. El estado de tierra puede o no comunicarse con los generadores de la simetría; si los comulga, se dice que es una medida invariable. Cuando no se comunica, se dice que la simetría está rota espontáneamente.
Las condiciones bajo las cuales un estado fundamental existe y es único se dan mediante las condiciones de Karush-Kuhn-Tucker; estas condiciones se utilizan comúnmente para justificar el uso de la medida de Gibbs en problemas de máxima entropía.Normalización
Los valores tomados depende del espacio matemático sobre el cual el campo al azar varía. Así, los campos aleatorios de valor real toman valores en un simplex: esta es la manera geométrica de decir que la suma de probabilidades debe totalizar a uno. Para la mecánica cuántica, las variables aleatorias abarcan un espacio complejo de proyecto (o un espacio de Hilbert de valor complejo), donde las variables aleatorias se interpretan como amplitudes de probabilidad. El énfasis aquí es en la palabra proyecto, como las amplitudes todavía se normalizan a una. La normalización para la función potencial es el Jacobiano para el espacio matemático adecuado: es 1 para probabilidades ordinarias, y i para el espacio Hilbert; así, en teoría de campo cuántico, uno ve en el exponencial, en lugar de . La función de partición es muy explotada en el camino formulación integral de la teoría del campo cuántico, a gran efecto. La teoría es muy idéntica a la que se presenta aquí, aparte de esta diferencia, y el hecho de que generalmente se formula sobre espacio-tiempo cuatridimensional, en lugar de de una manera general.
Valores de espera
La función de partición se utiliza comúnmente como función generadora de probabilidad para los valores de expectativa de diversas funciones de las variables aleatorias. Así que, por ejemplo, tomar como parámetro ajustable, luego el derivado de con respecto a
da el promedio (valor esperado) de H. En física, esto se llamaría la energía promedio del sistema.
Dada la definición de la medida de probabilidad anterior, el valor de expectativa de cualquier función f de las variables aleatorias X puede ser escrito como se espera: así, para un valor discreto X, uno escribe
La notación anterior tiene sentido para un número finito de variables aleatorias discretas. En contextos más generales, las sumas deben reemplazarse por integrales sobre un espacio de probabilidad.Así, por ejemplo, la entropía viene dada por
La medida de Gibbs es la única distribución estadística que maximiza la entropía para un valor esperado fijo de la energía; esto fundamenta su uso en los métodos de máxima entropía.
Geometría de información
Los puntos se puede entender para formar un espacio, y específicamente, un múltiple. Por lo tanto, es razonable preguntar acerca de la estructura de este múltiple; esta es la tarea de la geometría de la información.
Múltiples derivados con respecto a los multiplicadores Lagrange dan lugar a una matriz de covariancia semidefinida positiva Esta matriz es semi-definida positiva, y puede ser interpretada como un tensor métrico, específicamente, una métrica riemanniana. Equipar el espacio de multiplicadores Lagrange con una métrica de esta manera lo convierte en un manifold Riemanniano. El estudio de estos manifolds se denomina geometría de información; la métrica anterior es la métrica de información Fisher. Aquí, sirve como una coordenadas en el múltiple. Es interesante comparar la definición anterior con la información Fisher más simple, de la que se inspira.
Que lo anterior define la métrica de información Fisher puede verse fácilmente sustituyendo explícitamente el valor de expectativa:
donde hemos escrito para y se entiende que la suma supera todos los valores de todas las variables aleatorias . Para variables aleatorias de valor continuo, las sumas son reemplazadas por integrales, por supuesto.
Curiosamente, la métrica de información Fisher también puede entenderse como la métrica Euclideana plana, después de un cambio adecuado de variables, como se describe en el artículo principal sobre ella. Cuando el son de valor complejo, la métrica resultante es la métrica Fubini-Study. Cuando se escribe en términos de estados mixtos, en lugar de estados puros, se conoce como la métrica Bures.
Funciones de correlación
Al introducir funciones auxiliares artificiales en la función de partición, se puede utilizar para obtener el valor de expectativa de las variables aleatorias. Así, por ejemplo, por escrito
uno tiene
como valor de expectativa . En el camino formulación integral de la teoría del campo cuántico, estas funciones auxiliares se denominan comúnmente campos fuente.
Varias diferencias conducen a las funciones de correlación conectada de las variables aleatorias. Así la función de correlación entre variables y es dado por:
Gaussian integrals
Para el caso en que H se puede escribir como una forma cuadrática que involucra un operador diferencial, es decir, como
entonces la función de partición se puede entender como una suma o integral sobre Gaussians. Función de correlación puede ser entendido como la función de Green para el operador diferencial (y generalmente dando lugar a la teoría de Fredholm). En el escenario de la teoría de campo cuántica, tales funciones se denominan propagadores; los correladores de orden superior se denominan funciones n-punto; trabajar con ellos define la acción efectiva de una teoría.
Cuando las variables aleatorias son números de Grassmann anticonmutativos, la función de partición puede expresarse como determinante del operador D. Esto se hace escribiéndola como una integral de Berezin (también llamada integral de Grassmann).Propiedades generales
Véase también
- Familia exponencial
- Función de partición (mecánica estadística)
- Problema de partición
- Campo aleatorio de Markov
Referencias
- ^ Crooks, Gavin E. (2007). "Largo termodinámico de medición". Phys. Rev. Lett. 99 (10): 100602. arXiv:0706.0559. Bibcode:2007PhRvL..99j0602C. doi:10.1103/PhysRevLett.99.100602. PMID 17930381. S2CID 7527491.