Acumulante

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Conjunto de cantidades en teoría de probabilidad

En teoría de probabilidad y estadística, los acumulantes κn de una distribución de probabilidad son un conjunto de cantidades que proporcionan una alternativa a los momentos de la distribución. Dos distribuciones de probabilidad cualesquiera cuyos momentos sean idénticos tendrán también acumuladores idénticos, y viceversa.

El primer cumulante es la media, el segundo cumulante es la varianza y el tercer cumulante es el mismo que el tercer momento central. Pero los cumulantes de cuarto orden y superiores no son iguales a los momentos centrales. En algunos casos, los tratamientos teóricos de problemas en términos de cumulantes son más simples que aquellos que utilizan momentos. En particular, cuando dos o más variables aleatorias son estadísticamente independientes, el cumulante de n de su suma es igual a la suma de sus nacumulantes de orden ésimo. Además, los cumulantes de tercer orden y superiores de una distribución normal son cero y es la única distribución con esta propiedad.

Did you mean:

Just as for moments, where joint moments are used for collections of random variables, it is possible to define joint cumulants.

Definición

Los acumulantes de una variable aleatoria X se definen utilizando la función generadora de acumuladores K(t), que es el logaritmo natural de la función generadora de momentos:

K()t)=log⁡ ⁡ E⁡ ⁡ [etX].{displaystyle K(t)=log operatorname {E} left[e^{tX}right].}

Los cumulantes κn se obtienen a partir de una expansión en serie de potencias de la función generadora de acumuladores:

K()t)=.. n=1JUEGO JUEGO κ κ ntnn!=κ κ 1t1!+κ κ 2t22!+κ κ 3t33!+⋯ ⋯ =μ μ t+σ σ 2t22+⋯ ⋯ .{displaystyle K(t)=sum _{n=1}{infty }kappa _{n}{frac {fn}}=kappa - ¿Qué? {t}{1}}+kappa ¿Qué? {T}{2}}}+kappa ¿Qué? {T}{3}}}+cdots =mu t+sigma ^{2}{frac {fnMicrosoft Sans Serif}

Esta expansión es una serie de Maclaurin, por lo que el n-ésimo acumulador se puede obtener diferenciando la expansión anterior n veces y evaluando el resultado en cero:

κ κ n=K()n)()0).{displaystyle kappa _{n}=K^{(n)}(0). }

Si la función generadora de momentos no existe, los cumulantes se pueden definir en términos de la relación entre los cumulantes y los momentos que se analizan más adelante.

Definición alternativa de la función generadora de acumuladores

Algunos escritores prefieren definir la función generadora de acumuladores como el logaritmo natural de la función característica, que a veces también se denomina segunda función característica,

H()t)=log⁡ ⁡ E⁡ ⁡ [eitX]=.. n=1JUEGO JUEGO κ κ n()it)nn!=μ μ it− − σ σ 2t22+⋯ ⋯ {displaystyle H(t)=log operatorname {E} left[e^{itX}right]=sum _{n=1}{infty }kappa _{n}{n}{frac {(it)}{n}}=mu! it-sigma ^{2}{frac {fnMicrosoft Sans Serif}

Una ventaja de H(t): en cierto sentido, la función K(t) evaluado para argumentos puramente imaginarios: ¿es ese E[eitX] está bien definido para todos los valores reales de t incluso cuando E[etX] no está bien definido para todos los valores reales de t, como puede ocurrir cuando hay "demasiado" probabilidad de que X tenga una magnitud grande. Aunque la función H(t) estará bien definida, imitará K(t) en términos de la longitud de su serie de Maclaurin, que puede no extenderse más allá (o, raramente, incluso hasta) el orden lineal en el argumento. t y, en particular, el número de acumuladores que estén bien definidos no cambiarán. Sin embargo, incluso cuando H(t) no tiene una serie de Maclaurin larga, se puede utilizar directamente para analizar y, particularmente, agregando variables aleatorias. Tanto la distribución de Cauchy (también llamada Lorentziana) como, de manera más general, las distribuciones estables (relacionadas con la distribución de Lévy) son ejemplos de distribuciones para las cuales las expansiones en series de potencias de las funciones generadoras tienen solo un número finito de términos bien definidos.

Algunas propiedades básicas

El n{textstyle n}- Cumulante κ κ n()X){textstyle kappa _{n}(X)} de (la distribución de) una variable aleatoria X{textstyle X} disfruta de las siguientes propiedades:

La propiedad acumulativa se sigue rápidamente al considerar la función generadora de acumuladores:

KX1+⋯ ⋯ +Xm()t)=log⁡ ⁡ E⁡ ⁡ [et()X1+⋯ ⋯ +Xm)]=log⁡ ⁡ ()E⁡ ⁡ [etX1]⋯ ⋯ E⁡ ⁡ [etXm])=log⁡ ⁡ E⁡ ⁡ [etX1]+⋯ ⋯ +log⁡ ⁡ E⁡ ⁡ [etXm]=KX1()t)+⋯ ⋯ +KXm()t),{displaystyle {begin{aligned}K_{X_{1}+cdots ################################################################################################################################################################################################################################################################ {E} left[e^{t(X_{1}+cdots +X_{m}}right][5pt] limit=log left(operatorname {E} left[e^{tX_{1}right]cdots operatorname {E} left[e^{tX_{m}right]right)[5pt] {E} left[e^{tX_{1}right]+cdots +log operatorname {E} left[e^{tX_{m}right][5pt] limit=K_{X_{1}(t)+cdots {fnMicrosoft Sans Serif}

de modo que cada cumulante de una suma de variables aleatorias independientes sea la suma de los correspondientes cumulantes de los sumandos. Es decir, cuando los sumandos son estadísticamente independientes, la media de la suma es la suma de las medias, la varianza de la suma es la suma de las varianzas, el tercer acumulante (que resulta ser el tercer momento central) de la suma es la suma de los terceros cumulantes, y así sucesivamente para cada orden de cumulantes.

Una distribución con cumulantes dados κn se puede aproximar mediante una serie de Edgeworth.

Los primeros cumulantes en función de los momentos

Todos los cumulantes superiores son funciones polinómicas de los momentos centrales, con coeficientes enteros, pero sólo en los grados 2 y 3 los cumulantes son realmente momentos centrales.

Acumulantes de algunas distribuciones de probabilidad discretas

Presentación de la relación varianza-media

ε ε =μ μ − − 1σ σ 2=κ κ 1− − 1κ κ 2,{displaystyle varepsilon =mu ^{-1}sigma ^{2}=kappa ¿Qué? - ¿Qué?

las distribuciones de probabilidad anteriores obtienen una fórmula unificada para la derivada de la función generadora acumulativa:

K.()t)=()1+()e− − t− − 1)ε ε )− − 1μ μ {displaystyle K'(t)=(1+(e^{-t}-1)varepsilon)^{-1}mu }

La segunda derivada es

K.()t)=()ε ε − − ()ε ε − − 1)et)− − 2μ μ ε ε et{displaystyle K''(t)=(varepsilon -(varepsilon -1)e^{t}^{-2}mu varepsilon e^{t}

confirmando que el primer acumulante es κ1 = K′(0) = μ y el segundo acumulante es κ2 = K′′(0) = με.

Did you mean:

The constant random variables X = μ have ε = 0.

Did you mean:

The binomial distributions have ε = 1 − p so that 0 < ε < 1.

Did you mean:

The Poisson distributions have ε = 1.

Did you mean:

The negative binomial distributions have ε = p−1 so that ε > 1.

Nótese la analogía con la clasificación de secciones cónicas por excentricidad: círculos ε = 0, elipses 0 < ε < 1, parábolas ε = 1, hipérbolas ε > 1.

Acumulantes de algunas distribuciones de probabilidad continua

  • Para la distribución normal con valor esperado μ y diferencia σ2, la función generadora acumulada es K()t) μt + σ2t2/2. Los derivados primero y segundo de la función generadora acumulada son K "t) μ + σ2·t y K"t) σ2. Los acumuladores son κ1 = μ, κ2 = σ2, y κ3 = κ4 = 0. El caso especial σ2 = 0 es una variable aleatoria constante X = μ.
  • Los acumuladores de la distribución uniforme en el intervalo [1, 0] son κn = Bn/n, donde Bn es nT Número de Bernoulli.
  • Los acumuladores de la distribución exponencial con parámetro de tasa λ son κn = λn ()n - 1)..

Algunas propiedades de la función generadora de acumuladores

La función generadora acumulativa K(t), si existe, es infinitamente diferenciable y convexa, y pasa a través del origen. Su primera derivada varía monótonamente en el intervalo abierto desde el mínimo hasta el supremo del soporte de la distribución de probabilidad, y su segunda derivada es estrictamente positiva en todos los lugares donde está definida, excepto en la distribución degenerada de una masa puntual única. La función generadora de acumuladores existe si y sólo si las colas de la distribución están mayorizadas por una caída exponencial, es decir, (ver notación O grande)

0,,,F(x)=O(e^{cx}),xto -infty;{text{ and}}\[4pt]&exists d>0,,,1-F(x)=O(e^{-dx}),xto +infty;end{aligned}}}" xmlns="http://www.w3.org/1998/Math/MathML">∃ ∃ c■0,F()x)=O()ecx),x→ → − − JUEGO JUEGO ;y∃ ∃ d■0,1− − F()x)=O()e− − dx),x→ → +JUEGO JUEGO ;{displaystyle {begin{aligned} {exists c]0,,,F(x)=O(e^{cx}),xto -infty;{text{ and}\[4pt] [4ptexists d consistente0,,,1-F(x)=O(e^{-dx}),xto +inftal0,,,F(x)=O(e^{cx}),xto -infty;{text{ and}}\[4pt]&exists d>0,,,1-F(x)=O(e^{-dx}),xto +infty;end{aligned}}}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/6d786b0897af83338be865f904605ab2fc234556" style="vertical-align: -3.005ex; width:40.043ex; height:7.176ex;"/>

Donde F{displaystyle F} es la función de distribución acumulativa. La función generadora acumulativa tendrá asintote vertical(s) en el supremum negativo de tal c, si existe tal supremum, y en el supremum de tal d, si tal supremum existe, de lo contrario se definirá para todos los números reales.

Si el soporte de una variable aleatoria X tiene límites superiores o inferiores finitos, entonces su función generadora de acumuladores y = K(t), si existe, se aproxima a la(s) asíntota(s) cuya pendiente es igual al supremo y /o mínimo del soporte,

Sí.=()t+1)infSupp⁡ ⁡ X− − μ μ ()X),ySí.=()t− − 1)SupSupp⁡ ⁡ X+μ μ ()X),{displaystyle {begin{aligned}y simultáneamente=(t+1)inf operatorname {supp} X-mu (X),{text{ and}}[5pt]y limit=(t-1)sup operatorname {supp} X+mu (X),end{aligned}}}}}}}}}

respectivamente, encima de ambas líneas en todas partes. (Las integrales

∫ ∫ − − JUEGO JUEGO 0[tinfSupp⁡ ⁡ X− − K.()t)]dt,∫ ∫ JUEGO JUEGO 0[tinfSupp⁡ ⁡ X− − K.()t)]dt{displaystyle int _{-infty }{0}left[tinf operatorname {supp} X-K'(t)right],dt,qquad int _{infty }left[tinf operatorname {supp} X-K'(t)right]

produce las intersecciones y de estas asíntotas, ya que K(0) = 0.)

Para un cambio de la distribución por c, KX+c()t)=KX()t)+ct.{displaystyle K_{X+c}(t)=K_{X}(t)+ct.} Para una masa punto degenerada c, la función generadora acumulada es la línea recta Kc()t)=ct{displaystyle K_{c}(t)=ct}, y más generalmente, KX+Y=KX+KY{displaystyle K_{X+Y}=K_{X}+K_{Y} si X y Y son independientes y sus funciones generadoras acumuladas existen; (subindependencia y la existencia de segundos momentos basta para implicar la independencia).

La familia exponencial natural de una distribución puede realizarse cambiando o traduciendo K()t), y ajustarlo verticalmente para que siempre pase por el origen: si f es el pdf con función generadora acumulada K()t)=log⁡ ⁡ M()t),{displaystyle K(t)=log M(t),} y fSilencioSilencio Silencio {displaystyle f detainedtheta} es su familia exponencial natural, entonces f()x▪ ▪ Silencio Silencio )=1M()Silencio Silencio )eSilencio Silencio xf()x),{displaystyle f(xmid theta)={frac {1}{M(theta)}e^{theta x}f(x),} y K()t▪ ▪ Silencio Silencio )=K()t+Silencio Silencio )− − K()Silencio Silencio ).{displaystyle K(tmid theta)=K(t+theta)-K(theta). }

Si K(t) es finito para un rango t1 < Re(t) < t2 entonces si t1 < 0 < t2 luego K(t) es analítico e infinitamente diferenciable para t1 < Re(t) < t2. Además, para t real y t1 < t < t2 K(t) es estrictamente convexo y K′(t) es estrictamente creciente.

Otras propiedades de los acumulantes

Un resultado negativo

Dados los resultados para los cumulantes de la distribución normal, se podría esperar encontrar familias de distribuciones para las cuales κm = κm+1 = ⋯ = 0 para algunos m > 3, siendo los acumulantes de orden inferior (órdenes 3 a m − 1) distintos de cero. No existen tales distribuciones. El resultado subyacente aquí es que la función generadora acumulativa no puede ser un polinomio de orden finito de grado mayor que 2.

Acumulantes y momentos

La función generadora de momento viene dada por:

M()t)=1+.. n=1JUEGO JUEGO μ μ n.tnn!=exp⁡ ⁡ ().. n=1JUEGO JUEGO κ κ ntnn!)=exp⁡ ⁡ ()K()t)).{displaystyle M(t)=1+sum _{n=1}{infty {fn} {fn}}=expleft(sum _{n=1}{infty }{fc {kappa ¿Qué? }

Entonces la función generadora acumulativa es el logaritmo de la función generadora de momentos

K()t)=log⁡ ⁡ M()t).{displaystyle K(t)=log M(t).}

El primer acumulante es el valor esperado; el segundo y tercer momento central son respectivamente el segundo y tercer momento central (el segundo momento central es la varianza); pero los cumulantes superiores no son momentos ni momentos centrales, sino funciones polinomiales de los momentos más complicadas.

Los momentos se pueden recuperar en términos de acumuladores evaluando los n- el derivado de exp⁡ ⁡ ()K()t)){displaystyle exp(K(t)} a t=0{displaystyle t=0},

μ μ n.=M()n)()0)=dnexp⁡ ⁡ ()K()t))dtnSilenciot=0.{displaystyle mu '_{n}=M^{(n)}(0)=left.{frac {mathrm {d} ^{n}exp(K(t)}{mathrm {d} Está bien.

Del mismo modo, los acumuladores se pueden recuperar en términos de momentos evaluando los n- el derivado de log⁡ ⁡ M()t){displaystyle log M(t)} a t=0{displaystyle t=0},

κ κ n=K()n)()0)=dnlog⁡ ⁡ M()t)dtnSilenciot=0.{displaystyle kappa _{n}=K^{(n)}(0)=left.{frac {mathrm {d}log M(t)}{mathrm {d} Está bien.

La expresión explícita para el n-ésimo momento en términos del primer n, y viceversa, se pueden obtener utilizando la fórmula de Faà di Bruno para derivadas superiores de funciones compuestas. En general, tenemos

μ μ n.=.. k=1nBn,k()κ κ 1,...... ,κ κ n− − k+1){displaystyle mu '_{n}=sum ¿Qué? _{1},ldotskappa - ¿Qué?
κ κ n=.. k=1n()− − 1)k− − 1()k− − 1)!Bn,k()μ μ 1.,...... ,μ μ n− − k+1.),{displaystyle kappa _{n}=sum _{k=1}{n}(-1)^{k-1}(k-1)B_{n,k}(mu '_{1},ldotsmu '_{n-k+1}),}

Donde Bn,k{displaystyle B_{n,k} incompleta (o parcial) Polinomios de Bell.

De la misma manera, si el medio es dado por μ μ {displaystyle mu }, la función generadora del momento central es dada por

C()t)=E⁡ ⁡ [et()x− − μ μ )]=e− − μ μ tM()t)=exp⁡ ⁡ ()K()t)− − μ μ t),{displaystyle C(t)=operatorname {E} [e^{t(x-mu)}]=e^{-mu t}M(t)=exp(K(t)-mu t),}

y el n-ésimo momento central se obtiene en términos de cumulantes como

μ μ n=C()n)()0)=dndtnexp⁡ ⁡ ()K()t)− − μ μ t)Silenciot=0=.. k=1nBn,k()0,κ κ 2,...... ,κ κ n− − k+1).{displaystyle mu _{n}=C^{(n)}(0)=left.{frac {mathrm {d} }{n}{mathrm {d} ################################################################################################################################################################################################################################################################ _{k=1} {n}B_{n,k}(0,kappa _{2},ldotskappa _{n-k+1}). }

Además, para n > 1, el n-ésimo acumulador en términos de momentos centrales es

κ κ n=K()n)()0)=dndtn()log⁡ ⁡ C()t)+μ μ t)Silenciot=0=.. k=1n()− − 1)k− − 1()k− − 1)!Bn,k()0,μ μ 2,...... ,μ μ n− − k+1).{displaystyle {begin{aligned}kappa {fn} {fn} {fn} {fn} {fn} {fn} {m} {m} {}}} {m}}} {gn}}log C(t)+mu t)right_{t=0}[4pt]}=sum_{k=1} {n} {n}=1} {i} {n}}}}}} {n}}}}}} {n}}}}}}}}}} {n}}}} {n}}}}}} {n}}}}} {n}}}}}}}}}}}}}}}}}}} {n}}}}}}}}}}}} {n}}}}}}}}}}}}} {n}}}}}}}}}}}}} {n}}}}}}}}}}}}}}}}}} {n}}}}}}}

El n-ésimo momento μ n es un polinomio de n de grado en el primer n cumulantes. Las primeras expresiones son:

μ μ 1.=κ κ 1μ μ 2.=κ κ 2+κ κ 12μ μ 3.=κ κ 3+3κ κ 2κ κ 1+κ κ 13μ μ 4.=κ κ 4+4κ κ 3κ κ 1+3κ κ 22+6κ κ 2κ κ 12+κ κ 14μ μ 5.=κ κ 5+5κ κ 4κ κ 1+10κ κ 3κ κ 2+10κ κ 3κ κ 12+15κ κ 22κ κ 1+10κ κ 2κ κ 13+κ κ 15μ μ 6.=κ κ 6+6κ κ 5κ κ 1+15κ κ 4κ κ 2+15κ κ 4κ κ 12+10κ κ 32+60κ κ 3κ κ 2κ κ 1+20κ κ 3κ κ 13+15κ κ 23+45κ κ 22κ κ 12+15κ κ 2κ κ 14+κ κ 16.{displaystyle {begin{aligned}mu} '_{1}={} ¿Por qué? '_{2}={} _{2}+kappa ¿Qué? '_{3}={} _{3}+3kappa ¿Qué? _{1}+kappa ¿Qué? '_{4}={} _{4}+4kappa ¿Qué? _{1}+3kappa _{2}{2}+6kappa _{2}kappa ¿Qué? ¿Qué? '_{5}={} _{5}+5kappa ¿Qué? _{1}+10kappa _{3}kappa _{2}+10kappa _{3}kappa ################################################################################################################################################################################################################################################################ ¿Qué? _{1}+10kappa _{2}kappa ¿Qué? ¿Qué? '_{6}={} _{6}+6kappa ¿Por qué? _{1}+15kappa _{4}kappa ##{2}+15kappa ¿Qué? ################################################################################################################################################################################################################################################################ _{3}{2}+60kappa _{3}kappa ¿Qué? _{1}+20kappa _{3}kappa ¿Qué? ¿Qué? ¿Qué? _{1}{2}+15kappa _{2}kappa ¿Qué? ¿Qué?

El "principal" distingue los momentos μn de los momentos centrales μn. Para expresar los momentos centrales como funciones de los cumulantes, simplemente elimine de estos polinomios todos los términos en los que κ1</sub aparece como factor:

μ μ 1=0μ μ 2=κ κ 2μ μ 3=κ κ 3μ μ 4=κ κ 4+3κ κ 22μ μ 5=κ κ 5+10κ κ 3κ κ 2μ μ 6=κ κ 6+15κ κ 4κ κ 2+10κ κ 32+15κ κ 23.{displaystyle {begin{aligned}mu} [4pt]mu - ¿Qué? [4pt]mu - ¿Qué? ¿Qué? - ¿Qué? _{4}+3kappa ¿Qué? ################################################################################################################################################################################################################################################################ _{5}+10kappa _{3}kappa _{2}[4pt]mu ################################################################################################################################################################################################################################################################ _{6}+15kappa _{4}kappa _{2}+10kappa ¿Qué? - ¿Qué?

Del mismo modo, el n-ésimo acumulante κn es un polinomio de n-ésimo grado en el primer n momentos no centrales. Las primeras expresiones son:

κ κ 1=μ μ 1.κ κ 2=μ μ 2.− − μ μ 1.2κ κ 3=μ μ 3.− − 3μ μ 2.μ μ 1.+2μ μ 1.3κ κ 4=μ μ 4.− − 4μ μ 3.μ μ 1.− − 3μ μ 2.2+12μ μ 2.μ μ 1.2− − 6μ μ 1.4κ κ 5=μ μ 5.− − 5μ μ 4.μ μ 1.− − 10μ μ 3.μ μ 2.+20μ μ 3.μ μ 1.2+30μ μ 2.2μ μ 1.− − 60μ μ 2.μ μ 1.3+24μ μ 1.5κ κ 6=μ μ 6.− − 6μ μ 5.μ μ 1.− − 15μ μ 4.μ μ 2.+30μ μ 4.μ μ 1.2− − 10μ μ 3.2+120μ μ 3.μ μ 2.μ μ 1.− − 120μ μ 3.μ μ 1.3+30μ μ 2.3− − 270μ μ 2.2μ μ 1.2+360μ μ 2.μ μ 1.4− − 120μ μ 1.6.{displaystyle {begin{aligned}kappa - ¿Qué? '_{1}[4pt]kappa ¿Qué? '_{2}-{mu '_{1} {2}[4pt]kappa - ¿Qué? '_{3}-3mu '_{2}mu '_{1}+2{mu [4pt]kappa ¿Qué? '_{4}-4 'mu '_{3}mu '_{1}-3{mu '_{2} {2}+12mu '_{2}{mu ¿Qué? [4pt]kappa - ¿Qué? '_{5}-5 'mu '_{4}mu '_{1}-10mu '_{3}mu '_{2}+20mu '_{3}{mu ¿Qué? ¿Qué? '_{1}-60mu '_{2}{mu '_{1} {3}+24{mu [4pt]kappa #### {6}={} {c} {c}= {cH00} {cH00} {cH00} '_{6}-6 'mu '_{5}mu '_{1}-15mu '_{4}mu '_{2}+30mu '_{4}{mu ¿Qué? - ¿Qué? '_{3}mu ' '_{1}\ {}-120mu '_{3}{mu ¿Qué? ¿Qué? ¿Qué? ¿Qué? '_{1} {4}-120{mu {fnMicrosoft Sans Serif}

Para expresar los cumulantes κn para n > 1 como funciones de los momentos centrales, elimina de estos polinomios todos los términos en los que μ'1 aparece como factor:

κ κ 2=μ μ 2{displaystyle kappa _{2}=mu ¿Qué?
κ κ 3=μ μ 3{displaystyle kappa _{3}=mu ¿Qué?
κ κ 4=μ μ 4− − 3μ μ 22{displaystyle kappa ¿Qué? - ¿Por qué? ¿Qué?
κ κ 5=μ μ 5− − 10μ μ 3μ μ 2{displaystyle kappa - ¿Qué? ¿Por qué?
κ κ 6=μ μ 6− − 15μ μ 4μ μ 2− − 10μ μ 32+30μ μ 23.{displaystyle kappa ¿Qué? ################################################################################################################################################################################################################################################################ ¿Qué? ¿Qué? ¿Qué? ¿Qué?

Para expresar los cumulantes κn para n > 2 como funciones de los momentos centrales estandarizados μ″n, establezca también μ'2=1 en los polinomios:

κ κ 3=μ μ 3.{displaystyle kappa _{3}=mu '
κ κ 4=μ μ 4.− − 3{displaystyle kappa _{4}=mu '_{4}-3,}
κ κ 5=μ μ 5.− − 10μ μ 3.{displaystyle kappa _{5}=mu '_{5}-10mu '
κ κ 6=μ μ 6.− − 15μ μ 4.− − 10μ μ 3.2+30.{displaystyle kappa _{6}=mu '_{6}-15 'mu '_{4}-10{mu '_{3} {2}+30,}

Los cumulantes se pueden relacionar con los momentos diferenciando la relación log M(t) = K(t) con respecto a t, dando M′(t) = K′(t) M(t ), que convenientemente no contiene exponenciales ni logaritmos. Igualar el coeficiente de t n−1 / (n−1) ! en los lados izquierdo y derecho y usando μ′0 = 1 se obtienen las siguientes fórmulas para n ≥ 1:

μ μ 1.=κ κ 1μ μ 2.=κ κ 1μ μ 1.+κ κ 2μ μ 3.=κ κ 1μ μ 2.+2κ κ 2μ μ 1.+κ κ 3μ μ 4.=κ κ 1μ μ 3.+3κ κ 2μ μ 2.+3κ κ 3μ μ 1.+κ κ 4μ μ 5.=κ κ 1μ μ 4.+4κ κ 2μ μ 3.+6κ κ 3μ μ 2.+4κ κ 4μ μ 1.+κ κ 5μ μ 6.=κ κ 1μ μ 5.+5κ κ 2μ μ 4.+10κ κ 3μ μ 3.+10κ κ 4μ μ 2.+5κ κ 5μ μ 1.+κ κ 6μ μ n.=.. m=1n− − 1()n− − 1m− − 1)κ κ mμ μ n− − m.+κ κ n.{displaystyle {begin{aligned}mu} '_{1}={} ¿Por qué? ¿Qué? '_{1}+kappa ¿Por qué? '_{3}={} ¿Qué? '_{2}+2kappa _{2}mu '_{1}+kappa _{3}[1pt]mu ¿Qué? '_{3}+3kappa ¿Qué? '_{2}+3kappa _{3}mu '_{1}+kappa [4][1pt]mu '_{5}={} ¿Qué? '_{4}+4kappa _{2}mu '_{3}+6kappa ¿Qué? '_{2}+4kappa _{4}mu '_{1}+kappa _{5}[1pt]mu ¿Qué? '_{5}+5kappa ¿Qué? '_{4}+10kappa _{3}mu '_{3}+10kappa _{4}mu '_{2}+5kappa _{5}mu '_{1}+kappa ¿Por qué? '_{n}={} {m=1}{n-1}{n-1 choose m-1}kappa ¿Qué? 'n-m'+kappa ¿Qué?

Estos permiten κ κ n{displaystyle kappa _{n} o μ μ n.{displaystyle mu '_{n} para ser computado del otro utilizando el conocimiento de los acumuladores y momentos de orden inferior. Las fórmulas correspondientes para los momentos centrales μ μ n{displaystyle mu _{n} para n≥ ≥ 2{displaystyle ngeq 2} se forman a partir de estas fórmulas estableciendo μ μ 1.=κ κ 1=0{displaystyle mu '_{1}=kappa ¿Qué? y reemplazar cada uno μ μ n.{displaystyle mu '_{n} con μ μ n{displaystyle mu _{n} para n≥ ≥ 2{displaystyle ngeq 2}:

μ μ 2=κ κ 2μ μ 3=κ κ 3μ μ n=.. m=2n− − 2()n− − 1m− − 1)κ κ mμ μ n− − m+κ κ n.{displaystyle {begin{aligned}mu} ¿Por qué? ¿Por qué? # {m=2} {n-2}{n-1 choose m-1}kappa ¿Qué? _{n-m}+kappa ¿Qué?

Acumulantes y particiones establecidas

Estos polinomios tienen una interpretación combinatoria notable: los coeficientes cuentan ciertas particiones de conjuntos. Una forma general de estos polinomios es

μ μ n.=.. π π ▪ ▪ ▪ ▪ ∏ ∏ B▪ ▪ π π κ κ SilencioBSilencio{displaystyle mu '_{n}=sum _{pi ,in ,Pi }prod _{pipi ,in B,in ,pi }kappa _{ vidasB sometida}

dónde

  • π se ejecuta a través de la lista de todas las particiones de un conjunto de tamaño n;
  • "Bπsignifica B es uno de los "blocks" en los que el conjunto está separado; y
  • SilencioBSilencio es el tamaño del conjunto B.

Así, cada monomio es una constante multiplicada por un producto de acumuladores en los que la suma de los índices es n (por ejemplo, en el término κ3 κ22 κ 1, la suma de los índices es 3 + 2 + 2 + 1 = 8; esto aparece en el polinomio que expresa el octavo momento en función de los primeros ocho acumulativos). A cada término le corresponde una partición del número entero n. El coeficiente en cada término es el número de particiones de un conjunto de n miembros que colapsan en esa partición del número entero. n cuando los miembros del conjunto se vuelven indistinguibles.

Acumulantes y combinatoria

Se puede encontrar una conexión adicional entre los cumulantes y la combinatoria en el trabajo de Gian-Carlo Rota, donde se estudian vínculos con la teoría invariante, funciones simétricas y secuencias binomiales a través del cálculo umbral.

Acumulantes conjuntos

El acumulante conjunto de varias variables aleatorias X1,..., X n se define mediante una función generadora de acumuladores similar

K()t1,t2,...... ,tn)=log⁡ ⁡ E()e.. j=1ntjXj).{displaystyle K(t_{1},t_{2},dotst_{n}=log E(mathrm {e} ^{sum ¿Qué?

Una consecuencia es que

κ κ ()X1,...... ,Xn)=.. π π ()Silencioπ π Silencio− − 1)!()− − 1)Silencioπ π Silencio− − 1∏ ∏ B▪ ▪ π π E()∏ ∏ i▪ ▪ BXi){displaystyle kappa (X_{1},dotsX_{n}=sum _{pi }(Principalmentepi Silencio-1)!(-1)^{Principiopi Silencio-1}prod _{Binpi }Eleft(prod _{iin B}X_{i}right)}

donde π recorre la lista de todas las particiones de { 1,..., n } , B recorre la lista de todos los bloques de la partición π y |π| es el número de partes de la partición. Por ejemplo,

κ κ ()X,Y)=E⁡ ⁡ ()XY)− − E⁡ ⁡ ()X)E⁡ ⁡ ()Y),{displaystyle kappa (X,Y)=operatorname [E} (XY)-operatorname {E} (X)operatorname {E} (Y),}

es la covarianza, y

κ κ ()X,Y,Z)=E⁡ ⁡ ()XYZ)− − E⁡ ⁡ ()XY)E⁡ ⁡ ()Z)− − E⁡ ⁡ ()XZ)E⁡ ⁡ ()Y)− − E⁡ ⁡ ()YZ)E⁡ ⁡ ()X)+2E⁡ ⁡ ()X)E⁡ ⁡ ()Y)E⁡ ⁡ ()Z).{displaystyle kappa (X,Y,Z)=operatorname {E} (XYZ)-operatorname {E} (XY)operatorname {E} (Z)-operatorname {E} (XZ)operatorname {E} (Y)-operatorname {E} (YZ)operatorname [E} (X)+2operatorname {E} (X)operatorname {E} (Y)operatorname {E} (Z).,}
Did you mean:

If any of these random variables are identical, e.g. if X = Y, then the same formula apply, e.g.

κ κ ()X,X,Z)=E⁡ ⁡ ()X2Z)− − 2E⁡ ⁡ ()XZ)E⁡ ⁡ ()X)− − E⁡ ⁡ ()X2)E⁡ ⁡ ()Z)+2E⁡ ⁡ ()X)2E⁡ ⁡ ()Z),{displaystyle kappa (X,X,Z)=operatorname [E} (X^{2}Z)-2operatorname {E} (XZ)operatorname {E} (X)-operatorname {E} (X^{2})operatorname [E] (Z)+2 nombre de operador [E] (X)^{2} 'operatorname {E} (Z),,}
Did you mean:

although for such repeated variables there are more concise formula. For zero-mean random vectors,

κ κ ()X,Y,Z)=E⁡ ⁡ ()XYZ).{displaystyle kappa (X,Y,Z)=operatorname {E} (XYZ).,}
κ κ ()X,Y,Z,W)=E⁡ ⁡ ()XYZW)− − E⁡ ⁡ ()XY)E⁡ ⁡ ()ZW)− − E⁡ ⁡ ()XZ)E⁡ ⁡ ()YW)− − E⁡ ⁡ ()XW)E⁡ ⁡ ()YZ).{displaystyle kappa (X,Y,Z,W)=operatorname [E} (XYZW)-operatorname {E} (XY)operatorname {E} (ZW)-operatorname {E} (XZ)operatorname {E} (YW)-operatorname {E} (XW)operatorname {E} (YZ).,}

El acumulado conjunto de una sola variable aleatoria es su valor esperado, y el de dos variables aleatorias es su covarianza. Si algunas de las variables aleatorias son independientes de todas las demás, entonces cualquier acumulativo que involucre dos (o más) variables aleatorias independientes es cero. Si todas las variables aleatorias n son iguales, entonces el acumulante conjunto es el n -ésimo acumulador ordinario.

El significado combinatorio de la expresión de momentos en términos de cumulantes es más fácil de entender que el de cumulantes en términos de momentos:

E⁡ ⁡ ()X1⋯ ⋯ Xn)=.. π π ∏ ∏ B▪ ▪ π π κ κ ()Xi:i▪ ▪ B).{displaystyle operatorname {E} (X_{1}cdots X_{n}=sum _{pi }prod _{Bin pi }kappa (X_{i}:iin B).}

Por ejemplo:

E⁡ ⁡ ()XYZ)=κ κ ()X,Y,Z)+κ κ ()X,Y)κ κ ()Z)+κ κ ()X,Z)κ κ ()Y)+κ κ ()Y,Z)κ κ ()X)+κ κ ()X)κ κ ()Y)κ κ ()Z).{displaystyle operatorname {E} (XYZ)=kappa (X,Y,Z)+kappa (X,Y)kappa (Z)+kappa (X,Z)kappa (Y)+kappa (Y,Z)kappa (X)+kappa (X)kappa (Y)kappa).

Otra propiedad importante de los acumuladores conjuntos es la multilinealidad:

κ κ ()X+Y,Z1,Z2,...... )=κ κ ()X,Z1,Z2,...... )+κ κ ()Y,Z1,Z2,...... ).{displaystyle kappa (X+Y,Z_{1},Z_{2},dots)=kappa (X,Z_{1},Z_{2},ldots)+kappa (Y,Z_{1},Z_{2},ldots).

Así como el segundo acumulante es la varianza, el acumulante conjunto de solo dos variables aleatorias es la covarianza. La identidad familiar

Var⁡ ⁡ ()X+Y)=Var⁡ ⁡ ()X)+2cov⁡ ⁡ ()X,Y)+Var⁡ ⁡ ()Y){displaystyle operatorname {var} (X+Y)=operatorname {var} (X)+2operatorname {cov} (X,Y)+operatorname {var} (Y),}

generaliza a cumulantes:

κ κ n()X+Y)=.. j=0n()nj)κ κ ()X,...... ,X⏟ ⏟ j,Y,...... ,Y⏟ ⏟ n− − j).{displaystyle kappa _{n}(X+Y)=sum _{j=0}{n}{nchoose j}kappa (,underbrace {X,dotsX} _{j},underbrace - Sí.

Acumulantes condicionales y la ley de la acumulancia total

La ley de la expectativa total y la ley de la varianza total se generalizan naturalmente a los cumulantes condicionales. El caso n = 3, expresado en el lenguaje de los momentos (centrales) más que en el de los cumulantes, dice

μ μ 3()X)=E⁡ ⁡ ()μ μ 3()X▪ ▪ Y))+μ μ 3()E⁡ ⁡ ()X▪ ▪ Y))+3cov⁡ ⁡ ()E⁡ ⁡ ()X▪ ▪ Y),Var⁡ ⁡ ()X▪ ▪ Y)).{displaystyle mu _{3}(X)=operatorname {E} (mu _{3}(Xmid Y)+mu _{3}(operatorname [E} (Xmid Y)+3operatorname {cov} (operatorname) {E} (Xmid Y),operatorname {var} (Xmid Y)). }

En general,

κ κ ()X1,...... ,Xn)=.. π π κ κ ()κ κ ()Xπ π 1▪ ▪ Y),...... ,κ κ ()Xπ π b▪ ▪ Y)){displaystyle kappa (X_{1},dotsX_{n}=sum _{pi }kappa (kappa (X_{pi _{1}mid Y),dotskappa (X_{pi _{b}mid Y)}}

dónde

  • la suma está sobre todas las particionesπ del conjunto 1,... n } de índices, y
  • π1,...,πb son todos los "blocks" de la partición π; la expresión κ()Xπm) indica que el acumulador conjunto de las variables aleatorias cuyos índices están en ese bloque de la partición.

Acumulantes condicionales y expectativa condicional

Para determinadas configuraciones, se puede establecer una identidad derivada entre el acumulante condicional y el acumulante condicional. Por ejemplo, supongamos que Y = X + Z donde Z es normal estándar independiente de X, luego para cualquier X se cumple que

κ κ n+1()X▪ ▪ Y=Sí.)=dndSí.nE⁡ ⁡ ()X▪ ▪ Y=Sí.),n▪ ▪ N,Sí.▪ ▪ R.{displaystyle kappa _{n+1}(Xmid Y=y)={frac {mathrm {d}{n}{mathrm {d}}}}}operatorname {E} (Xmid Y=y),,nin mathbb {N},yin mathbb {R}

Los resultados también se pueden enviar por mensaje de texto a la familia exponencial.

Relación con la física estadística

En física estadística, muchas cantidades extensivas (es decir, cantidades que son proporcionales al volumen o tamaño de un sistema dado) están relacionadas con acumulativos de variables aleatorias. La conexión profunda es que en un sistema grande una cantidad extensa como la energía o el número de partículas puede considerarse como la suma de (digamos) la energía asociada con un número de regiones casi independientes. El hecho de que los cumulantes de estas variables aleatorias casi independientes se sumen (casi) hace razonable que se espere que grandes cantidades estén relacionadas con los cumulantes.

Un sistema de equilibrio con baño térmico a temperatura T tener una energía interna fluctuante E, que se puede considerar una variable aleatoria extraída de una distribución E♪ ♪ p()E){displaystyle Esim p(E)}. La función de partición del sistema es

Z()β β )=.. exp⁡ ⁡ ()− − β β E).. ,{displaystyle Z(beta)=langle exp(-beta E)rangle,}

Donde β =1/(kT) y k es la constante de Boltzmann y la notación .. A.. {displaystyle langle Arangle } ha sido usado en lugar de E⁡ ⁡ [A]{displaystyle operatorname [A] para que el valor de expectativa evite confusión con la energía, E. De ahí el primer y segundo acumulativo para la energía E dar la energía promedio y la capacidad de calor.

.. E.. c=∂ ∂ log⁡ ⁡ Z∂ ∂ ()− − β β )=.. E.. {displaystyle langle Erangle ¿Por qué? Erangle }
.. E2.. c=∂ ∂ .. E.. c∂ ∂ ()− − β β )=kT2∂ ∂ .. E.. ∂ ∂ T=kT2C{displaystyle langle E^{2}rangle {c}={frac {partial langle Erangle {fnK} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {partial langle Erangle }{partial T}=kT^{2}C}

La energía libre de Helmholtz expresada en términos de

F()β β )=− − β β − − 1log⁡ ⁡ Z()β β ){displaystyle F(beta)=-beta ^{-1}log Z(beta),}

conecta aún más las cantidades termodinámicas con la función generadora acumulada para la energía. Las propiedades termodinámicas que son derivados de la energía libre, como su energía interna, entropía y capacidad de calor específica, todos pueden expresarse fácilmente en términos de estos acumuladores. Otra energía libre puede ser una función de otras variables como el campo magnético o el potencial químico μ μ {displaystyle mu }, por ejemplo.

Ω Ω =− − β β − − 1log⁡ ⁡ ().. exp⁡ ⁡ ()− − β β E− − β β μ μ N).. ),{displaystyle Omega =-beta ^{-1}log(langle exp(-beta E-beta mu N)rangle),,}

Donde N es el número de partículas y Ω Ω {displaystyle Omega } es el gran potencial. Una vez más, la estrecha relación entre la definición de la energía libre y la función generadora acumulada implica que varios derivados de esta energía libre se pueden escribir en términos de acumuladores conjuntos de E y N.

Historia

Anders Hald analiza la historia de los acumulantes.

Los cumulantes fueron introducidos por primera vez por Thorvald N. Thiele, en 1889, quien los llamó semi-invariantes. Fueron llamados por primera vez acumulantes en un artículo de 1932 de Ronald Fisher y John Wishart. Neyman le recordó públicamente a Fisher el trabajo de Thiele, quien también señala citas publicadas anteriormente de Thiele que llamaron la atención de Fisher. Stephen Stigler ha dicho que el nombre cumulante le fue sugerido a Fisher en una carta de Harold Hotelling. En un artículo publicado en 1929, Fisher las llamó funciones de momentos acumulativos. La función de partición en física estadística fue introducida por Josiah Willard Gibbs en 1901. La energía libre a menudo se denomina energía libre de Gibbs. En mecánica estadística, los acumulantes también se conocen como funciones de Ursell relacionadas con una publicación de 1927.

Acumulantes en entornos generalizados

Acumulantes formales

De manera más general, los cumulantes de una secuencia { mn: n = 1, 2, 3,... }, no necesariamente los momentos de cualquier distribución de probabilidad, son, por definición,

1+.. n=1JUEGO JUEGO mntnn!=exp⁡ ⁡ ().. n=1JUEGO JUEGO κ κ ntnn!),{displaystyle 1+sum _{n=1}{infty}{frac {m_{n}t} {n}}=exp left(sum _{n=1}{infty }{frac {kappa ¡Sí!

donde los valores de κn para n = 1, 2, 3,... se encuentran formalmente, es decir, solo mediante álgebra, sin tener en cuenta las cuestiones de si alguna serie converge. Todas las dificultades del "problema de los acumulantes" están ausentes cuando se trabaja formalmente. El ejemplo más simple es que el segundo acumulante de una distribución de probabilidad siempre debe ser no negativo y es cero sólo si todos los acumulantes superiores son cero. Los acumulativos formales no están sujetos a tales restricciones.

Números de campana

En combinatoria, el n-ésimo número de Bell es el número de particiones de un conjunto de tamaño n. Todos los acumulantes de la secuencia de números de Bell son iguales a 1. Los números de Bell son los momentos de la distribución de Poisson con valor esperado 1.

Acumulantes de una secuencia polinómica de tipo binomial

Para cualquier secuencia { κn: n = 1, 2, 3,... } de escalares en un campo de característica cero, al considerarse cumulantes formales, existe una secuencia correspondiente { μ ′: n = 1, 2, 3,...} de momentos formales, dados por los polinomios anteriores. Para esos polinomios, construya una secuencia polinomial de la siguiente manera. Fuera del polinomio

μ μ 6.=κ κ 6+6κ κ 5κ κ 1+15κ κ 4κ κ 2+15κ κ 4κ κ 12+10κ κ 32+60κ κ 3κ κ 2κ κ 1+20κ κ 3κ κ 13+15κ κ 23+45κ κ 22κ κ 12+15κ κ 2κ κ 14+κ κ 16{displaystyle {begin{aligned}mu} '_{6}={} _{6}+6kappa ¿Por qué? _{1}+15kappa _{4}kappa ##{2}+15kappa ¿Qué? ################################################################################################################################################################################################################################################################ _{3}{2}+60kappa _{3}kappa ¿Qué? _{1}+20kappa _{3}kappa ¿Qué? ¿Qué? ¿Qué? _{1}{2}+15kappa _{2}kappa ¿Qué? ¿Qué?

crea un nuevo polinomio en estos más una variable adicional x:

p6()x)=κ κ 6x+()6κ κ 5κ κ 1+15κ κ 4κ κ 2+10κ κ 32)x2+()15κ κ 4κ κ 12+60κ κ 3κ κ 2κ κ 1+15κ κ 23)x3+()45κ κ 22κ κ 12)x4+()15κ κ 2κ κ 14)x5+()κ κ 16)x6,{displaystyle {begin{aligned}p_{6}(x)={kappa _{6},x+(6kappa) ¿Qué? _{1}+15kappa _{4}kappa _{2}+10kappa ¿Por qué? ¿Qué? _{1}{2}+60kappa _{3}kappa ¿Qué? _{1}+15kappa _{2}{3}),x^{3}\ {}+(45kappa) _{2}kappa _{2},x^{4}+(15kappa) _{2}kappa _{1}{4}),x^{5}+(kappa _{1}{6}),x^{6},end{aligned}}

y luego generalizar el patrón. El patrón es que el número de bloques en las particiones antes mencionadas son los exponentes de x. Cada coeficiente es un polinomio en los cumulantes; Estos son los polinomios de Bell, que llevan el nombre de Eric Temple Bell.

Esta secuencia de polinomios es de tipo binomial. De hecho, no existen otras secuencias de tipo binomial; toda secuencia polinómica de tipo binomial está completamente determinada por su secuencia de cumulantes formales.

Acumulantes libres

En la fórmula anterior de momento-acumulante

E⁡ ⁡ ()X1⋯ ⋯ Xn)=.. π π ∏ ∏ B▪ ▪ π π κ κ ()Xi:i▪ ▪ B){displaystyle operatorname {E} (X_{1}cdots X_{n})=sum _{pi }prod _{B,in ,pi }kappa (X_{i}:iin B)}

para acumuladores conjuntos, una suma sobre Todos particiones del conjunto 1,... n }. Si en cambio, una suma sólo sobre las particiones no cruzadas, entonces, resolviendo estas fórmulas para las κ κ {displaystyle kappa } en términos de los momentos, uno consigue cumulantes gratis en lugar de los acumuladores convencionales tratados anteriormente. Estos acumuladores gratis fueron introducidos por Roland Speicher y juegan un papel central en la teoría de la probabilidad libre. En esa teoría, en lugar de considerar la independencia de variables aleatorias, definidas en términos de productos tensores de álgebras de variables aleatorias, se considera la independencia libre de variables aleatorias, definidas en términos de productos libres de álgebras.

Los acumulantes ordinarios de grado superior a 2 de la distribución normal son cero. Los acumulantes libres de grado superior a 2 de la distribución del semicírculo de Wigner son cero. Este es un aspecto en el que el papel de la distribución de Wigner en la teoría de la probabilidad libre es análogo al de la distribución normal en la teoría de la probabilidad convencional.

Contenido relacionado

Centro de poder (geometría)

En geometría, el centro de potencia de tres círculos, también llamado centro radical, es el punto de intersección de los tres ejes radicales de los pares...

Cociente (álgebra universal)

La idea del álgebra de cocientes resume en una noción común la estructura de cocientes de los anillos de cocientes de la teoría de anillos, los grupos de...

Rectángulo dorado

En geometría, una rectángulo dorado es un rectángulo cuya longitud lateral está en la relación de oro, 1:1+52{displaystyle 1:{tfrac {1+{sqrt {}} {2}}}}...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save