Momento central

Compartir Imprimir Citar
Momento de una variable aleatoria menos su media

En teoría de probabilidad y estadística, un momento central es un momento de una distribución de probabilidad de una variable aleatoria sobre la media de la variable aleatoria; es decir, es el valor esperado de una potencia entera especificada de la desviación de la variable aleatoria de la media. Los diversos momentos forman un conjunto de valores por los cuales las propiedades de una distribución de probabilidad pueden caracterizarse de manera útil. Los momentos centrales se usan con preferencia a los momentos ordinarios, calculados en términos de desviaciones de la media en lugar de cero, porque los momentos centrales de orden superior se relacionan solo con la dispersión y la forma de la distribución, y no también con su ubicación.

Se pueden definir conjuntos de momentos centrales para distribuciones univariadas y multivariadas.

Momentos univariantes

El nésimo momento con respecto a la media (o nésimo momento central) de una variable aleatoria de valor real X es la cantidad μn:= E[(X − E[X])n], donde E es el operador de expectativa. Para una distribución de probabilidad univariante continua con función de densidad de probabilidad f(x), el nésimo momento con respecto a la media μ es

μ μ n=E⁡ ⁡ [()X− − E⁡ ⁡ [X])n]=∫ ∫ − − JUEGO JUEGO +JUEGO JUEGO ()x− − μ μ )nf()x)dx.{displaystyle mu _{n}=operatorname {E} left[(X-operatorname {E} [X])^{n}int _{-infty }^{+infty }(x-mu)^{n}f(x),mathrm {d} x.}

Para variables aleatorias que no tienen media, como la distribución de Cauchy, los momentos centrales no están definidos.

Los primeros momentos centrales tienen interpretaciones intuitivas:

Propiedades

El nmo momento central es invariante traslacional, es decir, para cualquier variable aleatoria X y cualquier constante c, tenemos

μ μ n()X+c)=μ μ n()X).{displaystyle mu _{n}(X+c)=mu _{n}(X).,}

Para todo n, el momento central nésimo es homogéneo de grado n:

μ μ n()cX)=cnμ μ n()X).{displaystyle mu _{n}(cX)=c^{n}mu _{n}(X).,}

Solo para n tal que n es igual a 1, 2 o 3 tenemos una propiedad de aditividad para las variables aleatorias X y Y que son independientes:

μ μ n()X+Y)=μ μ n()X)+μ μ n()Y){displaystyle mu _{n}(X+Y)=mu _{n}(X)+mu _{n}(Y),} proporcionadas n{1, 2, 3}}.

Un funcional relacionado que comparte las propiedades de homogeneidad e invariancia de traducción con el momento central n, pero continúa teniendo esta propiedad de aditividad incluso cuando n ≥ 4 es el nésimo cumulante κn(X). Para n = 1, el nésimo cumulante es justo el valor esperado; para n = 2 o 3, el nésimo cumulante es solo el nésimo momento central; para n ≥ 4, el nésimo cumulante es un polinomio mónico de ngrado en los primeros n momentos (alrededor de cero), y también es un polinomio (más simple) de n grado en los primeros n momentos centrales.

Relación con momentos sobre el origen

A veces es conveniente convertir momentos sobre el origen en momentos sobre la media. La ecuación general para convertir el momento de orden n con respecto al origen en el momento con respecto a la media es

μ μ n=E⁡ ⁡ [()X− − E⁡ ⁡ [X])n]=.. j=0n()nj)()− − 1)n− − jμ μ j.μ μ n− − j,{displaystyle mu _{n}=operatorname {E} left[left(X-operatorname {E} [X]right)^{n}right]=sum _{j=0}{n}{nchoose j}(-1)^{n-j}mu '_{j}mu ^{n-j}}}}

donde μ es la media de la distribución, y el momento sobre el origen está dado por

μ μ m.=∫ ∫ − − JUEGO JUEGO +JUEGO JUEGO xmf()x)dx=E⁡ ⁡ [Xm]=.. j=0m()mj)μ μ jμ μ m− − j.{displaystyle mu '_{m}=int _{-infty }{+infty }x^{m}f(x),dx=operatorname [X^{m]=sum _{j=0}{m}{m} ¿Qué?

Para los casos n = 2, 3, 4 —que son de mayor interés debido a las relaciones de varianza, esquedad y kurtosis, respectivamente— esta fórmula se convierte (sintiendo que μ μ =μ μ 1.{displaystyle mu =mu '_{1} y μ μ 0.=1{displaystyle mu '_{0}=1}):

μ μ 2=μ μ 2.− − μ μ 2{displaystyle mu _{2}=mu '... que se conoce comúnmente como Var⁡ ⁡ ()X)=E⁡ ⁡ [X2]− − ()E⁡ ⁡ [X])2{displaystyle operatorname (X)=operatorname [E] [X^{2}-left(operatorname {E} [X]right]
μ μ 3=μ μ 3.− − 3μ μ μ μ 2.+2μ μ 3{displaystyle mu _{3}=mu '_{3}-3mu mu '_{2}+2mu ^{3},}
μ μ 4=μ μ 4.− − 4μ μ μ μ 3.+6μ μ 2μ μ 2.− − 3μ μ 4.{displaystyle mu _{4}=mu '_{4}-4 'mu mu '_{3}+6mu ^{2}mu '_{2}-3mu ^{4}

... y así sucesivamente, siguiendo el triángulo de Pascal, es decir,

μ μ 5=μ μ 5.− − 5μ μ μ μ 4.+10μ μ 2μ μ 3.− − 10μ μ 3μ μ 2.+4μ μ 5.{displaystyle mu _{5}=mu '_{5}-5 'mu mu '_{4}+10mu ^{2}mu '_{3}-10mu ^{3}mu '_{2}+4mu ^{5}

porque 5μ μ 4μ μ 1.− − μ μ 5μ μ 0.=5μ μ 4μ μ − − μ μ 5=5μ μ 5− − μ μ 5=4μ μ 5{displaystyle 5mu ^{4}mu '_{1}-mu ^{5}mu ¿Qué?

La siguiente suma es una variable estocástica que tiene una distribución compuesta

W=.. i=1MYi,{displaystyle W=sum ¿Qué?

Donde Yi{displaystyle Y... son variables aleatorias mutuamente independientes que comparten la misma distribución común y M{displaystyle M} una variable entero aleatoria independiente del Yk{displaystyle Y... con su propia distribución. Los momentos de W{displaystyle W. se obtienen como

E⁡ ⁡ [Wn]=.. i=0nE⁡ ⁡ [()Mi)].. j=0i()ij)()− − 1)i− − jE⁡ ⁡ [().. k=1jYk)n],{displaystyle operatorname [E] [W^{n]=sum] ################################################################################################################################################################################################################################################################ {E} left [{M choose i}right]sum _{j=0}{i}{i}{i} choose j}(-1)^{i-j}operatorname {E} left[left(sum _{k=1}{j}Y_{k}right)^{n}right],}

Donde E⁡ ⁡ [().. k=1jYk)n]{displaystyle operatorname {E} left[left(sum _{k=1}{j}Y_{k}right)^{n}right] se define como cero para j=0{displaystyle j=0}.

Distribuciones simétricas

En distribuciones que son simétricas con respecto a sus medias (no afectadas por reflejarse con respecto a la media), todos los momentos centrales impares son iguales a cero siempre que existan, porque en la fórmula para el nésimo momento, cada término que involucra un valor de X menor que la media por una cierta cantidad cancela exactamente el término que involucra un valor de X mayor que la media por la misma cantidad.

Momentos multivariantes

Para una distribución de probabilidad bivariada continua con función de densidad de probabilidad f(x,y) el (j,k) momento respecto a la media μ = (μX, μY) es

μ μ j,k=E⁡ ⁡ [()X− − E⁡ ⁡ [X])j()Y− − E⁡ ⁡ [Y])k]=∫ ∫ − − JUEGO JUEGO +JUEGO JUEGO ∫ ∫ − − JUEGO JUEGO +JUEGO JUEGO ()x− − μ μ X)j()Sí.− − μ μ Y)kf()x,Sí.)dxdSí..{displaystyle mu _{j,k}=operatorname {E} left[(X-operatorname {E} [X])^{j}(Y-operatorname {E} [Y]} {k}right]=int _{-infty }{+infty }int _{-infty }{+infty }(x-mu _{j}(y-mu _{Y})} {k}f(x,y),dx,dy.}

Momento central de variables aleatorias complejas

El nmo momento central para una variable aleatoria compleja X se define como

α α n=E⁡ ⁡ [()X− − E⁡ ⁡ [X])n],{displaystyle alpha ¿Por qué?

El nésimo momento central absoluto de X se define como

β β n=E⁡ ⁡ [Silencio()X− − E⁡ ⁡ [X])Silencion].{displaystyle beta _{n}=operatorname {E} left [sobreviviente(X-operatorname {E} [X]) _right^{n}right].}

El momento central de segundo orden β2 se denomina varianza de X mientras que el momento central de segundo orden α2 es la pseudo-varianza de X.