Función generadora de momentos

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Concepto en teoría de probabilidad y estadísticas

En teoría de probabilidad y estadística, la función generadora de momentos de una variable aleatoria de valor real es una especificación alternativa de su distribución de probabilidad. Por lo tanto, proporciona la base de una ruta alternativa a los resultados analíticos en comparación con trabajar directamente con funciones de densidad de probabilidad o funciones de distribución acumulativa. Hay resultados particularmente simples para las funciones generadoras de momentos de distribuciones definidas por las sumas ponderadas de variables aleatorias. Sin embargo, no todas las variables aleatorias tienen funciones generadoras de momentos.

Como su nombre lo indica, la función generadora de momentos se puede usar para calcular los momentos de una distribución: el nésimo momento alrededor de 0 es la nésima derivada del momento -función generadora, evaluada en 0.

Además de las distribuciones con valores reales (distribuciones univariadas), se pueden definir funciones generadoras de momentos para variables aleatorias con valores vectoriales o matriciales, e incluso se pueden extender a casos más generales.

La función generadora de momentos de una distribución de valor real no siempre existe, a diferencia de la función característica. Existen relaciones entre el comportamiento de la función generadora de momentos de una distribución y las propiedades de la distribución, como la existencia de momentos.

Definición

Vamos X{displaystyle X} ser una variable aleatoria con CDF FX{displaystyle F_{X}. Función generadora de momento (mgf) X{displaystyle X} (o FX{displaystyle F_{X}), denotado por MX()t){displaystyle M_{X}(t)}, es

MX()t)=E⁡ ⁡ [etX]{displaystyle M_{X}(t)=operatorname {E} left [e^{tX}right]

siempre que exista esta expectativa t{displaystyle t} en un barrio de 0. Es decir, hay un 0}" xmlns="http://www.w3.org/1998/Math/MathML">h■0{displaystyle h confía0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/cbddb7a5cca6170575e4e73e769fbb434c2a3d71" style="vertical-align: -0.338ex; width:5.6ex; height:2.176ex;"/> tal que para todos t{displaystyle t} dentro <math alttext="{displaystyle -h<t− − h.t.h{displaystyle - ¿Qué?<img alt="{displaystyle -h<t, E⁡ ⁡ [etX]{displaystyle operatorname {E} left[e^{tX}right]} existe. Si la expectativa no existe en un barrio de 0, decimos que la función generadora del momento no existe.

En otras palabras, la función generadora de momento X es la expectativa de la variable aleatoria etX{displaystyle e^{tX}. Más generalmente, cuando X=()X1,...... ,Xn)T{displaystyle mathbf {X} =(X_{1},ldotsX_{n}{mathrm {T}}, un n{displaystyle n}- vector aleatorio dimensional, y t{displaystyle mathbf {t} es un vector fijo, uno utiliza t⋅ ⋅ X=tTX{displaystyle mathbf {t} cdot mathbf {X} =mathbf {t} {T} 'Mathbf {X} en lugar detX{displaystyle tX}:

MX()t):=E⁡ ⁡ ()etTX).{displaystyle M_{mathbf {X}(mathbf {t}=operatorname {E} left(e^{mathbf {t} {mathrm {T}mathbf {X}right).}

MX()0){displaystyle M_{X}(0)} siempre existe y es igual a 1. Sin embargo, un problema clave con las funciones generadoras de momento es que los momentos y la función generadora de momento pueden no existir, ya que los integrales no necesitan converger absolutamente. Por el contrario, la función característica o la transformación de Fourier siempre existe (porque es la parte integral de una función atada en un espacio de medida finita), y para algunos propósitos pueden ser utilizados en su lugar.

La función generadora de momento es tan nombrada porque se puede utilizar para encontrar los momentos de la distribución. La expansión de la serie etX{displaystyle e^{tX} es

etX=1+tX+t2X22!+t3X33!+⋯ ⋯ +tnXnn!+⋯ ⋯ .{displaystyle e^{t,X}=1+t,X+{frac {t^{2},X^{2}}{2}}}+{frac ¡No! ¡No!

Por lo tanto

MX()t)=E⁡ ⁡ ()etX)=1+tE⁡ ⁡ ()X)+t2E⁡ ⁡ ()X2)2!+t3E⁡ ⁡ ()X3)3!+⋯ ⋯ +tnE⁡ ⁡ ()Xn)n!+⋯ ⋯ =1+tm1+t2m22!+t3m33!+⋯ ⋯ +tnmnn!+⋯ ⋯ ,{displaystyle {begin{aligned}M_{X}(t)=operatorname {E} (e^{t,X}) [E] (X)+{frac {t^{2}operatorname {E} (X^{2}} {2}}}+{frac ################################################################################################################################################################################################################################################################ {E} (X^{3}} {3!}}+cdots +{frac {t^{n}operatorname {E} (X^{n} {n}}}+cdots \fc=1+tm_{1}+{frac {2}m_{2} {2}}}}+{frac {T}m_{3} {3}}}+cdots {fnn}cdotsend{aligned}}

Donde mn{displaystyle m_{n} es n{displaystyle n}Un momento. Diferenciación MX()t){displaystyle M_{X}(t)} i{displaystyle i} con respecto a t{displaystyle t} y configuración t=0{displaystyle t=0}, obtenemos el i{displaystyle i}a momento sobre el origen, mi{displaystyle #; ver Cálculos de momentos a continuación.

Si X{displaystyle X} es una variable aleatoria continua, la siguiente relación entre su función generadora de momento MX()t){displaystyle M_{X}(t)} y la transformación de dos lados de la función de densidad de probabilidad fX()x){displaystyle f_{X}(x)} sostiene:

MX()t)=L{}fX}()− − t),{displaystyle M_{X}(t)={mathcal {L}{f_{X} {-t),}

ya que la transformada de Laplace de dos caras del PDF se da como

L{}fX}()s)=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO e− − sxfX()x)dx,{fnMicrosoft Sans {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}

y la definición de la función generadora de momentos se expande (por la ley del estadístico inconsciente) a

MX()t)=E⁡ ⁡ [etX]=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO etxfX()x)dx.{displaystyle M_{X}(t)=operatorname {E} left[e^{tX}right]=int _{-infty } {infty }e^{tx}f_{X}(x),dx.}

Esto es consistente con la función característica de X{displaystyle X} ser una rotación de Wick MX()t){displaystyle M_{X}(t)} cuando la función generadora de momento existe, como la función característica de una variable aleatoria continua X{displaystyle X} es la transformación Fourier de su función de densidad de probabilidad fX()x){displaystyle f_{X}(x)}, y en general cuando una función f()x){displaystyle f(x)} es de orden exponencial, la transformación de Fourier f{displaystyle f} es una rotación Wick de su transformación de dos lados en la región de convergencia. Vea la relación de Fourier y Laplace transforma para más información.

Ejemplos

Aquí están algunos ejemplos de la función generadora de momento y la función característica para la comparación. Se puede ver que la función característica es una rotación de la función generadora de momento MX()t){displaystyle M_{X}(t)} cuando este último existe.

Distribución Función generadora de momento MX()t){displaystyle M_{X}(t)}Función característica φ φ ()t){displaystyle varphi (t)}
Degenerado δ δ a{displaystyle delta _{a}eta{displaystyle e^{ta}eita{displaystyle e^{ita}
Bernoulli P()X=1)=p{displaystyle P(X=1)=p}1− − p+pet{displaystyle 1-p+pe^{t}1− − p+peit{displaystyle 1-p+pe^{it}
Geométrica ()1− − p)k− − 1p{displaystyle (1-p)^{k-1},p}<math alttext="{displaystyle {frac {pe^{t}}{1-(1-p)e^{t}}},~tpet1− − ()1− − p)et,t.− − In⁡ ⁡ ()1− − p){displaystyle {frac {fnK}{1-(1-p)e^{t}},~t meant-ln(1-p)}<img alt="{displaystyle {frac {pe^{t}}{1-(1-p)e^{t}}},~tpeit1− − ()1− − p)eit{fnMicrosoft} {fnMicrosoft Sans Serif}}}
Binomial B()n,p){displaystyle B(n,p)}()1− − p+pet)n{displaystyle left(1-p+pe^{t}right)}()1− − p+peit)n{displaystyle left(1-p+pe^{it}right)}
Binomial negativo NB⁡ ⁡ ()r,p){displaystyle operatorname {NB} (r,p)}<math alttext="{displaystyle left({frac {p}{1-e^{t}+pe^{t}}}right)^{r},~t()p1− − et+pet)r,t.− − In⁡ ⁡ ()1− − p){displaystyle left({frac {p}{1-e^{t}}right)}{r},~t meant-ln(1-p)}<img alt="{displaystyle left({frac {p}{1-e^{t}+pe^{t}}}right)^{r},~t()p1− − eit+peit)r{displaystyle left({frac {fnMicrosoft Sans Serif}
Poisson Pois⁡ ⁡ ()λ λ ){displaystyle operatorname {Pois} (lambda)}eλ λ ()et− − 1){displaystyle e^{lambda (e^{t}-1)}eλ λ ()eit− − 1){displaystyle e^{lambda (e^{it}-1)}
Uniforme (continua) U⁡ ⁡ ()a,b){displaystyle operatorname {U} (a,b)}etb− − etat()b− − a){displaystyle {frac {e^{tb} {}{t(b-a)}}}}}eitb− − eitait()b− − a){displaystyle {frac {e^{itb} {} {} {f}}} {f}}}}}
Uniforme (discreto) DU⁡ ⁡ ()a,b){displaystyle operatorname {DU} (a,b)}eat− − e()b+1)t()b− − a+1)()1− − et){displaystyle {frac {e^{at}-e^{(b+1)t}{(b-a+1)(1-e^{t}}}eait− − e()b+1)it()b− − a+1)()1− − eit){displaystyle {frac {e^{ait}-e^{(b+1)it}{(b-a+1)(1-e^{it}}}
Laplace L()μ μ ,b){displaystyle L(mub)}<math alttext="{displaystyle {frac {e^{tmu }}{1-b^{2}t^{2}}},~|t|etμ μ 1− − b2t2,SilenciotSilencio.1/b{displaystyle {fnMicroc {fnMicrosoft {fnMicrosoft {ffnMicrosoft {f} {ffnMicrosoft {fnMicrosoft {fnMicrosoft {fn\fn\fnMicrosoft {\fnMicrosoft {fnMicrosoft {f}f}f}f}f}f\fn\\fnfn\fnfnffff\\ffn\\\\\fnf\\\ffn\\\fnfnfnfnMicroc\\fn\\fn\\fn\\fn\\fn\\fn\\\\\\fn\\\\\ {2}} {1-b^{2} {2}}},~ perpetuat habit1/b}<img alt="{displaystyle {frac {e^{tmu }}{1-b^{2}t^{2}}},~|t|eitμ μ 1+b2t2{displaystyle {fnMicroc {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}fnMicrosoft {f}ffnMicrosoft {fnMicrosoftf}\\f}f}\\f\\\fn\\fn\\ffff\\\ff\\\\\ff\\\\ffn\\\fnfn\\fn\\fn\\fn\\fn\\fn\fn\\fn\\\\\\\\\\\\ # {1+b^{2}t} {2}}}}
Normal N()μ μ ,σ σ 2){displaystyle N(musigma ^{2}etμ μ +12σ σ 2t2{displaystyle e^{tmu +{2}sigma ^{2}t^{2}}}eitμ μ − − 12σ σ 2t2{displaystyle e^{itmu} - {frac {1} {2}sigma } {2}t^{2}}}
Chi-squared χ χ k2{displaystyle chi _{k} {2}}<math alttext="{displaystyle (1-2t)^{-{frac {k}{2}}},~t()1− − 2t)− − k2,t.1/2{displaystyle (1-2t)^{-{frac {k}{2}}}, ~ t significa1/2}<img alt="{displaystyle (1-2t)^{-{frac {k}{2}}},~t()1− − 2it)− − k2{displaystyle (1-2it)^{-{frac {k}{2}}}}
No central chi-squared χ χ k2()λ λ ){displaystyle chi _{k} {2}(lambda)}eλ λ t/()1− − 2t)()1− − 2t)− − k2{displaystyle e^{lambda t/(1-2t)}(1-2t)}{-{frac {k}{2}}}}eiλ λ t/()1− − 2it)()1− − 2it)− − k2{displaystyle e^{ilambda t/(1-2it)}(1-2it)^{-{frac {k}{2}}}}
Gamma .. ()k,Silencio Silencio ){displaystyle Gamma (k,theta)}<math alttext="{displaystyle (1-ttheta)^{-k},~t()1− − tSilencio Silencio )− − k,t.1Silencio Silencio {displaystyle (1-ttheta)}{-k},~t made{tfrac {1}{theta }<img alt="{displaystyle (1-ttheta)^{-k},~t()1− − itSilencio Silencio )− − k{displaystyle (1-ittheta)}
Exponential Gastos⁡ ⁡ ()λ λ ){displaystyle operatorname {Exp} (lambda)}<math alttext="{displaystyle left(1-tlambda ^{-1}right)^{-1},~t()1− − tλ λ − − 1)− − 1,t.λ λ {displaystyle left(1-tlambda ^{-1}right)}{-1},~t madelambda }<img alt="{displaystyle left(1-tlambda ^{-1}right)^{-1},~t()1− − itλ λ − − 1)− − 1{displaystyle left(1-itlambda ^{-1}right)}{-1}
Beta 1+.. k=1JUEGO JUEGO ()∏ ∏ r=0k− − 1α α +rα α +β β +r)tkk!{displaystyle 1+sum _{infty }left(prod) {fnMicrosoft Sans Serif} {fnK}}}}1F1()α α ;α α +β β ;it){displaystyle {}_{1}F_{1}(alpha;alpha +beta;i,t)!} (ver Función hipergeométrica confluente)
Normal multivariable N()μ μ ,.. ){displaystyle N(mathbf {mmfnMicrosoft {\fnMicrosoft {\fnMicrosoft {\fnMicrosoft {\fnMicrosoft {fnMicrosoft {\fnMicrosoft {\fnMicrosoft {\fnMicrosoft {\\fnMicrosoft}\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ Mathbf {Sigma}etT()μ μ +12.. t){displaystyle e^{mthbf} {m} {T}left({boldsymbol {mu} ¿Qué?etT()iμ μ − − 12.. t){displaystyle e^{mthbf} {m} {T}left(i{boldsymbol {mu}-{frac} {1}{2}{boldsymbol {Sigma}mathbf {t}}}
Cauchy Cauchy⁡ ⁡ ()μ μ ,Silencio Silencio ){displaystyle operatorname {Cauchy} (mutheta)}No existe eitμ μ − − Silencio Silencio SilenciotSilencio{displaystyle e^{itmu -theta Silencio.
Cauchy multivariable

MultiCauchy⁡ ⁡ ()μ μ ,.. ){displaystyle operatorname {MultiCauchy} (muSigma)}

No existe eitTμ μ − − tT.. t{displaystyle !,e^{imathbf {t} {T} {fn} {fnMitbf} ^{mathrm {T}{boldsymbol {Sigma}mathbf {t} }

Cálculo

La función generadora de momentos es la expectativa de una función de la variable aleatoria, se puede escribir como:

  • Para una función de masa de probabilidad discreta, MX()t)=.. i=0JUEGO JUEGO etxipi{displaystyle M_{X}(t)=sum ¿Qué? ¿Qué?
  • Para una función de densidad de probabilidad continua, MX()t)=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO etxf()x)dx{displaystyle M_{X}(t)=int _{-infty } {infty }e^{tx}f(x),dx}
  • En el caso general: MX()t)=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO etxdF()x){displaystyle M_{X}(t)=int _{-infty } {infty }e^{tx},dF(x)}, utilizando el Riemann–Stieltjes integral, y donde F{displaystyle F} es la función de distribución acumulativa. Esto es simplemente la transformación de Laplace-Stieltjes F{displaystyle F}, pero con la señal del argumento invertido.

Note eso para el caso donde X{displaystyle X} tiene una función de densidad de probabilidad continua f()x){displaystyle f(x)}, MX()− − t){displaystyle M_{X}(-t)} es la transformación de dos caras de Laplace f()x){displaystyle f(x)}.

MX()t)=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO etxf()x)dx=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO ()1+tx+t2x22!+⋯ ⋯ +tnxnn!+⋯ ⋯ )f()x)dx=1+tm1+t2m22!+⋯ ⋯ +tnmnn!+⋯ ⋯ ,{displaystyle {begin{aligned}M_{X}(t) limit=int _{-infty }{infty }e^{tx}f(x),dx\\\int ¿Qué? {fnMicrosoft Sans Serif} +{frac {t^{n} {n}}}+cdots right)f(x),dx\\=1+tm_{1}+{frac {2}m_{2} {2}}}+cdots {fnn}cdotsend{aligned}}

Donde mn{displaystyle m_{n} es n{displaystyle n}Un momento.

Transformaciones lineales de variables aleatorias

Si la variable aleatoria X{displaystyle X} tiene función generadora de momento MX()t){displaystyle M_{X}(t)}, entonces α α X+β β {displaystyle alpha X+beta } tiene función generadora de momento Mα α X+β β ()t)=eβ β tMX()α α t){displaystyle M_{alpha X+beta }(t)=e^{beta t}M_{X}(alpha t)}

Mα α X+β β ()t)=E[e()α α X+β β )t]=eβ β tE[eα α Xt]=eβ β tMX()α α t){displaystyle M_{alpha X+beta }(t)=E[e^{(alpha X+beta)t}]=e^{beta E[e^{alpha ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ♪ ¡No!

Combinación lineal de variables aleatorias independientes

Si Sn=.. i=1naiXi{displaystyle S_{n}=sum ¿Qué?, donde el Xi son variables aleatorias independientes y ai son constantes, entonces la función de densidad de probabilidad para Sn es la evolución de las funciones de densidad de probabilidad de cada una de las Xi, y la función generadora de momento para Sn es dado por

MSn()t)=MX1()a1t)MX2()a2t)⋯ ⋯ MXn()ant).{displaystyle M_{S_{n}(t)=M_{X_{1}(a_{1}t) M_{X_{2}(a_{2}t)cdots M_{X_{n}(a_{n}t),.}

Variables aleatorias con valores vectoriales

Para variables aleatorias de valor vectorial X{displaystyle mathbf {X} con componentes reales, la función generadora de momento es dada por

MX()t)=E()e.. t,X.. ){displaystyle M_{X}(mathbf {t})=Eleft(e^{langle mathbf {t}mathbf {X} rangle }right)}

Donde t{displaystyle mathbf {t} es un vector y .. ⋅ ⋅ ,⋅ ⋅ .. {displaystyle langle cdotcdot rangle } es el producto de puntos.

Propiedades importantes

Las funciones generadoras de momentos son positivas y log-convexas, con M(0) = 1.

Una propiedad importante de la función generadora de momento es que determina únicamente la distribución. En otras palabras, si X{displaystyle X} y Y{displaystyle Sí. son dos variables aleatorias y para todos los valorest,

MX()t)=MY()t),{displaystyle M_{X}(t)=M_{Y}(t),,}

entonces

FX()x)=FY()x){displaystyle F_{X}(x)=F_{Y}(x),}

para todos los valores de x (o equivalentemente X y Y tienen la misma distribución). Esta declaración no es equivalente a la declaración "si dos distribuciones tienen los mismos momentos, entonces son idénticas en todos los puntos". Esto se debe a que, en algunos casos, los momentos existen y, sin embargo, la función generadora de momentos no, porque el límite

limn→ → JUEGO JUEGO .. i=0ntimii!{displaystyle lim _{nrightarrow infty }sum ¿Por qué? {fnMicrosoft Sans Serif}}

puede que no exista. La distribución logarítmica normal es un ejemplo de cuándo ocurre esto.

Cálculos de momentos

La función generadora de momentos se llama así porque si existe en un intervalo abierto alrededor de t = 0, entonces es la función generadora exponencial de los momentos de la distribución de probabilidad:

mn=E()Xn)=MX()n)()0)=dnMXdtnSilenciot=0.{displaystyle m_{n}=Eleft(X^{n}right)=M_{X}{(n)}=left.{frac {d^{n}M_{X}{dt^{n}}}right eterna_{t=0}

Es decir, siendo n un número entero no negativo, el nésimo momento alrededor de 0 es la nésima derivada de la función generadora de momentos, evaluado en t = 0.

Otras propiedades

La desigualdad de Jensen proporciona un límite inferior simple en la función generadora de momentos:

MX()t)≥ ≥ eμ μ t,{displaystyle M_{X}(t)geq e^{mu t}

Donde μ μ {displaystyle mu } es la media de X.

La función generadora de momento se puede utilizar junto con la desigualdad de Markov para atar la cola superior de una variable aleatoria real X. Esta declaración también se denomina límite de Chernoff. Desde x↦ ↦ ext{displaystyle xmapsto e^{xt} está aumentando monotonicamente 0}" xmlns="http://www.w3.org/1998/Math/MathML">t■0{displaystyle t fiel0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/29a2960e88369263fe3cfe00ccbfeb83daee212a" style="vertical-align: -0.338ex; width:5.101ex; height:2.176ex;"/>, tenemos

P()X≥ ≥ a)=P()etX≥ ≥ eta)≤ ≤ e− − atE[etX]=e− − atMX()t){displaystyle P(Xgeq a)=P(e^{tX}geq e^{ta})leq e^{-at}E[e^{tX}]=e^{-at}M_{X}(t)}

para cualquier 0}" xmlns="http://www.w3.org/1998/Math/MathML">t■0{displaystyle t fiel0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/29a2960e88369263fe3cfe00ccbfeb83daee212a" style="vertical-align: -0.338ex; width:5.101ex; height:2.176ex;"/> y cualquier a, proporcionado MX()t){displaystyle M_{X}(t)} existe. Por ejemplo, cuando X es una distribución normal estándar y 0}" xmlns="http://www.w3.org/1998/Math/MathML">a■0{displaystyle a confía0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/1f34a80ea013edb56e340b19550430a8b6dfd7b9" style="vertical-align: -0.338ex; width:5.491ex; height:2.176ex;"/>, podemos elegir t=a{displaystyle t=a} y recordar que MX()t)=et2/2{displaystyle M_{X}(t)=e^{t^{2}/2}. Esto da P()X≥ ≥ a)≤ ≤ e− − a2/2{displaystyle P(Xgeq a)leq e^{-a^{2}/2}, que está dentro de un factor de 1+a del valor exacto.

Varios lemas, como el lema de Hoeffding o la desigualdad de Bennett, proporcionan límites en la función generadora de momentos en el caso de una variable aleatoria limitada de media cero.

Cuando X{displaystyle X} es no negativo, la función generadora de momento da un vínculo simple y útil en los momentos:

E[Xm]≤ ≤ ()mte)mMX()t),{displaystyle E[X^{m}]leq left({frac {m}{t}right)^{m}M_{X}(t),}

Para cualquier X,m≥ ≥ 0{displaystyle X,mgeq 0} y 0}" xmlns="http://www.w3.org/1998/Math/MathML">t■0{displaystyle t fiel0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/29a2960e88369263fe3cfe00ccbfeb83daee212a" style="vertical-align: -0.338ex; width:5.101ex; height:2.176ex;"/>.

Esto se deriva de la desigualdad 1+x≤ ≤ ex{displaystyle 1+xleq e^{x} en que podemos sustituir x.=tx/m− − 1{displaystyle x'=tx/m-1} implicación tx/m≤ ≤ etx/m− − 1{displaystyle tx/mleq e^{tx/m-1} para cualquier x,t,m▪ ▪ R{displaystyle x,t,min mathbb {R}. Ahora, si 0}" xmlns="http://www.w3.org/1998/Math/MathML">t■0{displaystyle t fiel0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/29a2960e88369263fe3cfe00ccbfeb83daee212a" style="vertical-align: -0.338ex; width:5.101ex; height:2.176ex;"/> y x,m≥ ≥ 0{displaystyle x,mgeq 0}, esto se puede reorganizar xm≤ ≤ ()m/()te))metx{displaystyle x^{m}leq (m/(te)} {m}e^{tx}. Tomando la expectativa de ambos lados da el límite E[Xm]{displaystyle E[X^{m]} en términos de E[etX]{displaystyle E[e^{tX}}.

Como ejemplo, considere X♪ ♪ Chi-Squared{displaystyle Xsim {text{Chi-Squared}}} con k{displaystyle k} grados de libertad. Luego de los ejemplos MX()t)=()1− − 2t)− − k/2{displaystyle M_{X}(t)=(1-2t)^{-k/2}. Picking t=m/()2m+k){displaystyle t=m/(2m+k)} y sustitución en el límite:

E[Xm]≤ ≤ ()1+2m/k)k/2e− − m()k+2m)m.{displaystyle E[X^{m}]leq (1+2m/k)^{k/2}e^{-m}(k+2m)^{m}

Sabemos que en este caso el límite correcto es E[Xm]≤ ≤ 2m.. ()m+k/2)/.. ()k/2){displaystyle E[X^{m}leq 2^{m}Gamma (m+k/2)/Gamma (k/2)}. Para comparar los límites, podemos considerar la asintotica para grandes k{displaystyle k}. Aquí está la función generadora de momento km()1+m2/k+O()1/k2)){displaystyle k^{m}(1+m^{2}/k+O(1/k^{2})}, donde el límite real es km()1+()m2− − m)/k+O()1/k2)){displaystyle k^{m}(1+(m^{2}-m)/k+O(1/k^{2})}. La función generadora de momento es así muy fuerte en este caso.

Relación con otras funciones

Relacionados con la función generadora de momentos hay una serie de otras transformadas que son comunes en la teoría de la probabilidad:

Función característica
Función característica φ φ X()t){displaystyle varphi _{X}(t)} está relacionado con la función generadora de momento a través φ φ X()t)=MiX()t)=MX()it):{displaystyle varphi _{X}(t)=M_{iX}(t)=M_{X}(it):} la función característica es la función generadora de momento iX o el momento de generar función X evaluado en el eje imaginario. Esta función también se puede ver como la transformación Fourier de la función de densidad de probabilidad, que por lo tanto se puede deducir de ella por inversa transformación Fourier.
Función acumulativa
La función generadora acumulativa se define como el logaritmo de la función generadora de momento; algunos definen la función generadora acumulativa como el logaritmo de la función característica, mientras que otros llaman a este último el segundo función acumulada.
Función de generación de probabilidad
La función generadora de probabilidad se define como G()z)=E[zX].{displaystyle G(z)=Eleft[z^{X}right]. Esto implica inmediatamente que G()et)=E[etX]=MX()t).{displaystyle G(e^{t})=Eleft[e^{tX}right]=M_{X}(t).,}

Contenido relacionado

Asamblea estadística

En estadística, por ejemplo en control de calidad estadístico, un conjunto estadístico es una colección de partes o componentes que forman una unidad...

Clase de isomorfismo

En matemáticas, una clase de isomorfismo es una colección de objetos matemáticos isomorfos entre...

Varianza

En teoría de probabilidad y estadística, la varianza es la expectativa de la desviación al cuadrado de una variable aleatoria de su media poblacional o...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save