Distribución gamma

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Distribución de la probabilidad

En teoría de probabilidad y estadística, la distribución gamma es una familia de dos parámetros de distribuciones de probabilidad continuas. La distribución exponencial, la distribución de Erlang y la distribución de chi-cuadrado son casos especiales de la distribución gamma. Hay dos parametrizaciones equivalentes de uso común:

  1. Con un parámetro de forma k{displaystyle k} y un parámetro de escala Silencio Silencio {displaystyle theta }.
  2. Con un parámetro de forma α α =k{displaystyle alpha =k} y un parámetro de escala inversa β β =1/Silencio Silencio {displaystyle beta =1/theta } llamado parámetro de tarifas.

En cada una de estas formas, ambos parámetros son números reales positivos.

La distribución gamma es la distribución máxima de probabilidad de entropía (ambos con respecto a una medida base uniforme y una 1/x{displaystyle 1/x} medida base) para una variable aleatoria X{displaystyle X} para la cual E[X= = α/β es fijo y mayor que cero, y E[ln(X) = ()k) + ln(Silencio) ()α...β) se fija ( es la función digamma).

Definiciones

La parametrización con k y θ parece ser más común en la econometría y otros campos aplicados, donde la distribución gamma se usa con frecuencia para modelar los tiempos de espera. Por ejemplo, en las pruebas de vida, el tiempo de espera hasta la muerte es una variable aleatoria que frecuentemente se modela con una distribución gamma. Ver Hogg y Craig para una motivación explícita.

La parametrización con α α {displaystyle alpha } y β β {displaystyle beta } es más común en las estadísticas bayesianas, donde la distribución gamma se utiliza como una distribución previa conjugada para diversos tipos de parámetros de escala inversa (valor) como el λ de una distribución exponencial o una distribución Poisson – o para ese asunto, la β de la distribución gamma misma. La distribución inversa-gamma estrechamente relacionada se utiliza como conjugado antes de los parámetros de escala, como la varianza de una distribución normal.

Si k es un número entero positivo, entonces la distribución representa una distribución de Erlang; es decir, la suma de k variables aleatorias independientes distribuidas exponencialmente, cada una de las cuales tiene una media de θ.

Caracterización usando forma α y velocidad β

La distribución gamma se puede parametrizar en términos de un parámetro de forma α = k y un parámetro de escala inversa β = 1/θ, llamado parámetro de tasa. Una variable aleatoria X que tiene distribución gamma con forma α y tasa β se denota

X♪ ♪ .. ()α α ,β β )↑ ↑ Gamma⁡ ⁡ ()α α ,β β ){displaystyle Xsim Gamma (alphabeta)equiv operatorname {Gamma} (alphabeta)}

La función de densidad de probabilidad correspondiente en la parametrización de tasa de forma es

0quad alphabeta >0,\[6pt]end{aligned}}}" xmlns="http://www.w3.org/1998/Math/MathML">f()x;α α ,β β )=xα α − − 1e− − β β xβ β α α .. ()α α )parax■0α α ,β β ■0,{displaystyle {begin{aligned}f(x;alphabeta) - ¿Qué? {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}0quad alphabeta >0,\[6pt]end{aligned}}}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/ebf760a328d5b468fea5f9f1d47cca54b558b6da" style="vertical-align: -2.671ex; width:48.747ex; height:6.509ex;"/>

Donde .. ()α α ){displaystyle Gamma (alpha)} es la función gamma. Para todos los enteros positivos, .. ()α α )=()α α − − 1)!{displaystyle Gamma (alpha)=(alpha -1)}.

La función de distribución acumulativa es la función gamma regularizada:

F()x;α α ,β β )=∫ ∫ 0xf()u;α α ,β β )du=γ γ ()α α ,β β x).. ()α α ),{displaystyle F(x;alphabeta)=int _{0}{x}f(u;alphabeta),du={frac {gamma (alphabeta x)}{Gamma (alpha)}}}}}}}}

Donde γ γ ()α α ,β β x){displaystyle gamma (alphabeta x)} es la función gamma incompleta inferior.

Si α es un número entero positivo (es decir, la distribución es una distribución de Erlang), la función de distribución acumulativa tiene la siguiente expansión en serie:

F()x;α α ,β β )=1− − .. i=0α α − − 1()β β x)ii!e− − β β x=e− − β β x.. i=α α JUEGO JUEGO ()β β x)ii!.{displaystyle F(x;alphabeta)=1-sum {beta x}} {beta x} {beta x} {i} {i}}}e^{-beta x}=e^{-beta x}sum _{i=alpha } {beta x)} {}}} {beta x)} {i}} {fnMicrosoft Sans Serif}

Caracterización usando forma k y escala θ

Una variable aleatoria X que tiene distribución gamma con forma k y escala θ se denota por

X♪ ♪ .. ()k,Silencio Silencio )↑ ↑ Gamma⁡ ⁡ ()k,Silencio Silencio ){displaystyle Xsim Gamma (k,theta)equiv operatorname {Gamma} (k,theta)}
Ilustración del PDF gamma para valores de parámetro sobre k y x con Silencio 1, 2, 3, 4, 5 y 6. Uno puede ver cada uno Silencio capa por sí misma aquí [2] así comok [3] yx. [4].

La función de densidad de probabilidad que usa la parametrización de escala de forma es

0{text{ and }}k,theta >0.}" xmlns="http://www.w3.org/1998/Math/MathML">f()x;k,Silencio Silencio )=xk− − 1e− − x/Silencio Silencio Silencio Silencio k.. ()k)parax■0yk,Silencio Silencio ■0.{displaystyle f(x;k,theta)={frac {x^{k-1}e^{-x/theta } {theta ^{k} Gamma (k)}quad {text{ for }x Conf0{text{ and }k,theta œ0}0{text{ and }}k,theta >0.}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/caf176962d326ad7af8186d5f4cd3f3e7fae4852" style="vertical-align: -2.671ex; width:47.381ex; height:6.509ex;"/>

Aquí Γ(k) es la función gamma evaluada en k.

La función de distribución acumulativa es la función gamma regularizada:

F()x;k,Silencio Silencio )=∫ ∫ 0xf()u;k,Silencio Silencio )du=γ γ ()k,xSilencio Silencio ).. ()k),{displaystyle F(x;k,theta)=int _{0}{x}f(u;k,theta),du={frac {gammaleft(k,{frac {x}{theta }right)}{Gamma (k)}}}}}}}}}}}

Donde γ γ ()k,xSilencio Silencio ){displaystyle gamma left(k,{frac {x}{theta }right)} es la función gamma incompleta inferior.

También se puede expresar de la siguiente manera, si k es un número entero positivo (es decir, la distribución es una distribución de Erlang):

F()x;k,Silencio Silencio )=1− − .. i=0k− − 11i!()xSilencio Silencio )ie− − x/Silencio Silencio =e− − x/Silencio Silencio .. i=kJUEGO JUEGO 1i!()xSilencio Silencio )i.{displaystyle F(x;k,theta)=1-sum ¿Qué? }derecha) {i}e^{-x/theta }=e^{-x/theta. ¿Por qué?

Ambas parametrizaciones son comunes porque cualquiera puede ser más conveniente según la situación.

Propiedades

Media y varianza

La media de la distribución gamma viene dada por el producto de sus parámetros de forma y escala:

μ μ =kSilencio Silencio =α α /β β {displaystyle mu =ktheta =alpha /beta }

La varianza es:

σ σ 2=kSilencio Silencio 2=α α /β β 2{displaystyle sigma ^{2}=ktheta ^{2}=alpha /beta ^{2}

La raíz cuadrada del parámetro de forma inversa da el coeficiente de variación:

σ σ /μ μ =k− − 0.5=1/α α {displaystyle sigma /mu =k^{-0.5}=1/{sqrt {alpha }

Sesgo

La asiduidad de la distribución gamma sólo depende de su parámetro de forma, k, y es igual a 2/k.{displaystyle 2/{sqrt {}}

Momentos superiores

El nésimo momento bruto viene dado por:

E[Xn]=Silencio Silencio n.. ()k+n).. ()k)=Silencio Silencio n∏ ∏ i=1n()k+i− − 1)paran=1,2,...... .{displaystyle mathrm {E} [X^{n}=theta ^{n}{frac {Gamma (k+n)}{Gamma (k)}=theta ^{n}prod ### {fn}n=1,2,ldots.}

Aproximaciones y límites de la mediana

Libras y aproximaciones asintoticas a la mediana de la distribución gamma. La región de color cian indica la gran brecha entre los límites inferiores y superiores publicados.

A diferencia del modo y el medio, que tienen fórmulas fácilmente calculables basadas en los parámetros, el medio no tiene una ecuación de forma cerrada. La mediana para esta distribución es el valor .. {displaystyle nu } tales que

1.. ()k)Silencio Silencio k∫ ∫ 0.. xk− − 1e− − x/Silencio Silencio dx=12.{fnMicroc} {1} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} ¿Qué? }x^{k-1}e^{-x/theta }dx={frac {1}{2}}

Un tratamiento riguroso del problema de determinar una expansión asintotica y límites para la mediana de la distribución gamma fue manejado primero por Chen y Rubin, quienes probaron que (para Silencio Silencio =1{displaystyle theta =1})

<math alttext="{displaystyle k-{frac {1}{3}}<nu (k)k− − 13... ()k).k,{displaystyle k-{frac {1}{3} Se hizonu (k)<img alt="{displaystyle k-{frac {1}{3}}<nu (k)

Donde μ μ ()k)=k{displaystyle mu (k)=k} es el medio y .. ()k){displaystyle nu (k)} es la mediana del Gamma()k,1){displaystyle {text{Gamma}(k,1)} distribución. Para otros valores del parámetro escala, el promedio escala a μ μ =kSilencio Silencio {displaystyle mu =ktheta}, y los límites medios y las aproximaciones serían igualmente escaladas por Silencio Silencio {displaystyle theta }.

K. P. Choi encontró los primeros cinco términos en una serie Laurent aproximación asintotica de la mediana comparando la mediana a Ramanujan's Silencio Silencio {displaystyle theta } función. Berg y Pedersen encontraron más términos:

.. ()k)=k− − 13+8405k+18425515k2+22483444525k3− − 1900640815345358875k4− − O()1k5)+⋯ ⋯ {displaystyle nu (k)=k-{frac {1}{3}+{frac} {8}{405k}+{frac} {184}{25515k^{2}}}}+{frac {2248}{3444525k^{3}}}}-{frac {19006408}{15345358875k^{4}}-Oleft({fracfrac {frac}} {f4}}}}-Oleft({fracfracfracf} {f} {f} {f} {f} {f} {f} {f}f}f}}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}}}f}f}}fnKf}f}f}f}}f}fnKf}f}f}f}f}f}f}f}f}f {1}{k^{5}}derecha)+cdots }
Dos asintotos medianos de distribución gamma que se conjeturan a ser atados (por encima de rojo sólido y rojo desgarrado inferior), de la .. ()k).. 2− − 1/k()A+k){displaystyle nu (k)approx 2^{-1/k}(A+k)}, y una interpolación entre ellos que hace una aproximación (rojo dotado) que es exacta a k = 1 y tiene un error relativo máximo de aproximadamente 0,6%. La región de sombra cyan es la brecha restante entre los límites superiores e inferiores (o los límites conjeturados), incluyendo estos nuevos (a partir de 2021) los límites conjeturados y los límites probados en la figura anterior.
El diagrama de registro de la parte superior (sólido) y la inferior (menstruada) se unen a la mediana de una distribución gamma y las brechas entre ellos. Las regiones verdes, amarillas y cyan representan la brecha antes del periódico Lyon 2021. El verde y amarillo estrecha esa brecha con los límites inferiores que Lyon demostró. Los límites conjeturados de Lyon estrechan aún más el amarillo. Principalmente dentro de los límites de función racional-interpolados amarillos y cerrados se trama junto con el valor medio calculado numéricamente (dotado). Existen límites más estrechos interpolados pero no se trazan, ya que no se resolverían a esta escala.

Las sumas parciales de estas series son buenas aproximaciones para lo suficientemente alto k{displaystyle k}; no están trazados en la figura, que se centra en el bajo-k{displaystyle k} región menos aproximada.

Berg y Pedersen también probaron muchas propiedades de la mediana, mostrando que es una función convexa de k{displaystyle k}, y que el comportamiento asintotico cerca k=0{displaystyle k=0} es .. ()k).. e− − γ γ 2− − 1/k{displaystyle nu (k)approx e^{-gamma }2^{-1/k} (donde) γ γ {displaystyle gamma } es la constante Euler-Mascheroni, y eso para todos 0}" xmlns="http://www.w3.org/1998/Math/MathML">k■0{displaystyle k]0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/27b3af208b148139eefc03f0f80fa94c38c5af45" style="vertical-align: -0.338ex; width:5.472ex; height:2.176ex;"/> la mediana está atada por <math alttext="{displaystyle k2^{-1/k}<nu (k)k2− − 1/k... ()k).ke− − 1/3k{displaystyle k2^{-1/k} buscadonu (k)<img alt="{displaystyle k2^{-1/k}<nu (k).

Un borde superior lineal más cercano, para k≥ ≥ 1{displaystyle kgeq 1} solamente, fue proporcionado en 2021 por Gaunt y Merkle, contando con el resultado de Berg y Pedersen que la pendiente de .. ()k){displaystyle nu (k)} está en todas partes menos de 1:

.. ()k)≤ ≤ k− − 1+log⁡ ⁡ 2{displaystyle nu (k)leq k-1+log 2~~ para k≥ ≥ 1{displaystyle kgeq 1} (con igualdad en k=1{displaystyle k=1})

que puede extenderse a un límite para todos 0}" xmlns="http://www.w3.org/1998/Math/MathML">k■0{displaystyle k]0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/27b3af208b148139eefc03f0f80fa94c38c5af45" style="vertical-align: -0.338ex; width:5.472ex; height:2.176ex;"/> tomando el máximo con el acorde mostrado en la figura, ya que la mediana fue probada convex.

Una aproximación a la mediana que es asintoticamente exacta en alta k{displaystyle k} y razonable hasta k=0.5{displaystyle k=0.5} o un poco más bajo sigue de la transformación Wilson-Hilferty:

.. ()k)=k()1− − 19k)3{displaystyle nu (k)=kleft(1-{frac {1}{9k}right)^{3}

que va negativo para <math alttext="{displaystyle kk.1/9{displaystyle k won1/9}<img alt="{displaystyle k.

En 2021, Lyon propuso varias aproximaciones de forma cerrada de la forma .. ()k).. 2− − 1/k()A+Bk){displaystyle nu (k)approx 2^{-1/k}(A+Bk)}. Conjetó valores de forma cerrada A{displaystyle A} y B{displaystyle B} para el cual esta aproximación es un límite superior o inferior asintotically ajustado para todos 0}" xmlns="http://www.w3.org/1998/Math/MathML">k■0{displaystyle k]0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/27b3af208b148139eefc03f0f80fa94c38c5af45" style="vertical-align: -0.338ex; width:5.472ex; height:2.176ex;"/>. En particular:

.. LJUEGO JUEGO ()k)=2− − 1/k()log⁡ ⁡ 2− − 13+k){displaystyle nu _{Linfty }(k)=2^{-1/k}(log 2-{frac {1}{3}+k)quad } es un límite inferior, asintoticamente apretado como k→ → JUEGO JUEGO {displaystyle kto infty}
.. U()k)=2− − 1/k()e− − γ γ +k){displaystyle nu _{U}(k)=2^{-1/k}(e^{-gamma }+k)quad } es un límite superior, asintoticamente apretado como k→ → 0{displaystyle kto 0}

Lyon también obtuvo otros dos límites inferiores que no son expresiones de forma cerrada, incluyendo esta basada en la resolución de la expresión integral sustitución 1 para e− − x{displaystyle e^{-x}:

left({frac {2}{Gamma (k+1)}}right)^{-1/k}quad }" xmlns="http://www.w3.org/1998/Math/MathML">.. ()k)■()2.. ()k+1))− − 1/k{displaystyle nu (k) Vale.left({frac {2}{Gamma (k+1)}}right)^{-1/k}quad }" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/4ec07f2440f178b43a965d030b6d17daadbacfc2" style="vertical-align: -2.671ex; width:26.418ex; height:6.843ex;"/> (aproximando la igualdad como k→ → 0{displaystyle kto 0})

y la línea tangente k=1{displaystyle k=1} donde se encontró el derivado .. .. ()1).. 0.9680448{displaystyle nu ^{prime }(1)approx 0.9680448}:

.. ()k)≥ ≥ .. ()1)+()k− − 1).. .. ()1){displaystyle nu (k)geq nu (1)+(k-1)nu ^{prime }(1)quad } (con igualdad en k=1{displaystyle k=1})
.. ()k)≥ ≥ log⁡ ⁡ ()2)+()k− − 1)()γ γ − − 2Ei⁡ ⁡ ()− − log⁡ ⁡ 2)− − log⁡ ⁡ log⁡ ⁡ 2){displaystyle nu (k)geq log(2)+(k-1)(gamma -2operatorname {Ei} (-log 2)-log log 2)}

donde Ei es la integral exponencial.

Además, mostró que las interpolaciones entre los límites podrían proporcionar excelentes aproximaciones o límites más estrechos al medio, incluyendo una aproximación que es exacta a k=1{displaystyle k=1} (donde) .. ()1)=log⁡ ⁡ 2{displaystyle nu (1)=log 2}) y tiene un error relativo máximo menos de 0,6%. Las aproximaciones y los límites interpolados son toda la forma

.. ()k).. g~ ~ ()k).. LJUEGO JUEGO ()k)+()1− − g~ ~ ()k)).. U()k){displaystyle nu (k)approx {tilde {g}(k)nu _{Linfty }(k)+(1-{tilde {g}(k))nu _{U}(k)}

Donde g~ ~ {displaystyle {tilde {}}} es una función interpoladora funcionando monotonicamente de 0 a bajo k{displaystyle k} a 1 en alta k{displaystyle k}, aproximando un ideal, o exacto, interpolador g()k){displaystyle g(k)}:

g()k)=.. U()k)− − .. ()k).. U()k)− − .. LJUEGO JUEGO ()k){displaystyle g(k)={frac {nu _{U}(k)}{nu (k)}{U}(k)-nu _{Linfty }}}}}

Para la función de interpolación más simple considerada, una función racional de primer orden

g~ ~ 1()k)=kb0+k{displaystyle {tilde {}_{1}(k)={frac {k}{b_{0}+k}}

el límite inferior más ajustado tiene

b0=8405+e− − γ γ log⁡ ⁡ 2− − log2⁡ ⁡ 22e− − γ γ − − log⁡ ⁡ 2+13− − log⁡ ⁡ 2.. 0.143472{displaystyle B_{0}={frac {frac {8}{405}+e^{-gamma }log 2-{frac {log ¿Qué? }-log 2+{frac {1}{3}}}-log 2approx 0.143472}

y el límite superior más ajustado tiene

b0=e− − γ γ − − log⁡ ⁡ 2+131− − e− − γ γ π π 212.. 0,74654{displaystyle b_{0}={frac {e^{-gamma }-log 2+{frac {1}} {1-{e^{-gamma}pi ^{2}{12}}}}approx 0.374654}

Los límites interpolados se trazan (principalmente dentro de la región amarilla) en el diagrama logarítmico que se muestra. Se encuentran disponibles límites aún más estrictos utilizando diferentes funciones de interpolación, pero no por lo general con parámetros de forma cerrada como estos.

Resumen

Si Xi tiene un Gamma(ki , θ) distribución para i = 1, 2,..., N (es decir, todas las distribuciones tienen la misma escala parámetro θ), entonces

.. i=1NXi♪ ♪ Gamma().. i=1Nki,Silencio Silencio ){displaystyle sum ################################################################################################################################################################################################################################################################ _{i=1} {N}k_{i},theta right)}

siempre que todos los Xi sean independientes.

Para los casos en los que Xi son independientes pero tienen diferentes parámetros de escala, consulte Mathai o Moschopoulos.

La distribución gamma exhibe una divisibilidad infinita.

Escalado

Si

X♪ ♪ Gamma()k,Silencio Silencio ),{displaystyle Xsim mathrm {Gamma} (k,theta),}

entonces, para cualquier c > 0,

cX♪ ♪ Gamma()k,cSilencio Silencio ),{displaystyle cXsim mathrm {Gamma} (k,c,theta),} por momento generando funciones,

o de manera equivalente, si

X♪ ♪ Gamma()α α ,β β ){displaystyle Xsim mathrm {Gamma} left(alphabeta right)} (parametrización de la tasa de composición)
cX♪ ♪ Gamma()α α ,β β c),{displaystyle cXsim mathrm {Gamma} left(alpha{frac {beta }{c}right),}

De hecho, sabemos que si X es una v.r. exponencial con tasa λ, entonces cX es una v.r. exponencial. con tasa λ/c; lo mismo es válido con las variantes de Gamma (y esto se puede verificar usando la función generadora de momentos, véase, por ejemplo, estas notas, 10.4-(ii)): la multiplicación por una constante positiva c divide la tasa (o, de manera equivalente, multiplica la escala).

Familia exponencial

La distribución gamma es una familia exponencial de dos parámetros con parámetros naturales k − 1 y −1/θ (equivalentemente, α − 1 y −β), y estadísticas naturales X y ln(X).

Si el parámetro de forma k se mantiene fijo, la familia de distribuciones de un parámetro resultante es una familia exponencial natural.

Expectativa logarítmica y varianza

Se puede demostrar que

E⁡ ⁡ [In⁡ ⁡ ()X)]=↑ ↑ ()α α )− − In⁡ ⁡ ()β β ){displaystyle operatorname {E} [ln(X)]=psi (alpha)-ln(beta)}

o equivalentemente,

E⁡ ⁡ [In⁡ ⁡ ()X)]=↑ ↑ ()k)+In⁡ ⁡ ()Silencio Silencio ){displaystyle operatorname {E} [ln(X)]=psi (k)+ln(theta)}

Donde ↑ ↑ {displaystyle psi } es la función digamma. Igualmente,

Var⁡ ⁡ [In⁡ ⁡ ()X)]=↑ ↑ ()1)()α α )=↑ ↑ ()1)()k){displaystyle operatorname {var} [ln(X)]=psi ^{(1)}(alpha)=psi ^{(1)}(k)}

Donde ↑ ↑ ()1){displaystyle psi ^{(1)} es la función trigamma.

Esto se puede derivar usando la fórmula de la familia exponencial para la función generadora de momentos de la estadística suficiente, porque una de las estadísticas suficientes de la distribución gamma es ln(x).

Entropía de la información

La entropía de la información es

H⁡ ⁡ ()X)=E⁡ ⁡ [− − In⁡ ⁡ ()p()X))]=E⁡ ⁡ [− − α α In⁡ ⁡ ()β β )+In⁡ ⁡ ().. ()α α ))− − ()α α − − 1)In⁡ ⁡ ()X)+β β X]=α α − − In⁡ ⁡ ()β β )+In⁡ ⁡ ().. ()α α ))+()1− − α α )↑ ↑ ()α α ).{displaystyle {begin{aligned}operatorname [-ln(p(X)][4pt] pulsa=operatorname {E} [-alpha ln(beta)+ln(Gamma (alpha))-(alpha -1)ln(X)+beta X][4pt] limit=alpha -ln(beta)+ln(Gamma (alpha)))+(1-alpha)psi (alphaed).

En la parametrización k, θ, la entropía de la información viene dada por

H⁡ ⁡ ()X)=k+In⁡ ⁡ ()Silencio Silencio )+In⁡ ⁡ ().. ()k))+()1− − k)↑ ↑ ()k).{displaystyle operatorname {H} (X)=k+ln(theta)+ln(Gamma (k))+(1-k)psi (k).}

Divergencia Kullback-Leibler

Ilustración de la divergencia Kullback-Leibler (KL) para dos PDFs gamma. Aquí. β=β0+ 1, 2, 3, 4, 5 y 6. La asimetría típica para la divergencia KL es claramente visible.

La divergencia Kullback-Leibler (divergencia KL), de Gamma(αp, βp) (distribución "verdadera") de Gamma(αq, βq) (distribución "aproximada") viene dada por

DKL()α α p,β β p;α α q,β β q)=()α α p− − α α q)↑ ↑ ()α α p)− − log⁡ ⁡ .. ()α α p)+log⁡ ⁡ .. ()α α q)+α α q()log⁡ ⁡ β β p− − log⁡ ⁡ β β q)+α α pβ β q− − β β pβ β p.{\fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft ] {f} {f} {f}f}f} {f}f} {f}f}f}f}f}fnMicrob}f}f}fnMinMinKfnMinMinKf}fnMicrosoft}fnMinMinMinMinMinMinMientras,fnMinMinMinMinMinMinMientras se lo siento lo siento lo siento lo siento lo siento. _{p}-log beta _{q})+alpha _{p}{frac {beta _{q}-beta ¿Qué? ¿Qué?

Escrito usando la parametrización k, θ, la divergencia KL de Gamma(kp, θ p) de Gamma(kq, θ q) viene dada por

DKL()kp,Silencio Silencio p;kq,Silencio Silencio q)=()kp− − kq)↑ ↑ ()kp)− − log⁡ ⁡ .. ()kp)+log⁡ ⁡ .. ()kq)+kq()log⁡ ⁡ Silencio Silencio q− − log⁡ ⁡ Silencio Silencio p)+kpSilencio Silencio p− − Silencio Silencio qSilencio Silencio q.{displaystyle {begin{aligned}D_{mathrm {KL} [K_{p],theta ¿Por qué? _{q}-log theta ¿Qué? {theta _{p}-theta {fnK} {fnMicrosoft Sans Serif}

Transformada de Laplace

La transformada de Laplace de la PDF gamma es

F()s)=()1+Silencio Silencio s)− − k=β β α α ()s+β β )α α .{displaystyle F(s)=(1+theta s)^{-k}={frac {beta ^{alpha {beta} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} }}}

Distribuciones relacionadas

Generales

  • Vamos X1,X2,...... ,Xn{displaystyle X_{1},X_{2},ldots X_{n} Ser n{displaystyle n} variables aleatorias independientes y distribuidas idénticamente después de una distribución exponencial con parámetro de tasa λ, entonces .. iXi{displaystyle sum _{i}X_{i} ~ Gamma(n, 1/λ) donde n es el parámetro de forma y λ es la tasa, y X̄ ̄ =1n.. iXi♪ ♪ Gamma⁡ ⁡ ()n,nλ λ ){fnK} {fnK}}fnK}fn} {fn} {fnK}}}}} {fn} {fn} {fn}fn}}}}}}}}}}}}}}} {fn} {fn}}}}}}fn}} {fn}}}f}}}}}}}}}}}}}f}}}}}}}}}}}}}}}}} {f}}} {f}}}} {f}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}}} {f}}} {f}}}}} {f}}}}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Por qué? donde la tasa cambia.
  • Si X Gamma(1, λ) (en la parametrización de la talla de forma), entonces X tiene una distribución exponencial con parámetro de tasa λ. En la parametrización a escala de forma, X Gamma(1, λ) tiene una distribución exponencial con parámetro de tasa 1/λ.
  • Si X Gamma./2, 2) (en la parametrización a escala de forma), entonces X es idéntico a χ2().), la distribución de chi-squared con . grados de libertad. Por el contrario, si Q ~ χ2().) y c es una constante positiva, entonces cQ Gamma./2, 2c).
  • Si θ=1/k, se obtiene la distribución Schulz-Zimm, que se utiliza más prominentemente para modelar longitudes de cadena de polímero.
  • Si k es un entero, la distribución gamma es una distribución Erlang y es la distribución de probabilidad del tiempo de espera hasta el ka "arrival" en un proceso de Poisson unidimensional con intensidad 1/Silencio. Si
X♪ ♪ .. ()k▪ ▪ Z,Silencio Silencio ),Y♪ ♪ Pois⁡ ⁡ ()xSilencio Silencio ),{displaystyle Xsim Gamma (kin mathbf {Z}theta),qquad Ysim operatorname {Pois} left({frac {x}{theta }right),}
entonces
x)=P(YP()X■x)=P()Y.k).{displaystyle P(X estrechox)=P(Y seleccionak).} x) = P(Y
  • Si X tiene una distribución Maxwell-Boltzmann con parámetro a, entonces
X2♪ ♪ .. ()32,2a2).{displaystyle X^{2}sim Gamma left({frac {3}{2}},2a^{2}right). }
  • Si X Gammak, Silencio), entonces log⁡ ⁡ X{textstyle log X} sigue una distribución exponencial-gamma (abbreviated exp-gamma). A veces se conoce como la distribución de log-gamma. Las fórmulas para su media y varianza están en la sección #Esperanza y varianza logarítmica.
  • Si X Gammak, Silencio), entonces X{displaystyle {sqrt {X}} sigue una distribución gamma generalizada con parámetros p = 2, d = 2k, y a=Silencio Silencio {displaystyle a={sqrt {theta }.
  • Más generalmente, si X Gammak,Silencio), entonces Xq{displaystyle X^{q} para 0}" xmlns="http://www.w3.org/1998/Math/MathML">q■0{displaystyle q confía0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/482e0a33d9e8fd6307b5f68a5182c2d0d14efc9c" style="vertical-align: -0.671ex; width:5.33ex; height:2.509ex;"/> sigue una distribución gamma generalizada con parámetros p 1/q, d = k/q, y a=Silencio Silencio q{displaystyle a=theta ^{q}.
  • Si X Gammak, Silencio) con forma k y escala Silencio, entonces 1/X Inv-Gammak, Silencio−1) (ver distribución Inverse-gamma para derivación).
  • Parametrization 1: Xk♪ ♪ .. ()α α k,Silencio Silencio k){displaystyle X_{k}sim Gamma (alpha _{k},theta _{k}),} son independientes, entonces α α 2Silencio Silencio 2X1α α 1Silencio Silencio 1X2♪ ♪ F()2α α 1,2α α 2){displaystyle {frac {alpha _{2}theta {2}X_{1}{alpha _{1}theta ¿Por qué?, o equivalentemente, X1X2♪ ♪ β β .()α α 1,α α 2,1,Silencio Silencio 1Silencio Silencio 2){displaystyle {frac {X_{1}}{X_{2}}sim beta 'left(alpha _{1},alpha _{2},1,{frac {theta _{1}{theta _{2}}}}}}}right)}}}}}}} {
  • Parametrization 2: Xk♪ ♪ .. ()α α k,β β k){displaystyle X_{k}sim Gamma (alpha _{k},beta _{k}),} son independientes, entonces α α 2β β 1X1α α 1β β 2X2♪ ♪ F()2α α 1,2α α 2){displaystyle {frac {alpha _{2}beta ¿Por qué? ¿Por qué?, o equivalentemente, X1X2♪ ♪ β β .()α α 1,α α 2,1,β β 2β β 1){displaystyle {frac {X_{1}}{X_{2}}sim beta 'left(alpha _{1},alpha _{2},1,{frac {beta _{2}{beta _{1}}}}}}}right)}}}}}}}} {
  • Si X Gammaα, Silencio) y Y Gammaβ, Silencio) se distribuyen independientemente, entonces X/(X+Y) tiene una distribución beta con parámetros α y β, y X/(X+Y) es independiente de X + Y, que es Gamma(α + β, SilencioDistribuido.
  • Si Xi Gammaαi, 1) se distribuyen independientemente, luego el vector (X1/S,...,Xn/S), donde S=X1+... +Xn, sigue una distribución Dirichlet con parámetros α1,...,αn.
  • Para grandes k la distribución gamma converge a la distribución normal con media μ = y diferencia σ2 = 2.
  • La distribución gamma es el conjugado antes de la precisión de la distribución normal con medios conocidos.
  • La distribución de gamma matriz y la distribución de Wishart son generalizaciones multivariadas de la distribución gamma (los muestreos son matrices positivas-definidas en lugar de números reales positivos).
  • La distribución gamma es un caso especial de la distribución generalizada de gamma, la distribución generalizada integer gamma y la distribución inversa generalizada de Gauss.
  • Entre las distribuciones discretas, la distribución binomial negativa se considera a veces el análogo discreto de la distribución gamma.
  • Distribución de Tweedie – la distribución gamma es miembro de la familia de modelos de dispersión exponencial de Tweedie.
  • Distribución media-normal modificada – la distribución Gamma es miembro de la familia de distribución media-normal modificada. La densidad correspondiente es f()x▪ ▪ α α ,β β ,γ γ )=2β β α α 2xα α − − 1exp⁡ ⁡ ()− − β β x2+γ γ x)Ψ Ψ ()α α 2,γ γ β β ){displaystyle f(xmid alphabetagamma)={frac {2beta ^{frac {alpha }{2}}x^{alpha -1}exp(-beta x^{2}+gamma x)}{beta ¿Qué? {fnK}}}}}, donde Ψ Ψ ()α α ,z)=1Ψ Ψ 1()()α α ,12)()1,0);z){displaystyle Psi (alphaz)={1}Psi ¿Por qué? denota la función Fox-Wright Psi.
  • Para la parametrización de la forma xSilencioSilencio Silencio ♪ ♪ .. ()k,Silencio Silencio ){displaystyle x tuberculosistheta sim Gamma (k,theta)}, si el parámetro escala Silencio Silencio ♪ ♪ IG()b,1){displaystyle theta sim IG(b,1)} Donde IG{displaystyle IG. denota la distribución Inverse-gamma, luego la distribución marginal x♪ ♪ β β .()k,b){displaystyle xsim beta '(k,b)} Donde β β .{displaystyle beta} denota la distribución principal de Beta.

Gamma compuesta

Si se conoce el parámetro de forma de la distribución gamma, pero se desconoce el parámetro de escala inversa, entonces una distribución gamma para la escala inversa forma una previa conjugada. La distribución compuesta, que resulta de integrar la escala inversa, tiene una solución de forma cerrada conocida como distribución gamma compuesta.

Si, por el contrario, se conoce el parámetro de forma pero se desconoce la media, y la anterior de la media viene dada por otra distribución gamma, entonces se obtiene una distribución K.

Recuento de Weibull y Establo

La distribución gamma 1)}" xmlns="http://www.w3.org/1998/Math/MathML">f()x;k)()k■1){displaystyle f(x;k),(k]}1)}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/d6e5dddb7d9a9add51167f6c7786a39a798895f8" style="vertical-align: -0.838ex; width:14.331ex; height:2.843ex;"/> se puede expresar como la distribución del producto de una distribución Weibull y una forma variante de la distribución estable del recuento. Su parámetro de forma k{displaystyle k} se puede considerar como la inversa del parámetro de estabilidad de Lévy en la distribución de cuenta estable:

f()x;k)=∫ ∫ 0JUEGO JUEGO 1uWk()xu)[kuk− − 1N1k()uk)]du,{displaystyle f(x;k)=displaystyle int _{0}{infty }{frac {1}{u},W_{k}left({frac} {x}{u}right)left[ku^{k-1},{mathfrak {N}_{frac {1}left(u^{k}right),du,}
Nα α ().. ){displaystyle {mathfrak {fn} {fnMicrosoft Sans Serif}α α =1/k{displaystyle alpha =1/k}Wk()x){displaystyle W_{k}(x)}k{displaystyle k}

Inferencia estadística

Estimación de parámetros

Estimación de máxima verosimilitud

La función de verosimilitud para N observaciones iid (x1,..., x N) es

L()k,Silencio Silencio )=∏ ∏ i=1Nf()xi;k,Silencio Silencio ){displaystyle L(k,theta)=prod ¿Qué?

a partir de la cual calculamos la función de log-verosimilitud

l l ()k,Silencio Silencio )=()k− − 1).. i=1NIn⁡ ⁡ ()xi)− − .. i=1NxiSilencio Silencio − − NkIn⁡ ⁡ ()Silencio Silencio )− − NIn⁡ ⁡ ().. ()k)){displaystyle ell (k,theta)=(k-1)sum ¿Qué? ¿Por qué? {x_{i}{theta}}-Nkln(theta)-Nln(Gamma (k)}

Encontrar el máximo con respecto a Silencio al tomar el derivado y establecerlo igual a cero produce el estimador de probabilidad máxima del Silencio parámetro, que iguala la muestra significa x̄ ̄ {displaystyle {bar {x}} dividido por el parámetro de forma k:

Silencio Silencio ^ ^ =1kN.. i=1Nxi=x̄ ̄ k{displaystyle {hat {theta }={frac {1}{kN}sum ¿Por qué? {fnK}} {fnK}}} {fnK}}}}} {fnK}}}}} {f}}}}}} {fn}}} {fn}}}}}}}} {fn}}}}}}}}}} {f}}} {f}}}}}}}}}}

Sustituyendo esto en la función de probabilidad logarítmica da

l l ()k)=()k− − 1).. i=1NIn⁡ ⁡ ()xi)− − Nk− − NkIn⁡ ⁡ ().. xikN)− − NIn⁡ ⁡ ().. ()k)){displaystyle ell (k)=(k-1)sum Nk-Nkln left({frac {sum) No.

Necesitamos al menos dos muestras: N≥ ≥ 2{displaystyle Ngeq 2}, porque para N=1{displaystyle N=1}, la función l l ()k){displaystyle ell (k)} aumentos sin límites como k→ → JUEGO JUEGO {displaystyle kto infty}. Para 0}" xmlns="http://www.w3.org/1998/Math/MathML">k■0{displaystyle k]0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/27b3af208b148139eefc03f0f80fa94c38c5af45" style="vertical-align: -0.338ex; width:5.472ex; height:2.176ex;"/>, se puede verificar que l l ()k){displaystyle ell (k)} es estrictamente concave, utilizando propiedades de desigualdad de la función poligamma. Encontrar el máximo con respecto a k por tomar el derivado y establecerlo igual a cero rendimientos

In⁡ ⁡ ()k)− − ↑ ↑ ()k)=In⁡ ⁡ ()1N.. i=1Nxi)− − 1N.. i=1NIn⁡ ⁡ ()xi)=In⁡ ⁡ ()x̄ ̄ )− − In⁡ ⁡ ()x)̄ ̄ {displaystyle ln(k)-psi (k)=ln left({frac {1}{N}sum ¿Qué? {1}{N}sum} ¿Por qué?

Donde ↑ ↑ {displaystyle psi } es la función digamma y In⁡ ⁡ ()x)̄ ̄ {displaystyle {overline {ln(x)}}} es la media muestra de ln(x). No hay solución de forma cerrada para k. La función es numéricamente muy bien comportada, por lo que si se desea una solución numérica, se puede encontrar utilizando, por ejemplo, el método de Newton. Valor inicial k se puede encontrar utilizando el método de los momentos, o utilizando la aproximación

In⁡ ⁡ ()k)− − ↑ ↑ ()k).. 12k()1+16k+1){displaystyle ln(k)-psi (k)approx {frac {1}{2k}left(1+{frac {1}{6k+1}right)}

Si dejamos

s=In⁡ ⁡ ()1N.. i=1Nxi)− − 1N.. i=1NIn⁡ ⁡ ()xi)=In⁡ ⁡ ()x̄ ̄ )− − In⁡ ⁡ ()x)̄ ̄ {displaystyle s=ln left({frac {1}{N}sum ¿Qué? {1}{N}sum} ¿Por qué?

entonces k es aproximadamente

k.. 3− − s+()s− − 3)2+24s12s{displaystyle kapprox {frac {3-s+{s}}} {2}}}}}}

que está dentro del 1,5 % del valor correcto. Una forma explícita para la actualización de Newton-Raphson de esta conjetura inicial es:

k← ← k− − In⁡ ⁡ ()k)− − ↑ ↑ ()k)− − s1k− − ↑ ↑ .. ()k).{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicroc}.

En la estimación de la probabilidad máxima ()k^ ^ ,Silencio Silencio ^ ^ ){displaystyle ({hat {k}},{hat {theta }}}}}, los valores esperados x{displaystyle x} y In⁡ ⁡ ()x){displaystyle ln(x)} concuerda con los promedios empíricos:

k^ ^ Silencio Silencio ^ ^ =x̄ ̄ y↑ ↑ ()k^ ^ )+In⁡ ⁡ ()Silencio Silencio ^ ^ )=In⁡ ⁡ ()x)̄ ̄ .{displaystyle {begin{aligned}{hat {K}{hat {theta }} {fn}= {fnK}}=fn})+ln({hat {theta }}} {fn}}}}} {nnn(x)}}}}end{aligned}}}}}}}}}}}}}}}}}}}}}}}}
Advertencia para parámetro de forma pequeña

Para datos, ()x1,...... ,xN){displaystyle (x_{1},ldotsx_{N}}, que se representa en un formato de punto flotante que se desborda a 0 para valores menores que ε ε {displaystyle epsilon }, los logaritmos que se necesitan para la estimación de la probabilidad máxima causarán fracaso si hay algún flujo. Si asumimos que los datos fueron generados por una distribución gamma con cdf F()x;k,Silencio Silencio ){displaystyle F(x;k,theta)}, entonces la probabilidad de que haya al menos una subida es:

P()corrientes)=1− − ()1− − F()ε ε ;k,Silencio Silencio ))N{displaystyle P({text{underflow}})=1-(1-F(epsilon;k,theta)^{N}

Esta probabilidad se acercará 1 para pequeños k{displaystyle k} grandes N{displaystyle N}. Por ejemplo, en k=10− − 2{displaystyle k=10^{-2}, N=104{displaystyle N=10^{4} y ε ε =2.25× × 10− − 308{displaystyle epsilon =2.25times 10^{-308}, P()corrientes).. 0.9998{displaystyle P({text{underflow}})approx 0.9998}. Una solución es tener los datos en formato logarítmico.

Para probar una implementación de un estimador de máxima probabilidad que toma los datos logarítmicos como entrada, es útil ser capaz de generar logaritmos no corrientes de variatos gamma aleatorios, cuando <math alttext="{displaystyle kk.1{displaystyle k won1}<img alt="{displaystyle k. Following the implementation in scipy.stats.loggamma, esto se puede hacer de la siguiente manera: muestra Y♪ ♪ Gamma()k+1,Silencio Silencio ){displaystyle Ysim {text{Gamma} {k+1,theta)} y U♪ ♪ Uniforme uniforme{displaystyle Usim {text{Uniform}} independientemente. Entonces la muestra logarítmica requerida es Z=In⁡ ⁡ ()Y)+In⁡ ⁡ ()U)/k{displaystyle Z=ln(Y)+ln(U)/k}Así que exp⁡ ⁡ ()Z)♪ ♪ Gamma()k,Silencio Silencio ){displaystyle exp(Z)sim {text{Gamma}(k,theta)}.

Estimadores de forma cerrada

Existen estimadores consistentes de forma cerrada de k y θ que se derivan de la probabilidad de la distribución gamma generalizada.

La estimación de la forma k es

k^ ^ =N.. i=1NxiN.. i=1NxiIn⁡ ⁡ ()xi)− − .. i=1Nxi.. i=1NIn⁡ ⁡ ()xi){displaystyle {hat {k}={frac} {Nsum} - ¿Qué? ¿Por qué? ##{i=1} {N}x_{i}sum ¿Qué?

y la estimación para la escala θ es

Silencio Silencio ^ ^ =1N2()N.. i=1NxiIn⁡ ⁡ ()xi)− − .. i=1Nxi.. i=1NIn⁡ ⁡ ()xi)){displaystyle {hat {theta }={frac {1}{N^{2}}left(Nsum _{i=1}{N}x_{i}ln(x_{i})-sum ##{i=1} {N}x_{i}sum ¿Qué?

Utilizando la media muestral de x, la media muestral de ln(x) y la media muestral del producto x·ln (x) simplifica las expresiones a:

k^ ^ =x̄ ̄ /Silencio Silencio ^ ^ {displaystyle {hat {k}={bar} {x}/{hat {theta }
Silencio Silencio ^ ^ =xIn⁡ ⁡ x̄ ̄ − − x̄ ̄ In⁡ ⁡ x̄ ̄ .{displaystyle {hat {theta {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}

Si se utiliza la parametrización de la tasa, la estimación β β ^ ^ =1/Silencio Silencio ^ ^ {displaystyle {hat {beta }=1/{hat {theta }.

Estos estimadores no son estrictamente estimadores de máxima verosimilitud, sino que se denominan estimadores de momento logarítmico de tipo mixto. Sin embargo, tienen una eficiencia similar a la de los estimadores de máxima verosimilitud.

Aunque estos estimadores son consistentes, tienen un pequeño sesgo. Una variante con corrección de sesgo del estimador para la escala θ es

Silencio Silencio ~ ~ =NN− − 1Silencio Silencio ^ ^ {displaystyle {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft}\\\\\fnMicrosoft {\fnMicrosoft {fnMicrosoft {\\\fnMicrosoft}\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\fnMicrosoft\\\\\\\\\\\\\\\\ {fn} {fn} {fn} {fn}} {fn}}} {fn} {fn}} {fn}} {fn}}} {fnfn} {fnfn}} {fnfnf}} {fnfnfn}}}} {fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfn}fnfn}fnfnfnfnfnfnfnfnfn}fn}fnfn}fnfn}fnfnh}fnfn }

Se da una corrección de sesgo para el parámetro de forma k como

k~ ~ =k^ ^ − − 1N()3k^ ^ − − 23()k^ ^ 1+k^ ^ )− − 45k^ ^ ()1+k^ ^ )2){displaystyle {tilde {k}={hat {k}-{frac} {1} {}}left {hat {k}-{frac {2}}left({frac {hat {k}{1+{hat {k}}}}derecha)-{frac} {fnK} {f}} {f}}}}f}fnK}}}} {f} {f}}f}}}}}}}}}}f}}}}}}}f}}}}}}}}}}}}}}f}}}}}f}f} {f}f}}f}f}f}}f}f}}f}f}f}}f}}f}fn}}}f}f}f}f}f}f}f}fn}}fn}}f}f}f}fn}f}f}}f}}}fn {4} {fn} {fnK} {fn0}}}}}}}derecha)} {fn0}} {fn0}}}} {fn0}}}}} {fnK} {f}}}}}}}} {f}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {

Mínimo error cuadrático medio bayesiano

Con k conocido y θ desconocido, la función de densidad posterior para theta (usando la escala estándar invariante anterior para θ) es

P()Silencio Silencio ▪ ▪ k,x1,...... ,xN)∝ ∝ 1Silencio Silencio ∏ ∏ i=1Nf()xi;k,Silencio Silencio ){displaystyle P(theta mid k,x_{1},dotsx_{N}propto {fnK} {fnMicroc} {fnMicroc} {fn} {fnK}} {fn} {fnMicroc}} {fn}} {fn}} {fnK}} {f}}} {fnK}} {fnMicroc}}} {f}}}}} {f} {f}}}f}}}f}}f}f}f}f}f} {f} {f} {f} {f} {f}fn}f}f}}f}}f}f}f}f}f}fnh}f}fnh}f}f}f}f}f}f}f}f}f}fn}fn}f}f}f}f}f}fnh}f}fn ¿Qué?

Denotar

Sí.↑ ↑ .. i=1Nxi,P()Silencio Silencio ▪ ▪ k,x1,...... ,xN)=C()xi)Silencio Silencio − − Nk− − 1e− − Sí./Silencio Silencio {displaystyle yequiv sum ¿Por qué? ^{-Nk-1}e^{-y/theta }

La integración con respecto a θ se puede realizar mediante un cambio de variables, revelando que 1/θ tiene distribución gamma con parámetros α = Nk, β = y.

∫ ∫ 0JUEGO JUEGO Silencio Silencio − − Nk− − 1+me− − Sí./Silencio Silencio dSilencio Silencio =∫ ∫ 0JUEGO JUEGO xNk− − 1− − me− − xSí.dx=Sí.− − ()Nk− − m).. ()Nk− − m){displaystyle int _{0}{infty }theta ^{-Nk-1+m}e^{-y/theta },dtheta =int ¿Qué? }x^{Nk-1-m}e^{-xy},dx=y^{-(Nk-m)}Gamma (Nk-m)!}

Los momentos se pueden calcular tomando la relación (m por m = 0)

E⁡ ⁡ [xm]=.. ()Nk− − m).. ()Nk)Sí.m{displaystyle operatorname [x^{m]={frac] {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif} Gamma (Nk)}y^{m}

que muestra que la media ± desviación estándar estimada de la distribución posterior para θ es

Sí.Nk− − 1± ± Sí.2()Nk− − 1)2()Nk− − 2).{fnMicroc} {y}{Nk-1}pm {fnMicroc} {y^{2}{(Nk-1)} {2}}}}} {cH00}} {fnMicrosoft Sans Serif}}

Inferencia bayesiana

Conjugada previa

(feminine)

En la inferencia bayesiana, la distribución gamma es la conjugada anterior a muchas distribuciones de probabilidad: Poisson, exponencial, normal (con media conocida), Pareto, gamma con forma conocida σ, gamma inversa con parámetro de forma conocido y Gompertz con parámetro de escala conocido.

La previa conjugada de la distribución gamma es:

p()k,Silencio Silencio ▪ ▪ p,q,r,s)=1Zpk− − 1e− − Silencio Silencio − − 1q.. ()k)rSilencio Silencio ks,{displaystyle p(k,theta mid p,q,r,s)={frac {1}{frac {frac {k-1}e^{-theta ^{-1}q}{ Gamma (k)^{r}theta ^{ks}}}}

donde Z es la constante de normalización sin solución de forma cerrada. La distribución posterior se puede encontrar actualizando los parámetros de la siguiente manera:

p.=p∏ ∏ ixi,q.=q+.. ixi,r.=r+n,s.=s+n,{displaystyle {begin{aligned}p' limit=pprod nolimits ¿Por qué?

donde n es el número de observaciones y xi es la iésima observación.

Ocurrencia y aplicaciones

Considere una secuencia de eventos, con el tiempo de espera para cada evento siendo una distribución exponencial con tarifa β β {displaystyle beta }. Entonces el tiempo de espera para el n{displaystyle n}-th event to occur is the gamma distribution with integer shape α α =n{displaystyle alpha =n}. Esta construcción de la distribución gamma le permite modelar una amplia variedad de fenómenos donde varios subeventos, cada uno tomando tiempo con distribución exponencial, deben ocurrir en secuencia para que ocurra un evento importante. Ejemplos incluyen el tiempo de espera de eventos de división celular, número de mutaciones compensatorias para una mutación determinada, tiempo de espera hasta que se necesite una reparación para un sistema hidráulico, etc.

La distribución gamma se ha utilizado para modelar el tamaño de las reclamaciones de seguros y las lluvias. Esto significa que las reclamaciones de seguros agregadas y la cantidad de lluvia acumulada en un embalse se modelan mediante un proceso gamma, al igual que la distribución exponencial genera un proceso de Poisson.

La distribución gamma también se usa para modelar errores en modelos de regresión de Poisson de niveles múltiples porque una combinación de distribuciones de Poisson con tasas distribuidas por gamma tiene una distribución de forma cerrada conocida, denominada binomial negativa.

En la comunicación inalámbrica, la distribución gamma se utiliza para modelar el desvanecimiento de la potencia de la señal por trayectos múltiples; véase también la distribución de Rayleigh y la distribución de Rician.

En oncología, la distribución por edades de la incidencia del cáncer suele seguir la distribución gamma, en la que los parámetros de forma y escala predicen, respectivamente, el número de eventos impulsores y el intervalo de tiempo entre ellos.

En neurociencia, la distribución gamma se usa a menudo para describir la distribución de los intervalos entre picos.

En la expresión génica bacteriana, el número de copias de una proteína expresada constitutivamente suele seguir la distribución gamma, donde los parámetros de escala y forma son, respectivamente, el número medio de ráfagas por ciclo celular y el número medio de moléculas de proteína producidas por un ARNm único durante su vida.

En genómica, la distribución gamma se aplicó en el paso de llamada pico (es decir, en el reconocimiento de la señal) en el análisis de datos ChIP-chip y ChIP-seq.

En las estadísticas bayesianas, la distribución gamma se usa ampliamente como un conjugado previo. Es el conjugado previo de la precisión (es decir, el inverso de la varianza) de una distribución normal. También es el conjugado previo de la distribución exponencial.

Generación de variables aleatorias

Dada la propiedad de escala anterior, es suficiente generar variables gamma con θ = 1, ya que luego podemos convertir a cualquier valor de β con una simple división.

Supongamos que deseamos generar variables aleatorias a partir de Gamma(n + δ, 1), donde n es un número entero no negativo y 0 < δ < 1. Usando el hecho de que una distribución Gamma(1, 1) es lo mismo que una distribución Exp(1), y teniendo en cuenta el método de generación de variables exponenciales, concluimos que si U se distribuye uniformemente en (0, 1], entonces −ln(U) se distribuye Gamma(1, 1) (es decir, muestreo de transformada inversa). Ahora, usando el "α -propiedad de suma de la distribución gamma, expandimos este resultado:

− − .. k=1nIn⁡ ⁡ Uk♪ ♪ .. ()n,1){displaystyle - ¿Qué? U_{k}sim Gamma (n,1)}

donde Uk están todas uniformemente distribuidas en (0, 1] e independientes. Todo lo que queda ahora es generar una variable distribuida como Gamma(δ, 1) para 0 < δ < 1 y aplicar la suma "α" propiedad una vez más Esta es la parte más difícil.

Devroye analiza en detalle la generación aleatoria de variables gamma y señala que ninguna es uniformemente rápida para todos los parámetros de forma. Para valores pequeños del parámetro de forma, los algoritmos a menudo no son válidos. Para valores arbitrarios del parámetro de forma, se puede aplicar el método de aceptación-rechazo modificado de Ahrens y Dieter Algoritmo GD (forma k ≥ 1), o el método de transformación cuando 0 < k < 1. Consulte también Cheng and Feast Algorithm GKM 3 o el método de compresión de Marsaglia.

La siguiente es una versión del método de aceptación-rechazo de Ahrens-Dieter:

  1. Generar U, V y W como uniforme (0, 1] variates.
  2. Si U≤ ≤ ee+δ δ {displaystyle Uleq {frac {e}{e+delta } entonces .. =V1/δ δ {displaystyle xi =V^{1/delta } y .. =W.. δ δ − − 1{displaystyle eta =Wxi ^{delta -1}. De lo contrario, .. =1− − In⁡ ⁡ V{displaystyle xi =1-ln V} y .. =We− − .. {displaystyle eta =We^{-xi }.
  3. Si xi ^{delta -1}e^{-xi }}" xmlns="http://www.w3.org/1998/Math/MathML">.. ■.. δ δ − − 1e− − .. {displaystyle eta >xi ^{delta - ¿Qué?xi ^{delta -1}e^{-xi }}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/c999d5c04f901d0d448bed573cee6b42166dd46f" style="vertical-align: -0.838ex; width:11.699ex; height:3.176ex;"/> luego ir al paso 1.
  4. . se distribuye comoδ, 1).

Un resumen de esto es

Silencio Silencio ().. − − .. i=1⌊ ⌊ k⌋ ⌋ In⁡ ⁡ ()Ui))♪ ♪ .. ()k,Silencio Silencio ){displaystyle theta left(xi -sum ¿Por qué?

Donde ⌊ ⌊ k⌋ ⌋ {displaystyle scriptstyle lfloor krfloor } es la parte entero de k, . se genera a través del algoritmo anterior con δ =k} (la parte fraccional de k) y el Uk son todos independientes.

Si bien el enfoque anterior es técnicamente correcto, Devroye señala que es lineal en el valor de k y, en general, no es una buena opción. En su lugar, recomienda utilizar métodos basados en tablas o en rechazos, según el contexto.

Por ejemplo, el método simple de transformación-rechazo de Marsaglia que se basa en una variable normal X y una variable uniforme U:

  1. Set d=a− − 13{displaystyle d=a-{frac {1}{3}} y c=19d{displaystyle c={frac {1}{sqrt {}}}.
  2. Set v=()1+cX)3{displaystyle v=(1+cX)}{3}.
  3. Si 0}" xmlns="http://www.w3.org/1998/Math/MathML">v■0{displaystyle v confía0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/c314fc908a83c555d34968d25e86c5ae0b76ef6f" style="vertical-align: -0.338ex; width:5.389ex; height:2.176ex;"/> y <math alttext="{displaystyle ln UIn⁡ ⁡ U.X22+d− − dv+dIn⁡ ⁡ v{displaystyle ln U won{frac {X^{2}{2}+d-dv+dln v}<img alt="{displaystyle ln U retorno dv{displaystyle dv}, si no vuelve al paso 2.

Con 1≤ ≤ a=α α =k{displaystyle 1leq a=alfa =k} genera un número al azar distribuido gamma en el tiempo que es aproximadamente constante con k. La tasa de aceptación depende de k, con una tasa de aceptación de 0.95, 0.98, y 0.99 para k=1, 2, y 4. Para k1 se puede utilizar γ γ α α =γ γ 1+α α U1/α α {displaystyle gamma _{alpha }= _{1+alpha }U^{1/alpha } para impulsar k para ser usable con este método.

Contenido relacionado

Progresión aritmética

Una progresión aritmética o secuencia aritmética es una secuencia de números tal que la diferencia de cualquier término siguiente a su término...

Independencia (teoría de la probabilidad)

La independencia es una noción fundamental en la teoría de la probabilidad, así como en la estadística y la teoría de los procesos estocásticos. Dos...

Bien ordenado

En matemáticas, un buen orden en un conjunto S< /i> es un orden total en S con la propiedad de que todo subconjunto no vacío de S tiene un elemento mínimo...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save