Distribución binomial negativa

Compartir Imprimir Citar
Distribución de la probabilidad

En teoría de probabilidad y estadísticas, Distribución binomial negativa es una distribución discreta de probabilidad que modela el número de fracasos en una secuencia de ensayos independientes y distribuidos idénticamente Bernoulli antes de un número de éxitos (no-leatorio) especificados (denominado) r{displaystyle r}) ocurre. Por ejemplo, podemos definir rodar un 6 en un die como un éxito, y rodar cualquier otro número como un fracaso, y preguntar cuántos rollos de falla ocurrirán antes de ver el tercer éxito (r=3{displaystyle r=3}). En tal caso, la distribución de probabilidad del número de fallos que aparecen será una distribución binomial negativa.

Una formulación alternativa es modelar el número total de intentos (en lugar del número de fallas). De hecho, para una cantidad específica (no aleatoria) de éxitos (r), la cantidad de fallas (nr) es aleatoria porque los ensayos totales (n) son aleatorios. Por ejemplo, podríamos usar la distribución binomial negativa para modelar la cantidad de días n (aleatorios) que funciona una cierta máquina (especificado por r) antes de que se descomponga.

El Distribución pascal (después de Blaise Pascal) y Distribución de polia (para George Pólya) son casos especiales de la distribución binomial negativa. Una convención entre ingenieros, climatólogos y otros es utilizar "binomio negativo" o "pascal" para el caso de un parámetro de tiempo de parada valorado por entero (integer)r{displaystyle r}) y utilizar "Polya" para el caso de valor real.

Para ocurrencias de eventos discretos asociados, como brotes de tornado, las distribuciones de Polya pueden utilizarse para dar modelos más precisos que la distribución Poisson permitiendo que la media y la varianza sean diferentes, a diferencia del Poisson. La distribución binomial negativa tiene una diferencia μ μ /p{displaystyle mu /p}, donde r{displaystyle r} es el número de éxitos, con la distribución identificándose a Poisson en el límite p→ → 1{displaystyle pto 1} para un medio dado μ μ {displaystyle mu }. Esto puede hacer de la distribución una alternativa sobredispersada útil a la distribución Poisson, por ejemplo para una modificación robusta de la regresión Poisson. En la epidemiología, se ha utilizado para modelar la transmisión de enfermedades por enfermedades infecciosas, donde el número probable de infecciones en el interior puede variar considerablemente de individuo a individuo y de entorno a ajuste. En términos más generales, puede ser apropiado cuando los acontecimientos hayan correlacionado positivamente ocurrencias que causen una diferencia mayor que si los sucesos fueran independientes, debido a un término de covariancia positivo.

El término "binomial negativo" probablemente se deba al hecho de que cierto coeficiente binomial que aparece en la fórmula para la función de masa de probabilidad de la distribución se puede escribir de manera más simple con números negativos.

Definiciones

Imagínese una secuencia de ensayos independientes de Bernoulli: cada ensayo tiene dos resultados potenciales llamados "éxito" y "failure". En cada ensayo la probabilidad de éxito es p{displaystyle p} y del fracaso 1− − p{displaystyle 1-p}. Observamos esta secuencia hasta un número predefinido r{displaystyle r} de éxitos ocurren. Luego el número aleatorio de fallas observadas, X{displaystyle X}, sigue el binomial negativa (o Pascal) distribución:

X♪ ♪ NB⁡ ⁡ ()r,p){displaystyle Xsim operatorname {NB} (r,p)}

Función de masa de probabilidad

La función de masa de probabilidad de la distribución binomial negativa es

f()k;r,p)↑ ↑ Pr()X=k)=()k+r− − 1k)()1− − p)kpr{displaystyle f(k;r,p)equiv Pr(X=k)={binom {k+r-1}{k} {k} {k} {k} {k} {r} {k}} {k}} {k} {k}}} {k}}} {k} {k} {r}} {k}}}}} {k}}} {}}}} {}}} {}}}}}} {k}}} {k}} {}}}}}}}} {}}}}}}} {}}}}} {}}}}}}} {} {}}}}}}} {} {}}}} {} {} {}}}} {}}}}}}}}}}}}}}}}}} {} {}}}}}}}}} {} {} {}} {}}}}}} {}}}}}} {} {}}} {}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}

Donde r es el número de éxitos, k es el número de fracasos, y p es la probabilidad de éxito en cada juicio. Tenga en cuenta que esta formulación es una formulación alternativa a la barra lateral; en esta formulación, la media es rp/()1− − p){displaystyle {rp}/(1-p)} y la diferencia rp/()1− − p)2{displaystyle rp/(1-p)}{2}.

Aquí, la cantidad entre paréntesis es el coeficiente binomial y es igual a

()k+r− − 1k)=()k+r− − 1)!()r− − 1)!()k)!=()k+r− − 1)()k+r− − 2)⋯ ⋯ ()r)k!.{displaystyle {binom {k+r-1}{frac {(k+r-1)}{(r-1)},(k)}}}={frac {(k+r-1)(k+r-2)dotsm (r)}{k!}}}}}}}}}}}}

Hay k fallas elegidas de k + r − 1 ensayos en lugar de k + r porque la última de las pruebas k + r es, por definición, un éxito.

Esta cantidad se puede escribir alternativamente de la siguiente manera, explicando el nombre "binomial negativo":

()k+r− − 1)⋯ ⋯ ()r)k!=()− − 1)k()− − r)()− − r− − 1)()− − r− − 2)⋯ ⋯ ()− − r− − k+1)k!=()− − 1)k()− − r− − k).{displaystyle {begin{aligned} {frac {(k+r-1)dotsm (r)}{k!}}[6pt]={} {={}{k}{frac {(-r)(-r-1)(-r-2)dotsm (-r-k+1)} {k!}=(-1)^{k}{binom {-R}{fantom {-}k}.

Note que por la última expresión y la serie binomial, por cada 0 ≤ p 1 y q=1− − p{displaystyle q=1-p},

p− − r=()1− − q)− − r=.. k=0JUEGO JUEGO ()− − r− − k)()− − q)k=.. k=0JUEGO JUEGO ()k+r− − 1k)qk{displaystyle p^{-r}=(1-q)^{-r}=sum ¿Qué? }{binom {-R}{fantom {-}k}(-q)}=sum ¿Qué? }{binom {k+r-1} {k} {k}} {k}} {k}} {k}}} {k}}} {k}} {k}}} {k}}}} {k}}}} {k}}} {}}} {k}} {}}}}}}}}} { k}}}}} {k}}}}}} { k} { k} { k}}}}}}}}}}} {}}}}} { k} { k} { k}}}}} { k}}}} { k}}} { k} {}}}} {}}}}}} {}}}}}}} {}}}}}} {}}}}}} { k} { k} { k} { k} { k} { k} { k} { k}}}}} { k}}}}}}}}} {}}}}}} {}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}

por lo tanto, los términos de la función de masa de probabilidad suman uno como se muestra a continuación.

.. k=0JUEGO JUEGO ()k+r− − 1k)()1− − p)kpr=p− − rpr=1{displaystyle sum _{k=0}{infty }{binom {k+r-1}{k} {k} {k}{k}=p^{-r}p^{r}=1}

Para comprender la definición anterior de la función de masa de probabilidad, tenga en cuenta que la probabilidad de cada secuencia específica de r éxitos y k fracasos es <span class="nowrap" pr(1 − p)k, porque se supone que los resultados de los ensayos k + r ocurren de forma independiente. Dado que el résimo éxito siempre es el último, queda elegir los k ensayos con fallas de los restantes k + r − 1 intentos. El coeficiente binomial anterior, debido a su interpretación combinatoria, da precisamente el número de todas estas secuencias de longitud k + r − 1.

Función de distribución acumulativa

La función de distribución acumulativa se puede expresar en términos de la función beta incompleta regularizada:

F()k;r,p)↑ ↑ Pr()X≤ ≤ k)=I1− − p()r,k+1)=1− − Ip()k+1,r).{displaystyle F(k;r,p)equiv Pr(Xleq k)=I_{1-p}(r,k+1)=1-I_{p}(k+1,r). }

También se puede expresar en términos de la función de distribución acumulativa de la distribución binomial:

F()k;r,p)=Fbinomial()k;n=k+r,1− − p).{displaystyle F(k;r,p)=F_{text{binomial}(k;n=k+r,1-p).}

Fórmulas alternativas

Algunas fuentes pueden definir la distribución binomial negativa de forma ligeramente diferente a la principal aquí. Las variaciones más comunes son donde la variable aleatoria X cuenta cosas diferentes. Estas variaciones se pueden ver en la tabla aquí:

X está contando... Función de masa de probabilidad Formula Fórmula alternativa

(utilizando binomial equivalente)

Fórmula alternativa

(simplificado utilizando: n=k+r{textstyle n=k+r})

Apoyo
1 k fracasos, dados r éxitos f()k;r,p)↑ ↑ Pr()X=k)={textstyle f(k;r,p)equiv Pr(X=k)=}()k+r− − 1k)pr()1− − p)k{fnMicrosoft} {k+r-1}{k}p^{r}(1-p)}()k+r− − 1r− − 1)pr()1− − p)k{benom {binom { k+r-1}p}p}(1-p)^{k}()n− − 1k)pr()1− − p)k{fnMicrosoft} {n-1}{k}p^{r}(1-p)}parak=0,1,2,...... {displaystyle {text{fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}# {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}fnMicrosoft}fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft}fnMicrosoft {fnMicrosoft {fnMicrosoft {\f}fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft }k=0,1,2,ldots }
2 n juicios dados r éxitos f()n;r,p)↑ ↑ Pr()X=n)={textstyle f(n;r,p)equiv Pr(X=n)=}()n− − 1r− − 1)pr()1− − p)n− − r{benom {binom} {fn}p}(1-p)}{n-r}()n− − 1n− − r)pr()1− − p)n− − r{fnMicrosoft} {n-1}{n-r}p^{r}(1-p)} {n-r}paran=r,r+1,r+2,...... {displaystyle {text{for }n=r,r+1,r+2,dotsc}
3 n juicios dados r fracasos f()n;r,p)↑ ↑ Pr()X=n)={textstyle f(n;r,p)equiv Pr(X=n)=}()n− − 1r− − 1)pn− − r()1− − p)r{fnMicrosoft} {n-1}{n-r}p^{n-r}(1-p)} {r}()n− − 1n− − r)pn− − r()1− − p)r{fnMicrosoft} {n-1}{n-r}p^{n-r}(1-p)} {r}()n− − 1k)pk()1− − p)r{fnMicrosoft} {n-1} {k}p^{k}(1-p)}
4 r éxitos, dados n ensayos f()r;n,p)↑ ↑ Pr()X=r)={textstyle f(r;n,p)equiv Pr(X=r)=}Esta es la distribución binomial: ()nr)pr()1− − p)n− − r{fnMicrosoft {fn}p} {cH00} {cH00} {cH00}} {cH00}} {cH00}} {cH00}}}} {cH00}}}}}} {f}}}}}} {cH}}}}}}}}}}}}} {f}f}}}}}}}}}}}}}}}}}}} {b}}}} {b}}}}}}}}}}}}}}} {b}}}}}}}}}}}}}}}}}}}}}}} {b}}}}}}}} {b}}}}}}}}}}}}}}}}}}} {b}}}}}}}}}}}}}}}}}} {b}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}parar=0,1,2,...... ,n{displaystyle {text{fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}# {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}fnMicrosoft}fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft}fnMicrosoft {fnMicrosoft {fnMicrosoft {\f}fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft }r=0,1,2,dotscn}

Cada una de estas definiciones de la distribución binomial negativa puede expresarse de maneras ligeramente diferentes pero equivalentes. La primera formulación alternativa es simplemente una forma equivalente del coeficiente binomio, es decir: ()ab)=()aa− − b)para0≤ ≤ b≤ ≤ a{fnMicrosoft} {a}{b}={binom {a}{a-b}quad {text{for } 0leq bleq a}. La segunda formulación alternativa simplifica en cierta medida la expresión reconociendo que el número total de juicios es simplemente el número de éxitos y fracasos, es decir: n=r+k{textstyle n=r+k}. Estas segundas formulaciones pueden ser más intuitivas para comprender, sin embargo, son quizás menos prácticas ya que tienen más términos.

  1. La definición donde X es el número de k fracasos que ocurre para un número determinado de r éxitos. Esta definición es muy similar a la definición primaria utilizada en este artículo, sólo que k éxitos y r fallas se cambian al considerar lo que se está contando y lo que se da. Note however, that p todavía se refiere a la probabilidad de éxito.
  2. La definición donde X es el número de n ensayos que ocurre para un número determinado de r éxitos. Esta definición es muy similar a la definición #2, sólo que r éxitos se dan en lugar de k fracasos. Note however, that p todavía se refiere a la probabilidad de éxito.
()k+r− − 1k)=()k+r− − 1)()k+r− − 2)⋯ ⋯ ()r)k!=.. ()k+r)k!.. ()r){displaystyle {binom { k+r-1}{k}}={frac {(k+r-1)(k+r-2)dotsm (r)}{k!}}}={frac {Gamma (k+r)}{k!,Gamma (r)}}}}}}}}}}}}} {
Después de sustituir esta expresión en la definición original, decimos que X tiene un binomio negativo (o Pólya) distribución si tiene una función de masa de probabilidad:
f()k;r,p)↑ ↑ Pr()X=k)=.. ()k+r)k!.. ()r)()1− − p)kprparak=0,1,2,...... {displaystyle f(k;r,p)equiv Pr(X=k)={frac {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {fnMicrosoft Sans Serif} }k=0,1,2,dotsc }
Aquí. r es un número real, positivo.

En regresión binomial negativa, la distribución se especifica en términos de su media, m=pr1− − p{textstyle m={frac {pr}{1-p}}, que se relaciona entonces con variables explicativas como en regresión lineal u otros modelos lineales generalizados. De la expresión para el medio m, uno puede derivar p=rm+r{textstyle p={frac {r} {m+r}} y 1− − p=mm+r{textstyle 1-p={frac {m} {m+r}}. Luego, la sustitución de estas expresiones en la de la función de masa de probabilidad cuando r es valor real, produce esta parametrización de la función de masa de probabilidad en términos dem:

Pr()X=k)=.. ()r+k)k!.. ()r)()rr+m)r()mr+m)kparak=0,1,2,...... {displaystyle Pr(X=k)={frac {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicroc {cH}}}derecha)}r}left({frac {m}{r+m}right)}quad {text{for} }k=0,1,2,dotsc }

La diferencia se puede escribir como m+m2r{textstyle m+{frac {m^{2} {r}}} {m} {m} {m} {m}} {m} {m} {m} {r} {r}}}} {m} {m} {m} {m} {m} {m} {m} {m} {m} {m} {m} {m} {m} {m} {m} {m} {m} {}}}}}} {} {}}}}} {}}}} {} {}}}} {r} {r}} {r}}}}} {}}}}} {} {} {}}} {}}}}}} {}}}}}}}}} {} {} {} {}}} {} {r}} {} {} {}}}}}}}} {}}}}}}} {}}}}}}}}}}} {} {}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}} {}}}}}} {. Algunos autores prefieren establecer α α =1r{textstyle alpha ={frac {1} {r}}}, y expresar la diferencia m+α α m2{textstyle m+alpha m^{2}. En este contexto, y dependiendo del autor, ya sea el parámetro r o su reciprocidad α se conoce como el parámetro "dispersión", "forma parámetro" o "coeficiente inclusivo", o el parámetro "heterogeneidad" o "agregación". El término "agregación" es particularmente utilizado en la ecología cuando describe los recuentos de organismos individuales. Disminución del parámetro de agregación r hacia cero corresponde a la creciente agregación de los organismos; aumento de r hacia la infinidad corresponde a la ausencia de agregación, como se puede describir por la regresión Poisson.

Parametrizaciones alternativas

A veces, la distribución se parametriza en términos de su media μ y su varianza σ2:

p=σ σ 2− − μ μ σ σ 2,r=μ μ 2σ σ 2− − μ μ ,Pr()X=k)=()k+μ μ 2σ σ 2− − μ μ − − 1r− − 1)()σ σ 2− − μ μ σ σ 2)k()μ μ σ σ 2)μ μ 2/()σ σ 2− − μ μ ).{displaystyle {begin{aligned} {sigma ^{2} {sigma ^{2}}}[6pt] limitr={frac {mu ^{2}{sigma ^{2}-mu }[3pt] Umm} {c} {c} {cc}} {ccccccc}ccccccc}ccc}cccccc}ccccccccccccccccH00}cccccccccccH00}cccccccH00ccccccH00}cH00}ccH00}ccH00cccccccc ^{2}-mu Bien.

Ejemplos

Duración de la estancia hospitalaria

La duración de la estadía en el hospital es un ejemplo de datos del mundo real que se pueden modelar bien con una distribución binomial negativa a través de una regresión binomial negativa.

Vender dulces

Pat Collis debe vender barras de chocolate para recaudar fondos para la excursión de 6.° grado. Se supone que Pat (con cierta dureza) no debe regresar a casa hasta que se hayan vendido cinco barras de chocolate. Así que el niño va de puerta en puerta vendiendo chocolatinas. En cada casa, hay una probabilidad de 0,6 de vender una barra de chocolate y una probabilidad de 0,4 de no vender nada.

¿Cuál es la probabilidad de vender la última barra de chocolate en la nésima casa?

Vender caramelos con éxito suficientes veces es lo que define nuestro criterio de parada (a diferencia de no poder venderlo), por lo que k en este caso representa el número de fallos y r representa el número de éxitos. Recuerde que la distribución NegBin(r, p) describe la probabilidad de k fallas y r éxitos en k + r Bernoulli(p) pruebas con éxito en la última prueba. Vender cinco barras de chocolate significa obtener cinco éxitos. El número de pruebas (es decir, casas) que esto requiere es, por lo tanto, k + 5 = n. La variable aleatoria que nos interesa es el número de casas, por lo que sustituimos k = n − 5 en una función de masa NegBin(5, 0.4) y obtenemos la siguiente masa función de la distribución de las casas (para n ≥ 5):

f()n)=()()n− − 5)+5− − 1n− − 5)()1− − 0,4)50,4n− − 5=()n− − 1n− − 5)352n− − 55n.{displaystyle f(n)={(n-5)+5-1 choose n-5};(1-0.4)^{5};0.4^{n-5}={n-1 choose n-5};3^{5};{frac {2^{n-5}}{5^{n}}}}}}

¿Cuál es la probabilidad de que Pat termine en la décima casa?

f()10)=0.1003290624.{displaystyle f(10)=0.1003290624.,}

¿Cuál es la probabilidad de que Pat termine antes de llegar a la octava casa?

Para terminar en o antes de la octava casa, Pat debe terminar en la quinta, sexta, séptima u octava casa. Suma esas probabilidades:

f()5)=0,07776{displaystyle f(5)=0.07776,}
f()6)=0.15552{displaystyle f(6)=0.15552,}
f()7)=0.18662{displaystyle f(7)=0.18662,}
f()8)=0.17418{displaystyle f(8)=0.17418,}
.. j=58f()j)=0.59408.{displaystyle sum _{j=5} {8}f(j)=0.59408}

¿Cuál es la probabilidad de que Pat agote las 30 casas que se encuentran en el vecindario?

Esto se puede expresar como la probabilidad de que Pat no termine en la quinta a la trigésima casa:

1− − .. j=530f()j)=1− − I0,4()5,30− − 5+1).. 1− − 0,999342=0,00000658.{displaystyle 1-sum _{j=5}^{30}f(j)=1-I_{0.4}(5,30-5+1)approx 1-0.99999342=0.00000658.}

Debido a la probabilidad bastante alta de que Pat venda a cada casa (60 por ciento), la probabilidad de que NO cumpla su misión es muy pequeña.

Propiedades

Expectativas

El número total esperado de éxitos en una distribución binomial negativa con parámetros (r, p) es rp/(1 − p). Para ver esto, imagine que se realiza muchas veces un experimento que simula el binomio negativo. Es decir, se realiza una serie de pruebas hasta que se obtienen r fallas, luego otra serie de pruebas, y luego otra, etc. Anote el número de ensayos realizados en cada experimento: a, b, c,... y establecer a + b + c +... = N. Ahora esperaríamos unos Np éxitos en total. Digamos que el experimento se realizó n veces. Luego hay nr fallas en total. Entonces esperaríamos nr = N(1 − p), entonces N/n = r/(1 − p). Vea que N/n es solo el número promedio de intentos por experimento. A eso nos referimos con "expectativa". El promedio de éxitos por experimento es N/nr = r/(1 − p) − r = rp/(1 − p). Esto concuerda con la media dada en el recuadro en el lado derecho de esta página.

Una derivación rigurosa se puede hacer representando la distribución binomial negativa como la suma de los tiempos de espera. Vamos Xr♪ ♪ NB⁡ ⁡ ()r,p){displaystyle X_{r}sim operatorname {NB} (r,p)} la Convención X{displaystyle X} representa el número de éxitos observados antes r{displaystyle r} fracasos con la probabilidad de éxito p{displaystyle p}. Y deja Yi♪ ♪ Geom()1− − p){displaystyle Y_{i}sim Geom(1-p)} Donde Yi{displaystyle Y... representa el número de éxitos antes de ver un fracaso. Podemos pensar en Yi{displaystyle Y... como el tiempo de espera (número de éxito) entre i{displaystyle i}y ()i− − 1){displaystyle (i-1)}fracaso. Así

Xr=Y1+Y2+⋯ ⋯ +Yr.{displaystyle X_{r}=Y_{1}+Y_{2}+cdots - Sí.

La media es

E[Xr]=E[Y1]+E[Y2]+⋯ ⋯ +E[Yr]=rp1− − p,{displaystyle E[X_{r}]=E[Y_{1}]+E[Y_{2}]+cdots +E[Y_{r}]={frac {rp}{1-p}}

que se deriva del hecho E[Yi]=p/()1− − p){displaystyle E[Y_{i}=p/(1-p)}.

Variación

Al contar el número de éxitos dado el número r de errores, la varianza es rp/(1 − p) 2. Al contar el número de fallas antes del r-ésimo éxito, la varianza es r(1 − p)/p2.

Relación con el teorema del binomio

Suponga que Y es una variable aleatoria con una distribución binomial con parámetros n y p. Suponga que p + q = 1, con p, q ≥ 0, entonces

1=1n=()p+q)n.{displaystyle 1=1^{n}=(p+q)^{n}

Usando el teorema del binomio de Newton, esto se puede escribir igualmente como:

()p+q)n=.. k=0JUEGO JUEGO ()nk)pkqn− − k,{displaystyle (p+q)^{n}=sum ¿Por qué?

en el que el límite superior de la suma es infinito. En este caso, el coeficiente binomial

()nk)=n()n− − 1)()n− − 2)⋯ ⋯ ()n− − k+1)k!.{displaystyle {n choose k}={n(n-1)(n-2)cdots (n-k+1) over k!}.}

se define cuando n es un número real, en lugar de un entero positivo. Pero en nuestro caso de distribución binomial es cero cuando k > n. Entonces podemos decir, por ejemplo

()p+q)8.3=.. k=0JUEGO JUEGO ()8.3k)pkq8.3− − k.{displaystyle (p+q)^{8.3}=sum _{k=0}{infty }{8.3 choose k}p^{k}q^{8.3-k}

Ahora suponga que r > 0 y usamos un exponente negativo:

1=pr⋅ ⋅ p− − r=pr()1− − q)− − r=pr.. k=0JUEGO JUEGO ()− − rk)()− − q)k.{displaystyle 1=p^{r}cdot p^{-r}=p^{r}(1-q)^{-r}=p^{r}sum ¿Por qué?

Entonces todos los términos son positivos y el término

pr()− − rk)()− − q)k{displaystyle p^{r}{-r choose k}(-q)^{k}

es simplemente la probabilidad de que el número de fallas antes del résimo éxito sea igual a k, siempre que r sea un número entero. (Si r es un número no entero negativo, por lo que el exponente es un número no entero positivo, entonces algunos de los términos de la suma anterior son negativos, por lo que no tenemos una distribución de probabilidad en el conjunto de todos los enteros no negativos).

Ahora también permitimos valores no enteros de r. Entonces tenemos una distribución binomial negativa adecuada, que es una generalización de la distribución de Pascal, que coincide con la distribución de Pascal cuando r resulta ser un número entero positivo.

Recuerde desde arriba que

La suma de variables aleatorias independientes de distribución negativa-binomial r1 y r2 con el mismo valor para el parámetro p es negativo-binomial distribuido con el mismo p pero con r- valorr1+r2.

Esta propiedad persiste cuando la definición se generaliza y ofrece una manera rápida de ver que la distribución binomial negativa es infinitamente divisible.

Relación de recurrencia

Se cumple la siguiente relación de recurrencia:

{}()k+1)Pr()k+1)− − pPr()k)()k+r)=0,Pr()0)=()1− − p)r{displaystyle {begin{cases}(k+1)Pr(k+1)-pPr(k)(k+r)=0,[5pt]Pr(0)=(1-p)^{r}end{cases}}

Distribuciones relacionadas

Geom⁡ ⁡ ()p)=NB⁡ ⁡ ()1,p).{displaystyle operatorname {Geom} (p)=operatorname {NB} (1,,p).,}

Distribución de Poisson

Considere una secuencia de variables aleatorias binomiales negativas donde el parámetro de parada r tiende a infinito, mientras que la probabilidad de éxito en cada prueba, p, tiende a cero en tal una forma de mantener constante la media de la distribución. Denotando esta media como λ, el parámetro p será p = r/(r + λ)

lambdaquad {text{thus always overdispersed}}.end{aligned}}}" xmlns="http://www.w3.org/1998/Math/MathML">Significa:λ λ =()1− − p)rp⇒ ⇒ p=rr+λ λ ,Diferencia:λ λ ()1+λ λ r)■λ λ ,así siempre sobredispersos.{displaystyle {begin{aligned}{text{Mean:}quad "Lambda" Rightarrow quad p={frac {r}{r+lambda },{text{Variance:}}quad &lambda left(1+{frac {lambda {fnMicrosoft Sans Serif}lambdaquad {text{thus always overdispersed}}.end{aligned}}}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/011a4ce4d84eafc3691635e808bfd725b8334ce4" style="vertical-align: -5.671ex; width:58.548ex; height:12.509ex;"/>

Bajo esta parametrización la función de masa de probabilidad será

f()k;r,p)=.. ()k+r)k!⋅ ⋅ .. ()r)pk()1− − p)r=λ λ kk!⋅ ⋅ .. ()r+k).. ()r)()r+λ λ )k⋅ ⋅ 1()1+λ λ r)r{displaystyle f(k;r,p)={frac {Gamma (k+r)}{k!cdot Gamma (r)}p^{k}(1-p)^{r}={frac {cdot}cdot {fnMicrosoft Sans Serif}cdot {fnMicrosoft Sans Serif}}cdot {1}{left(1+{frac {lambda)}cdot {cdot {fn1}{left(1+{frac}{c] - Sí.

Ahora si consideramos el límite como r → ∞, el segundo factor convergerá a uno, y el tercero a la función exponente:

limr→ → JUEGO JUEGO f()k;r,p)=λ λ kk!⋅ ⋅ 1⋅ ⋅ 1eλ λ ,{displaystyle lim _{rto infty }f(k;r,p)={frac {lambda ¿Qué?

que es la función de masa de una variable aleatoria distribuida por Poisson con valor esperado λ.

En otras palabras, la distribución binomial negativa parametrizada alternativamente converge a la distribución de Poisson y r controla la desviación de Poisson. Esto hace que la distribución binomial negativa sea adecuada como una alternativa robusta a Poisson, que se acerca a Poisson para r grandes, pero que tiene una varianza mayor que Poisson para r pequeños.

Poisson⁡ ⁡ ()λ λ )=limr→ → JUEGO JUEGO NB⁡ ⁡ ()r,λ λ r+λ λ ).{displaystyle operatorname {Poisson} (lambda)=lim _{rto infty }operatorname {NB} left(r,{frac {lambda - Sí. }

Mezcla Gamma-Poisson

La distribución binomial negativa también surge como una mezcla continua de distribuciones de Poisson (es decir, una distribución de probabilidad compuesta) donde la distribución de mezcla de la tasa de Poisson es una distribución gamma. Es decir, podemos ver el binomio negativo como una distribución Poisson(λ), donde λ es en sí misma una variable aleatoria, distribuida como una distribución gamma con forma = r y escala θ = p/(1 − p) o calificar correspondientemente β = (1 − p)/p.

Para mostrar la intuición detrás de esta declaración, considere dos procesos de Poisson independientes, "Éxito" y "Fallo", con intensidades p y 1 − p. Juntos, los procesos de éxito y fracaso son equivalentes a un solo proceso de Poisson de intensidad 1, donde una ocurrencia del proceso es un éxito si el lanzamiento de una moneda independiente correspondiente sale cara con probabilidad p; de lo contrario, es un fracaso. Si r es un número contable, los lanzamientos de moneda muestran que el recuento de éxitos antes del résimo fallo sigue una distribución binomial negativa con parámetros r y p. Sin embargo, el recuento también es el recuento del proceso Success Poisson en el tiempo aleatorio T de la résima aparición en el proceso Failure Poisson. El conteo de Éxitos sigue una distribución de Poisson con media pT, donde T es el tiempo de espera para las ocurrencias r en un proceso de Poisson de intensidad 1 − p, es decir, T tiene distribución gamma con parámetro de forma r e intensidad 1 − p. Por lo tanto, la distribución binomial negativa es equivalente a una distribución de Poisson con una media pT, donde la variable aleatoria T tiene una distribución gamma con el parámetro de forma r e intensidad (1 − p). El párrafo anterior sigue, porque λ = pT tiene distribución gamma con parámetro de forma r e intensidad (1 − p)/p.

La siguiente derivación formal (que no depende de que r sea un número contable) confirma la intuición.

∫ ∫ 0JUEGO JUEGO fPoisson⁡ ⁡ ()λ λ )()k)× × fGamma⁡ ⁡ ()r,p1− − p)()λ λ )dλ λ =∫ ∫ 0JUEGO JUEGO λ λ kk!e− − λ λ × × ()p1− − p)rλ λ r− − 1e− − λ λ p1− − p.. ()r)dλ λ =()p1− − p)r1k!.. ()r)∫ ∫ 0JUEGO JUEGO λ λ r+k− − 1e− − λ λ p+1− − p1− − pdλ λ =()p1− − p)r1k!.. ()r).. ()r+k)()1− − p)k+r∫ ∫ 0JUEGO JUEGO fGamma⁡ ⁡ ()k+r,11− − p)()λ λ )dλ λ =.. ()r+k)k!.. ()r)()1− − p)kpr=f()k;r,p).{displaystyle {begin{aligned}in ¿Qué? }f_{ nombre del operador {Poisson} (lambda)}(k)times f_{operatorname {Gamma} left(r,,{frac {p}{1-p}right)}(lambda),mathrm {d} lambda > ¿Qué? ¡Oh! }times left({frac {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicroc {fnMicroc} {fnMicroc} {p}{1-p}} {f} {f}} {f}} {f}}}}} {f}}}} {f}}}}} {f}}}}} {f}}}}}} {f}}}}}}}} {f}}}}}}} { Gamma (r)},mathrm {d} lambda \[8pt] {p}{1-p}right)}{r}{frac {1}{k!,Gamma (r)}int ¿Qué? ^{r+k-1}e^{-lambda {frac {p+1-p}{1-p}};mathrm {d} lambda \[8pt] implica=left({frac] {p}{1-p}right)}{r}{frac {1}{k!,Gamma (r)} Gamma (r+k)(1-p)^{k+r}int ¿Qué? }f_{ nombre del operador {Gamma} left(k+r,{frac {1}{1-p}right)}(lambda);mathrm {d} lambda \[8pt] {fnMicrosoft Sans Serif}; {fnMicrosoft Sans Serif};(1-p)^{k},p^{r}[8pt]

Debido a esto, la distribución binomial negativa también se conoce como distribución gamma-Poisson (mezcla). La distribución binomial negativa se derivó originalmente como un caso límite de la distribución gamma-Poisson.

Distribución de una suma de variables aleatorias distribuidas geométricamente

Si Yr es una variable aleatoria que sigue la distribución binomial negativa con parámetros r y p, y admite {0, 1, 2,...}, entonces Yr es una suma de r variables independientes siguiendo la distribución geométrica (sobre {0, 1, 2,...}) con parámetro p. Como resultado del teorema del límite central, Yr (apropiadamente escalado y desplazado) es por lo tanto aproximadamente normal para suficientemente grande r.

Además, si Bs+r es una variable aleatoria que sigue la distribución binomial con parámetros s + r y p, luego

Pr()Yr≤ ≤ s)=1− − Ip()s+1,r)=1− − Ip()()s+r)− − ()r− − 1),()r− − 1)+1)=1− − Pr()Bs+r≤ ≤ r− − 1)=Pr()Bs+r≥ ≥ r)=Pr()despuéss+rlos juicios, hay al menosréxitos).{fnMicrosoftware {fnMicrosoft Sans Serif} {}=1-I_{p}(s+1,r)\[5pt] diezm}=1-I_{p}(s+r)-(r-1),(r-1)+1)[5pt] Pr(B_{s+r}geq r)[5pt] implica{}=Pr({text{after }s+r{text{ trials, there are at least }r{text{ successes}}).end{aligned}}}}}

En este sentido, la distribución binomial negativa es la "inversa" de la distribución binomial.

La suma de variables aleatorias independientes binomialmente negativas r1 y r2 con el mismo valor para el parámetro p tiene una distribución binomial negativa con el mismo p pero con un valor de r r1 + r2.

La distribución binomial negativa es infinitamente divisible, es decir, si Y tiene una distribución binomial negativa, entonces para cualquier número entero positivo n, existen variables aleatorias independientes distribuidas idénticamente Y1,..., Yn cuya suma tiene la misma distribución que Y tiene.

Representación como distribución de Poisson compuesta

Distribución binomial negativa NB(r,p) se puede representar como un compuesto distribución Poisson: Vamos {}Yn, nN{displaystyle mathbb {N}0 denota una secuencia de variables aleatorias independientes y distribuidas idénticamente, cada una con distribución logarítmica Log(p), con función de masa de probabilidad

f()k;r,p)=− − pkkIn⁡ ⁡ ()1− − p),k▪ ▪ N.{displaystyle f(k;r,p)={frac {-p^{k}{kln(1-p)}}qquad kin {mathbb {N}.}

Sea N una variable aleatoria, independiente de la secuencia, y suponga que N tiene una distribución de Poisson con media λ = − r ln(1 − p). Entonces la suma aleatoria

X=.. n=1NYn{displaystyle X=sum ¿Qué?

es NB(r,p)-distribuido. Para probar esto, calculamos la función generadora de probabilidad GX de X, que es la composición de las funciones generadoras de probabilidad GN y GY1. Usando

GN()z)=exp⁡ ⁡ ()λ λ ()z− − 1)),z▪ ▪ R,{displaystyle G_{N}(z)=exp(lambda (z-1)),qquad zin mathbb {R}

y

<math alttext="{displaystyle G_{Y_{1}}(z)={frac {ln(1-pz)}{ln(1-p)}},qquad |z|GY1()z)=In⁡ ⁡ ()1− − pz)In⁡ ⁡ ()1− − p),SilenciozSilencio.1p,{displaystyle G_{Y_{1}}(z)={frac {ln(1-pz)}{ln(1-p)}}},qquad ANTERIVISO SUPERVITADOS {frac {1}{p}}}}<img alt="G_{Y_{1}}(z)={frac {ln(1-pz)}{ln(1-p)}},qquad |z|

obtenemos

<math alttext="{displaystyle {begin{aligned}G_{X}(z)&=G_{N}(G_{Y_{1}}(z))\[4pt]&=exp {biggl (}lambda {biggl (}{frac {ln(1-pz)}{ln(1-p)}}-1{biggr)}{biggr)}\[4pt]&=exp {bigl (}-r(ln(1-pz)-ln(1-p)){bigr)}\[4pt]&={biggl (}{frac {1-p}{1-pz}}{biggr)}^{r},qquad |z|GX()z)=GN()GY1()z))=exp⁡ ⁡ ()λ λ ()In⁡ ⁡ ()1− − pz)In⁡ ⁡ ()1− − p)− − 1))=exp⁡ ⁡ ()− − r()In⁡ ⁡ ()1− − pz)− − In⁡ ⁡ ()1− − p)))=()1− − p1− − pz)r,SilenciozSilencio.1p,{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fn} {fnMicrosoft Sans Serif}<img alt="{displaystyle {begin{aligned}G_{X}(z)&=G_{N}(G_{Y_{1}}(z))\[4pt]&=exp {biggl (}lambda {biggl (}{frac {ln(1-pz)}{ln(1-p)}}-1{biggr)}{biggr)}\[4pt]&=exp {bigl (}-r(ln(1-pz)-ln(1-p)){bigr)}\[4pt]&={biggl (}{frac {1-p}{1-pz}}{biggr)}^{r},qquad |z|

que es la función generadora de probabilidad de la distribución NB(r,p).

La siguiente tabla describe cuatro distribuciones relacionadas con el número de éxitos en una secuencia de sorteos:

Con reemplazosNo hay reemplazos
Número de sorteosDistribución binomialdistribución hipergeométrica
Número de fallosDistribución binomial negativadistribución hipergeométrica negativa

( a b 0 ) { estilo de visualización (a, b, 0)} clase de distribuciones

La binomial negativa, junto con las distribuciones de Poisson y binomial, es miembro de la clase de distribuciones (a,b,0). Las tres distribuciones son casos especiales de la distribución Panjer. También son miembros de una familia exponencial natural.

Inferencia estadística

Estimación de parámetros

MVUE para p

Supongamos que se desconoce p y se realiza un experimento en el que se decide de antemano que el muestreo continuará hasta que se encuentren r éxitos. Una estadística suficiente para el experimento es k, el número de fallas.

Al estimar p, el estimador insesgado de varianza mínima es

p^ ^ =r− − 1r+k− − 1.{displaystyle {widehat {p}={frac} {r-1}{r+k-1}}

Estimación de máxima verosimilitud

Cuando se conoce r, la estimación de máxima verosimilitud de p es

p~ ~ =rr+k,{displaystyle {widetilde {p}={frac} {r} {r+k}},}

pero esta es una estimación sesgada. Sin embargo, su inversa (r + k)/r es una estimación imparcial de 1/p.

Cuando se desconoce r, el estimador de máxima verosimilitud para p y r juntos solo existe para muestras para las que la varianza muestral es mayor que la media muestral. La función de verosimilitud para N observaciones iid (k1,..., k N) es

L()r,p)=∏ ∏ i=1Nf()ki;r,p){displaystyle L(r,p)=prod ¿Por qué?

a partir de la cual calculamos la función de log-verosimilitud

l l ()r,p)=.. i=1NIn⁡ ⁡ ().. ()ki+r))− − .. i=1NIn⁡ ⁡ ()ki!)− − NIn⁡ ⁡ ().. ()r))+.. i=1NkiIn⁡ ⁡ ()1− − p)+NrIn⁡ ⁡ ()p).{displaystyle ell (r,p)=sum ¿Por qué? _{i=1} {N}k_{i}ln(1-p)+Nrln(p). }

Para encontrar el máximo tomamos las derivadas parciales con respecto a r y p y las igualamos a cero:

∂ ∂ l l ()r,p)∂ ∂ p=− − [.. i=1Nki11− − p]+Nr1p=0{displaystyle {frac {partial ell (r,p)}{partial ♪=-left[sum] ¿Qué? {1}{1-p}right]+Nr{frac {1}{p}=0} y
∂ ∂ l l ()r,p)∂ ∂ r=[.. i=1N↑ ↑ ()ki+r)]− − N↑ ↑ ()r)+NIn⁡ ⁡ ()p)=0{displaystyle {frac {partial ell (r,p)}{partial. - No.

dónde

↑ ↑ ()k)=.. .()k).. ()k){displaystyle psi (k)={frac {Gamma '(k)}{Gamma (k)}}!} es la función digamma.

Resolviendo la primera ecuación para p da:

p=NrNr+.. i=1Nki{displaystyle p={frac {Nr}{Nr+sum ¿Qué?

Sustituyendo esto en la segunda ecuación da:

∂ ∂ l l ()r,p)∂ ∂ r=[.. i=1N↑ ↑ ()ki+r)]− − N↑ ↑ ()r)+NIn⁡ ⁡ ()rr+.. i=1Nki/N)=0{displaystyle {frac {partial ell (r,p)}{partial. Npsi (r)+Nln left({frac) {r}{r+sum ¿Por qué?

Esta ecuación no se puede resolver para r en forma cerrada. Si se desea una solución numérica, se puede utilizar una técnica iterativa como el método de Newton. Alternativamente, se puede utilizar el algoritmo de maximización de expectativas.

Ocurrencia y aplicaciones

Tiempo de espera en un proceso de Bernoulli

Para el caso especial donde r es un número entero, la distribución binomial negativa se conoce como distribución Pascal. Es la distribución de probabilidad de un cierto número de fallas y éxitos en una serie de ensayos de Bernoulli independientes e idénticamente distribuidos. Para k + r ensayos de Bernoulli con probabilidad de éxito p, el binomio negativo da la probabilidad de k éxitos y r fallas, con una falla en el último intento. En otras palabras, la distribución binomial negativa es la distribución de probabilidad del número de éxitos antes del résimo fallo en un proceso de Bernoulli, con una probabilidad p de éxitos en cada intento. Un proceso de Bernoulli es un proceso de tiempo discreto, por lo que el número de intentos, fallas y éxitos son números enteros.

Considere el siguiente ejemplo. Supongamos que lanzamos un dado repetidamente y consideramos que un 1 es un fracaso. La probabilidad de éxito en cada ensayo es 5/6. El número de aciertos antes del tercer fracaso pertenece al conjunto infinito { 0, 1, 2, 3,... }. Ese número de éxitos es una variable aleatoria con distribución binomial negativa.

Cuando r = 1 obtenemos la distribución de probabilidad del número de éxitos antes del primer error (es decir, la probabilidad de que el primer error ocurra en el (k + 1) st ensayo), que es una distribución geométrica:

f()k;r,p)=()1− − p)⋅ ⋅ pk{displaystyle f(k;r,p)=(1-p)cdot p^{k}!

Poisson sobredisperso

La distribución binomial negativa, especialmente en su parametrización alternativa descrita anteriormente, se puede utilizar como alternativa a la distribución de Poisson. Es especialmente útil para datos discretos sobre un rango positivo ilimitado cuya varianza muestral excede la media muestral. En tales casos, las observaciones están sobredispersas con respecto a una distribución de Poisson, para la cual la media es igual a la varianza. Por lo tanto, una distribución de Poisson no es un modelo apropiado. Dado que la distribución binomial negativa tiene un parámetro más que la de Poisson, el segundo parámetro se puede utilizar para ajustar la varianza independientemente de la media. Consulte Cumulantes de algunas distribuciones de probabilidad discretas.

Una aplicación de esto es a los recuentos anuales de ciclones tropicales en el Atlántico Norte o a los recuentos mensuales a semestrales de ciclones extratropicales de invierno en Europa, para los cuales la varianza es mayor que la media. En el caso de una sobredispersión modesta, esto puede producir resultados sustancialmente similares a una distribución de Poisson sobredispersada.

La distribución binomial negativa también se usa comúnmente para modelar datos en forma de recuentos de lectura de secuencias discretas de experimentos de secuenciación de ADN y ARN de alto rendimiento.

Historia

Esta distribución fue estudiada por primera vez en 1713 por Montmort, como la distribución del número de intentos necesarios en un experimento para obtener un número determinado de éxitos. Anteriormente había sido mencionado por Pascal.