Distribución de Poisson
Bajo una distribución de Poisson con la expectativa de λ eventos en un intervalo dado, la probabilidad de k eventos en el mismo intervalo es:
Historia
Definiciones
Función de masa de probabilidad
Una variable discreta al azar X se dice que tiene una distribución Poisson con parámetro si tiene una función de masa de probabilidad dada por:
dónde
- k es el número de casos ()
- e es el número de Euler ()
- k! k()k-1) ·· (3)(2)(1) es el factorial.
El número real positivo λ es igual al valor esperado de X y también a su varianza.
La ecuación se puede adaptar si, en lugar del número promedio de eventos nos dan la tasa promedio en qué eventos ocurren. Entonces... y:
Ejemplos
- el número de meteoritos mayores de 1 metro de diámetro que golpean la Tierra en un año;
- el número de fotones láser que golpean un detector en un intervalo de tiempo particular;
- el número de estudiantes que logran una marca baja y alta en un examen; y
- localizaciones de defectos y dislocaciones en materiales.
Sumas y validez
- k, un entero no negativo, es el número de veces que un evento ocurre en un intervalo.
- La ocurrencia de un evento no afecta la probabilidad de un segundo evento.
- La tasa promedio en que ocurren los eventos es independiente de cualquier ocurrencia.
- Dos eventos no pueden ocurrir exactamente en el mismo instante.
Si estas condiciones son verdaderas, entonces k es una variable aleatoria de Poisson; la distribución de k es una distribución de Poisson.
La distribución Poisson es también el límite de una distribución binomial, para la cual la probabilidad de éxito para cada juicio es , donde es la expectativa y es el número de juicios, en el límite que con mantenido constante (véanse las distribuciones conexas): La distribución Poisson también puede derivarse de las ecuaciones diferenciales con condiciones iniciales y evaluadas en
Ejemplos de probabilidad para distribuciones Poisson
En un río en particular, las inundaciones se producen una vez cada 100 años en promedio. Calcular la probabilidad de k = 0, 1, 2, 3, 4, 5 o 6 inundaciones de desbordamiento en un intervalo de 100 años, asumiendo que el modelo Poisson es apropiado. Debido a que la tasa promedio de eventos es una inundación de reflujo por 100 años, λ = 1 |
La probabilidad de 0 a 6 inundaciones de desbordamiento en un período de 100 años. |
En este ejemplo, se informa que el promedio de goles en un partido de fútbol mundial es de aproximadamente 2,5 y el modelo Poisson es apropiado. Debido a que la tasa promedio de evento es de 2,5 objetivos por partido, λ = 2.5. |
La probabilidad de 0 a 7 goles en un partido. |
Una vez en un intervalo de eventos: El caso especial de λ = 1 y k = 0
Ejemplos que violan las suposiciones de Poisson
Propiedades
Estadísticas descriptivas
- El valor esperado de una variable aleatoria Poisson es λ.
- La variabilidad de una variable aleatoria Poisson también es λ.
- El coeficiente de variación es mientras que el índice de dispersión es 1.
- La desviación absoluta media sobre el medio es
- El modo de una variable aleatoria distribuida por Poisson con no-integer λ es igual a que es el entero más grande menos o igual a λ. Esto también está escrito como piso(λ). Cuando λ es un entero positivo, los modos son λ y λ − 1.
- Todos los acumuladores de la distribución Poisson son iguales al valor esperado λ. El n momento factorial de la distribución Poisson es λ n .
- El valor esperado de un proceso de Poisson a veces se descompone en el producto de intensidad y exposición (o más generalmente expresado como la parte integral de una "función de intensidad" con el tiempo o el espacio, a veces descrita como "exposición").
Mediano
Libras para la mediana () de la distribución son conocidos y son agudos:
Momentos superiores
Los momentos no centrados superiores mk de la distribución Poisson son polinomios Touchard en λ: donde los frenos { } denotan Números del segundo tipo. En otras palabras, Cuando se establece el valor esperado λ = 1, la fórmula de Dobinski implica que n‐ momento es igual al número de particiones de un conjunto de tamaño n.
Un límite superior simple es:
Sumas de variables aleatorias distribuidas por Poisson
Si para son independientes, entonces Un converso es el teorema de Raikov, que dice que si la suma de dos variables aleatorias independientes es distribuida por Poisson, entonces son cada una de esas dos variables aleatorias independientes.
Entropía máxima
Es una distribución de máxima entropía entre el conjunto de distribuciones binomiales generalizadas con media y , donde una distribución binomial generalizada se define como una distribución de la suma de N independiente pero no idénticamente distribuida variables Bernoulli.
Otras propiedades
- Las distribuciones Poisson son distribuciones de probabilidad infinitamente divisibles.
- La divergencia dirigida de Kullback-Leibler desde es dado por
- Si es un entero, entonces satisfizo y
- Libras para las probabilidades de cola de una variable aleatoria Poisson puede ser derivado usando un argumento ligado Chernoff.
- La probabilidad superior de cola puede ser ajustada (por un factor de al menos dos) como sigue:
Donde es la divergencia de Kullback-Leibler desde .
- Inequalities that relate the distribution function of a Poisson random variable a la función de distribución normal estándar son los siguientes:
Donde es la divergencia de Kullback-Leibler desde y es la divergencia de Kullback-Leibler desde .
Carreras de Poisson
Vamos. y ser variables aleatorias independientes, con entonces tenemos que
El límite superior se demuestra utilizando un límite de Chernoff estándar.El límite inferior puede probarse notando que es la probabilidad de que Donde que está sujeta a Donde es entropía relativa (ver la entrada en límites en colas de distribuciones binomiales para detalles). Observando además que y computar un límite inferior en la probabilidad incondicional da el resultado. En el apéndice de Kamath et al se pueden encontrar más detalles.
Distribuciones conexas
Como una distribución binomial con pasos de tiempo infinitesimal
La distribución Poisson puede derivarse como un caso limitado a la distribución binomial, ya que el número de juicios va a la infinidad y el número esperado de éxitos sigue siendo fijo, véase la ley de eventos raros a continuación. Por lo tanto, se puede utilizar como una aproximación de la distribución binomial si n es suficientemente grande y p es suficientemente pequeño. La distribución Poisson es una buena aproximación de la distribución binomial si n al menos 20 y p es menor o igual a 0.05, y una excelente aproximación si n ≥ 100 y n ≤ 10. Letting y ser las respectivas funciones de densidad acumulativa de las distribuciones binomial y Poisson, uno tiene:
Una derivación de esto utiliza funciones generadoras de probabilidad. Considere un juicio de Bernoulli (coin-flip) cuya probabilidad de un éxito (o número esperado de éxitos) es dentro de un intervalo dado. Dividir el intervalo en n partes, y realizar un juicio en cada subintervalo con probabilidad . La probabilidad de k éxitos fuera de n los ensayos a lo largo de todo el intervalo son dados por la distribución binomial
cuya función de generación es:
Tomando el límite a medida que n aumenta hasta infinito (con x fijo) y aplicando la definición de límite del producto de la función exponencial, esto se reduce a la función generadora de la distribución de Poisson:
General
- Si y son independientes, entonces la diferencia sigue una distribución de Skellam.
- Si y son independientes, luego la distribución de condicional a es una distribución binomial. Específicamente, si entonces Más generalmente, si X1, X2,... Xn son variables independientes Poisson al azar con parámetros λ1, λ2,... λn entonces
- dado sigue que De hecho,
- Si y la distribución de condicional a X = k es una distribución binomial, entonces la distribución de Y sigue una distribución Poisson De hecho, si, condicional sigue una distribución multinomial, entonces cada uno sigue una distribución independiente Poisson
- La distribución Poisson es un caso especial de la distribución de compuestos discretos Poisson (o la distribución de Poisson de stuttering) con sólo un parámetro. La distribución de compuestos discretos Poisson puede deducirse de la distribución limitada de distribución multinomial univariada. También es un caso especial de una distribución compuesta Poisson.
- Para valores suficientemente grandes λ, (ensayar λ√1000), la distribución normal con media λ y diferencia λ (desviación estándar ) es una excelente aproximación a la distribución Poisson. Si λ es mayor que alrededor de 10, entonces la distribución normal es una buena aproximación si se realiza una corrección de continuidad apropiada, es decir, si P(X ≤ x), donde x es un entero no negativo, es reemplazado por P(X ≤ x + 0,5).
- Transformación estabilizadora de las diferencias: Si entonces y Bajo esta transformación, la convergencia a la normalidad (como aumentos) es mucho más rápido que la variable no transformada. Existen otras transformaciones estabilizadoras de varianza ligeramente más complicadas, una de las cuales es la transformación de Anscombe. Ver Transformación de datos (estadística) para usos más generales de transformaciones.
- Si por cada t 0 el número de llegadas en el intervalo de tiempo [0, t] sigue la distribución Poisson con media λt, entonces la secuencia de tiempos inter-arrival son variables exponenciales independientes y distribuidas idénticamente con media 1/λ.
- Las funciones de distribución acumulativa de las distribuciones Poisson y chi-squared están relacionadas de las siguientes maneras: y
Poisson aproximación
Assume Donde entonces se distribuye multinomialmente condicionado a
Esto significa, entre otras cosas, que para cualquier función no negativa si se distribuye multinomialmente, entonces Donde
El factor de puede ser reemplazado por 2 si se supone que está aumentando o disminuyendo monotonicamente.
Distribución bivariada de Poisson
Esta distribución se ha extendido al caso bivariado. La función generadora de esta distribución es
con
Las distribuciones marginales son Poisson(Silencio1) y Poisson(Silencio2) y el coeficiente de correlación se limita a la gama
Una manera sencilla de generar una distribución bivariada de Poisson es tomar tres distribuciones independientes Poisson con medios y luego se establece La función de probabilidad de la distribución bivariada de Poisson es
Distribución gratuita de Poisson
Distribución Poisson gratis con tamaño de salto y tasa surge en la teoría de la probabilidad libre como el límite de la convolución libre repetida como N →.
En otras palabras, dejemos ser variables aleatorias para que tiene valor con probabilidad y valor 0 con la probabilidad restante. Asumir también que la familia son libremente independientes. Entonces el límite como de la ley es dada por la ley Free Poisson con parámetros
Esta definición es análoga a una de las formas en que la distribución clásica de Poisson se obtiene de un proceso de Poisson (clásico).
La medida asociada a la libre ley Poisson es dada por Donde y tiene apoyo
Esta ley también surge en la teoría de la matriz aleatoria como la ley Marchenko-Pastur. Sus acumuladores libres son iguales a
Algunos transforman esta ley
damos valores de algunas transformaciones importantes de la ley de Poisson libre; El cálculo se puede encontrar en p. En el libro conferencias sobre la combinatoria de la probabilidad libre por A. Nica y R. Speicher
La R-transforma de la ley Poisson libre es dada por
La transformación Cauchy (que es la negativa de la transformación Stieltjes) es dada por
El S-transforme es dado por en caso de que
Conteo Weibull y estable
Función de masa de probabilidad de Poisson se puede expresar en un formulario similar a la distribución del producto de una distribución Weibull y una forma variante de la distribución del conteo estable. La variable se puede considerar como inverso del parámetro de estabilidad de Lévy en la distribución de cuenta estable: Donde es una distribución estándar de la cuenta estable de la forma y es una distribución estándar de forma Weibull
Inferencia estadística
Estimación del parámetro
Dada una muestra n valores medidos para i = 1,... n, queremos estimar el valor del parámetro λ de la población Poisson de la que se extrajo la muestra. La estimación de probabilidad máxima es
Dado que cada observación tiene expectativa λ , también lo hace la muestra de la muestra. Por lo tanto, la estimación de máxima probabilidad es un estimador imparcial de λ . También es un estimador eficiente ya que su varianza logra el límite inferior de Cramér - RAO (CRLB). Por lo tanto, es imparcial de varianza mínima. También se puede demostrar que la suma (y por lo tanto la media de la muestra, ya que es una función uno a uno de la suma) es una estadística completa y suficiente para λ .
Para demostrar suficiencia podemos usar el teorema de factorización. Considere la posibilidad de dividir la función de masa de probabilidad de la distribución conjunta Poisson para la muestra en dos partes: una que depende exclusivamente de la muestra , llamado , y uno que depende del parámetro y la muestra sólo a través de la función Entonces... es una estadística suficiente
El primer mandato depende sólo de . El segundo mandato depende de la muestra sólo a través de Así, es suficiente.
Para encontrar el parámetro λ que maximiza la función de probabilidad para la población de Poisson, podemos usar el logaritmo de la función de verosimilitud:Tomamos el derivado de con respecto a λ y compararlo con cero:
Al resolver λ se obtiene un punto estacionario.
Entonces, λ es el promedio de los valores de ki. Obtener el signo de la segunda derivada de L en el punto estacionario determinará qué tipo de valor extremo es λ.
que es el negativo de n veces el recíproco del promedio de ki. Esta expresión es negativa cuando el promedio es positivo. Si esto se cumple, entonces el punto estacionario maximiza la función de probabilidad.
Para la integridad, se dice que una familia de distribuciones está completa si y sólo si implica que para todos Si el individuo son iid entonces Saber la distribución que queremos investigar, es fácil ver que la estadística está completa.
Para mantener esta igualdad, Debe ser 0. Esto se debe al hecho de que ninguno de los otros términos será 0 para todos en la suma y para todos los valores posibles Por lo tanto, para todos implica que y se ha demostrado que la estadística está completa.
Intervalo de confianza
Donde es la función cuantitativa (correspondiendo a un área de cola inferior p) de la distribución de chi-squared con n grados de libertad y es la función cuantil de una distribución gamma con parámetro de forma n y escala 1. Este intervalo es "exacto" en el sentido de que su probabilidad de cobertura nunca es inferior a la nominal 1 – α.
Cuando no se dispone de los cuantiles de la distribución gamma, se ha propuesto una aproximación precisa a este intervalo exacto (basada en la transformación de Wilson-Hilferty):Donde denota el desvío normal estándar con la parte superior de la cola α / 2.
Para aplicar estas fórmulas en el mismo contexto que el anterior (dada una muestra de n valores medidos ki, cada uno extraído de una distribución de Poisson con media λ), se establecería:Calcule un intervalo para μ = n λ y luego derive el intervalo para λ.
Inferencia bayesiana
indica que λ se distribuye según la densidad gamma g parametrizada en términos de un parámetro de forma α y un parámetro de escala inversa β:
Entonces, dada la misma muestra de n valores medidos ki que antes, y una distribución previa de Gamma(α, β), la distribución posterior es
Se puede demostrar que la distribución gamma es el único anterior que induce la linearidad de la media condicional. Además, existe un resultado contrario que afirma que si la media condicional está cerca de una función lineal en la distancia que la distribución previa λ debe estar cerca de la distribución gamma en Levy distancia.
La media posterior E[λ] se acerca a la estimación de probabilidad máxima en el límite como que sigue inmediatamente de la expresión general de la media de la distribución gamma.
La distribución predictiva posterior para una sola observación adicional es una distribución binomial negativa, a veces denominada distribución gamma-Poisson.Estimación simultánea de varios medios Poisson
Suppose es un conjunto de variables aleatorias independientes de un conjunto de Distribución Poisson, cada una con un parámetro y nos gustaría estimar estos parámetros. Luego, Clevenson y Zidek muestran que bajo la pérdida de error cuadrado normalizada cuando entonces, similar al ejemplo de Stein para los medios normales, el estimador MLE es inadmisible.
En este caso, se da una familia de minimax estimadores para cualquier y como
Occurrence and applications
- telecomunicaciones: llamadas telefónicas que llegan a un sistema,
- astronomía: fotones llegando a un telescopio,
- química: la distribución de masa molar de una polimerización viva,
- biología: el número de mutaciones en un hilo de ADN por unidad de longitud,
- administración: clientes que llegan a un mostrador o centro de llamadas,
- finanzas y seguros: número de pérdidas o reclamaciones registradas en un determinado período de tiempo,
- sismología: modelo asintotico Poisson de riesgo para grandes terremotos,
- radioactividad: decaimientos en un intervalo de tiempo dado en una muestra radiactiva,
- óptica: número de fotones emitidos en un solo pulso láser (una gran vulnerabilidad de los protocolos de distribución de teclas cuánticas, conocidos como dividir número de fotones).
Otros ejemplos de eventos de conteo que pueden modelarse como procesos de Poisson incluyen:
- soldados asesinados por caballos cada año en cada cuerpo de la caballería prusiana. Este ejemplo fue utilizado en un libro de Ladislaus Bortkiewicz (1868-1931),
- Células de levadura utilizadas al elaborar cerveza Guinness. Este ejemplo fue utilizado por William Sealy Gosset (1876-1937),
- llamadas telefónicas que llegan a un centro de llamadas en un minuto. Este ejemplo fue descrito por A.K. Erlang (1878-1929),
- goles en deportes que involucran a dos equipos competidores,
- muertes por año en un determinado grupo de edad,
- salta en un precio de stock en un intervalo de tiempo dado,
- veces un servidor web se accede por minuto (bajo una suposición de homogeneidad),
- mutaciones en un determinado tramo de ADN después de cierta cantidad de radiación,
- células infectadas en una determinada multiplicidad de infección,
- bacterias en cierta cantidad de líquido,
- fotones que llegan en un circuito de píxeles a una iluminación dada durante un período de tiempo dado,
- aterrizaje de bombas V-1 en Londres durante la Segunda Guerra Mundial, investigada por R. D. Clarke en 1946.
Ley de eventos raros

Que el número total de eventos en todo el intervalo sea denotado por Divide todo el intervalo en subintervalos de igual tamaño, tal que (ya que estamos interesados en sólo porciones muy pequeñas del intervalo esta suposición es significativa). Esto significa que el número esperado de eventos en cada uno de los n subintervalos es igual a
Ahora suponemos que la ocurrencia de un evento en todo el intervalo puede ser vista como una secuencia de n Bernoulli prueba, donde el - el juicio de Bernoulli corresponde a ver si un evento ocurre en el subintervalo con probabilidad The expected number of total events in tales juicios serían el número esperado de eventos totales en todo el intervalo. Por lo tanto, para cada subdivisión del intervalo hemos aproximado la ocurrencia del evento como un proceso Bernoulli de la forma Como hemos señalado antes queremos considerar sólo subintervalos muy pequeños. Por lo tanto, tomamos el límite como va al infinito.
En este caso, la distribución binomial converge a lo que se conoce como distribución de Poisson según el teorema del límite de Poisson.En varios de los ejemplos anteriores, como el número de mutaciones en una determinada secuencia de ADN, los acontecimientos que se están contando son en realidad los resultados de ensayos discretos, y se modelarán más precisamente utilizando la distribución binomial, es decir,
En tales casos n es muy grande y p es muy pequeña (y así la expectativa n es de magnitud intermedia). Entonces la distribución puede ser aproximada por la distribución Poisson menos engorrosa
Esta aproximación a veces se conoce como la ley de los eventos raros, ya que cada uno de los n eventos individuales de Bernoulli rara vez ocurre.El nombre "ley de eventos raros" puede ser engañoso, ya que el número total de eventos de éxito en un proceso de Poisson no necesariamente debe ser raro si el parámetro n p no es pequeño. Por ejemplo, el número de llamadas telefónicas a una centralita ocupada en una hora sigue una distribución de Poisson; los eventos parecen frecuentes para el operador, pero son raros desde el punto de vista del ciudadano promedio, quien es muy improbable que llame a esa centralita en esa hora.La varianza de la distribución binomial es 1 − p veces la de la distribución de Poisson, por lo que es casi igual cuando p es muy pequeño.El término «ley» se usa a veces como sinónimo de distribución de probabilidad, y «convergencia en la ley» significa «convergencia en la distribución». Por consiguiente, la distribución de Poisson se denomina a veces «ley de los números pequeños», ya que es la distribución de probabilidad del número de ocurrencias de un evento que ocurre raramente, pero tiene muchas posibilidades de ocurrir. «La ley de los números pequeños» es un libro de Ladislaus Bortkiewicz sobre la distribución de Poisson, publicado en 1898.Proceso de punto Poisson
Regresión de Poisson y regresión binomial negativa
Biología
Katz y Miledi midieron el potencial de la membrana con y sin la presencia de acetilcolina (ACh). Cuando ACh está presente, los canales de iones en la membrana estarían abiertos al azar en una pequeña fracción del tiempo. Como hay un gran número de canales iónicos cada uno abierto por una pequeña fracción del tiempo, el número total de canales iónicos abiertos en cualquier momento es Poisson distribuido. Cuando ACh no está presente, efectivamente no hay canales iónicos abiertos. El potencial de la membrana es . Subcontratando el efecto del ruido, Katz y Miledi encontraron la media y la varianza del potencial de la membrana , dar . (pp. 94-95)
Durante cada evento de replicación celular, el número de mutaciones es aproximadamente Poisson distribuido. Por ejemplo, el virus del VIH tiene 10.000 pares base, y tiene una tasa de mutación de aproximadamente 1 por 30.000 pares base, lo que significa que el número de mutaciones por evento de replicación se distribuye como (pág. 64)
Otras aplicaciones en la ciencia
En un proceso de Poisson, el número de ocurrencias observadas fluctúa sobre su media λ con una desviación estándar Estas fluctuaciones se denotan como Ruido de Poisson o (particularmente en electrónica) como ruido.
La correlación de la desviación media y estándar en la contabilización de ocurrencias discretas independientes es útil científicamente. Al monitorizar cómo las fluctuaciones varían con la señal media, se puede estimar la contribución de una sola ocurrencia, incluso si esa contribución es demasiado pequeña para ser detectada directamente. Por ejemplo, la carga e sobre un electrón se puede estimar correlacionando la magnitud de una corriente eléctrica con su ruido de disparo. Si N electrones pasan un punto en un momento dado t en promedio, la corriente media es ; ya que las fluctuaciones actuales deben ser de la orden (es decir, la desviación estándar del proceso Poisson), la carga se puede calcular a partir de la proporción
Un ejemplo cotidiano es la granulosidad que aparece al ampliar las fotografías; esta granulosidad se debe a las fluctuaciones de Poisson en el número de granos de plata reducidos, no a los granos individuales en sí. Al correlacionar la granulosidad con el grado de ampliación, se puede estimar la contribución de un grano individual (que de otro modo sería demasiado pequeño para ser visto sin ayuda).En la teoría de conjuntos causales, los elementos discretos del espacio-tiempo siguen una distribución de Poisson en el volumen.La distribución de Poisson también aparece en la mecánica cuántica, especialmente en la óptica cuántica. Es decir, para un sistema oscilador armónico cuántico en estado coherente, la probabilidad de medir un nivel de energía particular sigue una distribución de Poisson.Métodos computacionales
La distribución Poisson plantea dos tareas diferentes para bibliotecas de software dedicadas: evaluación la distribución , y dibujo números aleatorios según esa distribución.
Evaluación de la distribución Poisson
Computing para dar y es una tarea trivial que se puede lograr utilizando la definición estándar de en términos de funciones exponenciales, de poder y factoriales. Sin embargo, la definición convencional de la distribución Poisson contiene dos términos que pueden rebosar fácilmente en las computadoras: λk y k!. La fracción de λk a k! también puede producir un error de redondeo que es muy grande en comparación con e−λ, y por lo tanto dar un resultado erróneo. Para la estabilidad numérica, la función de masa de probabilidad Poisson debe ser evaluada como
que es matemáticamente equivalente, pero numéricamente estable. El logaritmo natural de la función Gamma se puede obtener utilizando la función lgamma en la biblioteca estándar de C (versión C99) o R, la función gammaln en MATLAB o SciPy, o la función log_gamma en Fortran 2008 y versiones posteriores.
- R: función
dpois(x, lambda); - Excel: función
POISSON(x, mean, cumulative), con una bandera para especificar la distribución acumulada; - Mathematica: distribución univariate Poisson como
PoissonDistribution[], distribución bivariada de PoissonMultivariatePoissonDistribution[{ }],
Generación variada aleatoria
La tarea menos trivial es dibujar variate aleatorio entero entero de la distribución Poisson con dado
Las soluciones las proporcionan:- R: función
rpois(n, lambda); - Biblioteca Científica de GNU (GSL): función gsl_ran_poisson
algoritmo poisson número aleatorio (Knuth): init: Vamos. L ← eλ−, k ← 0 y p ← 1. do: k ← k + 1. Generar número aleatorio uniforme u en [0,1] y Deja p ← p × u. mientras p > L. Regreso k - 1.La complejidad es lineal en el valor devuelto k, que en promedio es λ. Existen muchos otros algoritmos para mejorar esto. Algunos se encuentran en Ahrens & Dieter; véase la sección "Referencias" más abajo. Para valores grandes de λ, el valor de L = e−λ puede ser tan pequeño que sea difícil de representar. Esto se puede solucionar modificando el algoritmo con un parámetro adicional STEP, de modo que e−STEP no presente un desbordamiento por defecto:
algoritmo poisson random number (Junhao, based on Knuth): init: Vamos. λizquierda ← λ, k ← 0 y p ← 1. do: k ← k + 1. Generar número aleatorio uniforme u en (0,1) y Deja p ← p × u. mientras p λIzquierda. si λIzquierda PASO: ← p × eSTEP λizquierda ← λIzquierda - PASO más: ← p × eλIzquierda λizquierda ← 0 mientras p 1. Regreso k - 1.La elección de STEP depende del umbral de desbordamiento. Para el formato de punto flotante de doble precisión, el umbral está cerca de e700, por lo que 500 debería ser un STEP seguro. Otras soluciones para valores grandes de λ incluyen el muestreo por rechazo y el uso de la aproximación gaussiana. El muestreo por transformada inversa es simple y eficiente para valores pequeños de λ y solo requiere un número aleatorio uniforme u por muestra. Las probabilidades acumuladas se examinan una por una hasta que una excede u.
algoritmo Generador de Poisson basado en la inversión por búsqueda secuencial:
init:
Vamos. x ← 0, p ← eλ−, s ← p.
Generar número aleatorio uniforme u en [0,1].
mientras u do:
x ← x + 1.
← p × λ / x.
s ← s + p.
Regreso x.
Véase también
- Distribución binomial
- Distribución compuesta de Poisson
- Distribución de Conway-Maxwell-Poisson
- Distribución de Erlang
- Distribución exponencial
- Distribución Gamma
- Distribución hermita
- Índice de dispersión
- Distribución binomial negativa
- Poisson clumping
- Proceso de punto Poisson
- Regreso de Poisson
- Muestra Poisson
- Poisson wavelet
- Teoría de búsqueda
- Teoría de renovación
- Robbins lemma
- Distribución de Skellam
- Distribución Tweedie
- Modelo cero-inflado
- Distribución de Poisson en cero
Referencias
Citaciones
- ^ a b Haight, Frank A. (1967). Handbook of the Poisson Distribution. Nueva York, NY, EE.UU.: John Wiley & Sons. ISBN 978-0-471-33932-8.
- ^ a b Yates, Roy D.; Goodman, David J. (2014). Probability and Stochastic Processes: A Friendly Introduction for Electrical and Computer Engineers (2a edición). Wiley. ISBN 978-0-471-45259-1.
- ^ Ross, Sheldon M. (2014). Introducción a modelos de probabilidad (11a edición). Prensa Académica.
- ^ Poisson, Siméon D. (1837). Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilités [Investigación sobre la probabilidad de juicios en asuntos penales y civiles] (en francés). París, Bachelier.
- ^ de Moivre, Abraham (1711). "De mensura sortis, seu, de probabilita eventuum in ludis a casu fortuito pendentibus" [Sobre la medición de la oportunidad, o, sobre la probabilidad de eventos en los juegos dependiendo de la oportunidad]. Transacciones filosóficas de la Sociedad Real (en latín). 27 (329): 213–264. doi:10.1098/rstl.1710.0018.
- ^ de Moivre, Abraham (1718). La doctrina de las posibilidades: O, un método para calcular la probabilidad de eventos en el juego. Londres, Gran Bretaña: W. Pearson. ISBN 9780598843753.
{{cite book}}: ISBN / Fecha incompatibilidad (ayuda) - ^ de Moivre, Abraham (1721). "De las Leyes de la Caza". En Motte, Benjamin (ed.). Las transacciones filosóficas del año MDCC (donde el Sr. Lowthorp termina) al año MDCCXX. Abridg'd y Dispos'd Under General Heads (en latín). Vol. I. London, Great Britain: R. Wilkin, R. Robinson, S. Ballard, W. and J. Innys, and J. Osborn. pp. 190 –219.
- ^ a b c d e f g h i Johnson, Norman L.; Kemp, Adrienne W.; Kotz, Samuel (2005). "Poisson Distribution". Distribución discreta univariada (3a edición). New York, NY, US: John Wiley & Sons, Inc. pp. 156 –207. doi:10.1002/0471715816. ISBN 978-0-471-27246-5.
- ^ Stigler, Stephen M. (1982). "Poisson on the Poisson Distribution". Estadísticas y probabilidad Cartas. 1 1): 33 –35. doi:10.1016/0167-7152(82)90010-4.
- ^ Hald, Anders; de Moivre, Abraham; McClintock, Bruce (1984). "A. de Moivre: 'De Mensura Sortis' o 'On the Measurement of Chance'". International Statistical Review / Revue Internationale de Statistique. 52 3): 229 –262. doi:10.2307/1403045. JSTOR 1403045.
- ^ Newcomb, Simon (1860). "Notas sobre la teoría de las probabilidades". El mensual matemático. 2 4): 134 –140.
- ^ a b c von Bortkiewitsch, Ladislaus (1898). Das Gesetz der kleinen Zahlen [La ley de los números pequeños] (en alemán). Leipzig, Germany: B.G. Teubner. pp. 1, 23 –25.
- En la página 1, Bortkiewicz presenta la distribución Poisson.
- En las páginas 23 a 25, Bortkiewitsch presenta su análisis de "4. Beispiel: Die durch Schlag eines Pferdes im preußischen Heere Getöteten." [4. Ejemplo: Los muertos en el ejército prusiano por una patada de caballo.]
- ^ Para la prueba, vea: Prueba de wiki: expectativa y wiki Proof: varianza
- ^ Kardar, Mehran (2007). Física estadística de partículas. Cambridge University Press. p. 42. ISBN 978-0-521-87342-0. OCLC 860391091.
- ^ Dekking, Frederik Michel; Kraaikamp, Cornelis; Lopuhaä, Hendrik Paul; Meester, Ludolf Erwin (2005). Una introducción moderna a la probabilidad y las estadísticas. Springer Texts in Statistics. p. 167. doi:10.1007/1-84628-168-7. ISBN 978-1-85233-896-1.
- ^ Pitman, Jim (1993). Probabilidad. Textos de Primavera en Estadísticas. Nueva York Dordrecht Heidelberg London: Springer. p. 118. ISBN 978-0-387-94594-1.
- ^ Hsu, Hwei P. (1996). Teoría y problemas de probabilidad, variables aleatorias y procesos aleatorios. Serie Esquemática de Schaum. Nueva York: McGraw Hill. p. 68. ISBN 0-07-030644-3.
- ^ Arfken, George B.; Weber, Hans J. (2005). Métodos matemáticos para los físicos Sexta Edición. Elsevier Academic Press. p. 1131. ISBN 0-12-059876-0.
- ^ Cowan, Glen (2009). "Derivación de la distribución Poisson" (PDF).
- ^ Joyce, D. (2014). "El proceso Poisson" (PDF).
- ^ Ugarte, M.D.; Militino, A.F.; Arnholt, A.T. (2016). Probability and Statistics with R (2a edición). Boca Raton, FL, US: CRC Prensa. ISBN 978-1-4665-0439-4.
- ^ Helske, Jouni (2017). "KFAS: Exponential Family State Space Models in R". Journal of Statistical Software. 78 (10). arXiv:1612.01907. doi:10.18637/jss.v078.i10. S2CID 14379617.
- ^ Choi, Kwok P. (1994). "En las medianas de distribuciones gamma y una ecuación de Ramanujan". Proceedings of the American Mathematical Society. 121 1): 245–251. doi:10.2307/2160389. JSTOR 2160389.
- ^ Riordan, John (1937). "Moment Recurrence Relations for Binomial, Poisson and Hypergeometric Frequency Distributions" (PDF). Annals of Mathematical Statistics. 8 2): 103 –111. doi:10.1214/aoms/1177732430. JSTOR 2957598.
- ^ D. Ahle, Thomas (2022). "Sharp and simple bounds for the raw times of the Binomial and Poisson distributions". Estadísticas y probabilidad Cartas. 182 109306. arXiv:2103.17027. doi:10.1016/j.spl.2021.109306.
- ^ Lehmann, Erich Leo (1986). Pruebas de hipótesis estadísticas (2a edición). New York, NJ, US: Springer Verlag. ISBN 978-0-387-94919-2.
- ^ Raikov, Dmitry (1937). "Sobre la descomposición de las leyes de Poisson". Comptes Rendus de l'Académie des Sciences de l'URSS. 14: 9 –11.
- ^ von Mises, Richard (1964). Teoría matemática de probabilidad y estadísticas. New York, NJ, US: Academic Press. doi:10.1016/C2013-0-12460-9. ISBN 978-1-483213-3.
{{cite book}}: ISBN / Fecha incompatibilidad (ayuda) - ^ Harremoes, P. (Julio 2001). "Binomial and Poisson distributions as maximum entropy distributions". Transacciones de IEEE sobre información Teoría. 47 5): 2039–2041. doi:10.1109/18.930936. S2CID 16171405.
- ^ Laha, Radha G.; Rohatgi, Vijay K. (1979). Probabilidad Teoría. Nueva York, NJ, EE.UU.: John Wiley & Sons. ISBN 978-0-471-03262-5.
- ^ Mitzenmacher, Michael (2017). Probability and computing: Randomization and probabilistic techniques in algoritmos and data analysis. Eli Upfal (2a edición). Cambridge, Reino Unido. Ejercicio 5.14 ISBN 978-1-107-15488-9. OCLC 960841613.
{{cite book}}: CS1 maint: localización desaparecido editor (link) - ^ a b Mitzenmacher, Michael; Upfal, Eli (2005). Probability and Computing: Randomized Algorithms and Probabilistic Analysis. Cambridge, UK: Cambridge University Press. ISBN 978-0-521-83540-4.
- ^ Corto, Michael (2013). "Inigualidades mejoradas para las funciones de Poisson y Distribución Binomial y Cuántiles Superiores". ISRN Probability and Statistics. 2013. Corollary 6. doi:10.1155/2013/412958.
- ^ Corto, Michael (2013). "Inigualidades mejoradas para las funciones de Poisson y Distribución Binomial y Cuántiles Superiores". ISRN Probability and Statistics. 2013. Theorem 2. doi:10.1155/2013/412958.
- ^ Kamath, Govinda M.; Şaşoğlu, Eren; Tse, David (14–19 de junio de 2015). Montaje óptimo de haplotipo de alta velocidad mate-pair lee. Simposio Internacional de IEEE 2015 sobre Teoría de la Información (ISIT). Hong Kong, China. pp. 914 –918. arXiv:1502.01975. doi:10.1109/ISIT.2015.7282588. S2CID 128634.
- ^ Prins, Jack (2012). "6.3.3.1. Cuenta los Cargos de Control". e-Handbook of Statistical Methods. NIST/SEMATECH. Retrieved 20 de septiembre 2019.
- ^ Feller, William. Introducción a la teoría de la probabilidad y sus aplicaciones.
- ^ Zhang, Huiming; Liu, Yunxiao; Li, Bo (2014). "Notas sobre compuesto discreto modelo Poisson con aplicaciones para la teoría del riesgo". Seguro: Matemáticas y Economía. 59: 325 –336. doi:10.1016/j.insmatheco.2014.09.012.
- ^ Zhang, Huiming; Li, Bo (2016). "Caracterizaciones de compuesto discreto distribuciones Poisson". Comunicaciones en Estadísticas - Teoría y Métodos. 45 (22): 6789 –6802. doi:10.1080/03610926.2014.901375. S2CID 125475756.
- ^ McCullagh, Peter; Nelder, John (1989). Modelos lineales generalizados. Monografías sobre estadísticas y probabilidad aplicada. Vol. 37. Londres, Reino Unido: Chapman y Hall. ISBN 978-0-412-31760-6.
- ^ Anscombe, Francis J. (1948). "La transformación de los datos binomiales Poisson, binomiales y negativos". Biometrika. 35 ()3-4): 246 –254. doi:10.1093/biomet/35.3-4.246. JSTOR 2332343.
- ^ Ross, Sheldon M. (2010). Introducción a modelos de probabilidad (10a edición). Boston, MA: Prensa Académica. ISBN 978-0-12-375686-2.
- ^ "1.7.7 – Relación entre el Multinomial y el Poisson TEN STAT 504". Archivado desde el original el 6 de agosto de 2019. Retrieved 6 de agosto 2019.
- ^ Loukas, Sotirios; Kemp, C. David (1986). "The Index of Dispersion Test for the Bivariate Poisson Distribution". Biometrics. 42 4): 941 –948. doi:10.2307/2530708. JSTOR 2530708.
- ^ Free Random Variables por D. Voiculescu, K. Dykema, A. Nica, CRM Monograph Series, American Mathematical Society, Providence RI, 1992
- ^ Alexandru Nica, Roland Speicher: Conferencias sobre la Combinatoria de la Probabilidad Libre. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.
- ^ Conferencias sobre la Combinatoria de la Probabilidad Libre por A. Nica y R. Speicher, págs. 203 a 204, Cambridge Univ.
- ^ Paszek, Ewa. "Estimación de probabilidad máxima – ejemplos". cnx.org.
- ^ Van Trees, Harry L. (2013). Estimación de detección y teoría de modulación. Kristine L. Bell, Zhi Tian (Second ed.). Hoboken, N.J. ISBN 978-1-299-66515-6. OCLC 851161356.
{{cite book}}: CS1 maint: localización desaparecido editor (link) - ^ Garwood, Frank (1936). "Fiducial Limits for the Poisson Distribution". Biometrika. 28 (3/4): 437 –442. doi:10.1093/biomet/28.3-4.437. JSTOR 2333958.
- ^ Breslow, Norman E.; Day, Nick E. (1987). Métodos estadísticos en Investigación del Cáncer. Vol. 2 — El Diseño y Análisis de Estudios de Cohortes. Lyon, Francia: Agencia Internacional de Investigación sobre el Cáncer. ISBN 978-92-832-0182-3. Archivado desde el original el 8 de agosto de 2018. Retrieved 11 de marzo 2012.
- ^ Fink, Daniel (1997). Compendio de Priores Conjugados.
- ^ Dytso, Alex; Pobre, H. Vincent (2020). "Estimación en el ruido de Poisson: Propiedades del estimador de media condicional". Transacciones de IEEE sobre información Teoría. 66 (7): 4304 –4323. arXiv:1911.03744. doi:10.1109/TIT.2020.2979978. S2CID 207853178.
- ^ Gelman; Carlin, John B.; Stern, Hal S.; Rubin, Donald B. (2003). Análisis de datos bayesianos (2a edición). Boca Raton, FL, US: Chapman & Hall/CRC. ISBN 1-58488-388-X.
- ^ Clevenson, M. Lawrence; Zidek, James V. (1975). "Estimación simultánea de los medios de leyes independientes de Poisson". Journal of the American Statistical Association. 70 (351): 698 –705. doi:10.1080/01621459.1975.10482497. JSTOR 2285958.
- ^ Berger, James O. (1985). Teoría de la Decisión Estadística y Análisis Bayesiano. Serie Springer en Estadísticas (2a edición). Nueva York, NY: Springer-Verlag. Bibcode:1985sdtb.book....B. doi:10.1007/978-1-4757-4286-2. ISBN 978-0-387-96098-2.
- ^ Rasch, Georg (1963). El Proceso Poisson como modelo para una diversidad de fenomenales conductuales (PDF)17o Congreso Internacional de Psicología. Vol. 2. Washington, DC: American Psychological Association. doi:10.1037/e685262012-108.
- ^ Flory, Paul J. (1940). "Distribución de tamaño molecular en polímeros de óxido de etileno". Journal of the American Chemical Society. 62 (6): 1561–1565. Bibcode:1940JAChS..62.1561F. doi:10.1021/ja01863a066.
- ^ Lomnitz, Cinna (1994). Fundamentos de la predicción del terremoto. Nueva York, NY: John Wiley & Sons. ISBN 0-471-57419-8. OCLC 647404423
- ^ a student (1907). "En el error de contar con un hemacitometro". Biometrika. 5 3): 351 –360. doi:10.2307/2331633. JSTOR 2331633.
- ^ Boland, Philip J. (1984). "Un vistazo biográfico de William Sealy Gosset". El Estadístico Americano. 38 3): 179 –183. doi:10.1080/00031305.1984.10483195. JSTOR 2683648.
- ^ Erlang, Agner K. (1909). "Sandsynlighedsregning og Telefonsamtaler" [Cálculo de probabilidad y conversación telefónica]. Nyt Tidsskrift para Matematik (en danés). 20 (B): 33 –39. JSTOR 24528622.
- ^ Hornby, Dave (2014). "Modelo de Predicción de Fútbol: Distribución Poisson". Deportes apuestas en línea. Retrieved 19 de septiembre 2014.
- ^ Koyama, Kento; Hokunan, Hidekazu; Hasegawa, Mayumi; Kawamura, Shuso; Koseki, Shigenobu (2016). "¿Los números de células bacterianas siguen una distribución teórica de Poisson? Comparación de números experimentalmente obtenidos de células individuales con generación de números aleatorios a través de simulación de computadora". Microbiología alimentaria. 60: 49 –53. doi:10.1016/j.fm.2016.05.019. PMID 27554145.
- ^ Clarke, R. D. (1946). "Una aplicación de la distribución Poisson" (PDF). Journal of the Institute of Actuaries. 72 3): 481. doi:10.1017/S0020268100035435.
- ^ Hardy, Godfrey H.; Littlewood, John E. (1923). "Sobre algunos problemas de "partitio numerorum" III: Sobre la expresión de un número como una suma de primos". Acta Mathematica. 44: 1 –70. doi:10.1007/BF02403921.
- ^ Gallagher, Patrick X. (1976). "En la distribución de primos en intervalos cortos". Mathematika. 23 1): 4-9. doi:10.1112/s0025579300016442.
- ^ Cameron, A. Colin; Trivedi, Pravin K. (1998). Análisis de la regresión de Datos del Conde. Cambridge, UK: Cambridge University Press. ISBN 978-0-521-63567-7.
- ^ Edgeworth, F.Y. (1913). "Sobre el uso de la teoría de las probabilidades en las estadísticas relativas a la sociedad". Journal of the Royal Statistical Society. 76 2): 165–193. doi:10.2307/2340091. JSTOR 2340091.
- ^ Katz, B.; Miledi, R. (agosto de 1972). "La naturaleza estadística del potencial de acetilcolina y sus componentes moleculares". The Journal of Physiology. 224 3): 665 –699. doi:10.1113/jphysiol.1972.sp009918. ISSN 0022-3751. PMC 1331515. PMID 5071933.
- ^ a b Nelson, Philip Charles; Bromberg, Sarina; Hermundstad, Ann; Prentice, Jason (2015). Modelos físicos de sistemas vivos. New York, NY: W.H. Freeman & Company, a Macmillan Education Imprint. ISBN 978-1-4641-4029-7. OCLC 891121698.
- ^ Foster, Patricia L. (1 de enero de 2006), "Metodos para determinar las tasas de mutación espontánea", Reparación de ADN, Parte B, Methods in Enzymology, vol. 409, Academic Press, pp. 195–213, doi:10.1016/S0076-6879(05)09012-9, ISBN 978-0-12-182814-1, PMC 2041832, PMID 16793403
- ^ "Wolfram Language: PoissonDistribution reference page". wolfram.com. Retrieved 8 de abril 2016.
- ^ "Wolfram Language: MultivariatePoissonDistribution reference page". wolfram.com. Retrieved 8 de abril 2016.
- ^ Knuth, Donald Ervin (1997). Algoritmos semejante. The Art of Computer Programming. Vol. 2 (3rd ed.). Addison Wesley. ISBN 978-0-201-89684-8.
- ^ Devroye, Luc (1986). "Discretas distribuciones Univariadas" (PDF). Generación de varianza aleatoria no unida. Nueva York, NY: Springer-Verlag. pp. 485 –553. doi:10.1007/978-1-4613-8643-8_10. ISBN 978-1-4613-8645-2.
Fuentes
- Ahrens, Joachim H.; Dieter, Ulrich (1974). "Metodologías de computación para muestreo de Gamma, Beta, Poisson y Distribución Binomial". Computing. 12 3): 223 –246. doi:10.1007/BF02293108. S2CID 37484126.
- Ahrens, Joachim H.; Dieter, Ulrich (1982). "Generación computarizada de Poisson Deviates". Transacciones ACM en el software matemático. 8 2): 163–179. doi:10.1145/355993.355997. S2CID 12410131.
- Evans, Ronald J.; Boersma, J.; Blachman, N. M.; Jagers, A. A. (1988). "La Entropía de una Distribución Poisson: Problema 87-6". SIAM Examen. 30 2): 314 –317. doi:10.1137/1030059.