Convergencia de variables aleatorias
En la teoría de la probabilidad, existen varias nociones diferentes de convergencia de variables aleatorias. La convergencia de secuencias de variables aleatorias a alguna variable aleatoria límite es un concepto importante en la teoría de la probabilidad y sus aplicaciones a la estadística y los procesos estocásticos. Los mismos conceptos se conocen en matemáticas más generales como convergencia estocástica y formalizan la idea de que una secuencia de eventos esencialmente aleatorios o impredecibles a veces se puede esperar que se estabilice en un comportamiento que esencialmente no cambia cuando los elementos se alejan. suficiente en la secuencia se estudian. Las diferentes nociones posibles de convergencia se relacionan con cómo se puede caracterizar tal comportamiento: dos comportamientos fácilmente comprensibles son que la secuencia finalmente toma un valor constante y que los valores en la secuencia continúan cambiando pero pueden describirse mediante una distribución de probabilidad invariable.
Antecedentes
"Convergencia estocástica" formaliza la idea de que a veces se puede esperar que una secuencia de eventos esencialmente aleatorios o impredecibles se asiente en un patrón. El patrón puede ser, por ejemplo,
- Convergencia en el sentido clásico a un valor fijo, tal vez viene de un evento aleatorio
- Una creciente similitud de los resultados a lo que una función puramente determinista produciría
- Una preferencia creciente hacia un determinado resultado
- Una creciente "aversión" contra alejarse lejos de un determinado resultado
- Que la distribución de probabilidad que describa el siguiente resultado puede ser cada vez más similar a una determinada distribución
Algunos patrones menos obvios y más teóricos podrían ser
- Que la serie formada calculando el valor esperado de la distancia del resultado de un valor particular puede converger a 0
- Que la varianza de la variable aleatoria que describe el próximo evento crece más pequeña y menor.
Estos otros tipos de patrones que pueden surgir se reflejan en los diferentes tipos de convergencia estocástica que se han estudiado.
Si bien la discusión anterior se relaciona con la convergencia de una sola serie a un valor límite, la noción de la convergencia de dos series entre sí también es importante, pero esto se maneja fácilmente al estudiar la secuencia definida como la diferencia o la razón de las dos series.
Por ejemplo, si el promedio de n variables aleatorias independientes Yi, i< /i> = 1,..., n, todos con la misma media finita y varianza, viene dado por
entonces, como n tiende a infinito, Xn converge en probabilidad (ver más abajo) a la media común, μ, de las variables aleatorias Yi. Este resultado se conoce como la ley débil de los grandes números. Otras formas de convergencia son importantes en otros teoremas útiles, incluido el teorema del límite central.
A lo largo de lo siguiente, asumimos que (Xn) es una secuencia de variables aleatorias, y X es una variable aleatoria, y todos ellos se definen en el mismo espacio de probabilidad .
Convergencia en la distribución
Con este modo de convergencia, esperamos ver cada vez más el próximo resultado en una secuencia de experimentos aleatorios modelados cada vez mejor por una distribución de probabilidad dada.
La convergencia en la distribución es la forma más débil de convergencia que normalmente se analiza, ya que está implícita en todos los demás tipos de convergencia mencionados en este artículo. Sin embargo, la convergencia en la distribución se utiliza con mucha frecuencia en la práctica; la mayoría de las veces surge de la aplicación del teorema del límite central.
Definición
Una secuencia de variables aleatorias reales, con funciones de distribución acumulativa , se dice que convergencia en la distribución, o convergen débilmente, o convergencia de la ley a una variable aleatoria X con función de distribución acumulativa F si
para cada número en que F es continuo.
The forests of the Urals are inhabited by typical Siberian animals such as elk, brown bear, fox, wolf, wolverine, lynx, squirrel and sable (only in the north). Since the mountains are easily accessible, there are no mountain-specific species. In the Middle Urals, there is a rare mixture of sable and marten called kidus. In the southern Urals, the European badger and polecat abound. Reptiles and amphibians such as the common viper, lizards and snakes live in the Central and Southern Urals. Among the species of birds that live in the area are the capercaillie, black grouse, grévol, nutcracker and cuckoos. During the summer, the Southern and Central Urals are visited by songbirds, such as the nightingale and flycatchers.
The steppes of the southern Urals are inhabited by hares and rodents such as marmots, squirrels, and gerbils. There are many varieties of birds of prey such as kestrels and buzzards. Few animals inhabit the polar Urals, and those that do are characteristic of the tundra and include arctic fox, tundra pheasant, lemming, and reindeer. Birds in these areas include the arctic hawk, snowy owl, and ptarmigan.
()1)
Donde es la ley (distribución de la probabilidad) X. Por ejemplo, si X es normal que podamos escribir .
Para vectores aleatorios {X1, X2,...} ⊂ Rk la convergencia en la distribución se define de manera similar. Decimos que esta secuencia converge en distribución a un k-vector X si
para cada A ⊂ Rk que es un conjunto de continuidad de X.
La definición de convergencia en la distribución puede extenderse de vectores aleatorios a elementos aleatorios más generales en espacios métricos arbitrarios, e incluso a las "variables aleatorias" que no son medibles, una situación que ocurre, por ejemplo, en el estudio de procesos empíricos.. Esta es la "convergencia débil de leyes sin leyes definidas", excepto asintóticamente.
En este caso es preferible el término convergencia débil (ver convergencia débil de medidas), y decimos que una secuencia de elementos aleatorios {X< sub>n} converge débilmente a X (indicado como Xn ⇒ X) si
para todas las funciones acotadas continuas h. Aquí E* denota la expectativa externa, que es la expectativa de una "función medible más pequeña g que domina h(Xn)”.
Propiedades
- Desde F()a) = Pr(X ≤ a), la convergencia en la distribución significa que la probabilidad de Xn estar en un rango determinado es aproximadamente igual a la probabilidad de que el valor X está en ese rango, proporcionado n es suficientemente grande.
- En general, la convergencia en la distribución no implica que la secuencia de funciones de densidad de probabilidad correspondiente también confluya. Como ejemplo uno puede considerar variables aleatorias con densidades fn()x) = (1 + cos(2)πnx)1(0,1). Estas variables aleatorias convergen en la distribución a un uniforme U(0, 1), mientras que sus densidades no convergen en absoluto.
- Sin embargo, según Teorema de Scheffé, convergencia de las funciones de densidad de probabilidad implica convergencia en la distribución.
- El portmanteau lemma proporciona varias definiciones equivalentes de convergencia en la distribución. Aunque estas definiciones son menos intuitivas, se utilizan para probar una serie de teoremas estadísticos. La lema declara que {}Xn} convergencias en la distribución a X si y sólo si alguna de las siguientes declaraciones es verdadera:
- para todos los puntos de continuidad ;
- para todas las funciones fijas y continuas (donde) denota el operador de valor previsto);
- para todas las funciones ligadas, Lipschitz ;
- para todas las funciones no negativas y continuas ;
- para cada conjunto abierto ;
- para cada conjunto cerrado ;
- para todos los conjuntos de continuidad de variable aleatoria ;
- para cada función semicontinua superior atado anteriormente;
- para cada función semicontinua inferior Atado abajo.
- El Teorema de cartografía continua declara que para una función continua g, si la secuencia {}Xn} convergencias en la distribución a X, entonces {}g()Xn) convergencias en la distribución a g()X).
- Note however that convergence in distribution of {}Xn} a X y {}Yn} a Y en general no implica convergencia en la distribución de {}Xn + Yn} a X + Y o de {}XnYn} a XY.
- Teorema de continuidad de Lévy: la secuencia {}Xn} convergencias en la distribución a X si y sólo si la secuencia de funciones características correspondientes {}φn} converge punto a la función característica φ de X.
- La convergencia en la distribución es palpable por la métrica Lévy-Prokhorov.
- Un vínculo natural a la convergencia en la distribución es el teorema de representación de Skorokhod.
Convergencia en probabilidad
La idea básica detrás de este tipo de convergencia es que la probabilidad de un resultado "inusual" se vuelve cada vez más pequeña a medida que avanza la secuencia.
El concepto de convergencia en probabilidad se usa muy a menudo en estadística. Por ejemplo, un estimador se llama consistente si converge en probabilidad a la cantidad que se estima. La convergencia en probabilidad es también el tipo de convergencia que establece la ley débil de los grandes números.
Definición
Una secuencia {Xn} de variables aleatorias converge en probabilidad hacia la variable aleatoria X si para todo ε > 0
Más explícitamente, sea Pn(ε) la probabilidad de que X i>n está fuera de la bola de radio ε con centro en X. Entonces se dice que Xn converge en probabilidad a X si para cualquier ε > 0 y cualquier δ > 0 existe un número N (que puede depender de ε y δ) tal que para todo n ≥ < i>N, Pn(ε) < δ (la definición de límite).
Observe que para que la condición se cumpla, no es posible que para cada n las variables aleatorias X y X n son independientes (y, por lo tanto, la convergencia en probabilidad es una condición en las cdf's conjuntas, a diferencia de la convergencia en distribución, que es una condición en las cdf's individuales). s), a menos que X sea determinista como la ley débil de los grandes números. Al mismo tiempo, el caso de una X determinista no puede, siempre que el valor determinista sea un punto de discontinuidad (no aislado), ser manejado por convergencia en la distribución, donde los puntos de discontinuidad tienen que ser excluidos explícitamente.
La convergencia en probabilidad se denota agregando la letra p sobre una flecha que indica convergencia, o usando el "plim" operador de límite de probabilidad:
()2)
Para elementos aleatorios {Xn} en un espacio métrico separable (S< /i>, d), la convergencia en probabilidad se define de manera similar por
Propiedades
- La convergencia en la probabilidad implica convergencia en la distribución.[prueba]
- En la dirección opuesta, la convergencia en la distribución implica convergencia en probabilidad cuando la variable aleatoria limitante X es una constante.[prueba]
- La convergencia en probabilidad no implica una convergencia casi segura.[prueba]
- El teorema de mapeo continuo establece que para cada función continua , si , entonces también.
- La convergencia en probabilidad define una topología en el espacio de variables aleatorias sobre un espacio de probabilidad fijo. Esta topología es palpable por la Ky Fan métrica: o alternativamente por esta métrica
Convergencia casi segura
Este es el tipo de convergencia estocástica que es más similar a la convergencia puntual conocida del análisis real elemental.
Definición
Decir que la secuencia Xn converge casi con seguridad o casi en todas partes o con probabilidad 1 o fuertemente hacia X significa que
Esto significa que los valores Xn el valor X, en el sentido (ver casi seguro) que eventos para los cuales Xn no converge X tener probabilidad 0. Utilización del espacio de probabilidad y el concepto de la variable aleatoria como función de Ω a R, esto equivale a la declaración
Usando la noción de límite superior de una secuencia de conjuntos, la convergencia casi segura también se puede definir de la siguiente manera:
Contenido relacionado
Algoritmos para calcular la varianza
Número natural
Recta de números reales extendida