Independencia (probabilidades)
La independencia es una noción fundamental en la teoría de la probabilidad, como en la estadística y la teoría de los procesos estocásticos.
Dos eventos son independientes, estadísticamente independientes o estocásticamente independientes si, informalmente hablando, la ocurrencia de uno no afecta la probabilidad de ocurrencia del otro (equivalentemente, no afecta las probabilidades). De manera similar, dos variables aleatorias son independientes si la realización de una no afecta la distribución de probabilidad de la otra.
Cuando se trata de colecciones de más de dos eventos, es necesario distinguir dos nociones de independencia. Los eventos se denominan independientes por pares si dos eventos cualesquiera de la colección son independientes entre sí, mientras que la independencia mutua (o independencia colectiva) de los eventos significa, informalmente hablando, que cada evento es independiente de cualquier combinación de otros eventos de la colección. Existe una noción similar para las colecciones de variables aleatorias. La independencia mutua implica independencia por parejas, pero no al revés. En la literatura estándar de la teoría de la probabilidad, la estadística y los procesos estocásticos, la independencia sin más calificación generalmente se refiere a la independencia mutua.
Definición
Para eventos
Dos eventos
Dos eventos y son independientes (a menudo escritos como o ) si y solo si su probabilidad conjunta es igual al producto de sus probabilidades:
(Ec.1) |
Indica que dos eventos independientes y tienen elementos comunes en su espacio muestral por lo que no son mutuamente excluyentes (mutuamente excluyentes iff ). La razón por la que esto define la independencia se aclara al reescribir con probabilidades condicionales como la probabilidad a la que ocurre el evento siempre que el evento haya ocurrido o se suponga que ha ocurrido:
y de manera similar
Por lo tanto, la ocurrencia de no afecta la probabilidad de , y viceversa. En otras palabras, y son independientes entre sí. Aunque las expresiones derivadas pueden parecer más intuitivas, no son la definición preferida, ya que las probabilidades condicionales pueden no estar definidas si o son 0. Además, la definición preferida deja claro por simetría que cuando es independiente de , también es independiente de .
Probabilidad de registro y contenido de información
Expresado en términos de probabilidad logarítmica, dos eventos son independientes si y solo si la probabilidad logarítmica del evento conjunto es la suma de la probabilidad logarítmica de los eventos individuales:
En la teoría de la información, la probabilidad logarítmica negativa se interpreta como contenido de información y, por lo tanto, dos eventos son independientes si y solo si el contenido de información del evento combinado es igual a la suma del contenido de información de los eventos individuales:
Ver Contenido de la información § Aditividad de eventos independientes para más detalles.
Posibilidades
Expresado en términos de probabilidades, dos eventos son independientes si y solo si la razón de probabilidades de y es la unidad (1). Análogamente a la probabilidad, esto es equivalente a que las probabilidades condicionales sean iguales a las probabilidades incondicionales:
o a las probabilidades de un evento, dado que el otro evento es igual a las probabilidades del evento, dado que el otro evento no ocurre:
La razón de probabilidades se puede definir como
o simétricamente para probabilidades de dado , y por lo tanto es 1 si y solo si los eventos son independientes.
Más de dos eventos
Un conjunto finito de eventos es independiente por pares si cada par de eventos es independiente, es decir, si y solo si para todos los pares distintos de índices ,
(Ec.2) |
Un conjunto finito de eventos es mutuamente independiente si cada evento es independiente de cualquier intersección de los otros eventos, es decir, si y solo si para todos y para todos los k índices <img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/44e494884ba0eb739ae1f0b0ba2b64cd4453889a" alt="{displaystyle 1leq i_{1}<dots ,
(Ec.3) |
Esto se llama la regla de multiplicación para eventos independientes. Tenga en cuenta que no es una condición única que involucra solo el producto de todas las probabilidades de todos los eventos únicos; debe ser cierto para todos los subconjuntos de eventos.
Para más de dos eventos, un conjunto de eventos mutuamente independientes es (por definición) independiente por pares; pero lo contrario no es necesariamente cierto.
Para variables aleatorias de valor real
Dos variables aleatorias
Dos variables aleatorias y son independientes si y solo si (iff) los elementos del sistema π generado por ellas son independientes; es decir, para todo y , los eventos y son eventos independientes (como se define arriba en la Ec.1). Es decir, y con funciones de distribución acumulativa y , son independientes si y solo si la variable aleatoria combinada tiene una función de distribución acumulativa conjunta
(Ec.4) |
o de manera equivalente, si existen las densidades de probabilidad y la densidad de probabilidad conjunta,
Más de dos variables aleatorias
Un conjunto finito de variables aleatorias es independiente por pares si y solo si cada par de variables aleatorias es independiente. Incluso si el conjunto de variables aleatorias es independiente por pares, no es necesariamente independiente entre sí, como se define a continuación.
Un conjunto finito de variables aleatorias es mutuamente independiente si, y solo si, para cualquier secuencia de números , los eventos son eventos mutuamente independientes (como se define anteriormente en la ecuación 3). Esto es equivalente a la siguiente condición sobre la función de distribución acumulada conjunta . Un conjunto finito de variables aleatorias es mutuamente independiente si y solo si
(Ec.5) |
Observe que aquí no es necesario exigir que la distribución de probabilidad se factorice para todos los subconjuntos de elementos posibles como en el caso de los eventos. Esto no es necesario porque, por ejemplo, implica .
Los inclinados a la teoría de la medida pueden preferir sustituir eventos por eventos en la definición anterior, donde es cualquier conjunto de Borel. Esa definición es exactamente equivalente a la anterior cuando los valores de las variables aleatorias son números reales. Tiene la ventaja de trabajar también para variables aleatorias de valor complejo o para variables aleatorias que toman valores en cualquier espacio medible (que incluye espacios topológicos dotados de σ-álgebras apropiadas).
Para vectores aleatorios de valor real
Dos vectores aleatorios y se llaman independientes si
(Ec.6) |
donde y denota las funciones de distribución acumulativa de y y denota su función de distribución acumulativa conjunta. La independencia de y a menudo se denota por . Se escriben por componentes y se denominan independientes si
Para procesos estocásticos
Para un proceso estocástico
La definición de independencia puede extenderse de vectores aleatorios a un proceso estocástico. Por lo tanto, se requiere para un proceso estocástico independiente que las variables aleatorias obtenidas al muestrear el proceso en cualquier momento sean variables aleatorias independientes para cualquier .
Formalmente, un proceso estocástico se llama independiente, si y sólo si para todos y para todos
(Ec.7) |
donde _ La independencia de un proceso estocástico es una propiedad dentro de un proceso estocástico, no entre dos procesos estocásticos.
Para dos procesos estocásticos
La independencia de dos procesos estocásticos es una propiedad entre dos procesos estocásticos y que están definidos sobre el mismo espacio de probabilidad . Formalmente, dos procesos estocásticos y se dice que son independientes si para todos y para todos , los vectores aleatorios y son independientes, es decir, si
(Ec.8) |
σ-álgebras independientes
Las definiciones anteriores (Eq.1 y Eq.2) se generalizan mediante la siguiente definición de independencia para σ-álgebras. Sea un espacio de probabilidad y sean y dos sub-σ-álgebras de . y se dice que son independientes si, siempre que y ,
Asimismo, una familia finita de σ-álgebras , donde es un conjunto índice, se dice que es independiente si y solo si
y se dice que una familia infinita de σ-álgebras es independiente si todas sus subfamilias finitas son independientes.
La nueva definición se relaciona muy directamente con las anteriores:
- Dos eventos son independientes (en el sentido antiguo) si y solo si las σ-álgebras que generan son independientes (en el nuevo sentido). El σ-álgebra generada por un evento es, por definición,
- Dos variables aleatorias y definidas sobre son independientes (en el sentido antiguo) si y solo si las σ-álgebras que generan son independientes (en el nuevo sentido). El σ-álgebra generada por una variable aleatoria que toma valores en algún espacio medible consiste, por definición, en todos los subconjuntos de la forma , donde es cualquier subconjunto medible de .
Usando esta definición, es fácil mostrar que si y son variables aleatorias y es constante, entonces y son independientes, ya que la σ-álgebra generada por una variable aleatoria constante es la σ-álgebra trivial . Los eventos de probabilidad cero no pueden afectar la independencia, por lo que la independencia también se cumple si es solo Pr, casi seguramente constante.
Propiedades
Auto-independencia
Tenga en cuenta que un evento es independiente de sí mismo si y sólo si
Así, un evento es independiente de sí mismo si y sólo si ocurre casi con certeza o casi con certeza ocurre su complemento; este hecho es útil cuando se prueban las leyes cero-uno.
Expectativa y covarianza
Si y son variables aleatorias independientes, entonces el operador de expectativa tiene la propiedad
y la covarianza es cero, como sigue de
Lo contrario no se cumple: si dos variables aleatorias tienen una covarianza de 0, es posible que aún no sean independientes. Véase no correlacionado.
De manera similar para dos procesos estocásticos y : si son independientes, entonces no están correlacionados.
Función característica
Dos variables aleatorias y son independientes si y solo si la función característica del vector aleatorio satisface
En particular, la función característica de su suma es el producto de sus funciones marginales características:
aunque la implicación inversa no es cierta. Las variables aleatorias que satisfacen la última condición se denominan subindependientes.
Ejemplos
Dados rodantes
El evento de obtener un 6 la primera vez que se lanza un dado y el evento de obtener un 6 la segunda vez son independientes. Por el contrario, el evento de obtener un 6 la primera vez que se lanza un dado y el evento de que la suma de los números vistos en el primer y segundo intento sea 8 no son independientes.
Tarjetas de dibujo
Si se sacan dos cartas con reemplazo de una baraja de cartas, el evento de sacar una tarjeta roja en el primer intento y el de sacar una tarjeta roja en el segundo intento son independientes. Por el contrario, si se sacan dos cartas sin reemplazo de una baraja de cartas, el hecho de sacar una carta roja en el primer intento y el de sacar una carta roja en el segundo intento no son independientes, porque una baraja que ha tenido una carta roja tarjeta extraída tiene proporcionalmente menos tarjetas rojas.
Parejas e independencia mutua
Considere los dos espacios de probabilidad que se muestran. En ambos casos, y . Las variables aleatorias en el primer espacio son independientes por pares porque , y ; pero las tres variables aleatorias no son mutuamente independientes. Las variables aleatorias en el segundo espacio son independientes por pares y mutuamente independientes. Para ilustrar la diferencia, considere el condicionamiento en dos eventos. En el caso independiente por pares, aunque cualquier evento es independiente de cada uno de los otros dos individualmente, no es independiente de la intersección de los otros dos:
Sin embargo, en el caso de independencia mutua,
Triple independencia pero no independencia por pares
Es posible crear un ejemplo de tres eventos en el que
y, sin embargo, dos de los tres eventos no son independientes por pares (y, por lo tanto, el conjunto de eventos no son mutuamente independientes). Este ejemplo muestra que la independencia mutua implica requisitos sobre los productos de probabilidades de todas las combinaciones de eventos, no solo los eventos individuales como en este ejemplo.
Independencia condicional
Para eventos
Los eventos y son condicionalmente independientes dado un evento cuando
.
Para variables aleatorias
Intuitivamente, dos variables aleatorias y son condicionalmente independientes dado si, una vez conocido, el valor de no añade ninguna información adicional sobre . Por ejemplo, dos medidas y de la misma cantidad subyacente no son independientes, pero son condicionalmente independientes dadas (a menos que los errores en las dos medidas estén conectados de alguna manera).
La definición formal de independencia condicional se basa en la idea de distribuciones condicionales. Si , , y son variables aleatorias discretas, entonces definimos y ser condicionalmente independientes dado si
para todos , y tal que 0}">. Por otro lado, si las variables aleatorias son continuas y tienen una función de densidad de probabilidad conjunta , entonces y son condicionalmente independientes dado si
para todos los números reales , y tal que 0}">.
Si son discretos y son condicionalmente independientes dados , entonces
para cualquier , y con 0}">. Es decir, la distribución condicional para dada y es la misma que la dada sola. Una ecuación similar se cumple para las funciones de densidad de probabilidad condicional en el caso continuo.
La independencia puede verse como un tipo especial de independencia condicional, ya que la probabilidad puede verse como un tipo de probabilidad condicional sin eventos.
Contenido relacionado
Demografía de Corea del Sur
Puntuación estándar
Probabilidad condicionada