Independencia (teoría de la probabilidad)
La independencia es una noción fundamental en la teoría de la probabilidad, así como en la estadística y la teoría de los procesos estocásticos. Dos eventos son independientes, estadísticamente independientes o estocásticamente independientes si, informalmente hablando, la ocurrencia de uno no afecta la probabilidad de ocurrencia del otro. otro o, equivalentemente, no afecta las cuotas. De manera similar, dos variables aleatorias son independientes si la realización de una no afecta la distribución de probabilidad de la otra.
Cuando se trata de colecciones de más de dos eventos, es necesario distinguir dos nociones de independencia. Los eventos se denominan independientes por pares si dos eventos cualesquiera de la colección son independientes entre sí, mientras que la independencia mutua (o independencia colectiva) de eventos significa, informalmente hablando, que cada uno event es independiente de cualquier combinación de otros eventos en la colección. Existe una noción similar para las colecciones de variables aleatorias. La independencia mutua implica independencia por parejas, pero no al revés. En la literatura estándar de la teoría de la probabilidad, las estadísticas y los procesos estocásticos, la independencia sin más calificación generalmente se refiere a la independencia mutua.
Definición
Para eventos
Dos eventos
Dos eventos A{displaystyle A} y B{displaystyle B} son independiente (a menudo escrito como A⊥ ⊥ B{displaystyle Aperp B} o A⊥ ⊥ ⊥ ⊥ B{displaystyle ¡Aperp !, donde el último símbolo a menudo se utiliza también para la independencia condicional) si y sólo si su probabilidad conjunta equivale al producto de sus probabilidades:
P()A∩ ∩ B)=P()A)P()B){displaystyle mathrm {P} (Acap B)=mathrm {P} (A)mathrm {P} (B)} | ()Eq.1) |
A∩ ∩ Bل ل ∅ ∅ {displaystyle Acap Bneq emptyset indica que dos eventos independientes A{displaystyle A} y B{displaystyle B} tienen elementos comunes en su espacio de muestra para que no sean mutuamente excluyentes (sifmutualmente excluyente A∩ ∩ B=∅ ∅ {displaystyle Acap B=emptyset }). Por qué esto define la independencia se aclara reescribiendo con probabilidades condicionales P()A▪ ▪ B)=P()A∩ ∩ B)P()B){displaystyle P(Amid B)={frac {P(Acap B)}{P(B)}} como la probabilidad en que el evento A{displaystyle A} ocurre siempre que el evento B{displaystyle B} ha o se supone que ha ocurrido:
- P()A∩ ∩ B)=P()A)P()B)⟺ ⟺ P()A▪ ▪ B)=P()A∩ ∩ B)P()B)=P()A).{displaystyle mathrm {P} (Acap B)=mathrm {P} (A)mathrm {P} (B)iff mathrm (Amid B)={frac {mathrm {} {cap B)}{mathrm {}}=mathrm {P} (A).
y de manera similar
- P()A∩ ∩ B)=P()A)P()B)⟺ ⟺ P()B▪ ▪ A)=P()A∩ ∩ B)P()A)=P()B).{displaystyle mathrm {P} (Acap B)=mathrm {P} (A)mathrm {P} (B)iff mathrm (Bmid A)={mathrm {P}{cap B)}{mathrm {}}=mathrm {P} (B).
Así pues, la ocurrencia de B{displaystyle B} no afecta la probabilidad de A{displaystyle A}, y viceversa. En otras palabras, A{displaystyle A} y B{displaystyle B} son independientes entre sí. Aunque las expresiones derivadas pueden parecer más intuitivas, no son la definición preferida, ya que las probabilidades condicionales pueden ser indefinidas si P()A){displaystyle mathrm {P} (A)} o P()B){displaystyle mathrm {P} (B)} son 0. Además, la definición preferida deja claro por simetría que cuando A{displaystyle A} es independiente de B{displaystyle B}, B{displaystyle B} es también independiente de A{displaystyle A}.
Probabilidad de registro y contenido de información
Expresado en términos de probabilidad logarítmica, dos eventos son independientes si y solo si la probabilidad logarítmica del evento conjunto es la suma de la probabilidad logarítmica de los eventos individuales:
- log P()A∩ ∩ B)=log P()A)+log P()B){displaystyle log mathrm {P} (Acap B)=log mathrm {P} (A)+log mathrm {P} (B)}
En la teoría de la información, la probabilidad logarítmica negativa se interpreta como contenido de información y, por lo tanto, dos eventos son independientes si y solo si el contenido de información del evento combinado es igual a la suma del contenido de información de los eventos individuales:
- I()A∩ ∩ B)=I()A)+I()B){displaystyle mathrm {I} (Acap B)=mathrm {I} (A)+mathrm {I} (B)}
Consulte Contenido de la información § Aditividad de eventos independientes para obtener más detalles.
Cuotas
En términos de probabilidades, dos eventos son independientes si y sólo si la relación de probabilidades A{displaystyle A} y B{displaystyle B} es unidad (1). Analmente con probabilidad, esto es equivalente a las probabilidades condicionales que son iguales a las probabilidades incondicionales:
- O()A▪ ▪ B)=O()A)yO()B▪ ▪ A)=O()B),{displaystyle O(Amid B)=O(A){text{ and }O(Bmid A)=O(B),}
o a las probabilidades de un evento, dado el otro evento, siendo las mismas que las probabilidades del evento, dado que el otro evento no ocurre:
- O()A▪ ▪ B)=O()A▪ ▪ ¬ ¬ B)yO()B▪ ▪ A)=O()B▪ ▪ ¬ ¬ A).{displaystyle O(Amid B)=O(Amid neg B){text{ and }O(Bmid A)=O(Bmid neg A).}
La razón de probabilidades se puede definir como
- O()A▪ ▪ B):O()A▪ ▪ ¬ ¬ B),{displaystyle O(Amid B):O(Amid neg B),}
o simétricamente para probabilidades de B{displaystyle B} dado A{displaystyle A}, y por lo tanto es 1 si y sólo si los eventos son independientes.
Más de dos eventos
Un conjunto finito de eventos {}Ai}i=1n{displaystyle {A_{i}} {} {} {} {}}} {}} {}}} {}} {}}} {}}} {}}} {}}}}} {}}}} {}}}} {}}}}} {}}}}}}} {}}}}}}} {}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}} {}}}}}}} {}}}}} {}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}} es Parwise independent si cada par de eventos es independiente —es decir, si y sólo si para todos los pares distintos de índices m,k{displaystyle m,k},
P()Am∩ ∩ Ak)=P()Am)P()Ak){displaystyle mathrm {P} (A_{m}cap A_{k}=mathrm {P} (A_{m})mathrm {P} | ()Eq.2) |
Un conjunto finito de eventos es mutuamente independientes si cada evento es independiente de cualquier intersección de los otros eventos, es decir, si y sólo si por cada k≤ ≤ n{displaystyle kleq n} y por cada k índices <math alttext="{displaystyle 1leq i_{1}<dots 1≤ ≤ i1.⋯ ⋯ .ik≤ ≤ n{displaystyle 1leq i_{1}traducidos<img alt="{displaystyle 1leq i_{1}<dots ,
P()⋂ ⋂ j=1kAij)=∏ ∏ j=1kP()Aij){displaystyle mathrm {P} left(bigcap ¿Por qué? ##{j=1} {k}mathrm (A_{i_{j})} | ()Eq.3) |
Esto se llama la regla de multiplicación para eventos independientes. Tenga en cuenta que no es una condición única que involucra solo el producto de todas las probabilidades de todos los eventos únicos; debe ser cierto para todos los subconjuntos de eventos.
Para más de dos eventos, un conjunto de eventos mutuamente independientes es (por definición) independiente por pares; pero lo contrario no es necesariamente cierto.
Para variables aleatorias con valores reales
Dos variables aleatorias
Dos variables aleatorias X{displaystyle X} y Y{displaystyle Sí. son independiente si y sólo si (iff) los elementos del sistema π generados por ellos son independientes; es decir, por cada x{displaystyle x} y Sí.{displaystyle y}, los eventos {}X≤ ≤ x}{displaystyle {Xleq x}} y {}Y≤ ≤ Sí.}{displaystyle {Yleq y}} son eventos independientes (según se define anteriormente en Eq.1). Eso es, X{displaystyle X} y Y{displaystyle Sí. con funciones de distribución acumulativa FX()x){displaystyle F_{X}(x)} y FY()Sí.){displaystyle F_{Y}(y)}, son independientes sif la variable aleatoria combinada ()X,Y){displaystyle (X,Y)} tiene una función de distribución acumulativa conjunta
FX,Y()x,Sí.)=FX()x)FY()Sí.)para todosx,Sí.{displaystyle F_{X,Y}(x,y)=F_{X}(x)F_{Y}(y)quad {text{for all }x,y} | ()Eq.4) |
o equivalentemente, si las densidades de probabilidad fX()x){displaystyle f_{X}(x)} y fY()Sí.){displaystyle f_{Y}(y)} y la densidad de probabilidad articular fX,Y()x,Sí.){displaystyle f_{X,Y}(x,y)} existen,
- fX,Y()x,Sí.)=fX()x)fY()Sí.)para todosx,Sí..{displaystyle f_{X,Y}(x,y)=f_{X}(x)f_{Y}(y)quad {text{for all }x,y.}
Más de dos variables aleatorias
Un conjunto finito de n{displaystyle n} variables aleatorias {}X1,...... ,Xn}{displaystyle {X_{1},ldotsX_{n}} es Parwise independent si y sólo si cada par de variables aleatorias es independiente. Incluso si el conjunto de variables aleatorias es independiente pares, no es necesariamente mutuamente independiente como se define a continuación.
Un conjunto finito de n{displaystyle n} variables aleatorias {}X1,...... ,Xn}{displaystyle {X_{1},ldotsX_{n}} es mutuamente independientes si y sólo si para cualquier secuencia de números {}x1,...... ,xn}{displaystyle {x_{1},ldotsx_{n}}}, los eventos {}X1≤ ≤ x1},...... ,{}Xn≤ ≤ xn}{displaystyle {X_{1}leq x_{1}}ldots{X_{n}leq # son eventos mutuamente independientes (como se define anteriormente en Eq.3). Esto equivale a la siguiente condición en la función de distribución acumulativa conjunta FX1,...... ,Xn()x1,...... ,xn){displaystyle F_{X_{1},ldotsX_{n}(x_{1},ldotsx_{n}. Un conjunto finito de n{displaystyle n} variables aleatorias {}X1,...... ,Xn}{displaystyle {X_{1},ldotsX_{n}} es mutuamente independientes si
FX1,...... ,Xn()x1,...... ,xn)=FX1()x1)⋅ ⋅ ...... ⋅ ⋅ FXn()xn)para todosx1,...... ,xn{displaystyle ¿Por qué? | ()Eq.5) |
Observe que no es necesario aquí para exigir que la distribución de probabilidad factoriza para todos los posibles k{displaystyle k}- Elemento subsets as in the case for n{displaystyle n} eventos. Esto no es necesario porque, por ejemplo. FX1,X2,X3()x1,x2,x3)=FX1()x1)⋅ ⋅ FX2()x2)⋅ ⋅ FX3()x3){displaystyle F_{X_{1},X_{2},X_{3}(x_{1},x_{2},x_{3})=F_{X_{1}(x_{1})cdot F_{X_{2}(x_{2})cdot F_{X_{3} (x_{3})} implicación FX1,X3()x1,x3)=FX1()x1)⋅ ⋅ FX3()x3){displaystyle F_{X_{1},X_{3}(x_{1},x_{3}=F_{X_{1}}(x_{1})cdot F_{X_{3} (x_{3})}.
La medida-teóricamente inclinada puede preferir sustituir eventos {}X▪ ▪ A}{displaystyle {Xin A}} para eventos {}X≤ ≤ x}{displaystyle {Xleq x}} in the above definition, where A{displaystyle A} es cualquier Borel set. Esa definición es exactamente equivalente a la anterior cuando los valores de las variables aleatorias son números reales. Tiene la ventaja de trabajar también para variables aleatorias de valor complejo o para variables aleatorias tomando valores en cualquier espacio mensurable (que incluye espacios topológicos dotados por álgebras σ apropiadas).
Para vectores aleatorios con valores reales
Dos vectores al azar X=()X1,...... ,Xm)T{displaystyle mathbf {X} =(X_{1},ldotsX_{m} {m} {m}} y Y=()Y1,...... ,Yn)T{displaystyle mathbf {Y} =(Y_{1},ldotsY_{n} {m} {}}} se llaman independiente si
FX,Y()x,Sí.)=FX()x)⋅ ⋅ FY()Sí.)para todosx,Sí.{f}f} {f} {f} {f}} {f} {f}} {f} {f}} {cdot F_ {f} {f}} {f}}f}f}f}f}f}f}f}f}f} | ()Eq.6) |
Donde FX()x){displaystyle F_{mathbf {X}(mathbf {x})} y FY()Sí.){displaystyle F_{mathbf {Y}(mathbf {y})} denota las funciones acumulativas de distribución X{displaystyle mathbf {X} y Y{displaystyle mathbf {Y} y FX,Y()x,Sí.){displaystyle F_{mathbf {X,Y}(mathbf {x,y})} denota su función de distribución acumulativa conjunta. Independence of X{displaystyle mathbf {X} y Y{displaystyle mathbf {Y} a menudo se denota X⊥ ⊥ ⊥ ⊥ Y{displaystyle mathbf {X} perp !!!perp mathbf {Y}. Componente escrito en sentido, X{displaystyle mathbf {X} y Y{displaystyle mathbf {Y} son llamados independientes si
- FX1,...... ,Xm,Y1,...... ,Yn()x1,...... ,xm,Sí.1,...... ,Sí.n)=FX1,...... ,Xm()x1,...... ,xm)⋅ ⋅ FY1,...... ,Yn()Sí.1,...... ,Sí.n)para todosx1,...... ,xm,Sí.1,...... ,Sí.n.{displaystyle ¿Qué? F_{Y_{1},ldots Y_{n}(y_{1},ldotsy_{n})quad {text{for all }x_{1},ldotsx_{m},y_{1},ldotsy_{n}}
Para procesos estocásticos
Para un proceso estocástico
La definición de independencia puede extenderse de vectores aleatorios a un proceso estocástico. Por lo tanto, se requiere para un proceso estocástico independiente que las variables aleatorias obtenidas mediante muestreo del proceso en cualquier n{displaystyle n} veces t1,...... ,tn{displaystyle t_{1},ldotst_{n} son variables aleatorias independientes para cualquier n{displaystyle n}.
Formalmente, un proceso estocástico {}Xt}t▪ ▪ T{displaystyle left{X_{t}derecha\fn} {fnMitcal {}}}} se llama independiente, si y sólo si para todos n▪ ▪ N{displaystyle nin mathbb {N} y para todos t1,...... ,tn▪ ▪ T{displaystyle t_{1},ldotst_{n}in {fn} {fn}
FXt1,...... ,Xtn()x1,...... ,xn)=FXt1()x1)⋅ ⋅ ...... ⋅ ⋅ FXtn()xn)para todosx1,...... ,xn{displaystyle ¿Qué? ¿Por qué? | ()Eq.7) |
Donde FXt1,...... ,Xtn()x1,...... ,xn)=P()X()t1)≤ ≤ x1,...... ,X()tn)≤ ≤ xn){displaystyle ¿Por qué?. La independencia de un proceso estocástico es una propiedad dentro un proceso estocástico, no entre dos procesos estocásticos.
Para dos procesos estocásticos
La independencia de dos procesos estocásticos es una propiedad entre dos procesos estocásticos {}Xt}t▪ ▪ T{displaystyle left{X_{t}derecha\fn} {fnMitcal {}}}} y {}Yt}t▪ ▪ T{displaystyle left{Y_{t} {fn} {fnfn} {fnMitcal {}}}} que se definen en el mismo espacio de probabilidad ()Ω Ω ,F,P){displaystyle (Omega{mathcal {F}},P)}. Formalmente, dos procesos estocásticos {}Xt}t▪ ▪ T{displaystyle left{X_{t}derecha\fn} {fnMitcal {}}}} y {}Yt}t▪ ▪ T{displaystyle left{Y_{t} {fn} {fnfn} {fnMitcal {}}}} se dice que es independiente si para todos n▪ ▪ N{displaystyle nin mathbb {N} y para todos t1,...... ,tn▪ ▪ T{displaystyle t_{1},ldotst_{n}in {fn} {fn}, los vectores al azar ()X()t1),...... ,X()tn)){displaystyle (X(t_{1}),ldotsX(t_{n})} y ()Y()t1),...... ,Y()tn)){displaystyle (Y(t_{1}),ldotsY(t_{n})} son independientes, es decir, si
FXt1,...... ,Xtn,Yt1,...... ,Ytn()x1,...... ,xn,Sí.1,...... ,Sí.n)=FXt1,...... ,Xtn()x1,...... ,xn)⋅ ⋅ FYt1,...... ,Ytn()Sí.1,...... ,Sí.n)para todosx1,...... ,xn{displaystyle ¿Qué? ¿Por qué? | ()Eq.8) |
σ-álgebras independientes
Las definiciones anteriores (Eq.1 y Eq.2) se generalizan por la siguiente definición de independencia para σ-algebras. Vamos ()Ω Ω ,.. ,P){displaystyle (OmegaSigmamathrm {P})} ser un espacio de probabilidad y dejar A{displaystyle {fnMithcal}} y B{displaystyle {máthcal {B}} ser dos sub-σ-algebras de .. {displaystyle Sigma }. A{displaystyle {fnMithcal}} y B{displaystyle {máthcal {B}} se dice que independiente si, siempre A▪ ▪ A{displaystyle Ain {fn} y B▪ ▪ B{displaystyle Bin {cHFF},
- P()A∩ ∩ B)=P()A)P()B).{displaystyle mathrm {P} (Acap B)=mathrm {P} (A)mathrm {P} (B).}
Del mismo modo, una familia finita de álgebras σ ()τ τ i)i▪ ▪ I{displaystyle (tau _{i})_{iin I}, donde I{displaystyle Yo... es un conjunto de índice, se dice que es independiente si y sólo si
- О О ()Ai)i▪ ▪ I▪ ▪ ∏ ∏ i▪ ▪ Iτ τ i:P()⋂ ⋂ i▪ ▪ IAi)=∏ ∏ i▪ ▪ IP()Ai){displaystyle forall left(A_{i}right)_{iin I}in prod nolimits _{iin I}tau ¿Qué? mathrm {P} left(bigcap nolimits _{iin I}A_{i}right)=prod nolimits _{iin I}mathrm {P} left(A_{i}right)}}
y se dice que una familia infinita de σ-álgebras es independiente si todas sus subfamilias finitas son independientes.
La nueva definición se relaciona muy directamente con las anteriores:
- Dos eventos son independientes (en el sentido antiguo) si y sólo si los álgebras σ que generan son independientes (en el nuevo sentido). El álgebra σ generado por un evento E▪ ▪ .. {displaystyle Ein Sigma } es, por definición,
- σ σ (){}E})={}∅ ∅ ,E,Ω Ω ∖ ∖ E,Ω Ω }.{displaystyle sigma ({E})={emptysetE,Omega setminus E, 'Omega }.
- Dos variables aleatorias X{displaystyle X} y Y{displaystyle Sí. definidas Ω Ω {displaystyle Omega } son independientes (en el viejo sentido) si y sólo si los álgebras σ que generan son independientes (en el nuevo sentido). El álgebra σ generado por una variable aleatoria X{displaystyle X} tomar valores en algún espacio mensurable S{displaystyle S. consiste, por definición, de todos los subconjuntos de Ω Ω {displaystyle Omega } de la forma X− − 1()U){displaystyle X^{-1}(U)}, donde U{displaystyle U} es cualquier subconjunto mensurable S{displaystyle S..
Usando esta definición, es fácil mostrar que si X{displaystyle X} y Y{displaystyle Sí. son variables aleatorias y Y{displaystyle Sí. es constante, entonces X{displaystyle X} y Y{displaystyle Sí. son independientes, ya que el álgebra σ generado por una variable aleatoria constante es el trivial σ-álgebra {}∅ ∅ ,Ω Ω }{displaystyle {varnothing Omega. Probability cero events cannot affect independence so independence also holds if Y{displaystyle Sí. es sólo Pr-casi constante.
Propiedades
Autoindependencia
Tenga en cuenta que un evento es independiente de sí mismo si y solo si
- P()A)=P()A∩ ∩ A)=P()A)⋅ ⋅ P()A)⟺ ⟺ P()A)=0oP()A)=1.{displaystyle mathrm {P} (A)=mathrm {P} (Acap A)=mathrm {P} (A)cdot mathrm {P} (A)iff mathrm {P} (A)=0{text{ or }}mathrm {P} (A)=1.}
Así, un evento es independiente de sí mismo si y sólo si ocurre casi con certeza o casi con certeza ocurre su complemento; este hecho es útil cuando se prueban las leyes cero-uno.
Expectativa y covarianza
Si X{displaystyle X} y Y{displaystyle Sí. son variables aleatorias independientes, luego el operador de expectativa E{displaystyle operatorname {E} tiene la propiedad
- E [XY]=E [X]E [Y],{displaystyle operatorname {E} [XY]= {E} [X] {E} [Y],}
y la covariancia cov [X,Y]{displaystyle operatorname {cov} [X,Y]} es cero, como sigue
- cov [X,Y]=E [XY]− − E [X]E [Y].{displaystyle operatorname {cov} [X,Y]=operatorname [E] [XY]-operatorname [X]operatorname {E}
Lo contrario no se cumple: si dos variables aleatorias tienen una covarianza de 0, aún pueden no ser independientes. Véase no correlacionado.
Del mismo modo para dos procesos estocásticos {}Xt}t▪ ▪ T{displaystyle left{X_{t}derecha\fn} {fnMitcal {}}}} y {}Yt}t▪ ▪ T{displaystyle left{Y_{t} {fn} {fnfn} {fnMitcal {}}}}: Si son independientes, entonces no están relacionados.
Función característica
Dos variables aleatorias X{displaystyle X} y Y{displaystyle Sí. son independientes si y sólo si la función característica del vector aleatorio ()X,Y){displaystyle (X,Y)} satisfizo
- φ φ ()X,Y)()t,s)=φ φ X()t)⋅ ⋅ φ φ Y()s).{displaystyle varphi _{(X,Y)}(t,s)=varphi _{X}(t)cdot varphi _{Y}(s).}
En particular, la función característica de su suma es el producto de sus funciones marginales características:
- φ φ X+Y()t)=φ φ X()t)⋅ ⋅ φ φ Y()t),{displaystyle varphi _{X+Y}(t)=varphi _{X}(t)cdot varphi _{Y}(t),}
aunque la implicación inversa no es cierta. Las variables aleatorias que satisfacen la última condición se denominan subindependientes.
Ejemplos
Lanzamiento de dados
El evento de obtener un 6 la primera vez que se lanza un dado y el evento de obtener un 6 la segunda vez son independientes. Por el contrario, el evento de obtener un 6 la primera vez que se lanza un dado y el evento de que la suma de los números vistos en el primer y segundo intento sea 8 son no independientes.
Dibujar cartas
Si se sacan dos cartas con reemplazo de una baraja de cartas, el evento de sacar una tarjeta roja en el primer intento y el de sacar una tarjeta roja en el segundo intento son independientes . Por el contrario, si se sacan dos cartas sin reemplazo de una baraja de cartas, el hecho de sacar una tarjeta roja en el primer intento y el de sacar una tarjeta roja en el segundo intento no son independiente, porque un mazo al que se le ha quitado una carta roja tiene proporcionalmente menos cartas rojas.
Independencia mutua y por parejas
Considere los dos espacios de probabilidad mostrados. En ambos casos, P()A)=P()B)=1/2{displaystyle mathrm {P} (A)=mathrm {P} (B)=1/2} y P()C)=1/4{displaystyle mathrm {P} (C)=1/4}. Las variables aleatorias en el primer espacio son independientes pares porque P()ASilencioB)=P()ASilencioC)=1/2=P()A){displaystyle mathrm {P} (AtenciónB)=mathrm {P} (AtenciónC)=1/2=mathrm {P} (A)}, P()BSilencioA)=P()BSilencioC)=1/2=P()B){displaystyle mathrm {P} (B sometidaA)=mathrm {P} (B tuberculosis)=1/2=mathrm {P} (B)}, y P()CSilencioA)=P()CSilencioB)=1/4=P()C){displaystyle mathrm {P} (C habitA)=mathrm {P} (CperuB)=1/4=mathrm {P} (C)}; pero las tres variables aleatorias no son mutuamente independientes. Las variables aleatorias en el segundo espacio son ambas iguales independientes y mutuamente independientes. Para ilustrar la diferencia, considere el condicionamiento en dos eventos. En el caso independiente, aunque cualquier evento es independiente de cada uno de los otros dos individualmente, no es independiente de la intersección de los otros dos:
- P()ASilencioBC)=440440+140=45ل ل P()A){displaystyle mathrm {P} {frac}{frac {4}{frac {4}}{frac {4}{40}}}+{frac {1}{40}}={tfrac {4}{5}neq mathrm {P} (A)}
- P()BSilencioAC)=440440+140=45ل ل P()B){displaystyle mathrm {P} (B sometidaAC)={frac {frac {4}{40}{frac {4}{40}+{frac {1}{40}}={tfrac {4}{5}neq mathrm {P} (B)}
- P()CSilencioAB)=440440+640=25ل ل P()C){displaystyle mathrm {P} {frac}{frac {4}{frac {4}}{frac {4}{40}}}+{frac} {frac}}}{f} {6}{40}}={tfrac {2}{5}neq mathrm {P} (C)}
En el caso mutuamente independiente, sin embargo,
- P()ASilencioBC)=116116+116=12=P()A){displaystyle mathrm {P} {frac}{frac {frac}{frac}{frac}{frac {1}{16}+{frac} {1}{16}}={tfrac {1}{2}=mathrm {P} (A)}
- P()BSilencioAC)=116116+116=12=P()B){displaystyle mathrm {P} {frac}{frac {frac}{frac}{frac}{frac {1}{16}+{frac} {1}{16}}={tfrac {1}{2}=mathrm {P} (B)}
- P()CSilencioAB)=116116+316=14=P()C){displaystyle mathrm {P} {frac}{frac {frac}{frac}{frac}}{frac {1}{16}+{frac} {3}{16}}={tfrac {1}{4}=mathrm {P} (C)}
Triple independencia pero no independencia por pares
Es posible crear un ejemplo de tres eventos en el que
- P()A∩ ∩ B∩ ∩ C)=P()A)P()B)P()C),{displaystyle mathrm {P} (Acap Bcap C)=mathrm {P} (A)mathrm {P} (B)mathrm {P} (C),}
y, sin embargo, dos de los tres eventos no son independientes por pares (y, por lo tanto, el conjunto de eventos no son mutuamente independientes). Este ejemplo muestra que la independencia mutua implica requisitos sobre los productos de probabilidades de todas las combinaciones de eventos, no solo los eventos individuales como en este ejemplo.
Independencia condicional
Para eventos
Los eventos A{displaystyle A} y B{displaystyle B} son condicionalmente independientes dado un evento C{displaystyle C} cuando
P()A∩ ∩ B▪ ▪ C)=P()A▪ ▪ C)⋅ ⋅ P()B▪ ▪ C){displaystyle mathrm {P} (Acap Bmid C)=mathrm {P} (Amid C)cdot mathrm {P} (Bmid C)}.
Para variables aleatorias
Intuitivamente, dos variables al azar X{displaystyle X} y Y{displaystyle Sí. son condicionalmente independientes dado Z{displaystyle Z} si, una vez Z{displaystyle Z} es conocido, el valor de Y{displaystyle Sí. no añade ninguna información adicional sobre X{displaystyle X}. Por ejemplo, dos mediciones X{displaystyle X} y Y{displaystyle Sí. de la misma cantidad subyacente Z{displaystyle Z} no son independientes, pero son condicionalmente independiente dada Z{displaystyle Z} (a menos que los errores en las dos mediciones estén conectados de alguna manera).
La definición formal de independencia condicional se basa en la idea de distribuciones condicionales. Si X{displaystyle X}, Y{displaystyle Sí., y Z{displaystyle Z} son variables discretas al azar, entonces definimos X{displaystyle X} y Y{displaystyle Sí. para ser condicionalmente independiente dada Z{displaystyle Z} si
- P()X≤ ≤ x,Y≤ ≤ Sí.SilencioZ=z)=P()X≤ ≤ xSilencioZ=z)⋅ ⋅ P()Y≤ ≤ Sí.SilencioZ=z){displaystyle mathrm {P} (Xleq x,Yleq y; sufrimiento;Z=z)=mathrm {P} (Xleq x; sufrimiento;Z=z)cdot mathrm {P} (Yleq y; permanente;Z=z)}
para todos x{displaystyle x}, Sí.{displaystyle y} y z{displaystyle z} tales que 0}" xmlns="http://www.w3.org/1998/Math/MathML">P()Z=z)■0{displaystyle mathrm {P} (Z=z)}0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/3a8012998a7899ebd15a4dc6c0083c1351c91baa" style="vertical-align: -0.838ex; width:13.52ex; height:2.843ex;"/>. Por otro lado, si las variables aleatorias son continuas y tienen una función de densidad de probabilidad articular fXYZ()x,Sí.,z){displaystyle f_{XYZ}(x,y,z)}, entonces X{displaystyle X} y Y{displaystyle Sí. son condicionalmente independientes dado Z{displaystyle Z} si
- fXYSilencioZ()x,Sí.Silencioz)=fXSilencioZ()xSilencioz)⋅ ⋅ fYSilencioZ()Sí.Silencioz){displaystyle f_{XY sometidaZ}(x,y sometidaz)=f_{X sometidaZ}(x imperz)cdot f_{Y habitZ}(y sometidaz)}
para todos los números reales x{displaystyle x}, Sí.{displaystyle y} y z{displaystyle z} tales que 0}" xmlns="http://www.w3.org/1998/Math/MathML">fZ()z)■0{displaystyle f_{Z}(z)}0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/7a1beb415a44c16343dddba12017d8dd43c63775" style="vertical-align: -0.838ex; width:9.718ex; height:2.843ex;"/>.
Si discreto X{displaystyle X} y Y{displaystyle Sí. son condicionalmente independientes dado Z{displaystyle Z}, entonces
- P()X=xSilencioY=Sí.,Z=z)=P()X=xSilencioZ=z){displaystyle mathrm {P} (X=x impery=y,Z=z)=mathrm {P} (X=x habitZ=z)}
para cualquier x{displaystyle x}, Sí.{displaystyle y} y z{displaystyle z} con 0}" xmlns="http://www.w3.org/1998/Math/MathML">P()Z=z)■0{displaystyle mathrm {P} (Z=z)}0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/3a8012998a7899ebd15a4dc6c0083c1351c91baa" style="vertical-align: -0.838ex; width:13.52ex; height:2.843ex;"/>. Es decir, la distribución condicional para X{displaystyle X} dado Y{displaystyle Sí. y Z{displaystyle Z} es lo mismo que el dado Z{displaystyle Z} solo. Una ecuación similar sostiene para las funciones de densidad de probabilidad condicional en el caso continuo.
La independencia puede verse como un tipo especial de independencia condicional, ya que la probabilidad puede verse como un tipo de probabilidad condicional sin eventos.
Contenido relacionado
Bien ordenado
Convergencia débil
Cálculo vectorial