Falta de correlación (teoría de la probabilidad)

AjustarCompartirImprimirCitar

En teoría de probabilidad y estadísticas, dos variables aleatorias de valor real, X{displaystyle X}, Y{displaystyle Sí., se dice que no estructurado si su covariancia, cov⁡ ⁡ [X,Y]=E⁡ ⁡ [XY]− − E⁡ ⁡ [X]E⁡ ⁡ [Y]{displaystyle operatorname {cov} [X,Y]=operatorname [E] [XY]-operatorname [X]operatorname {E}, es cero. Si dos variables no están relacionadas, no hay relación lineal entre ellas.

Las variables aleatorias no correlacionadas tienen un coeficiente de correlación de Pearson, cuando existe, de cero, excepto en el caso trivial en el que cualquiera de las variables tiene varianza cero (es una constante). En este caso la correlación es indefinida.

En general, la incorrección no es igual a la ortogonalidad, excepto en el caso especial donde al menos una de las dos variables aleatorias tiene un valor esperado de 0. En este caso, la covariancia es la expectativa del producto, y X{displaystyle X} y Y{displaystyle Sí. no están relacionados si y sólo si E⁡ ⁡ [XY]=0{displaystyle operatorname {E} [XY]=0}.

Si X{displaystyle X} y Y{displaystyle Sí. son independientes, con segundos momentos finitos, luego están uncorrelacionados. Sin embargo, no todas las variables no relacionadas son independientes.

Definición

Definición de dos variables aleatorias reales

Dos variables aleatorias X,Y{displaystyle X,Y} se llaman incorrelacionados si su covariancia Cov⁡ ⁡ [X,Y]=E⁡ ⁡ [()X− − E⁡ ⁡ [X])()Y− − E⁡ ⁡ [Y])]{displaystyle operatorname [X, Y]= [E} [X-operatorname {E} [X])(Y-operatorname {E} [Y]]] es cero. Formally:

X,Yno estructurado⟺ ⟺ E⁡ ⁡ [XY]=E⁡ ⁡ [X]⋅ ⋅ E⁡ ⁡ [Y]{displaystyle X,Y{text{ uncorrelated}quad iff quad operatorname {E} [XY]= {E} [X]cdot operatorname {E} [Y]

Definición de dos variables aleatorias complejas

Dos variables complejas al azar Z,W{displaystyle Z,W} se llaman incorrelacionados si su covariancia KZW=E⁡ ⁡ [()Z− − E⁡ ⁡ [Z])()W− − E⁡ ⁡ [W])̄ ̄ ]{displaystyle operatorname ################################################################################################################################################################################################################################################################ {E} [Z-operatorname {E} [Z]){overline {W-operatorname {E}}}}} y su pseudocovariancia JZW=E⁡ ⁡ [()Z− − E⁡ ⁡ [Z])()W− − E⁡ ⁡ [W])]{displaystyle operatorname ################################################################################################################################################################################################################################################################ {E} [Z-operatorname {E} [Z])(W-operatorname {E} [W]]} es cero, es decir.

Z,Wno estructurado⟺ ⟺ E⁡ ⁡ [ZW̄ ̄ ]=E⁡ ⁡ [Z]⋅ ⋅ E⁡ ⁡ [W̄ ̄ ]yE⁡ ⁡ [ZW]=E⁡ ⁡ [Z]⋅ ⋅ E⁡ ⁡ [W]{displaystyle Z,W{text{ uncorrelated}quad iff quad operatorname [Z{overline {W}]=operatorname [Z]cdot operatorname {E} [{overline {W} {text{ and }}operatorname [ZW]= 'operatorname {E} [Z]cdot operatorname {E} [W]

Definición de más de dos variables aleatorias

Un conjunto de dos o más variables aleatorias X1,...... ,Xn{displaystyle X_{1},ldots X_{n} se llama no correlacionado si cada par de ellos no está relacionado. Esto equivale al requisito de que los elementos no diagonales de la matriz de autocovariancia KXX{displaystyle operatorname {K} {X} mathbf {X} del vector al azar X=()X1,...... ,Xn)T{displaystyle mathbf {X} =(X_{1},ldotsX_{n}{mathrm {T}} son todos cero. La matriz de autocovariancia se define como:

KXX=cov⁡ ⁡ [X,X]=E⁡ ⁡ [()X− − E⁡ ⁡ [X])()X− − E⁡ ⁡ [X])T]=E⁡ ⁡ [XXT]− − E⁡ ⁡ [X]E⁡ ⁡ [X]T{displaystyle operatorname {K} {X} mathbf {X}= [Mathbf {X] ################################################################################################################################################################################################################################################################ [E] [Mathbf {X} -operatorname {E} [mathbf {X}] [X] -operatorname {E} [mathbf {X}] {E} [X] ^{T} [Mathbf {X]fnMitbf}

Ejemplos de dependencia sin correlación

Ejemplo 1

  • Vamos X{displaystyle X} ser una variable aleatoria que toma el valor 0 con probabilidad 1/2, y toma el valor 1 con probabilidad 1/2.
  • Vamos Y{displaystyle Sí. ser una variable al azar, independiente de X{displaystyle X}, que toma el valor -1 con probabilidad 1/2, y toma el valor 1 con probabilidad 1/2.
  • Vamos U{displaystyle U} ser una variable aleatoria construida como U=XY{displaystyle U=XY..

La reclamación es que U{displaystyle U} y X{displaystyle X} tienen covariancia cero (y por lo tanto no están relacionados), pero no son independientes.

Prueba:

Teniendo en cuenta que

E⁡ ⁡ [U]=E⁡ ⁡ [XY]=E⁡ ⁡ [X]E⁡ ⁡ [Y]=E⁡ ⁡ [X]⋅ ⋅ 0=0,{displaystyle operatorname [E]= 'operatorname {E} [XY]= {E} [X] [E]= 'operatorname {E} [X]cdot 0=0,}

donde se mantiene la segunda igualdad porque X{displaystyle X} y Y{displaystyle Sí. son independientes, uno consigue

cov⁡ ⁡ [U,X]=E⁡ ⁡ [()U− − E⁡ ⁡ [U])()X− − E⁡ ⁡ [X])]=E⁡ ⁡ [U()X− − 12)]=E⁡ ⁡ [X2Y− − 12XY]=E⁡ ⁡ [()X2− − 12X)Y]=E⁡ ⁡ [()X2− − 12X)]E⁡ ⁡ [Y]=0{displaystyle {begin{aligned}operatorname [U,X] [E} [U-operatorname {E} [U])(X-operatorname {E} [X]]]=operatorname {E} [U(X-{tfrac {1}{2}]\\fnMicrosoft Sans Serif} [X^{2}Y-{tfrac] [1}{2}XY]= [X^{2}-{tfrac] [1}{2}X) Y... [X^{2}-{tfrac] [1}{2}X)] {E}=0end{aligned}

Por lo tanto, U{displaystyle U} y X{displaystyle X} no están relacionados.

Independence of U{displaystyle U} y X{displaystyle X} significa que para todos a{displaystyle a} y b{displaystyle b}, Pr()U=a▪ ▪ X=b)=Pr()U=a){displaystyle Pr(U=amid X=b)=Pr(U=a)}. Esto no es verdad, en particular, para a=1{displaystyle a=1} y b=0{displaystyle b=0}.

  • Pr()U=1▪ ▪ X=0)=Pr()XY=1▪ ▪ X=0)=0{displaystyle Pr(U=1mid X=0)=Pr(XY=1mid X=0)=0}
  • Pr()U=1)=Pr()XY=1)=1/4{displaystyle Pr(U=1)=Pr(XY=1)=1/4}

Así Pr()U=1▪ ▪ X=0)ل ل Pr()U=1){displaystyle Pr(U=1mid X=0)neq Pr(U=1)} Así que... U{displaystyle U} y X{displaystyle X} no son independientes.

Q.E.D.

Ejemplo 2

Si X{displaystyle X} es una variable aleatoria continua distribuida uniformemente [− − 1,1]{displaystyle [-1,1]} y Y=X2{displaystyle Y=X^{2}, entonces X{displaystyle X} y Y{displaystyle Sí. son incorrelacionados X{displaystyle X} determinaciones Y{displaystyle Sí. y un valor particular Y{displaystyle Sí. puede ser producido por sólo uno o dos valores de X{displaystyle X}:

fX()t)=12I[− − 1,1];fY()t)=12tI]0,1]{displaystyle f_{X}(t)={1over 2}I_{ -1,1};f_{Y}(t)={1 over {2{sqrt {}}I_{]0,1}}

por otro lado, fX,Y{displaystyle f_{X,Y} es 0 en el triángulo definido por <math alttext="{displaystyle 0<X<Y0.X.Y.1{displaystyle 0 seleccionada<img alt="{displaystyle 0<X<Y aunque fX× × fY{displaystyle F_{X}times F_{Y} no está null en este dominio. Por lo tanto fX,Y()X,Y)ل ل fX()X)× × fY()Y){displaystyle f_{X,Y}(X,Y)neq f_{X}(X)times f_{Y}(Y)} y las variables no son independientes.

E[X]=1− − 14=0;E[Y]=13− − ()− − 1)33× × 2=13{displaystyle E[X]={1-1} over 4}=0;E[Y]={1^{3}-(-1)^{3}over {3times 2}={1 over 3}

Cov[X,Y]=E[()X− − E[X])()Y− − E[Y])]=E[X3− − X3]=14− − ()− − 1)44× × 2=0{displaystyle Cov[X,Y]=Eleft[(X-E[X])(Y-E[Y])right]=Eleft[X^{3}-{ X over 3}right]={1^{4}-(-1)^{4} over {4times 2}=0}

Por lo tanto, las variables no están correlacionadas.

Cuando la falta de correlación implica independencia

Hay casos en los que la falta de correlación implica independencia. Uno de estos casos es aquel en el que ambas variables aleatorias tienen dos valores (por lo que cada una puede transformarse linealmente para tener una distribución de Bernoulli). Además, dos variables aleatorias distribuidas normalmente de forma conjunta son independientes si no están correlacionadas, aunque esto no se cumple para las variables cuyas distribuciones marginales son normales y no correlacionadas pero cuya distribución conjunta no es normal conjunta (ver Normalmente distribuida y no correlacionada no implica independiente).

Generalizaciones

Vectores aleatorios no correlacionados

Dos vectores al azar X=()X1,...... ,Xm)T{displaystyle mathbf {X} =(X_{1},ldotsX_{m} {T}} y Y=()Y1,...... ,Yn)T{displaystyle mathbf {Y} =(Y_{1},ldotsY_{n} {T}} son llamados no relacionados si

E⁡ ⁡ [XYT]=E⁡ ⁡ [X]E⁡ ⁡ [Y]T{displaystyle operatorname {E} {Y} {fn}=fnMicrosoft} [Mathbf {X]fnMitbf}.

Son incorrelacionados si y sólo si su matriz de covariancia cruzada KXY{displaystyle operatorname {K} {X} mathbf {Y} es cero.

Dos vectores aleatorios complejos Z{displaystyle mathbf {Z} y W{displaystyle mathbf {W} se llaman no estructurado si su matriz de covariancia cruzada y su matriz de pseudocovariancia cruzada es cero, es decir, si

KZW=JZW=0{displaystyle operatorname {K} _{mathbf {Z} mathbf {W}= 'operatorname {J} {fnMitbf {Z} {}=0}

dónde

KZW=E⁡ ⁡ [()Z− − E⁡ ⁡ [Z])()W− − E⁡ ⁡ [W])H]{displaystyle operatorname {K} _{mathbf {Z} mathbf {W}= 'operatorname {E} [mathbf {Z} -operatorname {E} [mathbf {Z}]){(mathbf {W} -operatorname {E} [mathbf {W}]}} {Mathbf {H}}}}}}}}}}}}} {Mathbf} {}}} {}}}} {}}}}}}}} {}}}}}}}}} {

y

JZW=E⁡ ⁡ [()Z− − E⁡ ⁡ [Z])()W− − E⁡ ⁡ [W])T]{displaystyle operatorname {J} _{mathbf {Z} mathbf {W}= 'operatorname {E} [mathbf {Z} -operatorname {E} [mathbf {Z}]){(mathbf {W} -operatorname {E} [mathbf {W})}} {Mathbf {}}}}} {}}}}}}} {Mathbf}} {}}}}} {}}}} {}}}}}}}} {}}}}}}} {Mathbh}}}}}}}}}} {}}}}}} {}}}} {.

Procesos estocásticos no correlacionados

Dos procesos estocásticos {}Xt}{displaystyle left{X_{t}right} y {}Yt}{displaystyle left{Y_{t}right} se llaman no estructurado si su covariancia cruzada KXY⁡ ⁡ ()t1,t2)=E⁡ ⁡ [()X()t1)− − μ μ X()t1))()Y()t2)− − μ μ Y()t2))]{displaystyle operatorname {K} {X} mathbf {Y} (t_{1},t_{2}=operatorname {E} left[left(X(t_{1})-mu _{X}(t_{1})right)left(Y(t_{2})-mu - Sí. es cero para todos los tiempos. Formally:

{}Xt},{}Yt}no estructurado:⟺ ⟺ О О t1,t2:: KXY⁡ ⁡ ()t1,t2)=0{displaystyle left{X_{t}derecha,left{Y_{t}{text{ uncorrelated}}quad:iff quadforall t_{1},t_{2}colon operatorname {K} {X} mathbf {Y} (t_{1},t_{2}=0}.

Contenido relacionado

Integracion numerica

En análisis, la integración numérica comprende una amplia familia de algoritmos para calcular el valor numérico de una integral definida y, por...

Vladímir Voevodsky

Vladimir Alexandrovich Voevodsky fue un matemático ruso-estadounidense. Su trabajo en el desarrollo de una teoría de la homotopía para las variedades...

Espacio conectado

En topología y ramas relacionadas de las matemáticas, un espacio conectado es un espacio topológico que no puede representarse como la unión de dos o más...
Más resultados...
Tamaño del texto: