Covarianza
En teoría de probabilidad y estadística, la covarianza es una medida de la variabilidad conjunta de dos variables aleatorias. Si los valores mayores de una variable se corresponden principalmente con los valores mayores de la otra variable, y lo mismo ocurre con los valores menores (es decir, las variables tienden a mostrar un comportamiento similar), la covarianza es positiva.En caso contrario, cuando los valores mayores de una variable corresponden mayoritariamente a los valores menores de la otra (es decir, las variables tienden a mostrar comportamientos opuestos), la covarianza es negativa. El signo de la covarianza muestra por tanto la tendencia en la relación lineal entre las variables. La magnitud de la covarianza no es fácil de interpretar porque no está normalizada y, por tanto, depende de las magnitudes de las variables. Sin embargo, la versión normalizada de la covarianza, el coeficiente de correlación, muestra por su magnitud la fuerza de la relación lineal.
Se debe distinguir entre (1) la covarianza de dos variables aleatorias, que es un parámetro poblacional que puede verse como una propiedad de la distribución de probabilidad conjunta, y (2) la covarianza muestral, que además de servir como descriptor de la muestra, sirve también como valor estimado del parámetro poblacional.
Definición
Para dos variables aleatorias de valor real distribuidas conjuntamente y con segundos momentos finitos, la covarianza se define como el valor esperado (o la media) del producto de sus desviaciones de sus valores esperados individuales:
donde es el valor esperado de , también conocida como la media de . La covarianza también se denota a veces o , en analogía con la varianza. Al usar la propiedad de linealidad de las expectativas, esto se puede simplificar al valor esperado de su producto menos el producto de sus valores esperados:
pero esta ecuación es susceptible de cancelación catastrófica (consulte la sección sobre cálculo numérico a continuación).
Las unidades de medida de la covarianza son los de veces las de . Por el contrario, los coeficientes de correlación, que dependen de la covarianza, son una medida adimensional de dependencia lineal. (De hecho, los coeficientes de correlación pueden entenderse simplemente como una versión normalizada de la covarianza).
Definición de variables aleatorias complejas
La covarianza entre dos variables aleatorias complejas Se define como
Note la conjugación compleja del segundo factor en la definición.
También se puede definir una pseudocovarianza relacionada .
Variables aleatorias discretas
Si el par de variables aleatorias (reales) puede tomar los valores por , con iguales probabilidades , entonces la covarianza se puede escribir de manera equivalente en términos de las medias y como
También puede expresarse de manera equivalente, sin referirse directamente a los medios, como i}(x_{i}-x_{j})(y_{i}-y_{j}).}">
Más generalmente, si hay posibles realizaciones de , a saber pero con probabilidades posiblemente desiguales por , entonces la covarianza es
Ejemplo
Suponer que y tienen la siguiente función de masa de probabilidad conjunta, en la que las seis celdas centrales dan las probabilidades conjuntas discretas de las seis realizaciones hipotéticas :
X | |||||
---|---|---|---|---|---|
5 | 6 | 7 | |||
y | 8 | 0 | 0.4 | 0.1 | 0.5 |
9 | 0.3 | 0 | 0.2 | 0.5 | |
0.3 | 0.4 | 0.3 | 1 |
puede tomar tres valores (5, 6 y 7) mientras puede tomar en dos (8 y 9). Sus medios son y . Entonces,
Propiedades
Covarianza consigo mismo
La varianza es un caso especial de la covarianza en el que las dos variables son idénticas (es decir, en el que una variable siempre toma el mismo valor que la otra):
Covarianza de combinaciones lineales
Si , , , y son variables aleatorias de valor real y son constantes de valor real, entonces los siguientes hechos son una consecuencia de la definición de covarianza:
Para una secuencia de variables aleatorias en valores reales y constantes , tenemos <img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/28c23850e571feb79b4ebc1f726797cd70586b50" alt="{\displaystyle \operatorname {var} \left(\sum _{i=1}^{n}a_{i}X_{i}\right)=\sum _{i=1}^{n}a_{i }^{2}\sigma ^{2}(X_{i})+2\sum _{i,j\,:\,i
Identidad de covarianza de Hoeffding
Una identidad útil para calcular la covarianza entre dos variables aleatorias es la identidad de covarianza de Hoeffding:
donde es la función de distribución acumulativa conjunta del vector aleatorio y son los marginales.
Descorrelación e independencia
Las variables aleatorias cuya covarianza es cero se denominan no correlacionadas. De manera similar, los componentes de vectores aleatorios cuya matriz de covarianza es cero en cada entrada fuera de la diagonal principal también se denominan no correlacionados.
Si y son variables aleatorias independientes, entonces su covarianza es cero. Esto se debe a que bajo la independencia,
Lo contrario, sin embargo, no es generalmente cierto. Por ejemplo, deja distribuirse uniformemente en y deja . Claramente, y no son independientes, pero
En este caso, la relación entre y es no lineal, mientras que la correlación y la covarianza son medidas de dependencia lineal entre dos variables aleatorias. Este ejemplo muestra que si dos variables aleatorias no están correlacionadas, en general eso no implica que sean independientes. Sin embargo, si dos variables tienen una distribución normal conjunta (pero no si solo tienen una distribución normal individual), la falta de correlación implica independencia.
Relación con los productos internos
Muchas de las propiedades de la covarianza se pueden extraer elegantemente al observar que satisface propiedades similares a las de un producto interno:
- bilineal: para constantes y y variables aleatorias
- simétrico:
- positivo semidefinido: para todas las variables aleatorias , y implica que es constante casi con seguridad.
De hecho, estas propiedades implican que la covarianza define un producto interno sobre el espacio vectorial cociente obtenido al tomar el subespacio de variables aleatorias con segundo momento finito e identificar dos cualesquiera que difieran en una constante. (Esta identificación convierte la semidefinición positiva anterior en una definición positiva). Ese espacio vectorial cociente es isomorfo al subespacio de variables aleatorias con segundo momento finito y media cero; en ese subespacio, la covarianza es exactamente el producto interno L de funciones de valor real en el espacio muestral.
Como resultado, para variables aleatorias con varianza finita, la desigualdad
se cumple a través de la desigualdad de Cauchy-Schwarz.
prueba: si , entonces se cumple trivialmente. De lo contrario, deje que la variable aleatoria
Entonces tenemos
Cálculo de la covarianza de la muestra
Las covarianzas muestrales entre variables basadas en las observaciones de cada uno, extraídas de una población no observada de otro modo, están dadas por el matriz con las entradas
que es una estimación de la covarianza entre la variable y variables .
La media de la muestra y la matriz de covarianza de la muestra son estimaciones no sesgadas de la media y la matriz de covarianza del vector aleatorio , un vector cuyo j -ésimo elemento es una de las variables aleatorias. La razón por la cual la matriz de covarianza muestral tiene en el denominador en lugar de es esencialmente que la población media no se conoce y se reemplaza por la media muestral . Si la media de la población se conoce, la estimación insesgada análoga viene dada por .
Generalizaciones
Matriz de autocovarianza de vectores aleatorios reales
para un vector de variables aleatorias distribuidas conjuntamente con segundos momentos finitos, su matriz de autocovarianza (también conocida como matriz de varianza-covarianza o simplemente matriz de covarianza ) (también indicado por o ) Se define como
Dejar sea un vector aleatorio con matriz de covarianza Σ , y sea A una matriz que puede actuar sobre a la izquierda. La matriz de covarianza del producto matriz-vector AX es:
Este es un resultado directo de la linealidad de la expectativa y es útil cuando se aplica una transformación lineal, como una transformación de blanqueamiento, a un vector.
Matriz de covarianza cruzada de vectores aleatorios reales
Para vectores aleatorios reales y , el matriz de covarianza cruzada es igual a
( Ec.2 ) |
donde es la transpuesta del vector (o matriz) .
El -ésimo elemento de esta matriz es igual a la covarianza entre la i -ésima componente escalar de y la j -ésima componente escalar de . En particular, es la transposición de .
Cálculo numérico
Cuándo , la ecuacion es propenso a la cancelación catastrófica si y no se calculan exactamente y, por lo tanto, deben evitarse en los programas de computadora cuando los datos no se han centrado antes. Los algoritmos numéricamente estables deberían preferirse en este caso.
Comentarios
La covarianza a veces se llama una medida de "dependencia lineal" entre las dos variables aleatorias. Eso no significa lo mismo que en el contexto del álgebra lineal (ver dependencia lineal). Cuando se normaliza la covarianza, se obtiene el coeficiente de correlación de Pearson, que da la bondad del ajuste para la mejor función lineal posible que describe la relación entre las variables. En este sentido, la covarianza es un indicador lineal de dependencia.
Aplicaciones
En genética y biología molecular
La covarianza es una medida importante en biología. Ciertas secuencias de ADN se conservan más que otras entre especies y, por lo tanto, para estudiar estructuras secundarias y terciarias de proteínas, o de estructuras de ARN, las secuencias se comparan en especies estrechamente relacionadas. Si se encuentran cambios en la secuencia o no se encuentran cambios en absoluto en el ARN no codificante (como el microARN), se considera que las secuencias son necesarias para motivos estructurales comunes, como un bucle de ARN. En genética, la covarianza sirve de base para el cálculo de la Matriz de relación genética (GRM) (también conocida como matriz de parentesco), lo que permite inferir la estructura de la población a partir de una muestra sin parientes cercanos conocidos, así como inferir la estimación de la heredabilidad de rasgos complejos.
En la teoría de la evolución y la selección natural, la ecuación de Price describe cómo cambia la frecuencia de un rasgo genético a lo largo del tiempo. La ecuación utiliza una covarianza entre un rasgo y la aptitud para dar una descripción matemática de la evolución y la selección natural. Proporciona una forma de comprender los efectos que tienen la transmisión de genes y la selección natural en la proporción de genes dentro de cada nueva generación de una población. La ecuación de Price fue derivada por George R. Price, para volver a derivar el trabajo de WD Hamilton sobre la selección de parentesco. Se han construido ejemplos de la ecuación de Price para varios casos evolutivos.
En economía financiera
Las covarianzas juegan un papel clave en la economía financiera, especialmente en la teoría moderna de carteras y en el modelo de valoración de activos de capital. Las covarianzas entre los rendimientos de varios activos se utilizan para determinar, bajo ciertos supuestos, las cantidades relativas de diferentes activos que los inversores deberían (en un análisis normativo) o se prevé que (en un análisis positivo) elijan mantener en un contexto de diversificación.
En asimilación de datos meteorológicos y oceanográficos
La matriz de covarianza es importante para estimar las condiciones iniciales requeridas para ejecutar modelos de pronóstico del tiempo, un procedimiento conocido como asimilación de datos. La 'matriz de covarianza del error de pronóstico' se construye típicamente entre perturbaciones alrededor de un estado medio (ya sea una media climatológica o de conjunto). La 'matriz de covarianza de errores de observación' se construye para representar la magnitud de los errores de observación combinados (en la diagonal) y los errores correlacionados entre mediciones (fuera de la diagonal). Este es un ejemplo de su amplia aplicación al filtrado de Kalman y una estimación de estado más general para sistemas variables en el tiempo.
En micrometeorología
La técnica de covarianza de remolinos es una técnica de medición atmosférica clave en la que la covarianza entre la desviación instantánea de la velocidad del viento vertical con respecto al valor medio y la desviación instantánea de la concentración de gas es la base para calcular los flujos turbulentos verticales.
En el procesamiento de señales
La matriz de covarianza se utiliza para capturar la variabilidad espectral de una señal.
En estadísticas y procesamiento de imágenes
La matriz de covarianza se utiliza en el análisis de componentes principales para reducir la dimensionalidad de las características en el preprocesamiento de datos.
Contenido relacionado
Ciencias formales
Estadística matemática
Teoría estadística
Distribución logarítmica normal
Historia de la medición