Distribución conjunta
Dadas dos variables aleatorias que se definen en el mismo espacio de probabilidad, la distribución de probabilidad conjunta es la distribución de probabilidad correspondiente en todos los posibles pares de salidas. La distribución conjunta también puede considerarse para cualquier número dado de variables aleatorias. La distribución conjunta codifica las distribuciones marginales, es decir, las distribuciones de cada una de las variables aleatorias individuales. También codifica las distribuciones de probabilidad condicional, que se ocupan de cómo se distribuyen los resultados de una variable aleatoria cuando se proporciona información sobre los resultados de la(s) otra(s) variable(s) aleatoria(s).
En la configuración matemática formal de la teoría de la medida, la distribución conjunta está dada por la medida de avance, por el mapa obtenido al emparejar las variables aleatorias dadas, de la medida de probabilidad del espacio muestral.
En el caso de variables aleatorias de valor real, la distribución conjunta, como una distribución multivariante particular, puede expresarse mediante una función de distribución acumulativa multivariante, o mediante una función de densidad de probabilidad multivariante junto con una función de masa de probabilidad multivariante. En el caso especial de variables aleatorias continuas, es suficiente considerar funciones de densidad de probabilidad, y en el caso de variables aleatorias discretas, es suficiente considerar funciones de masa de probabilidad.
Ejemplos
Extrae de una urna
Suponga que cada una de las dos urnas contiene el doble de bolas rojas que de bolas azules, y ninguna otra, y suponga que se selecciona al azar una bola de cada urna, con los dos sorteos independientes entre sí. Sean y variables aleatorias discretas asociadas con los resultados del sorteo de la primera y segunda urna, respectivamente. La probabilidad de sacar una bola roja de cualquiera de las urnas es 2/3 y la probabilidad de sacar una bola azul es 1/3. La distribución de probabilidad conjunta se presenta en la siguiente tabla:
A=Rojo | A=Azul | P(B) | |
---|---|---|---|
B=Rojo | (2/3)(2/3)=4/9 | (1/3)(2/3)=2/9 | 4/9+2/9=2/3 |
B=Azul | (2/3)(1/3)=2/9 | (1/3)(1/3)=1/9 | 2/9+1/9=1/3 |
PENSILVANIA) | 4/9+2/9=2/3 | 2/9+1/9=1/3 |
Cada una de las cuatro celdas internas muestra la probabilidad de una combinación particular de resultados de los dos sorteos; estas probabilidades son la distribución conjunta. En cualquier celda, la probabilidad de que ocurra una combinación particular es (dado que los sorteos son independientes) el producto de la probabilidad del resultado especificado para A y la probabilidad del resultado especificado para B. Las probabilidades en estas cuatro celdas suman 1, como siempre es cierto para las distribuciones de probabilidad.
Además, la última fila y la última columna dan la distribución de probabilidad marginal de A y la distribución de probabilidad marginal de B, respectivamente. Por ejemplo, para A, la primera de estas celdas da la suma de las probabilidades de que A sea rojo, independientemente de qué posibilidad de B en la columna sobre la celda ocurra, como 2/3. Así, la distribución de probabilidad marginal para da las probabilidades incondicionales de , en un margen de la tabla.
Lanzamiento de monedas
Considere el lanzamiento de dos monedas justas; Sean y variables aleatorias discretas asociadas con los resultados del primer y segundo lanzamiento de moneda, respectivamente. Cada lanzamiento de moneda es una prueba de Bernoulli y tiene una distribución de Bernoulli. Si una moneda muestra "cara", la variable aleatoria asociada toma el valor 1 y, de lo contrario, toma el valor 0. La probabilidad de cada uno de estos resultados es 1/2, por lo que las funciones de densidad marginales (incondicionales) son
La función de masa de probabilidad conjunta de y define probabilidades para cada par de resultados. Todos los resultados posibles son
Dado que cada resultado es igualmente probable, la función de masa de probabilidad conjunta se convierte en
Dado que los lanzamientos de monedas son independientes, la función de masa de probabilidad conjunta es el producto de los marginales:
Lanzar un dado
Considere el lanzamiento de un dado justo y deje si el número es par (es decir, 2, 4 o 6) y si no. Además, si el número es primo (es decir, 2, 3 o 5) y si no.
1 | 2 | 3 | 4 | 5 | 6 | |
---|---|---|---|---|---|---|
UN | 0 | 1 | 0 | 1 | 0 | 1 |
B | 0 | 1 | 1 | 0 | 1 | 0 |
Entonces, la distribución conjunta de y , expresada como una función de masa de probabilidad, es
Estas probabilidades necesariamente suman 1, ya que la probabilidad de que ocurra alguna combinación de y es 1.
Distribución de probabilidad marginal
Si se define más de una variable aleatoria en un experimento aleatorio, es importante distinguir entre la distribución de probabilidad conjunta de X e Y y la distribución de probabilidad de cada variable individualmente. La distribución de probabilidad individual de una variable aleatoria se denomina distribución de probabilidad marginal. En general, la distribución de probabilidad marginal de X puede determinarse a partir de la distribución de probabilidad conjunta de X y otras variables aleatorias.
Si la función de densidad de probabilidad conjunta de la variable aleatoria X e Y es , la función de densidad de probabilidad marginal de X e Y, que define la distribución marginal, está dada por:
donde la primera integral es sobre todos los puntos en el rango de (X,Y) para los cuales X=x y la segunda integral es sobre todos los puntos en el rango de (X,Y) para los cuales Y=y.
Función de distribución acumulada conjunta
Para un par de variables aleatorias , la función de distribución acumulada conjunta (CDF) está dada por
(Ec.1) |
donde el lado derecho representa la probabilidad de que la variable aleatoria tome un valor menor o igual a y que tome un valor menor o igual a.
Para variables aleatorias , la CDF conjunta viene dada por
(Ec.2) |
Interpretar las variables aleatorias como un vector aleatorio produce una notación más corta:
Función de densidad conjunta o función de masa
Caso discreto
La función de masa de probabilidad conjunta de dos variables aleatorias discretas es:
(Ec.3) |
o escrito en términos de distribuciones condicionales
donde es la probabilidad de dado que .
La generalización del caso anterior de dos variables es la distribución de probabilidad conjunta de variables aleatorias discretas que es:
(Ec.4) |
o equivalente.
Esta identidad se conoce como la regla de la cadena de probabilidad.
Como estas son probabilidades, en el caso de dos variables
que generaliza para variables aleatorias discretas a
Caso continuo
La función de densidad de probabilidad conjunta para dos variables aleatorias continuas se define como la derivada de la función de distribución acumulativa conjunta (ver Eq.1):
(Ec.5) |
Esto es igual a:
donde y son las distribuciones condicionales de dado y de dado respectivamente, y y son las distribuciones marginales de y respectivamente.
La definición se extiende naturalmente a más de dos variables aleatorias:
(Ec.6) |
Nuevamente, dado que estas son distribuciones de probabilidad, uno tiene
respectivamente
Caso mixto
La "densidad conjunta mixta" se puede definir donde una o más variables aleatorias son continuas y las otras variables aleatorias son discretas. Con una variable de cada tipo
Un ejemplo de una situación en la que se puede desear encontrar la distribución acumulativa de una variable aleatoria que es continua y otra variable aleatoria que es discreta surge cuando se desea utilizar una regresión logística para predecir la probabilidad de un resultado binario Y condicional a la valor de un resultado continuamente distribuido . Se debe usar la densidad conjunta "mixta" al encontrar la distribución acumulativa de este resultado binario porque las variables de entrada se definieron inicialmente de tal manera que no se les podía asignar colectivamente ni una función de densidad de probabilidad ni una función de masa de probabilidad. Formalmente, es la función de densidad de probabilidad de con respecto al producto medida en los respectivos soportes de y. Cualquiera de estas dos descomposiciones se puede utilizar para recuperar la función de distribución acumulada conjunta:
La definición se generaliza a una mezcla de números arbitrarios de variables aleatorias discretas y continuas.
Propiedades adicionales
Distribución conjunta para variables independientes
En general, dos variables aleatorias y son independientes si y solo si la función de distribución acumulativa conjunta satisface
Dos variables aleatorias discretas y son independientes si y solo si la función de masa de probabilidad conjunta satisface
para todos y .
Mientras crece el número de eventos aleatorios independientes, el valor de probabilidad conjunta relacionado disminuye rápidamente a cero, de acuerdo con una ley exponencial negativa.
De manera similar, dos variables aleatorias absolutamente continuas son independientes si y solo si
para todos y . Esto significa que adquirir cualquier información sobre el valor de una o más de las variables aleatorias conduce a una distribución condicional de cualquier otra variable que sea idéntica a su distribución incondicional (marginal); por lo tanto, ninguna variable proporciona información sobre ninguna otra variable.
Distribución conjunta para variables condicionalmente dependientes
Si un subconjunto de las variables es condicionalmente dependiente dado otro subconjunto de estas variables, entonces la función de masa de probabilidad de la distribución conjunta es . es igual a . Por lo tanto, se puede representar de manera eficiente mediante las distribuciones de probabilidad de dimensión inferior y . Tales relaciones de independencia condicional se pueden representar con una red bayesiana o funciones de cópula.
Covarianza
Cuando se definen dos o más variables aleatorias en un espacio de probabilidad, es útil describir cómo varían juntas; es decir, es útil para medir la relación entre las variables. Una medida común de la relación entre dos variables aleatorias es la covarianza. La covarianza es una medida de la relación lineal entre las variables aleatorias. Si la relación entre las variables aleatorias no es lineal, la covarianza podría no ser sensible a la relación, lo que significa que no relaciona la correlación entre dos variables.
La covarianza entre la variable aleatoria X e Y, denotada como cov(X,Y), es:
Correlación
Hay otra medida de la relación entre dos variables aleatorias que suele ser más fácil de interpretar que la covarianza.
La correlación simplemente escala la covarianza por el producto de la desviación estándar de cada variable. En consecuencia, la correlación es una cantidad adimensional que se puede utilizar para comparar las relaciones lineales entre pares de variables en diferentes unidades. Si los puntos en la distribución de probabilidad conjunta de X e Y que reciben probabilidad positiva tienden a caer a lo largo de una línea de pendiente positiva (o negativa), ρ XY está cerca de +1 (o −1). Si ρ XY es igual a +1 o −1, se puede demostrar que los puntos en la distribución de probabilidad conjunta que reciben probabilidad positiva caen exactamente a lo largo de una línea recta. Se dice que dos variables aleatorias con correlación distinta de cero están correlacionadas. Similar a la covarianza, la correlación es una medida de la relación lineal entre variables aleatorias.
La correlación entre la variable aleatoria X e Y, denotada como
Distribuciones con nombre importantes
Las distribuciones conjuntas nombradas que surgen con frecuencia en las estadísticas incluyen la distribución normal multivariante, la distribución estable multivariante, la distribución multinomial, la distribución multinomial negativa, la distribución hipergeométrica multivariante y la distribución elíptica.
Contenido relacionado
Eventos colectivamente exhaustivos
Evento complementario
Sesgo de muestreo