Distribución conjunta

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Dadas dos variables aleatorias que se definen en el mismo espacio de probabilidad, la distribución de probabilidad conjunta es la distribución de probabilidad correspondiente en todos los posibles pares de salidas. La distribución conjunta también puede considerarse para cualquier número dado de variables aleatorias. La distribución conjunta codifica las distribuciones marginales, es decir, las distribuciones de cada una de las variables aleatorias individuales. También codifica las distribuciones de probabilidad condicional, que se ocupan de cómo se distribuyen los resultados de una variable aleatoria cuando se proporciona información sobre los resultados de la(s) otra(s) variable(s) aleatoria(s).

En la configuración matemática formal de la teoría de la medida, la distribución conjunta está dada por la medida de avance, por el mapa obtenido al emparejar las variables aleatorias dadas, de la medida de probabilidad del espacio muestral.

En el caso de variables aleatorias de valor real, la distribución conjunta, como una distribución multivariante particular, puede expresarse mediante una función de distribución acumulativa multivariante, o mediante una función de densidad de probabilidad multivariante junto con una función de masa de probabilidad multivariante. En el caso especial de variables aleatorias continuas, es suficiente considerar funciones de densidad de probabilidad, y en el caso de variables aleatorias discretas, es suficiente considerar funciones de masa de probabilidad.

Ejemplos

Extrae de una urna

Suponga que cada una de las dos urnas contiene el doble de bolas rojas que de bolas azules, y ninguna otra, y suponga que se selecciona al azar una bola de cada urna, con los dos sorteos independientes entre sí. Sean UNy Bvariables aleatorias discretas asociadas con los resultados del sorteo de la primera y segunda urna, respectivamente. La probabilidad de sacar una bola roja de cualquiera de las urnas es 2/3 y la probabilidad de sacar una bola azul es 1/3. La distribución de probabilidad conjunta se presenta en la siguiente tabla:

A=RojoA=AzulP(B)
B=Rojo(2/3)(2/3)=4/9(1/3)(2/3)=2/94/9+2/9=2/3
B=Azul(2/3)(1/3)=2/9(1/3)(1/3)=1/92/9+1/9=1/3
PENSILVANIA)4/9+2/9=2/32/9+1/9=1/3

Cada una de las cuatro celdas internas muestra la probabilidad de una combinación particular de resultados de los dos sorteos; estas probabilidades son la distribución conjunta. En cualquier celda, la probabilidad de que ocurra una combinación particular es (dado que los sorteos son independientes) el producto de la probabilidad del resultado especificado para A y la probabilidad del resultado especificado para B. Las probabilidades en estas cuatro celdas suman 1, como siempre es cierto para las distribuciones de probabilidad.

Además, la última fila y la última columna dan la distribución de probabilidad marginal de A y la distribución de probabilidad marginal de B, respectivamente. Por ejemplo, para A, la primera de estas celdas da la suma de las probabilidades de que A sea rojo, independientemente de qué posibilidad de B en la columna sobre la celda ocurra, como 2/3. Así, la distribución de probabilidad marginal para UNda UNlas probabilidades incondicionales de B, en un margen de la tabla.

Lanzamiento de monedas

Considere el lanzamiento de dos monedas justas; Sean UNy Bvariables aleatorias discretas asociadas con los resultados del primer y segundo lanzamiento de moneda, respectivamente. Cada lanzamiento de moneda es una prueba de Bernoulli y tiene una distribución de Bernoulli. Si una moneda muestra "cara", la variable aleatoria asociada toma el valor 1 y, de lo contrario, toma el valor 0. La probabilidad de cada uno de estos resultados es 1/2, por lo que las funciones de densidad marginales (incondicionales) son{displaystyle P(A)=1/2quad {text{for}}quad Ain {0,1};}{displaystyle P(B)=1/2quad {text{for}}quad Bin {0,1}.}

La función de masa de probabilidad conjunta de UNy Bdefine probabilidades para cada par de resultados. Todos los resultados posibles son{ estilo de visualización (A = 0, B = 0), (A = 0, B = 1), (A = 1, B = 0), (A = 1, B = 1).}

Dado que cada resultado es igualmente probable, la función de masa de probabilidad conjunta se convierte en{displaystyle P(A,B)=1/4quad {text{for}}quad A,Bin {0,1}.}

Dado que los lanzamientos de monedas son independientes, la función de masa de probabilidad conjunta es el producto de los marginales:{displaystyle P(A,B)=P(A)P(B)quad {text{for}}quad A,Bin {0,1}.}

Lanzar un dado

Considere el lanzamiento de un dado justo y deje A=1si el número es par (es decir, 2, 4 o 6) y A=0si no. Además, B=1si el número es primo (es decir, 2, 3 o 5) y b=0si no.

123456
UN010101
B011010

Entonces, la distribución conjunta de UNy B, expresada como una función de masa de probabilidad, es{displaystyle mathrm {P} (A=0,B=0)=P{1}={frac {1}{6}},quad quad mathrm {P} (A=1, B=0)=P{4,6}={frac{2}{6}},}{displaystyle mathrm {P} (A=0,B=1)=P{3,5}={frac {2}{6}},quad quad mathrm {P} (A= 1,B=1)=P{2}={frac{1}{6}}.}

Estas probabilidades necesariamente suman 1, ya que la probabilidad de que ocurra alguna combinación de UNy Bes 1.

Distribución de probabilidad marginal

Si se define más de una variable aleatoria en un experimento aleatorio, es importante distinguir entre la distribución de probabilidad conjunta de X e Y y la distribución de probabilidad de cada variable individualmente. La distribución de probabilidad individual de una variable aleatoria se denomina distribución de probabilidad marginal. En general, la distribución de probabilidad marginal de X puede determinarse a partir de la distribución de probabilidad conjunta de X y otras variables aleatorias.

Si la función de densidad de probabilidad conjunta de la variable aleatoria X e Y es f_{{X,Y}}(x,y), la función de densidad de probabilidad marginal de X e Y, que define la distribución marginal, está dada por:

{displaystyle f_{X}(x)=int f_{X,Y}(x,y);dy}
{displaystyle f_{Y}(y)=int f_{X,Y}(x,y);dx}

donde la primera integral es sobre todos los puntos en el rango de (X,Y) para los cuales X=x y la segunda integral es sobre todos los puntos en el rango de (X,Y) para los cuales Y=y.

Función de distribución acumulada conjunta

Para un par de variables aleatorias X,Y, la función de distribución acumulada conjunta (CDF) { estilo de visualización F_ {XY}}está dada por

{displaystyle F_{X,Y}(x,y)=operatorname {P} (Xleq x,Yleq y)} (Ec.1)

donde el lado derecho representa la probabilidad de que la variable aleatoria Xtome un valor menor o igual a y que tome un valor menor o igual a. X Yy

Para nortevariables aleatorias X_1,ldots,X_N, la CDF conjunta {displaystyle F_{X_{1},ldots,X_{N}}}viene dada por

{displaystyle F_{X_{1},ldots,X_{N}}(x_{1},ldots,x_{N})=operatorname {P} (X_{1}leq x_{1}, ldots,X_{N}leq x_{N})} (Ec.2)

Interpretar las nortevariables aleatorias como un vector aleatorio {displaystyle mathbf {X} =(X_{1},ldots,X_{N})^{T}}produce una notación más corta:{displaystyle F_{mathbf {X} }(mathbf {x})=operatorname {P} (X_{1}leq x_{1},ldots,X_{N}leq x_{N}) }

Función de densidad conjunta o función de masa

Caso discreto

La función de masa de probabilidad conjunta de dos variables aleatorias discretas X,Yes:

{displaystyle p_{X,Y}(x,y)=mathrm {P} (X=x mathrm {y}  Y=y)} (Ec.3)

o escrito en términos de distribuciones condicionales{displaystyle p_{X,Y}(x,y)=mathrm {P} (Y=ymid X=x)cdot mathrm {P} (X=x)=mathrm {P} (X =xmid Y=y)cdot mathrm {P} (Y=y)}

donde mathrm {P} (Y=ymid X=x)es la probabilidad de Y=ydado que x = x.

La generalización del caso anterior de dos variables es la distribución de probabilidad conjunta de norte,variables aleatorias discretas X_{1},X_{2},puntos,X_{n}que es:

{displaystyle p_{X_{1},ldots,X_{n}}(x_{1},ldots,x_{n})=mathrm {P} (X_{1}=x_{1}{ texto{ y }}puntos {texto{ y }}X_{n}=x_{n})} (Ec.4)

o equivalente{displaystyle {begin{alineado}p_{X_{1},ldots,X_{n}}(x_{1},ldots,x_{n})&=mathrm {P} (X_{1} =x_{1})cdot mathrm {P} (X_{2}=x_{2}mid X_{1}=x_{1})\&cdot mathrm {P} (X_{3} =x_{3}mid X_{1}=x_{1},X_{2}=x_{2})\&puntos \&cpunto P(X_{n}=x_{n}mid X_{1}=x_{1},X_{2}=x_{2},puntos,X_{n-1}=x_{n-1}).end{alineado}}}.

Esta identidad se conoce como la regla de la cadena de probabilidad.

Como estas son probabilidades, en el caso de dos variablessum _{i}sum _{j}mathrm {P} (X=x_{i} mathrm {y}  Y=y_{j})=1,,

que generaliza para norte,variables aleatorias discretas X_{1},X_{2},puntos,X_{n}asum_{i}sum_{j}puntos sum_{k}mathrm {P} (X_{1}=x_{1i},X_{2}=x_{2j},puntos,X_ {n}=x_{nk})=1.;

Caso continuo

La función de densidad de probabilidad conjunta f_{{X,Y}}(x,y) para dos variables aleatorias continuas se define como la derivada de la función de distribución acumulativa conjunta (ver Eq.1):

{displaystyle f_{X,Y}(x,y)={frac {parcial ^{2}F_{X,Y}(x,y)}{parcial xparcial y}}} (Ec.5)

Esto es igual a:{displaystyle f_{X,Y}(x,y)=f_{Ymid X}(ymid x)f_{X}(x)=f_{Xmid Y}(xmid y)f_ {Y}(y)}

donde {displaystyle f_{Ymid X}(ymid x)}y {displaystyle f_{Xmid Y}(xmid y)}son las distribuciones condicionales de Ydado x = xy de Xdado Y=yrespectivamente, y f_{X}(x)y f_Y(y)son las distribuciones marginales de Xy Yrespectivamente.

La definición se extiende naturalmente a más de dos variables aleatorias:

{displaystyle f_{X_{1},ldots,X_{n}}(x_{1},ldots,x_{n})={frac {parcial ^{n}F_{X_{1}, ldots,X_{n}}(x_{1},ldots,x_{n})}{parcial x_{1}ldots parcial x_{n}}}} (Ec.6)

Nuevamente, dado que estas son distribuciones de probabilidad, uno tiene{displaystyle int _{x}int _{y}f_{X,Y}(x,y);dy;dx=1}

respectivamente{displaystyle int _{x_{1}}ldots int _{x_{n}}f_{X_{1},ldots, X_{n}}(x_{1},ldots, x_{n });dx_{n}ldots;dx_{1}=1}

Caso mixto

La "densidad conjunta mixta" se puede definir donde una o más variables aleatorias son continuas y las otras variables aleatorias son discretas. Con una variable de cada tipo{displaystyle {begin{alineado}f_{X,Y}(x,y)=f_{Xmid Y}(xmid y)mathrm {P} (Y=y)=mathrm {P} (Y=ymid X=x)f_{X}(x).end{alineado}}}

Un ejemplo de una situación en la que se puede desear encontrar la distribución acumulativa de una variable aleatoria que es continua y otra variable aleatoria que es discreta surge cuando se desea utilizar una regresión logística para predecir la probabilidad de un resultado binario Y condicional a la valor de un resultado continuamente distribuido X. Se debe usar la densidad conjunta "mixta" al encontrar la distribución acumulativa de este resultado binario porque las variables de entrada (X, Y)se definieron inicialmente de tal manera que no se les podía asignar colectivamente ni una función de densidad de probabilidad ni una función de masa de probabilidad. Formalmente, f_{{X,Y}}(x,y)es la función de densidad de probabilidad de (X, Y)con respecto al producto medida en los respectivos soportes de XyY. Cualquiera de estas dos descomposiciones se puede utilizar para recuperar la función de distribución acumulada conjunta:{displaystyle {begin{alineado}F_{X,Y}(x,y)&=sum limits_{tleq y}int_{s=-infty}^{x}f_{X,Y}(s,t);ds.end{alineado}}}

La definición se generaliza a una mezcla de números arbitrarios de variables aleatorias discretas y continuas.

Propiedades adicionales

Distribución conjunta para variables independientes

En general, dos variables aleatorias Xy Yson independientes si y solo si la función de distribución acumulativa conjunta satisface{displaystyle F_{X,Y}(x,y)=F_{X}(x)cdot F_{Y}(y)}

Dos variables aleatorias discretas Xy Yson independientes si y solo si la función de masa de probabilidad conjunta satisface{displaystyle P(X=x {mbox{y}} Y=y)=P(X=x)cdot P(Y=y)}

para todos Xy y.

Mientras crece el número de eventos aleatorios independientes, el valor de probabilidad conjunta relacionado disminuye rápidamente a cero, de acuerdo con una ley exponencial negativa.

De manera similar, dos variables aleatorias absolutamente continuas son independientes si y solo si{displaystyle f_{X,Y}(x,y)=f_{X}(x)cdot f_{Y}(y)}

para todos Xy y. Esto significa que adquirir cualquier información sobre el valor de una o más de las variables aleatorias conduce a una distribución condicional de cualquier otra variable que sea idéntica a su distribución incondicional (marginal); por lo tanto, ninguna variable proporciona información sobre ninguna otra variable.

Distribución conjunta para variables condicionalmente dependientes

Si un subconjunto UNde las variables X_{1},cdots,X_{n}es condicionalmente dependiente dado otro subconjunto Bde estas variables, entonces la función de masa de probabilidad de la distribución conjunta es mathrm {P} (X_{1},ldots,X_{n}). mathrm {P} (X_{1},ldots,X_{n})es igual a P(B)cdot P(Amid B). Por lo tanto, se puede representar de manera eficiente mediante las distribuciones de probabilidad de dimensión inferior P(B)y P(Amedia B). Tales relaciones de independencia condicional se pueden representar con una red bayesiana o funciones de cópula.

Covarianza

Cuando se definen dos o más variables aleatorias en un espacio de probabilidad, es útil describir cómo varían juntas; es decir, es útil para medir la relación entre las variables. Una medida común de la relación entre dos variables aleatorias es la covarianza. La covarianza es una medida de la relación lineal entre las variables aleatorias. Si la relación entre las variables aleatorias no es lineal, la covarianza podría no ser sensible a la relación, lo que significa que no relaciona la correlación entre dos variables.

La covarianza entre la variable aleatoria X e Y, denotada como cov(X,Y), es:

{displaystyle sigma_{XY}=E[(X-mu_{x})(Y-mu_{y})]=E(XY)-mu_{x}mu_{y }}

Correlación

Hay otra medida de la relación entre dos variables aleatorias que suele ser más fácil de interpretar que la covarianza.

La correlación simplemente escala la covarianza por el producto de la desviación estándar de cada variable. En consecuencia, la correlación es una cantidad adimensional que se puede utilizar para comparar las relaciones lineales entre pares de variables en diferentes unidades. Si los puntos en la distribución de probabilidad conjunta de X e Y que reciben probabilidad positiva tienden a caer a lo largo de una línea de pendiente positiva (o negativa), ρ XY está cerca de +1 (o −1). Si ρ XY es igual a +1 o −1, se puede demostrar que los puntos en la distribución de probabilidad conjunta que reciben probabilidad positiva caen exactamente a lo largo de una línea recta. Se dice que dos variables aleatorias con correlación distinta de cero están correlacionadas. Similar a la covarianza, la correlación es una medida de la relación lineal entre variables aleatorias.

La correlación entre la variable aleatoria X e Y, denotada como

{displaystyle rho _{XY}={frac {cov(X,Y)}{sqrt {V(X)V(Y)}}}={frac {sigma _{XY}}{ sigma _ {X}  sigma _ {Y}}}}

Distribuciones con nombre importantes

Las distribuciones conjuntas nombradas que surgen con frecuencia en las estadísticas incluyen la distribución normal multivariante, la distribución estable multivariante, la distribución multinomial, la distribución multinomial negativa, la distribución hipergeométrica multivariante y la distribución elíptica.

Contenido relacionado

Eventos colectivamente exhaustivos

En teoría y lógica de las probabilidades, un conjunto de eventos es conjunta o colectivamente exhaustivo si al menos uno de los eventos debe ocurrir. Por...

Evento complementario

En la teoría de la probabilidad, el complemento de cualquier evento A es el evento [no A ], es decir, el evento de que A no ocurre. El evento A y su...

Sesgo de muestreo

En estadística, el sesgo de muestreo es un sesgo en el que una muestra se recopila de tal manera que algunos miembros de la población prevista tienen una...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save