Variable aleatoria

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Una variable aleatoria (también llamada cantidad aleatoria , variable aleatoria o variable estocástica ) es una formalización matemática de una cantidad u objeto que depende de eventos aleatorios.

Informalmente, la aleatoriedad típicamente representa algún elemento fundamental del azar, como en el lanzamiento de un dado; también puede representar incertidumbre, como un error de medición. Sin embargo, la interpretación de la probabilidad es filosóficamente complicada e incluso en casos específicos no siempre es sencilla. El análisis puramente matemático de variables aleatorias es independiente de tales dificultades de interpretación y puede basarse en una configuración axiomática rigurosa.

En el lenguaje matemático formal de la teoría de la medida, una variable aleatoria se define como una función medible desde un espacio de medida de probabilidad (llamado espacio muestral ) hasta un espacio medible. Esto permite considerar la medida pushforward, que se denomina distribución de la variable aleatoria; la distribución es así una medida de probabilidad sobre el conjunto de todos los valores posibles de la variable aleatoria. Es posible que dos variables aleatorias tengan distribuciones idénticas pero difieran de manera significativa; por ejemplo, pueden ser independientes.

Es común considerar los casos especiales de variables aleatorias discretas y variables aleatorias continuas, correspondientes a si una variable aleatoria se valora en un conjunto discreto (como un conjunto finito) o en un intervalo de números reales. Hay otras posibilidades importantes, especialmente en la teoría de los procesos estocásticos, donde es natural considerar secuencias aleatorias o funciones aleatorias. A veces, se toma una variable aleatoria para que se valore automáticamente en los números reales, y las cantidades aleatorias más generales se denominan elementos aleatorios .

Según George Mackey, Pafnuty Chebyshev fue la primera persona en "pensar sistemáticamente en términos de variables aleatorias".

Definición

Una variable aleatoria  Xes una función medible {\displaystyle X\colon \Omega \to E}de un conjunto de resultados posibles \Omegaa un espacio medible Y. La definición axiomática técnica requiere \Omegaser un espacio muestral de un triple de probabilidad {\displaystyle (\Omega ,{\mathcal {F}},\operatorname {P} )}(ver la definición de la teoría de la medida). Una variable aleatoria a menudo se denota con letras romanas mayúsculas como X, Y, CON, T.

La probabilidad de que Xtoma un valor en un conjunto medible {\displaystyle S\subseteq E}se escribe como {\displaystyle \operatorname {P} (X\in S)=\operatorname {P} (\{\omega \in \Omega \mid X(\omega )\in S\})}

Caso estándar

En muchos casos, Xtiene valor real, es decir mi = \mathbb{R}. En algunos contextos, el término elemento aleatorio (ver extensiones) se usa para denotar una variable aleatoria que no tiene esta forma.

Cuando la imagen (o rango) de Xes contable, la variable aleatoria se denomina variable aleatoria discreta y su distribución es una distribución de probabilidad discreta, es decir, puede describirse mediante una función de masa de probabilidad que asigna una probabilidad a cada valor en la imagen de X. Si la imagen es incontablemente infinita (generalmente un intervalo), entonces Xse llama variable aleatoria continua . En el caso especial de que sea absolutamente continua, su distribución puede describirse mediante una función de densidad de probabilidad, que asigna probabilidades a los intervalos; en particular, cada punto individual debe tener necesariamente probabilidad cero para una variable aleatoria absolutamente continua. No todas las variables aleatorias continuas son absolutamente continuas, una distribución mixta es uno de esos contraejemplos; dichas variables aleatorias no pueden describirse mediante una densidad de probabilidad o una función de masa de probabilidad.

Cualquier variable aleatoria puede describirse por su función de distribución acumulativa, que describe la probabilidad de que la variable aleatoria sea menor o igual a un cierto valor.

Extensiones

El término "variable aleatoria" en estadística se limita tradicionalmente al caso de valor real ( E=\matemáticas {R}). En este caso, la estructura de los números reales permite definir cantidades como el valor esperado y la varianza de una variable aleatoria, su función de distribución acumulada y los momentos de su distribución.

Sin embargo, la definición anterior es válida para cualquier espacio medible Yde valores Así uno puede considerar elementos aleatorios de otros conjuntos Y, como valores booleanos aleatorios, valores categóricos, números complejos, vectores, matrices, secuencias, árboles, conjuntos, formas, variedades y funciones. Entonces uno puede referirse específicamente a una variable aleatoria de tipo , o un{\ estilo de visualización E}variable aleatoria de valor variable .

Este concepto más general de un elemento aleatorio es particularmente útil en disciplinas como la teoría de grafos, el aprendizaje automático, el procesamiento del lenguaje natural y otros campos de las matemáticas discretas y la informática, donde uno suele estar interesado en modelar la variación aleatoria de datos no numéricos. estructuras En algunos casos, sin embargo, es conveniente representar cada elemento de Y, usando uno o más números reales. En este caso, un elemento aleatorio puede representarse opcionalmente como un vector de variables aleatorias de valor real (todas definidas en el mismo espacio de probabilidad subyacente). \Omega, que permite que las diferentes variables aleatorias covaríen). Por ejemplo:

  • Una palabra aleatoria puede representarse como un número entero aleatorio que sirve como índice del vocabulario de posibles palabras. Alternativamente, se puede representar como un vector indicador aleatorio, cuya longitud es igual al tamaño del vocabulario, donde los únicos valores de probabilidad positiva son {\ estilo de visualización (1 \ 0 \ 0 \ 0 \ \ cdots)}, {\ estilo de visualización (0\ 1\ 0\ 0\ \ cdots)}, {\ estilo de visualización (0 \ 0 \ 1 \ 0 \ \ cdots)}y la posición del 1 indica la palabra.
  • Una oración aleatoria de longitud dada nortepuede representarse como un vector de nortepalabras aleatorias.
  • Un gráfico aleatorio en nortevértices dados pueden representarse como N\veces Nmatriz de variables aleatorias, cuyos valores especifican la matriz de adyacencia del grafo aleatorio.
  • Una función aleatoria Fpuede representarse como una colección de variables aleatorias F(x), dando los valores de la función en los distintos puntos xen el dominio de la función. El F(x)son variables aleatorias ordinarias de valor real siempre que la función sea de valor real. Por ejemplo, un proceso estocástico es una función aleatoria del tiempo, un vector aleatorio es una función aleatoria de algún conjunto de índices como {\displaystyle 1,2,\ldots,n}, y el campo aleatorio es una función aleatoria en cualquier conjunto (típicamente tiempo, espacio o un conjunto discreto).

Funciones de distribución

Si una variable aleatoria X\colon\Omega\to\mathbb {R}definido en el espacio de probabilidad {\displaystyle (\Omega ,{\mathcal {F}},\operatorname {P} )}se da, podemos hacer preguntas como "¿Qué tan probable es que el valor de Xes igual a 2?". Esto es lo mismo que la probabilidad del evento \{\omega :X(\omega )=2\}\,\!que a menudo se escribe como P(X=2)\,\!o p_{X}(2)para abreviar.

Registro de todas estas probabilidades de rangos de salida de una variable aleatoria de valor real Xproduce la distribución de probabilidad de X. La distribución de probabilidad "olvida" el espacio de probabilidad particular utilizado para definir Xy sólo registra las probabilidades de varios valores de X. Tal distribución de probabilidad siempre puede ser capturada por su función de distribución acumulativa F_{X}(x)=\nombre del operador {P} (X\leq x)

y a veces también usando una función de densidad de probabilidad, p_{X}. En términos de teoría de la medida, usamos la variable aleatoria Xpara "impulsar" la medida PAGSsobre \Omegaa una medida p_{X}sobre \matemáticas {R}. El espacio de probabilidad subyacente \Omegaes un dispositivo técnico utilizado para garantizar la existencia de variables aleatorias, a veces para construirlas, y para definir nociones como correlación y dependencia o independencia a partir de una distribución conjunta de dos o más variables aleatorias en el mismo espacio de probabilidad. En la práctica, a menudo se dispone del espacio \Omegaen conjunto y solo pone una medida en \matemáticas {R}que asigna la medida 1 a toda la recta real, es decir, se trabaja con distribuciones de probabilidad en lugar de variables aleatorias. Consulte el artículo sobre funciones de cuantiles para un desarrollo más completo.

Ejemplos

Variable aleatoria discreta

En un experimento, se puede elegir una persona al azar y una variable aleatoria puede ser la altura de la persona. Matemáticamente, la variable aleatoria se interpreta como una función que relaciona a la persona con la altura de la persona. Asociada con la variable aleatoria hay una distribución de probabilidad que permite calcular la probabilidad de que la altura esté en cualquier subconjunto de valores posibles, como la probabilidad de que la altura esté entre 180 y 190 cm, o la probabilidad de que la altura sea menor de 150 o más de 200 cm.

Otra variable aleatoria puede ser el número de hijos de la persona; esta es una variable aleatoria discreta con valores enteros no negativos. Permite el cálculo de probabilidades para valores enteros individuales, la función de masa de probabilidad (PMF), o para conjuntos de valores, incluidos conjuntos infinitos. Por ejemplo, el evento de interés puede ser "un número par de niños". Tanto para conjuntos de eventos finitos como infinitos, sus probabilidades se pueden encontrar sumando los PMF de los elementos; es decir, la probabilidad de un número par de hijos es la suma infinita {\displaystyle \nombre del operador {PMF} (0)+\nombre del operador {PMF} (2)+\nombre del operador {PMF} (4)+\cdots }.

En ejemplos como estos, el espacio muestral a menudo se suprime, ya que es matemáticamente difícil de describir, y los posibles valores de las variables aleatorias se tratan como un espacio muestral. Pero cuando dos variables aleatorias se miden en el mismo espacio muestral de resultados, como la estatura y el número de hijos que se calculan en las mismas personas aleatorias, es más fácil rastrear su relación si se reconoce que tanto la estatura como el número de hijos provienen de la misma persona aleatoria, por ejemplo para que se puedan plantear preguntas sobre si tales variables aleatorias están correlacionadas o no.

Si {\estilo de texto \{a_{n}\},\{b_{n}\}}son conjuntos contables de números reales,{\textstyle b_{n}>0}0}">y {\estilo de texto \sum_{n}b_{n}=1}, entonces{\textstyle F=\sum _{n}b_{n}\delta _{a_{n}}}{\textstyle F=\sum _{n}b_{n}\delta _{a_{n}}}es una función de distribución discreta. Aquí {\ estilo de visualización \ delta _ {t} (x) = 0}por <img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/29d1dc488d4ab095183b700be244e98632e0b5d8" alt="{\ estilo de visualización x , {\ estilo de visualización \ delta _ {t} (x) = 1}por {\ estilo de visualización x \ geq t}. Tomando por ejemplo una enumeración de todos los números racionales como \{un}\}, se obtiene una función de distribución discreta que no es una función escalonada ni una constante por partes.

Lanzamiento de la moneda

Los posibles resultados de un lanzamiento de moneda pueden describirse mediante el espacio muestral \Omega =\{{\text{cara}},{\text{cruz}}\}. Podemos introducir una variable aleatoria de valor real Yque modela un pago de $1 por una apuesta exitosa a cara de la siguiente manera:

{\displaystyle Y(\omega )={\begin{cases}1,&{\text{if }}\omega ={\text{heads}},\\[6pt]0,&{\text{if } }\omega ={\text{cruces}}.\end{casos}}}

Si la moneda es una moneda justa, Y tiene una función de masa de probabilidad f_{Y}dada por:

{\displaystyle f_{Y}(y)={\begin{casos}{\tfrac {1}{2}},&{\text{if }}y=1,\\[6pt]{\tfrac {1 {2}},&{\text{si}}y=0,\end{casos}}}

Tirada de dados

También se puede usar una variable aleatoria para describir el proceso de tirar los dados y los posibles resultados. La representación más obvia para el caso de dos dados es tomar el conjunto de pares de números 1 y 2 de {1, 2, 3, 4, 5, 6} (que representan los números en los dos dados) como muestra espacio. El número total obtenido (la suma de los números en cada par) es entonces una variable aleatoria X dada por la función que asigna el par a la suma:

{\displaystyle X((n_{1},n_{2}))=n_{1}+n_{2}}y (si los dados son justos) tiene una función de masa de probabilidad X dada por:

{\displaystyle f_{X}(S)={\frac {\min(S-1,13-S)}{36}},{\text{ para }}S\in \{2,3,4, 5,6,7,8,9,10,11,12\}}

Variable aleatoria continua

Formalmente, una variable aleatoria continua es una variable aleatoria cuya función de distribución acumulativa es continua en todas partes. No hay "brechas", que corresponderían a números que tienen una probabilidad finita de ocurrir. En cambio, las variables aleatorias continuas casi nunca toman un valor exacto prescrito c (formalmente,{\textstyle \forall c\in \mathbb {R} :\;\Pr(X=c)=0}{\textstyle \forall c\in \mathbb {R} :\;\Pr(X=c)=0}) pero existe una probabilidad positiva de que su valor se encuentre en intervalos particulares que pueden ser arbitrariamente pequeños. Las variables aleatorias continuas suelen admitir funciones de densidad de probabilidad (PDF), que caracterizan su CDF y medidas de probabilidad; tales distribuciones también se denominan absolutamente continuas; pero algunas distribuciones continuas son singulares, o mezclas de una parte absolutamente continua y una parte singular.

Un ejemplo de una variable aleatoria continua sería una basada en una ruleta que puede elegir una dirección horizontal. Entonces los valores que toma la variable aleatoria son direcciones. Podríamos representar estas direcciones por Norte, Oeste, Este, Sur, Sudeste, etc. Sin embargo, comúnmente es más conveniente asignar el espacio muestral a una variable aleatoria que toma valores que son números reales. Esto se puede hacer, por ejemplo, asignando una dirección a un rumbo en grados en el sentido de las agujas del reloj desde el norte. Luego, la variable aleatoria toma valores que son números reales del intervalo [0, 360), siendo todas las partes del rango "igualmente probables". En este caso, X = el ángulo girado. Cualquier número real tiene probabilidad cero de ser seleccionado, pero se puede asignar una probabilidad positiva a cualquier rangode valores Por ejemplo, la probabilidad de elegir un número en [0, 180] es 1 ⁄ 2 . En lugar de hablar de una función de masa de probabilidad, decimos que la densidad de probabilidad de X es 1/360. La probabilidad de un subconjunto de [0, 360) se puede calcular multiplicando la medida del conjunto por 1/360. En general, la probabilidad de un conjunto para una variable aleatoria continua dada se puede calcular integrando la densidad sobre el conjunto dado.

Más formalmente, dado cualquier intervalo{\textstyle I=[a,b]=\{x\in \mathbb {R} :a\leq x\leq b\}}{\textstyle I=[a,b]=\{x\in \mathbb {R} :a\leq x\leq b\}}, una variable aleatoria {\displaystyle X_{I}\sim \nombre de operador {U} (I)=\nombre de operador {U} [a,b]}se denomina "variable aleatoria uniforme continua" (CURV) si la probabilidad de que tome un valor en un subintervalo depende solo de la longitud del subintervalo. Esto implica que la probabilidad de X_{I}cayendo en cualquier subintervalo {\displaystyle [c,d]\subseteq [a,b]}es proporcional a la longitud del subintervalo, es decir, si a ≤ c ≤ d ≤ b , se tiene

{\displaystyle \Pr \left(X_{I}\in [c,d]\right)={\frac {dc}{ba}}}

donde la última igualdad resulta del axioma de probabilidad unitaria. La función de densidad de probabilidad de un CURV {\ estilo de visualización X \ sim \ nombre del operador {U} [a, b]}viene dada por la función indicadora de su intervalo de apoyo normalizado por la longitud del intervalo:

{\displaystyle f_{X}(x)={\begin{casos}\displaystyle {1 \over ba},&a\leq x\leq b\\0,&{\text{de lo contrario}}.\end{casos }}}De particular interés es la distribución uniforme en el intervalo unitario [0,1]. Muestras de cualquier distribución de probabilidad deseada {\ estilo de visualización \ nombre del operador {D} }se puede generar calculando la función cuantil de {\ estilo de visualización \ nombre del operador {D} }en un número generado aleatoriamente distribuido uniformemente en el intervalo unitario. Esto explota las propiedades de las funciones de distribución acumulativa, que son un marco unificador para todas las variables aleatorias.

Tipo mixto

Una variable aleatoria mixta es una variable aleatoria cuya función de distribución acumulativa no es ni discreta ni continua en todas partes. Puede realizarse como la suma de una variable aleatoria discreta y una variable aleatoria continua; en cuyo caso la CDF será el promedio ponderado de las CDF de las variables componentes.

Un ejemplo de una variable aleatoria de tipo mixto se basaría en un experimento en el que se lanza una moneda y la ruleta gira solo si el resultado del lanzamiento de la moneda es cara. Si el resultado es cruz, X = −1; de lo contrario , X = el valor de la ruleta como en el ejemplo anterior. Hay una probabilidad de 1 ⁄ 2 de que esta variable aleatoria tenga el valor −1. Otros rangos de valores tendrían la mitad de las probabilidades del último ejemplo.

Más generalmente, cada distribución de probabilidad en la línea real es una mezcla de parte discreta, parte singular y una parte absolutamente continua; véase el teorema de descomposición de Lebesgue § Refinamiento. La parte discreta se concentra en un conjunto contable, pero este conjunto puede ser denso (como el conjunto de todos los números racionales).

Definición de medida teórica

La definición axiomática más formal de una variable aleatoria implica la teoría de la medida. Las variables aleatorias continuas se definen en términos de conjuntos de números, junto con funciones que asignan tales conjuntos a probabilidades. Debido a varias dificultades (p. ej., la paradoja de Banach-Tarski) que surgen si dichos conjuntos no están suficientemente restringidos, es necesario introducir lo que se denomina sigma-álgebra para restringir los posibles conjuntos sobre los que se pueden definir las probabilidades. Normalmente, se usa un sigma-álgebra particular, el σ-álgebra de Borel, que permite definir probabilidades sobre cualquier conjunto que pueda derivarse directamente de intervalos continuos de números o mediante un número finito o contablemente infinito de uniones y/ o intersecciones de dichos intervalos.

La definición teórica de la medida es la siguiente.

En términos más intuitivos, un miembro de \Omegaes un resultado posible, un miembro de {\ matemáticas {F}}es un subconjunto medible de posibles resultados, la función PAGSda la probabilidad de cada subconjunto medible, Yrepresenta el conjunto de valores que puede tomar la variable aleatoria (como el conjunto de números reales), y un miembro de {\ matemáticas {E}}es un subconjunto de "buen comportamiento" (medible) de Y(aquellos para los que se puede determinar la probabilidad). Entonces, la variable aleatoria es una función de cualquier resultado a una cantidad, de modo que los resultados que conducen a cualquier subconjunto útil de cantidades para la variable aleatoria tienen una probabilidad bien definida.

Variables aleatorias de valor real

En este caso el espacio de observación es el conjunto de los números reales. Recuerdo,  (\Omega,{\mathcal {F}},P)es el espacio de probabilidad. Para un espacio de observación real, la función X\colon \Omega \rightarrow \mathbb {R}es una variable aleatoria de valor real si \{\omega :X(\omega )\leq r\}\in {\mathcal {F}}\qquad \forall r\in \mathbb {R} .

Esta definición es un caso especial de las anteriores porque el conjunto \{(-\infty,r]:r\in \mathbb {R} \}genera el álgebra σ de Borel en el conjunto de números reales, y es suficiente para verificar la mensurabilidad en cualquier conjunto generador. Aquí podemos probar la mensurabilidad en este grupo electrógeno usando el hecho de que \{\omega :X(\omega )\leq r\}=X^{-1}((-\infty ,r]).

Momentos

La distribución de probabilidad de una variable aleatoria a menudo se caracteriza por un pequeño número de parámetros, que también tienen una interpretación práctica. Por ejemplo, a menudo es suficiente saber cuál es su "valor medio". Esto es capturado por el concepto matemático de valor esperado de una variable aleatoria, denotado \nombre del operador {E} [X], y también llamado el primer momento. En general, {\ estilo de visualización \ nombre del operador {E} [f (X)]}no es igual a {\ estilo de visualización f (\ nombre del operador {E} [X])}. Una vez que se conoce el "valor medio", se podría preguntar a qué distancia de este valor medio se encuentran los valores de Xtípicamente son, una pregunta que es respondida por la varianza y la desviación estándar de una variable aleatoria. \nombre del operador {E} [X]puede verse intuitivamente como un promedio obtenido de una población infinita, cuyos miembros son evaluaciones particulares de X.

Matemáticamente, esto se conoce como el problema (generalizado) de momentos: para una clase dada de variables aleatorias X, encontrar una colección \{f_{i}\}de funciones tales que los valores esperados {\ estilo de visualización \ nombre del operador {E} [f_ {i} (X)]}caracterizar completamente la distribución de la variable aleatoria X.

Los momentos solo se pueden definir para funciones de valores reales de variables aleatorias (o de valores complejos, etc.). Si la variable aleatoria tiene un valor real, entonces se pueden tomar momentos de la variable misma, que son equivalentes a los momentos de la función identidad. f(X)=Xde la variable aleatoria. Sin embargo, incluso para variables aleatorias de valor no real, se pueden tomar momentos de funciones de valor real de esas variables. Por ejemplo, para una variable aleatoria categórica X que puede tomar los valores nominales "rojo", "azul" o "verde", la función de valor real [X={\texto{verde}}]puede ser construido; esto usa el corchete de Iverson, y tiene el valor 1 si Xtiene el valor "verde", 0 en caso contrario. Luego, se puede determinar el valor esperado y otros momentos de esta función.

Funciones de variables aleatorias

Se puede definir una nueva variable aleatoria Y aplicando una función real medible de Borel g\colon \mathbb {R} \rightarrow \mathbb {R}a los resultados de una variable aleatoria de valor real X. Es decir, Y=g(X). La función de distribución acumulada de Yes entonces F_{Y}(y)=\operatorname {P} (g(X)\leq y).

Si funcion gramoes invertible (es decir, {\ estilo de visualización h = g ^ {-1}}existe, donde hes gramofunción inversa de ) y es creciente o decreciente, entonces la relación anterior se puede extender para obtener {\displaystyle F_{Y}(y)=\operatorname {P} (g(X)\leq y)={\begin{casos}\operatorname {P} (X\leq h(y))=F_{X }(h(y)),&{\text{if }}h=g^{-1}{\text{aumentando}},\\\\\nombre del operador {P} (X\geq h(y)) =1-F_{X}(h(y)),&{\text{if }}h=g^{-1}{\text{ decreciente}}.\end{casos}}}

Con las mismas hipótesis de invertibilidad de gramo, suponiendo también diferenciabilidad, la relación entre las funciones de densidad de probabilidad se puede encontrar diferenciando ambos lados de la expresión anterior con respecto a y, para obtener {\displaystyle f_{Y}(y)=f_{X}{\bigl (}h(y){\bigr )}\left|{\frac {dh(y)}{dy}}\right|.}

Si no hay invertibilidad de gramopero cada uno yadmite como máximo un número contable de raíces (es decir, un número finito, o numerablemente infinito, de x_{yo}tal que {\ estilo de visualización y = g (x_ {i})}) entonces la relación anterior entre las funciones de densidad de probabilidad se puede generalizar con f_{Y}(y)=\sum_{i}f_{X}(g_{i}^{-1}(y))\left|{\frac {dg_{i}^{-1}(y )}{dy}}\right|

donde {\displaystyle x_{i}=g_{i}^{-1}(y)}, según el teorema de la función inversa. Las fórmulas para densidades no exigen gramoir aumentando.

En el enfoque axiomático de la teoría de la medida de la probabilidad, si una variable aleatoria Xsobre \Omegay una función medible de Borel g\colon \mathbb {R} \rightarrow \mathbb {R}, entonces {\displaystyle Y=g(X)}es también una variable aleatoria en \Omega, ya que la composición de funciones medibles también es medible. (Sin embargo, esto no es necesariamente cierto si gramoes Lebesgue medible. ) El mismo procedimiento que permitía pasar de un espacio de probabilidad {\ estilo de visualización (\ Omega, P)}a (\mathbb{R},dF_{X})se puede utilizar para obtener la distribución de Y.

Ejemplo 1

Dejar Xsea ​​una variable aleatoria continua de valor real y sea {\displaystyle Y=X^{2}}. F_{Y}(y)=\operatorname {P} (X^{2}\leq y).

Si <img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/dd6a57e5eb282c81c2bb6f5e313012fa77bc08a4" alt="{\displaystyle y, entonces {\displaystyle P(X^{2}\leq y)=0}, entonces <img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/bcdceed3c03d3e2224bd086e1cf5a5866a17d611" alt="F_{Y}(y)=0\qquad {\hbox{if}}\quad y

Si {\displaystyle y\geq 0}, entonces \operatorname {P} (X^{2}\leq y)=\operatorname {P} (|X|\leq {\sqrt {y}})=\operatorname {P} (-{\sqrt {y}} \leq X\leq {\sqrt {y}}),

entonces F_{Y}(y)=F_{X}({\sqrt {y}})-F_{X}(-{\sqrt {y}})\qquad {\hbox{if}}\quad y\geq 0.

Ejemplo 2

Suponer Xes una variable aleatoria con una distribución acumulativa F_{X}(x)=P(X\leq x)={\frac {1}{(1+e^{-x})^{\theta }}}

donde 0">es un parámetro fijo. Considere la variable aleatoria {\displaystyle Y=\mathrm {registro} (1+e^{-X}).}Entonces, {\displaystyle F_{Y}(y)=P(Y\leq y)=P(\mathrm {log} (1+e^{-X})\leq y)=P(X\geq -\mathrm {log} (e^{y}-1)).\,}

La última expresión se puede calcular en términos de la distribución acumulada de X,entonces {\displaystyle {\begin{alineado}F_{Y}(y)&=1-F_{X}(-\log(e^{y}-1))\\[5pt]&=1-{\frac {1}{(1+e^{\log(e^{y}-1)})^{\theta }}}\\[5pt]&=1-{\frac {1}{(1+e ^{y}-1)^{\theta }}}\\[5pt]&=1-e^{-y\theta }.\end{alineado}}}

que es la función de distribución acumulativa (CDF) de una distribución exponencial.

Ejemplo 3

Suponer Xes una variable aleatoria con una distribución normal estándar, cuya densidad es f_{X}(x)={\frac {1}{\sqrt {2\pi }}}e^{-x^{2}/2}.

Considere la variable aleatoria {\displaystyle Y=X^{2}.}Podemos encontrar la densidad usando la fórmula anterior para un cambio de variables: f_{Y}(y)=\sum_{i}f_{X}(g_{i}^{-1}(y))\left|{\frac {dg_{i}^{-1}(y )}{día}}\derecho|.

En este caso el cambio no es monótono, porque todo valor de Ytiene dos valores correspondientes de X(uno positivo y uno negativo). Sin embargo, debido a la simetría, ambas mitades se transformarán de manera idéntica, es decir, f_{Y}(y)=2f_{X}(g^{-1}(y))\left|{\frac {dg^{-1}(y)}{dy}}\right|.

La transformación inversa es x=g^{-1}(y)={\sqrt {y}}

y su derivada es {\frac {dg^{-1}(y)}{dy}}={\frac {1}{2{\sqrt {y}}}}.

Entonces, f_{Y}(y)=2{\frac {1}{\sqrt {2\pi }}}e^{-y/2}{\frac {1}{2{\sqrt {y}}}}={\frac {1}{\sqrt {2\pi y}}}e^{-y/2}.

Esta es una distribución chi-cuadrado con un grado de libertad.

Ejemplo 4

Suponer Xes una variable aleatoria con distribución normal, cuya densidad es {\displaystyle f_{X}(x)={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}e^{-(x-\mu )^{2}/(2 \sigma^{2})}.}

Considere la variable aleatoria {\displaystyle Y=X^{2}.}Podemos encontrar la densidad usando la fórmula anterior para un cambio de variables: f_{Y}(y)=\sum_{i}f_{X}(g_{i}^{-1}(y))\left|{\frac {dg_{i}^{-1}(y )}{día}}\derecho|.

En este caso el cambio no es monótono, porque todo valor de Ytiene dos valores correspondientes de X(uno positivo y uno negativo). A diferencia del ejemplo anterior, en este caso sin embargo, no hay simetría y tenemos que calcular los dos términos distintos: {\displaystyle f_{Y}(y)=f_{X}(g_{1}^{-1}(y))\left|{\frac {dg_{1}^{-1}(y)}{ dy}}\right|+f_{X}(g_{2}^{-1}(y))\left|{\frac {dg_{2}^{-1}(y)}{dy}}\ correcto|.}

La transformación inversa es {\displaystyle x=g_{1,2}^{-1}(y)=\pm {\sqrt {y}}}

y su derivada es {\displaystyle {\frac {dg_{1,2}^{-1}(y)}{dy}}=\pm {\frac {1}{2{\sqrt {y}}}}.}

Entonces, {\displaystyle f_{Y}(y)={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}{\frac {1}{2{\sqrt {y}}}}(e^{-({\sqrt {y}}-\mu )^{2}/(2\sigma ^{2})}+e^{-(-{\sqrt {y}}-\mu )^{2}/(2\sigma ^{2})}).}

Esta es una distribución de chi-cuadrado no central con un grado de libertad.

Algunas propiedades

  • La distribución de probabilidad de la suma de dos variables aleatorias independientes es la convolución de cada una de sus distribuciones.
  • Las distribuciones de probabilidad no son un espacio vectorial, no son cerradas bajo combinaciones lineales, ya que estas no preservan la no negatividad o la integral total 1, pero son cerradas bajo combinación convexa, formando así un subconjunto convexo del espacio de funciones (o medidas ).

Equivalencia de variables aleatorias

Hay varios sentidos diferentes en los que las variables aleatorias pueden considerarse equivalentes. Dos variables aleatorias pueden ser iguales, iguales casi con certeza o iguales en distribución.

En orden creciente de fuerza, la definición precisa de estas nociones de equivalencia se da a continuación.

Igualdad en la distribución

Si el espacio muestral es un subconjunto de la línea real, las variables aleatorias X e Y tienen la misma distribución (denotado X{\stackrel {d}{=}}Y) si tienen las mismas funciones de distribución: {\displaystyle \operatorname {P} (X\leq x)=\operatorname {P} (Y\leq x)\quad {\text{para todos}}x.}

Para ser iguales en distribución, las variables aleatorias no necesitan estar definidas en el mismo espacio de probabilidad. Dos variables aleatorias que tienen funciones generadoras de momentos iguales tienen la misma distribución. Esto proporciona, por ejemplo, un método útil para verificar la igualdad de ciertas funciones de variables aleatorias independientes distribuidas idénticamente (IID). Sin embargo, la función generadora de momentos existe solo para distribuciones que tienen una transformada de Laplace definida.

Igualdad casi segura

Dos variables aleatorias X e Y son iguales casi con seguridad (denotadas {\displaystyle X\;{\stackrel {\text{como}}{=}}\;Y}) si, y solo si, la probabilidad de que sean diferentes es cero: \nombre del operador {P} (X\neq Y)=0.

Para todos los propósitos prácticos en la teoría de la probabilidad, esta noción de equivalencia es tan fuerte como la igualdad real. Está asociado a la siguiente distancia: {\displaystyle d_{\infty }(X,Y)=\operatorname {ess} \sup _{\omega }|X(\omega )-Y(\omega )|,}

donde "ess sup" representa el supremo esencial en el sentido de la teoría de la medida.

Igualdad

Finalmente, las dos variables aleatorias X e Y son iguales si son funciones iguales en su espacio medible: X(\omega )=Y(\omega )\qquad {\hbox{para todos }}\omega .

Esta noción suele ser la menos útil en la teoría de la probabilidad porque, en la práctica y en la teoría, el espacio de medida subyacente del experimento rara vez se caracteriza explícitamente o incluso se puede caracterizar.

Convergencia

Un tema significativo en estadística matemática consiste en obtener resultados de convergencia para ciertas secuencias de variables aleatorias; por ejemplo, la ley de los grandes números y el teorema del límite central.

Hay varios sentidos en los que una secuencia X_{n}de variables aleatorias pueden converger a una variable aleatoria X. Estos se explican en el artículo sobre convergencia de variables aleatorias.

Contenido relacionado

Ciencias formales

La ciencia formal es una rama de la ciencia que estudia las disciplinas del lenguaje formal relacionadas con los sistemas formales, como la lógica, las...

Estadística matemática

La estadística matemática es la aplicación de la teoría de la probabilidad, una rama de las matemáticas, a la estadística, a diferencia de las técnicas...

Teoría estadística

La teoría de la estadística proporciona una base para toda la gama de técnicas, tanto en el diseño de estudios como en el análisis de datos, que se...

Distribución logarítmica normal

La distribución logarítmica normal o log-normal, es la representación estadística de una variable aleatoria cuya transformación logarítmica sigue una...

Historia de la medición

Los primeros sistemas registrados de pesos y medidas se originan en el tercer o cuarto milenio antes de Cristo. Incluso las civilizaciones más antiguas...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save