Función de densidad de probabilidad
En la teoría de la probabilidad, una función de densidad de probabilidad (PDF), o densidad de una variable aleatoria continua, es una función cuyo valor en cualquier muestra dada (o punto) en el espacio muestral (el conjunto de posibles valores tomados por la variable aleatoria) puede interpretarse como que proporciona una probabilidad relativa de que el valor de la variable aleatoria sea igual a ese muestra. La densidad de probabilidad es la probabilidad por unidad de longitud, en otras palabras, mientras que la probabilidad absoluta de que una variable aleatoria continua tome cualquier valor en particular es 0 (dado que hay un conjunto infinito de valores posibles para comenzar), el valor de la PDF en dos muestras diferentes se puede usar para inferir, en cualquier sorteo particular de la variable aleatoria, cuánto más probable es que la variable aleatoria esté cerca de una muestra en comparación con la otra muestra.
En un sentido más preciso, la PDF se usa para especificar la probabilidad de que la variable aleatoria caiga dentro de un rango particular de valores, en lugar de tomar cualquier valor. Esta probabilidad está dada por la integral de la PDF de esta variable sobre ese rango, es decir, está dada por el área bajo la función de densidad pero por encima del eje horizontal y entre los valores más bajo y más alto del rango. La función de densidad de probabilidad es no negativa en todas partes y el área bajo toda la curva es igual a 1.
Los términos "función de distribución de probabilidad" y "función de probabilidad" también se han utilizado a veces para denotar la función de densidad de probabilidad. Sin embargo, este uso no es estándar entre probabilistas y estadísticos. En otras fuentes, "función de distribución de probabilidad" puede usarse cuando la distribución de probabilidad se define como una función sobre conjuntos generales de valores o puede referirse a la función de distribución acumulativa, o puede ser una función de masa de probabilidad (PMF) en lugar de la densidad. "Función de densidad" en sí mismo también se usa para la función de masa de probabilidad, lo que lleva a una mayor confusión. Sin embargo, en general, el PMF se usa en el contexto de variables aleatorias discretas (variables aleatorias que toman valores en un conjunto contable), mientras que el PDF se usa en el contexto de variables aleatorias continuas.
Ejemplo
Supongamos que las bacterias de una determinada especie suelen vivir de 4 a 6 horas. La probabilidad de que una bacteria viva exactamente 5 horas es igual a cero. Muchas bacterias viven durante aproximadamente 5 horas, pero no hay posibilidad de que una bacteria determinada muera exactamente a las 5:00... horas. Sin embargo, la probabilidad de que la bacteria muera entre las 5 horas y las 5,01 horas es cuantificable. Suponga que la respuesta es 0.02 (es decir, 2%). Entonces, la probabilidad de que la bacteria muera entre las 5 horas y las 5.001 horas debe ser de alrededor de 0.002, ya que este intervalo de tiempo es una décima parte del anterior. La probabilidad de que la bacteria muera entre las 5 horas y las 5,0001 horas debe ser de 0,0002 y así sucesivamente.
En este ejemplo, la relación (probabilidad de morir durante un intervalo)/(duración del intervalo) es aproximadamente constante e igual a 2 por hora (o 2 horas−1). Por ejemplo, hay 0,02 de probabilidad de morir en el intervalo de 0,01 horas entre 5 y 5,01 horas, y (0,02 de probabilidad/0,01 horas) = 2 horas−1. Esta cantidad de 2 horas−1 se denomina densidad de probabilidad de morir alrededor de las 5 horas. Por lo tanto, la probabilidad de que la bacteria muera a las 5 horas se puede escribir como (2 horas−1) dt. Esta es la probabilidad de que la bacteria muera en una ventana infinitesimal de tiempo alrededor de 5 horas, donde dt es la duración de esta ventana. Por ejemplo, la probabilidad de que viva más de 5 horas, pero menos de (5 horas + 1 nanosegundo), es (2 horas−1)×(1 nanosegundo) ≈ 6×10 −13 (usando la conversión de unidades 3.6×1012 nanosegundos = 1 hora).
Existe una función de densidad de probabilidad f con f(5 horas) = 2 horas−1. La integral de f sobre cualquier ventana de tiempo (no solo ventanas infinitesimales sino también ventanas grandes) es la probabilidad de que la bacteria muera en esa ventana.
Distribuciones univariadas absolutamente continuas
Una función de densidad de probabilidad se asocia más comúnmente con distribuciones univariadas absolutamente continuas. Una variable aleatoria X{displaystyle X} tiene densidad fX{displaystyle F_{X}, donde fX{displaystyle F_{X} es una función no negativa-integrable Lebesgue, si:
Por lo tanto, si FX{displaystyle F_{X} es la función de distribución acumulativa X{displaystyle X}, entonces:
Intuitivamente, uno puede pensar en fX()x)dx{displaystyle f_{X}(x),dx} como la probabilidad de X{displaystyle X} cayendo dentro del intervalo infinitesimal [x,x+dx]{displaystyle [x,x+dx]}.
Definición formal
(Esta definición puede extenderse a cualquier distribución de probabilidad utilizando la definición de probabilidad de la teoría de la medida.)
Una variable aleatoria X{displaystyle X} con valores en un espacio mensurable ()X,A){displaystyle ({mathcal {X},{mathcal {A}}} (normalmente) Rn{displaystyle mathbb {R} {} {}} {fn}} con los conjuntos Borel como subconjuntos mensurables) tiene como distribución de probabilidad la medida XAlternativaP on ()X,A){displaystyle ({mathcal {X},{mathcal {A}}}: densidad de X{displaystyle X} con respecto a una medida de referencia μ μ {displaystyle mu } on ()X,A){displaystyle ({mathcal {X},{mathcal {A}}} es el derivado Radon-Nikodym:
Es decir, f es cualquier función medible con la propiedad de que:
Discusión
En el caso univariante continuo anterior, la medida de referencia es la medida de Lebesgue. La función de masa de probabilidad de una variable aleatoria discreta es la densidad con respecto a la medida de conteo sobre el espacio muestral (generalmente el conjunto de números enteros, o algún subconjunto del mismo).
No es posible definir una densidad con referencia a una medida arbitraria (por ejemplo, no se puede elegir la medida de conteo como referencia para una variable aleatoria continua). Además, cuando existe, la densidad es casi única, lo que significa que dos de esas densidades coinciden en casi todas partes.
Más detalles
A diferencia de una probabilidad, una función de densidad de probabilidad puede tomar valores mayores que uno; por ejemplo, la distribución uniforme en el intervalo [0, 1/2] tiene una densidad de probabilidad f(x) = 2 para 0 ≤ x ≤ 1/2 y f(x) = 0 en cualquier otro lugar. La distribución normal estándar tiene densidad de probabilidad
Si se da una variable aleatoria X y su distribución admite una función de densidad de probabilidad f, entonces el valor esperado de X (si existe el valor esperado) se puede calcular como
No todas las distribuciones de probabilidad tienen una función de densidad: las distribuciones de variables aleatorias discretas no la tienen; tampoco la distribución de Cantor, aunque no tiene componente discreto, es decir, no asigna probabilidad positiva a ningún punto individual.
Una distribución tiene una función de densidad si y solo si su función de distribución acumulativa F(x) es absolutamente continua. En este caso: F es diferenciable en casi todas partes, y su derivada se puede usar como densidad de probabilidad:
Si una distribución de probabilidad admite una densidad, entonces la probabilidad de cada conjunto de un punto {a} es cero; lo mismo vale para conjuntos finitos y contables.
Dos densidades de probabilidad f y g representan lo mismo distribución de probabilidad precisamente si difieren solo en un conjunto de medidas de Lebesgue cero.
En el campo de la física estadística, generalmente se utiliza como definición de la función de densidad de probabilidad una reformulación no formal de la relación anterior entre la derivada de la función de distribución acumulativa y la función de densidad de probabilidad. Esta definición alternativa es la siguiente:
Si dt es un número infinitamente pequeño, la probabilidad de que X está incluido dentro del intervalo (t, t + dt) es igual a f(t) dt, o:
Vínculo entre distribuciones discretas y continuas
Es posible representar ciertas variables aleatorias discretas, así como variables aleatorias que involucran tanto una parte continua como una parte discreta con una función de densidad de probabilidad generalizada utilizando la función delta de Dirac. (Esto no es posible con una función de densidad de probabilidad en el sentido definido anteriormente, se puede hacer con una distribución). Por ejemplo, considere una variable aleatoria binaria discreta que tenga la distribución de Rademacher, es decir, tomando −1 o 1 como valores, con probabilidad 1⁄2 cada uno. La densidad de probabilidad asociada a esta variable es:
Más generalmente, si una variable discreta puede tomar n valores diferentes entre números reales, entonces la función de densidad de probabilidad asociada es:
Esto unifica sustancialmente el tratamiento de distribuciones de probabilidad discretas y continuas. La expresión anterior permite determinar las características estadísticas de una variable discreta (como la media, la varianza y la curtosis), a partir de las fórmulas dadas para una distribución continua de la probabilidad.
Familias de densidades
Es común que las funciones de densidad de probabilidad (y las funciones de masa de probabilidad) sean parametrizadas, es decir, que se caractericen por parámetros no especificados. Por ejemplo, la distribución normal se parametriza en términos de la media y la varianza, denotada por μ μ {displaystyle mu } y σ σ 2{displaystyle sigma ^{2} respectivamente, dando a la familia de densidades
Dado que los parámetros son constantes, repararmetrizar una densidad en términos de diferentes parámetros para dar una caracterización de una variable aleatoria diferente en la familia, significa simplemente sustituir los nuevos valores de los parámetros en la fórmula en lugar de los antiguos.
Densidades asociadas a múltiples variables
Para variables aleatorias continuas X1,..., Xn, también es posible definir una función de densidad de probabilidad asociada al conjunto como un todo, a menudo llamada función de densidad de probabilidad conjunta. Esta función de densidad se define como una función de las variables n, de modo que, para cualquier dominio D en el espacio n-dimensional de los valores de variables X1,..., Xn, la probabilidad de que una realización de las variables establecidas caiga dentro del dominio D es
Si F(x1,..., x n) = Pr(X1 ≤ x1,..., Xn ≤ xn ) es la función de distribución acumulativa del vector (X1,..., Xn), entonces la función de densidad de probabilidad conjunta se puede calcular como una derivada parcial
Densidades marginales
Para i = 1, 2,..., n, sea <span class="texhtml" fXi(xi) sea la función de densidad de probabilidad asociada con la variable Xi solo. Esto se denomina función de densidad marginal y puede deducirse de la densidad de probabilidad asociada con las variables aleatorias X1,..., Xn integrando sobre todos los valores de los otros n − 1 variables:
Independencia
Variables aleatorias continuas X1,..., Xn admitiendo una densidad conjunta son independientes entre sí si y solo si
Corolario
Si la función de densidad de probabilidad conjunta de un vector de n variables aleatorias se puede factorizar en un producto de n funciones de una variable
Ejemplo
Este ejemplo elemental ilustra la definición anterior de las funciones de densidad de probabilidad multidimensional en el caso simple de una función de un conjunto de dos variables. Vamos a llamar R→ → {displaystyle {vec}} un vector aleatorio 2-dimensional de coordenadas ()X, Y): la probabilidad de obtener R→ → {displaystyle {vec}} en el plano trimestral positivo x y Sí. es
Función de variables aleatorias y cambio de variables en la función de densidad de probabilidad
Si la función de densidad de probabilidad de una variable aleatoria (o vector) X se da como fX(x), es posible (pero a menudo no es necesario; ver más abajo) calcular la función de densidad de probabilidad de alguna variable Y = g(X). Esto también se denomina "cambio de variable" y en la práctica se utiliza para generar una variable aleatoria de forma arbitraria fg (X) = fY utilizando un generador de números aleatorios conocido (por ejemplo, uniforme).
Es tentador pensar que para encontrar el valor esperado E(g(X)), primero se debe encontrar la densidad de probabilidad fg(X) de la nueva variable aleatoria Y = g(X). Sin embargo, en lugar de calcular
Los valores de las dos integrales son los mismos en todos los casos en los que tanto X como g(X) en realidad tienen funciones de densidad de probabilidad. No es necesario que g sea una función uno a uno. En algunos casos, la última integral se calcula mucho más fácilmente que la primera. Ver Ley del estadístico inconsciente.
Escalar a escalar
Vamos g:R→ → R{displaystyle g:mathbb {R} to mathbb {R} ser una función monotónica, entonces la función de densidad resultante es
Aquí g−1 denota la función inversa.
Esto se deriva del hecho de que la probabilidad contenida en un área diferencial debe ser invariante ante cambios de variables. Es decir,
Para funciones que no son monótonas, la función de densidad de probabilidad para y es
Vector a vector
Suponga que x es un n -variable aleatoria dimensional con densidad conjunta f. Si y = H(x), donde H es una función diferenciable biyectiva, entonces y tiene densidad g:
Por ejemplo, en el caso bidimensional x = (x1, x2), suponga que la transformación H se da como y1 = H1(x1, x2), y2 = H2(x1, x2) con inversas x1 = H1−1(y1, y2), x2 = H2−1(y1, y2). La distribución conjunta para y = (y1, y2) tiene densidad
Vector a escalar
Vamos V:Rn→ → R{displaystyle V:Mathbb {R} ^{n}to mathbb {R} ser una función diferente y X{displaystyle X} ser un vector aleatorio tomando valores Rn{displaystyle mathbb {R} {} {}} {fn}}, fX{displaystyle F_{X} ser la función de densidad de probabilidad X{displaystyle X} y δ δ ()⋅ ⋅ ){displaystyle delta (cdot)} ser la función Dirac delta. Es posible utilizar las fórmulas anteriores para determinar fY{displaystyle F_{Y}, la función de densidad de probabilidad Y=V()X){displaystyle Y=V(X)}, que se dará por
Este resultado conduce a la ley del estadístico inconsciente:
Prueba:
Vamos Z{displaystyle Z} ser una variable aleatoria colapsada con función de densidad de probabilidad pZ()z)=δ δ ()z){displaystyle p_{Z}(z)=delta (z)} (es decir, una constante igual a cero). Dejar el vector al azar X~ ~ {displaystyle {tilde {X}} y la transformación H{displaystyle H. se define como
- H()Z,X)=[Z+V()X)X]=[YX~ ~ ].{displaystyle H(Z,X)={begin{bmatrix}Z+V(X)Xend{bmatrix}={begin{bmatrix}Y{tilde {X}end{bmatrix}}}
Está claro que H{displaystyle H. es un mapeo bijetivo, y el Jacobiano de H− − 1{displaystyle H^{-1} es dado por:
- dH− − 1()Sí.,x~ ~ )dSí.dx~ ~ =[1− − dV()x~ ~ )dx~ ~ 0n× × 1In× × n],{fnMicrosoft {fnMicrosoft} {fnMicrosoft}} {fnMicrosoft}} {f}} {fnMicrosoft}}}} {fnMitbf {f}}} {fnMicrosoft {f}}}} {f}fnMicrosoft {f}fnMicrosoft}}}} {f}f}}}}}}f}}}}f}f}f}f}f}f}f}f}f}f}f}f}}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}fnMi {fnMicrosoft}} {fnMicrosoft {fnMicrosoft}}} {fnMitbf {f}}}} {fnMitbf {x}}}}}} {fnMitbf {f}}} {f}}}} {fnMitbf {f}}}}}}}} {f}}}}}}} {f}}}}}}}}}}}}}}}} {f}}}}} {f}}}}}} {f} {f} {f}}}}}}}}}}}} {f}}}}}}}}} {f} {f} {f}}}}}} {f}}}} {f} {f}}f}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}} {f} {f} ♪♪♪♪♪♪Mathbf♪♪♪♪♪♪♪♪♪♪♪♪♪♪ {I} _{ntimes n}end{bmatrix}}
que es una matriz triangular superior con unos en la diagonal principal, por lo que su determinante es 1. Aplicando el teorema del cambio de variable del apartado anterior obtenemos que
- fY,X()Sí.,x)=fX()x)δ δ ()Sí.− − V()x)),{displaystyle f_{Y,X}(y,x)=f_{X}(mathbf {x})delta {big (}y-V(mathbf {x}){big)},}
que si se ven marginados x{displaystyle x} conduce a la función de densidad de probabilidad deseada.
Sumas de variables aleatorias independientes
La función de densidad de probabilidad de la suma de dos variables aleatorias independientes U y V, cada uno de los cuales tiene una función de densidad de probabilidad, es la convolución de sus funciones de densidad separadas:
Es posible generalizar la relación anterior a una suma de N variables aleatorias independientes, con densidades U1,..., UN:
Esto se puede derivar de un cambio bidireccional de variables que implican Y = U + V y Z = V, de forma similar al ejemplo siguiente para el cociente de variables aleatorias independientes.
Productos y cocientes de variables aleatorias independientes
Dadas dos variables aleatorias independientes U y V, cada una de las cuales tiene una función de densidad de probabilidad, la densidad del producto Y = UV y cociente Y = U/ V se puede calcular mediante un cambio de variables.
Ejemplo: Distribución del cociente
Para calcular el cociente Y = U/V de dos variables aleatorias independientes U y V, definen la siguiente transformación:
Entonces, se puede calcular la densidad conjunta p(y,z) por un cambio de variables de U,V a Y,Z y Y se puede derivar marginando Z de la densidad conjunta.
La transformación inversa es
El valor absoluto del determinante de la matriz Jacobiana J()U,V▪ ▪ Y,Z){displaystyle J(U,Vmid Y,Z)} de esta transformación es:
Así:
Y la distribución de Y se puede calcular marginando a Z:
Este método requiere de manera crucial que la transformación de U,V a Y,Z sea biyectiva. La transformación anterior cumple con esto porque Z se puede mapear directamente de nuevo a V, y para un V dado, el cociente <span class="texhtml" U/V es monótono. Este es igualmente el caso de la suma U + V, diferencia U − V y producto UV.
Se puede usar exactamente el mismo método para calcular la distribución de otras funciones de múltiples variables aleatorias independientes.
Ejemplo: Cociente de dos normales estándar
Dadas dos variables normales estándar U y V, el cociente se puede calcular de la siguiente manera. Primero, las variables tienen las siguientes funciones de densidad:
Transformamos como se describe arriba:
Esto conduce a:
Esta es la densidad de una distribución de Cauchy estándar.
Contenido relacionado
Teoremas de incompletitud de Gödel
Probabilidades del pozo
Ley de los senos