Función de densidad de probabilidad

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Función cuya parte integral de una región describe la probabilidad de que se produzca un acontecimiento en esa región
Parcela de caja y función de densidad de probabilidad de una distribución normal N(0,σ2).
Visualización geométrica del modo, mediana y media de una función de densidad de probabilidad unimodal arbitraria.

En la teoría de la probabilidad, una función de densidad de probabilidad (PDF), o densidad de una variable aleatoria continua, es una función cuyo valor en cualquier muestra dada (o punto) en el espacio muestral (el conjunto de posibles valores tomados por la variable aleatoria) puede interpretarse como que proporciona una probabilidad relativa de que el valor de la variable aleatoria sea igual a ese muestra. La densidad de probabilidad es la probabilidad por unidad de longitud, en otras palabras, mientras que la probabilidad absoluta de que una variable aleatoria continua tome cualquier valor en particular es 0 (dado que hay un conjunto infinito de valores posibles para comenzar), el valor de la PDF en dos muestras diferentes se puede usar para inferir, en cualquier sorteo particular de la variable aleatoria, cuánto más probable es que la variable aleatoria esté cerca de una muestra en comparación con la otra muestra.

En un sentido más preciso, la PDF se usa para especificar la probabilidad de que la variable aleatoria caiga dentro de un rango particular de valores, en lugar de tomar cualquier valor. Esta probabilidad está dada por la integral de la PDF de esta variable sobre ese rango, es decir, está dada por el área bajo la función de densidad pero por encima del eje horizontal y entre los valores más bajo y más alto del rango. La función de densidad de probabilidad es no negativa en todas partes y el área bajo toda la curva es igual a 1.

Los términos "función de distribución de probabilidad" y "función de probabilidad" también se han utilizado a veces para denotar la función de densidad de probabilidad. Sin embargo, este uso no es estándar entre probabilistas y estadísticos. En otras fuentes, "función de distribución de probabilidad" puede usarse cuando la distribución de probabilidad se define como una función sobre conjuntos generales de valores o puede referirse a la función de distribución acumulativa, o puede ser una función de masa de probabilidad (PMF) en lugar de la densidad. "Función de densidad" en sí mismo también se usa para la función de masa de probabilidad, lo que lleva a una mayor confusión. Sin embargo, en general, el PMF se usa en el contexto de variables aleatorias discretas (variables aleatorias que toman valores en un conjunto contable), mientras que el PDF se usa en el contexto de variables aleatorias continuas.

Ejemplo

Supongamos que las bacterias de una determinada especie suelen vivir de 4 a 6 horas. La probabilidad de que una bacteria viva exactamente 5 horas es igual a cero. Muchas bacterias viven durante aproximadamente 5 horas, pero no hay posibilidad de que una bacteria determinada muera exactamente a las 5:00... horas. Sin embargo, la probabilidad de que la bacteria muera entre las 5 horas y las 5,01 horas es cuantificable. Suponga que la respuesta es 0.02 (es decir, 2%). Entonces, la probabilidad de que la bacteria muera entre las 5 horas y las 5.001 horas debe ser de alrededor de 0.002, ya que este intervalo de tiempo es una décima parte del anterior. La probabilidad de que la bacteria muera entre las 5 horas y las 5,0001 horas debe ser de 0,0002 y así sucesivamente.

En este ejemplo, la relación (probabilidad de morir durante un intervalo)/(duración del intervalo) es aproximadamente constante e igual a 2 por hora (o 2 horas−1). Por ejemplo, hay 0,02 de probabilidad de morir en el intervalo de 0,01 horas entre 5 y 5,01 horas, y (0,02 de probabilidad/0,01 horas) = 2 horas−1. Esta cantidad de 2 horas−1 se denomina densidad de probabilidad de morir alrededor de las 5 horas. Por lo tanto, la probabilidad de que la bacteria muera a las 5 horas se puede escribir como (2 horas−1) dt. Esta es la probabilidad de que la bacteria muera en una ventana infinitesimal de tiempo alrededor de 5 horas, donde dt es la duración de esta ventana. Por ejemplo, la probabilidad de que viva más de 5 horas, pero menos de (5 horas + 1 nanosegundo), es (2 horas−1)×(1 nanosegundo) ≈ 6×10 −13 (usando la conversión de unidades 3.6×1012 nanosegundos = 1 hora).

Existe una función de densidad de probabilidad f con f(5 horas) = 2 horas−1. La integral de f sobre cualquier ventana de tiempo (no solo ventanas infinitesimales sino también ventanas grandes) es la probabilidad de que la bacteria muera en esa ventana.

Distribuciones univariadas absolutamente continuas

Una función de densidad de probabilidad se asocia más comúnmente con distribuciones univariadas absolutamente continuas. Una variable aleatoria X{displaystyle X} tiene densidad fX{displaystyle F_{X}, donde fX{displaystyle F_{X} es una función no negativa-integrable Lebesgue, si:

Pr[a≤ ≤ X≤ ≤ b]=∫ ∫ abfX()x)dx.{displaystyle Pr[aleq Xleq b]=int _{a}{b}f_{X}(x),dx.}

Por lo tanto, si FX{displaystyle F_{X} es la función de distribución acumulativa X{displaystyle X}, entonces:

FX()x)=∫ ∫ − − JUEGO JUEGO xfX()u)du,{displaystyle F_{X}(x)=int _{-infty }{x}f_{X}(u),du,}
fX{displaystyle F_{X}x{displaystyle x}
fX()x)=ddxFX()x).{displaystyle f_{X}(x)={frac {d} {dx}}F_{X}(x).}

Intuitivamente, uno puede pensar en fX()x)dx{displaystyle f_{X}(x),dx} como la probabilidad de X{displaystyle X} cayendo dentro del intervalo infinitesimal [x,x+dx]{displaystyle [x,x+dx]}.

Definición formal

(Esta definición puede extenderse a cualquier distribución de probabilidad utilizando la definición de probabilidad de la teoría de la medida.)

Una variable aleatoria X{displaystyle X} con valores en un espacio mensurable ()X,A){displaystyle ({mathcal {X},{mathcal {A}}} (normalmente) Rn{displaystyle mathbb {R} {} {}} {fn}} con los conjuntos Borel como subconjuntos mensurables) tiene como distribución de probabilidad la medida XAlternativaP on ()X,A){displaystyle ({mathcal {X},{mathcal {A}}}: densidad de X{displaystyle X} con respecto a una medida de referencia μ μ {displaystyle mu } on ()X,A){displaystyle ({mathcal {X},{mathcal {A}}} es el derivado Radon-Nikodym:

f=dXAlternativa Alternativa Pdμ μ .{displaystyle f={frac {dX_{*}P}{dmu }}

Es decir, f es cualquier función medible con la propiedad de que:

Pr[X▪ ▪ A]=∫ ∫ X− − 1AdP=∫ ∫ Afdμ μ {displaystyle Pr[Xin A]=int - ¿Qué? ¿Por qué?
A▪ ▪ A.{displaystyle Ain {mathcal {A}}

Discusión

En el caso univariante continuo anterior, la medida de referencia es la medida de Lebesgue. La función de masa de probabilidad de una variable aleatoria discreta es la densidad con respecto a la medida de conteo sobre el espacio muestral (generalmente el conjunto de números enteros, o algún subconjunto del mismo).

No es posible definir una densidad con referencia a una medida arbitraria (por ejemplo, no se puede elegir la medida de conteo como referencia para una variable aleatoria continua). Además, cuando existe, la densidad es casi única, lo que significa que dos de esas densidades coinciden en casi todas partes.

Más detalles

A diferencia de una probabilidad, una función de densidad de probabilidad puede tomar valores mayores que uno; por ejemplo, la distribución uniforme en el intervalo [0, 1/2] tiene una densidad de probabilidad f(x) = 2 para 0 ≤ x ≤ 1/2 y f(x) = 0 en cualquier otro lugar. La distribución normal estándar tiene densidad de probabilidad

f()x)=12π π e− − x2/2.{displaystyle f(x)={frac {1}{sqrt {2pi} - Sí.

Si se da una variable aleatoria X y su distribución admite una función de densidad de probabilidad f, entonces el valor esperado de X (si existe el valor esperado) se puede calcular como

E⁡ ⁡ [X]=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO xf()x)dx.{displaystyle operatorname {E} [X]=int _{-infty }{infty }x,f(x),dx.}

No todas las distribuciones de probabilidad tienen una función de densidad: las distribuciones de variables aleatorias discretas no la tienen; tampoco la distribución de Cantor, aunque no tiene componente discreto, es decir, no asigna probabilidad positiva a ningún punto individual.

Una distribución tiene una función de densidad si y solo si su función de distribución acumulativa F(x) es absolutamente continua. En este caso: F es diferenciable en casi todas partes, y su derivada se puede usar como densidad de probabilidad:

ddxF()x)=f()x).{displaystyle {frac {dx}F(x)=f(x). }

Si una distribución de probabilidad admite una densidad, entonces la probabilidad de cada conjunto de un punto {a} es cero; lo mismo vale para conjuntos finitos y contables.

Dos densidades de probabilidad f y g representan lo mismo distribución de probabilidad precisamente si difieren solo en un conjunto de medidas de Lebesgue cero.

En el campo de la física estadística, generalmente se utiliza como definición de la función de densidad de probabilidad una reformulación no formal de la relación anterior entre la derivada de la función de distribución acumulativa y la función de densidad de probabilidad. Esta definición alternativa es la siguiente:

Si dt es un número infinitamente pequeño, la probabilidad de que X está incluido dentro del intervalo (t, t + dt) es igual a f(t) dt, o:

<math alttext="{displaystyle Pr(t<XPr()t.X.t+dt)=f()t)dt.{displaystyle Pr(t seleccionóXtrat+dt)=f(t),dt.}
<img alt="{displaystyle Pr(t<X

Vínculo entre distribuciones discretas y continuas

Es posible representar ciertas variables aleatorias discretas, así como variables aleatorias que involucran tanto una parte continua como una parte discreta con una función de densidad de probabilidad generalizada utilizando la función delta de Dirac. (Esto no es posible con una función de densidad de probabilidad en el sentido definido anteriormente, se puede hacer con una distribución). Por ejemplo, considere una variable aleatoria binaria discreta que tenga la distribución de Rademacher, es decir, tomando −1 o 1 como valores, con probabilidad 12 cada uno. La densidad de probabilidad asociada a esta variable es:

f()t)=12()δ δ ()t+1)+δ δ ()t− − 1)).{displaystyle f(t)={2}(delta (t+1)+delta (t-1)). }

Más generalmente, si una variable discreta puede tomar n valores diferentes entre números reales, entonces la función de densidad de probabilidad asociada es:

f()t)=.. i=1npiδ δ ()t− − xi),{displaystyle f(t)=sum ¿Por qué?
x1,...... ,xn{displaystyle x_{1},ldotsx_{n}p1,...... ,pn{displaystyle p_{1},ldotsp_{n}

Esto unifica sustancialmente el tratamiento de distribuciones de probabilidad discretas y continuas. La expresión anterior permite determinar las características estadísticas de una variable discreta (como la media, la varianza y la curtosis), a partir de las fórmulas dadas para una distribución continua de la probabilidad.

Familias de densidades

Es común que las funciones de densidad de probabilidad (y las funciones de masa de probabilidad) sean parametrizadas, es decir, que se caractericen por parámetros no especificados. Por ejemplo, la distribución normal se parametriza en términos de la media y la varianza, denotada por μ μ {displaystyle mu } y σ σ 2{displaystyle sigma ^{2} respectivamente, dando a la familia de densidades

f()x;μ μ ,σ σ 2)=1σ σ 2π π e− − 12()x− − μ μ σ σ )2.{displaystyle f(x;musigma ^{2}={frac {1}{sigma {sqrt {2pi}}}e^{-{frac {1} {2}left({frac {x-mu } {sigma }derecha)} {2}}
algo

Dado que los parámetros son constantes, repararmetrizar una densidad en términos de diferentes parámetros para dar una caracterización de una variable aleatoria diferente en la familia, significa simplemente sustituir los nuevos valores de los parámetros en la fórmula en lugar de los antiguos.

Densidades asociadas a múltiples variables

Para variables aleatorias continuas X1,..., Xn, también es posible definir una función de densidad de probabilidad asociada al conjunto como un todo, a menudo llamada función de densidad de probabilidad conjunta. Esta función de densidad se define como una función de las variables n, de modo que, para cualquier dominio D en el espacio n-dimensional de los valores de variables X1,..., Xn, la probabilidad de que una realización de las variables establecidas caiga dentro del dominio D es

Pr()X1,...... ,Xn▪ ▪ D)=∫ ∫ DfX1,...... ,Xn()x1,...... ,xn)dx1⋯ ⋯ dxn.{displaystyle Pr left(X_{1},ldotsX_{n}in Dright)=int ¿Por qué?

Si F(x1,..., x n) = Pr(X1x1,..., Xnxn ) es la función de distribución acumulativa del vector (X1,..., Xn), entonces la función de densidad de probabilidad conjunta se puede calcular como una derivada parcial

f()x)=∂ ∂ nF∂ ∂ x1⋯ ⋯ ∂ ∂ xnSilenciox{displaystyle f(x)=left.{frac {partial ^{n}{partial x_{1}cdots partial ¿Por qué?

Densidades marginales

Para i = 1, 2,..., n, sea <span class="texhtml" fXi(xi) sea la función de densidad de probabilidad asociada con la variable Xi solo. Esto se denomina función de densidad marginal y puede deducirse de la densidad de probabilidad asociada con las variables aleatorias X1,..., Xn integrando sobre todos los valores de los otros n − 1 variables:

fXi()xi)=∫ ∫ f()x1,...... ,xn)dx1⋯ ⋯ dxi− − 1dxi+1⋯ ⋯ dxn.{displaystyle f_{X_{i}(x_{i})=int f(x_{1},ldotsx_{n}),dx_{1}cdots Dx_{i-1},dx_{i+1}cdots Dx.

Independencia

Variables aleatorias continuas X1,..., Xn admitiendo una densidad conjunta son independientes entre sí si y solo si

fX1,...... ,Xn()x1,...... ,xn)=fX1()x1)⋯ ⋯ fXn()xn).{displaystyle f_{X_{1},ldotsX_{n}(x_{1},ldotsx_{n}=f_{X_{1}(x_{1})cdots f_{X_{n}(x_{n}).}

Corolario

Si la función de densidad de probabilidad conjunta de un vector de n variables aleatorias se puede factorizar en un producto de n funciones de una variable

fX1,...... ,Xn()x1,...... ,xn)=f1()x1)⋯ ⋯ fn()xn),{displaystyle f_{X_{1},ldotsX_{n}(x_{1},ldotsx_{n}=f_{1}(x_{1})cdots f_{n}(x_{n}),}
fin
fXi()xi)=fi()xi)∫ ∫ fi()x)dx.{displaystyle ¿Qué?

Ejemplo

Este ejemplo elemental ilustra la definición anterior de las funciones de densidad de probabilidad multidimensional en el caso simple de una función de un conjunto de dos variables. Vamos a llamar R→ → {displaystyle {vec}} un vector aleatorio 2-dimensional de coordenadas ()X, Y): la probabilidad de obtener R→ → {displaystyle {vec}} en el plano trimestral positivo x y Sí. es

0,Y>0right)=int _{0}^{infty }int _{0}^{infty }f_{X,Y}(x,y),dx,dy.}" display="block" xmlns="http://www.w3.org/1998/Math/MathML">Pr()X■0,Y■0)=∫ ∫ 0JUEGO JUEGO ∫ ∫ 0JUEGO JUEGO fX,Y()x,Sí.)dxdSí..{displaystyle Pr left(X título0,Y título0right)=int ¿Qué?
0,Y>0right)=int _{0}^{infty }int _{0}^{infty }f_{X,Y}(x,y),dx,dy.}" aria-hidden="true" class="mwe-math-fallback-image-display" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/7b878ea2cd28dfa95c28f8c60afd0473f472bd94" style="vertical-align: -2.338ex; width:46.701ex; height:5.843ex;"/>

Función de variables aleatorias y cambio de variables en la función de densidad de probabilidad

Si la función de densidad de probabilidad de una variable aleatoria (o vector) X se da como fX(x), es posible (pero a menudo no es necesario; ver más abajo) calcular la función de densidad de probabilidad de alguna variable Y = g(X). Esto también se denomina "cambio de variable" y en la práctica se utiliza para generar una variable aleatoria de forma arbitraria fg (X) = fY utilizando un generador de números aleatorios conocido (por ejemplo, uniforme).

Es tentador pensar que para encontrar el valor esperado E(g(X)), primero se debe encontrar la densidad de probabilidad fg(X) de la nueva variable aleatoria Y = g(X). Sin embargo, en lugar de calcular

E⁡ ⁡ ()g()X))=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO Sí.fg()X)()Sí.)dSí.,{displaystyle operatorname {E} {big (}g(X){big)}=int _{-infty }{infty }yf_{g(X)}(y),dy,}
E⁡ ⁡ ()g()X))=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO g()x)fX()x)dx.{displaystyle operatorname {E} {big (}g(X){big)}=int _{-infty }{infty }g(x)f_{X}(x),dx.}

Los valores de las dos integrales son los mismos en todos los casos en los que tanto X como g(X) en realidad tienen funciones de densidad de probabilidad. No es necesario que g sea una función uno a uno. En algunos casos, la última integral se calcula mucho más fácilmente que la primera. Ver Ley del estadístico inconsciente.

Escalar a escalar

Vamos g:R→ → R{displaystyle g:mathbb {R} to mathbb {R} ser una función monotónica, entonces la función de densidad resultante es

fY()Sí.)=fX()g− − 1()Sí.))SilencioddSí.()g− − 1()Sí.))Silencio.{displaystyle ¿Por qué? Está bien.

Aquí g−1 denota la función inversa.

Esto se deriva del hecho de que la probabilidad contenida en un área diferencial debe ser invariante ante cambios de variables. Es decir,

SilenciofY()Sí.)dSí.Silencio=SilenciofX()x)dxSilencio,{displaystyle left imperf_{Y}(y),dyright sobrevivir=left habitf_{X}(x),dxright sobre la vida,}
fY()Sí.)=SilenciodxdSí.SilenciofX()x)=SilencioddSí.()x)SilenciofX()x)=SilencioddSí.()g− − 1()Sí.))SilenciofX()g− − 1()Sí.))=Silencio()g− − 1).()Sí.)Silencio⋅ ⋅ fX()g− − 1()Sí.)).{displaystyle ¿Qué? {d}{y}(x)right sobrevivirf_{X}(x)=left permanently{frac {} {big} {big} {big} {big)}justo en la vida_{X}{big (}g^{-1}(y){big)}={left perpetualeft(g^{-1}right)'(y)cdot f_{X}{big} {big} {g}{}{big}{}{}{}}{}{}{}{}{}{}{}{}{}}{}{}{}{}{}}{}{}{}}}}}{}}}}}}}}{}}}}}{}{}{}{}}}}{}{}{}}}{}}}{}}{}}}}}{}{}}{}}}}}}{}{}}}}}}}}}}}{}{}}}{}}}}}}{}}}}}{}}}}}}}}{}}

Para funciones que no son monótonas, la función de densidad de probabilidad para y es

.. k=1n()Sí.)SilencioddSí.gk− − 1()Sí.)Silencio⋅ ⋅ fX()gk− − 1()Sí.)),{displaystyle sum _{k=1}{n(y)}left permanently{frac {} {fnMicrosoft} {fnMicrosoft Sans Serif} {fnMicrosoft} {fnMicrosoft}} {fnMicrosoft} {fnMicrosoft}} {fnMicrosoft}}}}} {f}} {f}}} {fnMicrosoft}}}} {f}}}}}}} {f}}}}}} {f}}}}}}}}}}}}}}}}} {f}}}}}}}}} {f} {f}} {f}}}}}}}}}}}}}}}} {f} {f} {f} {f}}} {f} {f}}}}}}}}} {f}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Qué?
n()Sí.)xg()x)=Sí.{displaystyle g(x)=y}gk− − 1()Sí.){displaystyle g_{k} {-1}(y)}

Vector a vector

Suponga que x es un n -variable aleatoria dimensional con densidad conjunta f. Si y = H(x), donde H es una función diferenciable biyectiva, entonces y tiene densidad g:

g()Sí.)=f()H− − 1()Sí.))SilencioDet[dH− − 1()z)dzSilencioz=Sí.]Silencio{displaystyle g(mathbf {})=f{Bigl (}H^{-1}(mathbf {y}){Bigr)}left perpetuadet left[left.{frac {dH^{-1}(mathbf {z})}{dmathbf {z} "Justo en la vida" - ¿Qué?
H(⋅)Sí.

Por ejemplo, en el caso bidimensional x = (x1, x2), suponga que la transformación H se da como y1 = H1(x1, x2), y2 = H2(x1, x2) con inversas x1 = H1−1(y1, y2), x2 = H2−1(y1, y2). La distribución conjunta para y = (y1, y2) tiene densidad

g()Sí.1,Sí.2)=fX1,X2()H1− − 1()Sí.1,Sí.2),H2− − 1()Sí.1,Sí.2))Silencio∂ ∂ H1− − 1∂ ∂ Sí.1∂ ∂ H2− − 1∂ ∂ Sí.2− − ∂ ∂ H1− − 1∂ ∂ Sí.2∂ ∂ H2− − 1∂ ∂ Sí.1Silencio.{displaystyle g(y_{1},y_{2})=f_{X_{1},X_{2}{big (}H_{1} {-1}(y_{1},y_{2}),H_{2}{-1} {}{1},y_{2}){big)}leftvert {f} {f} {f} {f} {f}}{2}}} {c} {c}}}}{2}}}}}{2} {c} {c} {c}}}}}}}}}}}}}}}}}}}{1} {c}}{1} {c} {c} {c}} {c} {ccccccccc}}}}}}}}}}}}}}}}}}}}}}ccccc}}}}}}}} H_{1}{-1}{partial Y... H_{2}{-1}{partial Y... {fnMicrosoft Sans Serif} H_{1}{-1}{partial Y... H_{2}{-1}{partial Y...

Vector a escalar

Vamos V:Rn→ → R{displaystyle V:Mathbb {R} ^{n}to mathbb {R} ser una función diferente y X{displaystyle X} ser un vector aleatorio tomando valores Rn{displaystyle mathbb {R} {} {}} {fn}}, fX{displaystyle F_{X} ser la función de densidad de probabilidad X{displaystyle X} y δ δ ()⋅ ⋅ ){displaystyle delta (cdot)} ser la función Dirac delta. Es posible utilizar las fórmulas anteriores para determinar fY{displaystyle F_{Y}, la función de densidad de probabilidad Y=V()X){displaystyle Y=V(X)}, que se dará por

fY()Sí.)=∫ ∫ RnfX()x)δ δ ()Sí.− − V()x))dx.{displaystyle f_{Y}(y)=int _{mathbb {R} ^{n}f_{X}(mathbf {x})delta {big (}y-V(mathbf {x}){big)},dmathbf {x}

Este resultado conduce a la ley del estadístico inconsciente:

EY⁡ ⁡ [Y]=∫ ∫ RSí.fY()Sí.)dSí.=∫ ∫ RSí.∫ ∫ RnfX()x)δ δ ()Sí.− − V()x))dxdSí.=∫ ∫ Rn∫ ∫ RSí.fX()x)δ δ ()Sí.− − V()x))dSí.dx=∫ ∫ RnV()x)fX()x)dx=EX⁡ ⁡ [V()X)].{displaystyle operatorname [E] _{Y}=int _{mthbb Sí. Sí. {R} ^{n}f_{X}(mathbf {x})delta {big (}y-V(mathbf {x}){big)},dmathbf {x} ################################################################################################################################################################################################################################################################ {R} {fn} {fn}} {fn}} {fn}}} {fn}}}}} {fn}}}}}} ¿Qué? {R} }yf_{X}(mathbf {x})delta {big (}y-V(mathbf {x}){big)},dy,dmathbf {x} ################################################################################################################################################################################################################################################################ [R] ^{n}V(mathbf {x})f_{X}(mathbf {x},dmathbf {x} [V(X)].

Prueba:

Vamos Z{displaystyle Z} ser una variable aleatoria colapsada con función de densidad de probabilidad pZ()z)=δ δ ()z){displaystyle p_{Z}(z)=delta (z)} (es decir, una constante igual a cero). Dejar el vector al azar X~ ~ {displaystyle {tilde {X}} y la transformación H{displaystyle H. se define como

H()Z,X)=[Z+V()X)X]=[YX~ ~ ].{displaystyle H(Z,X)={begin{bmatrix}Z+V(X)Xend{bmatrix}={begin{bmatrix}Y{tilde {X}end{bmatrix}}}

Está claro que H{displaystyle H. es un mapeo bijetivo, y el Jacobiano de H− − 1{displaystyle H^{-1} es dado por:

dH− − 1()Sí.,x~ ~ )dSí.dx~ ~ =[1− − dV()x~ ~ )dx~ ~ 0n× × 1In× × n],{fnMicrosoft {fnMicrosoft} {fnMicrosoft}} {fnMicrosoft}} {f}} {fnMicrosoft}}}} {fnMitbf {f}}} {fnMicrosoft {f}}}} {f}fnMicrosoft {f}fnMicrosoft}}}} {f}f}}}}}}f}}}}f}f}f}f}f}f}f}f}f}f}f}f}}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}fnMi {fnMicrosoft}} {fnMicrosoft {fnMicrosoft}}} {fnMitbf {f}}}} {fnMitbf {x}}}}}} {fnMitbf {f}}} {f}}}} {fnMitbf {f}}}}}}}} {f}}}}}}} {f}}}}}}}}}}}}}}}} {f}}}}} {f}}}}}} {f} {f} {f}}}}}}}}}}}} {f}}}}}}}}} {f} {f} {f}}}}}} {f}}}} {f} {f}}f}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}} {f} {f} ♪♪♪♪♪♪Mathbf♪♪♪♪♪♪♪♪♪♪♪♪♪♪ {I} _{ntimes n}end{bmatrix}}

que es una matriz triangular superior con unos en la diagonal principal, por lo que su determinante es 1. Aplicando el teorema del cambio de variable del apartado anterior obtenemos que

fY,X()Sí.,x)=fX()x)δ δ ()Sí.− − V()x)),{displaystyle f_{Y,X}(y,x)=f_{X}(mathbf {x})delta {big (}y-V(mathbf {x}){big)},}

que si se ven marginados x{displaystyle x} conduce a la función de densidad de probabilidad deseada.

Sumas de variables aleatorias independientes

La función de densidad de probabilidad de la suma de dos variables aleatorias independientes U y V, cada uno de los cuales tiene una función de densidad de probabilidad, es la convolución de sus funciones de densidad separadas:

fU+V()x)=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO fU()Sí.)fV()x− − Sí.)dSí.=()fUAlternativa Alternativa fV)()x){displaystyle f_{U+V}(x)=int _{-infty }f_{U}(y)f_{V}(x-y),dy=left (f_{U}*f_{V}right)(x)}

Es posible generalizar la relación anterior a una suma de N variables aleatorias independientes, con densidades U1,..., UN:

fU1+⋯ ⋯ +UN()x)=()fU1Alternativa Alternativa ⋯ ⋯ Alternativa Alternativa fUN)()x){displaystyle f_{U_{1}+cdots ##U_{N}(x)=left(f_{U_{1}*cdots *f_{U_{N}right)(x)}

Esto se puede derivar de un cambio bidireccional de variables que implican Y = U + V y Z = V, de forma similar al ejemplo siguiente para el cociente de variables aleatorias independientes.

Productos y cocientes de variables aleatorias independientes

Dadas dos variables aleatorias independientes U y V, cada una de las cuales tiene una función de densidad de probabilidad, la densidad del producto Y = UV y cociente Y = U/ V se puede calcular mediante un cambio de variables.

Ejemplo: Distribución del cociente

Para calcular el cociente Y = U/V de dos variables aleatorias independientes U y V, definen la siguiente transformación:

Y=U/V{displaystyle Y=U/V}
Z=V{displaystyle Z=V.

Entonces, se puede calcular la densidad conjunta p(y,z) por un cambio de variables de U,V a Y,Z y Y se puede derivar marginando Z de la densidad conjunta.

La transformación inversa es

U=YZ{displaystyle U=YZ!
V=Z{displaystyle V=Z!

El valor absoluto del determinante de la matriz Jacobiana J()U,V▪ ▪ Y,Z){displaystyle J(U,Vmid Y,Z)} de esta transformación es:

SilencioDet[∂ ∂ u∂ ∂ Sí.∂ ∂ u∂ ∂ z∂ ∂ v∂ ∂ Sí.∂ ∂ v∂ ∂ z]Silencio=SilencioDet[zSí.01]Silencio=SilenciozSilencio.{begin{bmatrix}{frac {partial u}{partial y}} {begin{bmatrix} {begin{bmatrix}{frac {partial v}}}}}}} {\ff} {c}}}}}} {c}}\c}}} {c}}}}}}}}}}}}} {\\\c}}}}}}}\\\c}}}}}}}\\\\\\\\\\\\\\\\\\\\\\c}}}}}\\\\c}}\\\\\\c}}}}}}}}}}}}}}}}}}}\\\\\\\\\\\\ z}end{bmatrix}}justo sobre la vida=izquierdadet {begin{bmatrix}z limity implica1end{bmatrix}}justo de la vida= sobre la vida.}

Así:

p()Sí.,z)=p()u,v)J()u,v▪ ▪ Sí.,z)=p()u)p()v)J()u,v▪ ▪ Sí.,z)=pU()Sí.z)pV()z)SilenciozSilencio.{displaystyle p(y,z)=p(u,v),J(u,vmid y,z)=p(u),p(v),J(u,vmid y,z)=p_{U}(yz),p_{V}(z), sometidaz sometida.}

Y la distribución de Y se puede calcular marginando a Z:

p()Sí.)=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO pU()Sí.z)pV()z)SilenciozSilenciodz{displaystyle p(y)=int _{-infty }p_{U}(yz),p_{V}(z), stillz

Este método requiere de manera crucial que la transformación de U,V a Y,Z sea biyectiva. La transformación anterior cumple con esto porque Z se puede mapear directamente de nuevo a V, y para un V dado, el cociente <span class="texhtml" U/V es monótono. Este es igualmente el caso de la suma U + V, diferencia UV y producto UV.

Se puede usar exactamente el mismo método para calcular la distribución de otras funciones de múltiples variables aleatorias independientes.

Ejemplo: Cociente de dos normales estándar

Dadas dos variables normales estándar U y V, el cociente se puede calcular de la siguiente manera. Primero, las variables tienen las siguientes funciones de densidad:

p()u)=12π π e− − u22{fnMicrosoft Sans Serif} {fnMicroc}} {fnMicroc {f}} {f}}}} {f}}}} {f}}}} {fn}}}} {fn}}} {f}}}}} {f}}}}}}} {f}}}}}
p()v)=12π π e− − v22{displaystyle p(v)={frac {fnMicroc {fnMicroc} {fnMicroc {f} {fnMicroc} {cH00} {cH00}} {cHFF} {cHFF}}}}} {cHFF} {f} {cHFF}} {cHFF} {f} {f} {f}}}} {f}}}} {f}f}}}}}}}}}}}}}} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f}f} {f}f}f}f}f}f} {f}f}f}f}f}f}f}f}f} {f}f 2} {2}}}}}

Transformamos como se describe arriba:

Y=U/V{displaystyle Y=U/V}
Z=V{displaystyle Z=V.

Esto conduce a:

p()Sí.)=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO pU()Sí.z)pV()z)SilenciozSilenciodz=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO 12π π e− − 12Sí.2z212π π e− − 12z2SilenciozSilenciodz=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO 12π π e− − 12()Sí.2+1)z2SilenciozSilenciodz=2∫ ∫ 0JUEGO JUEGO 12π π e− − 12()Sí.2+1)z2zdz=∫ ∫ 0JUEGO JUEGO 1π π e− − ()Sí.2+1)uduu=12z2=− − 1π π ()Sí.2+1)e− − ()Sí.2+1)uSilenciou=0JUEGO JUEGO =1π π ()Sí.2+1){displaystyle {begin{aligned}p(y) limit=int _{-infty }^{infty }p_{U}(yz),p_{V}(z), Toddz,dz\[5pt] {1}{sqrt {2pi}e^{-{frac} {1} {2}y^{2}z^{2}{2} {f} {f}} {f} {f}}}} {f}}}}}}} {f}}}}}}}} {f}}}}}}}}}}} {\}}}}}}}}}}}}}} {}}}}}}} {}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}} {}}}}}}}} {}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}} {}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}} frac {1}{sqrt [2pi}}}e^{-{-{2} {2}{2}Principe a la muerte,dz\[5pt] ¿Por qué? {fnMicroc {2}left(y^{2}+1right)z^{2}fnunció,dz\[5pt] ¿Qué? }e^{-{frac {1} {2}left(y^{2}+1right)z^{2}z,dz\[5pt] ¿Qué? {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {c} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft ]} {fnMicros} {fnMicrosoft ] {fnMicrosoft} {f} {f}f}f}fnMicrosoft} {fnMicrosoft}}f}fnMicrox}fnMicrox}f}fnMicrosoft}}}}f}fnun}fnMicrosoft} {fnun} {fnun} {fnun} {fnun} {fnun} {fnun} {f}f}}fnun} {fnun}fnun}f}fnun}f}fnun}f}}fnMi

Esta es la densidad de una distribución de Cauchy estándar.

Contenido relacionado

Teoremas de incompletitud de Gödel

Probabilidades del pozo

Ley de los senos

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save