Distribución uniforme continua

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Distribución uniforme a intervalos

En teoría de probabilidad y estadísticas, Distribución uniforme continua o Distribución rectangular son una familia de distribuciones de probabilidad simétricas. Tal distribución describe un experimento donde hay un resultado arbitrario que se encuentra entre ciertos límites. Los límites se definen por los parámetros, a{displaystyle a} y b,{displaystyle b,} que son los valores mínimos y máximos. El intervalo puede ser cerrado (es decir,. [a,b]{displaystyle [a,b]}) o abierto (es decir. ()a,b){displaystyle (a,b)}). Por lo tanto, a menudo se abrevia la distribución U()a,b),{displaystyle U(a,b),} Donde U{displaystyle U} representa una distribución uniforme. La diferencia entre los límites define la longitud del intervalo; todos los intervalos de la misma longitud en el soporte de la distribución son igualmente probables. Es la distribución máxima de probabilidad de entropía para una variable aleatoria X{displaystyle X} bajo ninguna restricción aparte de la que está contenida en el apoyo de la distribución.

Definiciones

Función de densidad de probabilidad

La función de densidad de probabilidad de la distribución uniforme continua es

<math alttext="{displaystyle f(x)={begin{cases}{frac {1}{b-a}}&{text{for }}aleq xleq b,\[8pt]0&{text{for }}xb.end{cases}}}" xmlns="http://www.w3.org/1998/Math/MathML">f()x)={}1b− − apara a≤ ≤ x≤ ≤ b,0para xc)a o x■b.{displaystyle f(x)={begin{cases}{frac {1}{b-a}} {text{for }aleq xleq b,[8pt]0 limit {text{for }}x dida {text{ or }}} x títulob.end{cases}}}<img alt="{displaystyle f(x)={begin{cases}{frac {1}{b-a}}&{text{for }}aleq xleq b,\[8pt]0&{text{for }}xb.end{cases}}}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/1592bd4a48c6e3defe80032e220d1b4c0ef1e0f5" style="vertical-align: -3.671ex; width:35.839ex; height:8.509ex;"/>

Los valores de f()x){displaystyle f(x)} en los dos límites a{displaystyle a} y b{displaystyle b} son generalmente inimportantes, porque no alteran el valor de ∫ ∫ cdf()x)dx{textstyle int _{c} {d}f(x)dx} sobre cualquier intervalo [c,d],{displaystyle [c,d],} ni de ∫ ∫ abxf()x)dx,{textstyle int _{a}b}xf(x)dx,} ni de un momento superior. A veces son elegidos para ser cero, y a veces elegidos para ser 1b− − a.{fnMicroc} {1}{b-a}} Este último es apropiado en el contexto de la estimación por el método de máxima probabilidad. En el contexto del análisis de Fourier, uno puede tomar el valor de f()a){displaystyle f(a)} o f()b){displaystyle f(b)} para ser 12()b− − a),{displaystyle {tfrac {1}{2(b-a)}}} porque entonces la transformación inversa de muchos transformados integrales de esta función uniforme devolverá la función misma, en lugar de una función que es igual "casi en todas partes", es decir, excepto en un conjunto de puntos con cero medida. Además, es consistente con la función de signo, que no tiene tal ambigüedad.

Cualquier función de densidad de probabilidad se integra a 1,{displaystyle 1,} por lo que la función de densidad de probabilidad de la distribución uniforme continua se representa gráficamente como un rectángulo donde b− − a{displaystyle b-a} es la longitud base y 1b− − a{fnMicroc} {1}{b-a}} es la altura. A medida que aumenta la longitud de la base, la altura (la densidad a cualquier valor particular dentro de los límites de distribución) disminuye.

En términos de media μ μ {displaystyle mu } y diferencia σ σ 2,{displaystyle sigma ^{2} la función de densidad de probabilidad de la distribución uniforme continua es

f()x)={}12σ σ 3para − − σ σ 3≤ ≤ x− − μ μ ≤ ≤ σ σ 3,0de otra manera.{displaystyle f(x)={begin{cases}{frac {1}{2sigma {3}}}} {text{for }-sigma {sqrt {3}leq x-muleqsigma {sqrt {3}}, adelante {}}}}}end{cases}}}}}}}}}}}}} {fn1}{2}}}}{2sigma}}}}}}}}}}} {sigma}}}sigma {sigma {ccsigma {ccccccccccccccsigma {sigma {ccsigma {sigma {ccccccccccccccccccsigma {cccsigma {sigma {c

Función de distribución acumulativa

La función de distribución acumulativa de la distribución uniforme continua es:

<math alttext="{displaystyle F(x)={begin{cases}0&{text{for }}xb.end{cases}}}" xmlns="http://www.w3.org/1998/Math/MathML">F()x)={}0para xc)a,x− − ab− − apara a≤ ≤ x≤ ≤ b,1para x■b.{displaystyle F(x)={begin{cases}0 limit{text{for }x dida,\[8pt]{frac {x-a}{b-a} {text{for }aleq xleq b,[8pt]1 limit {text{for }xb}<img alt="{displaystyle F(x)={begin{cases}0&{text{for }}xb.end{cases}}}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/32f8fa14b36ce1147021a210b875bcc4b91d24a3" style="vertical-align: -6.005ex; width:30.81ex; height:13.176ex;"/>

Su inverso es:

<math alttext="{displaystyle F^{-1}(p)=a+p(b-a)quad {text{ for }}0<pF− − 1()p)=a+p()b− − a) para 0c)pc)1.{displaystyle F^{-1}(p)=a+p(b-a)quad {text{ for }0 seleccione 1.}<img alt="{displaystyle F^{-1}(p)=a+p(b-a)quad {text{ for }}0<p

En términos de media μ μ {displaystyle mu } y diferencia σ σ 2,{displaystyle sigma ^{2} la función de distribución acumulativa de la distribución uniforme continua es:

<math alttext="{displaystyle F(x)={begin{cases}0&{text{for }}x-mu <-sigma {sqrt {3}},\{frac {1}{2}}left({frac {x-mu }{sigma {sqrt {3}}}}+1right)&{text{for }}-sigma {sqrt {3}}leq x-mu F()x)={}0para x− − μ μ c)− − σ σ 3,12()x− − μ μ σ σ 3+1)para − − σ σ 3≤ ≤ x− − μ μ c)σ σ 3,1para x− − μ μ ≥ ≥ σ σ 3;{displaystyle F(x)={begin{cases}0 }x-mu }sigma {sqrt {3},{frac {1}{2}left({frac {x-mu }{sigma {sqrt {3}}}+1right) }-sigma {sqrt {3}leq x-mu }sigma {sqrt {3}},1 âtext{for }x-mu geqsigma {sqrt {3}};end{cases}}}}}}}}}<img alt="{displaystyle F(x)={begin{cases}0&{text{for }}x-mu <-sigma {sqrt {3}},\{frac {1}{2}}left({frac {x-mu }{sigma {sqrt {3}}}}+1right)&{text{for }}-sigma {sqrt {3}}leq x-mu

su inverso es:

F− − 1()p)=σ σ 3()2p− − 1)+μ μ para 0≤ ≤ p≤ ≤ 1.{displaystyle F^{-1}(p)=sigma {sqrt {3}(2p-1)+mu quad {text{ for }0leq pleq 1.}

Ejemplo 1. Uso de la función de distribución uniforme continua

Para una variable aleatoria X♪ ♪ U()0,23),{displaystyle Xsim U(0,23),} encontrar <math alttext="{displaystyle P(2<XP()2c)Xc)18):{displaystyle P(2 identificados)}<img alt="{displaystyle P(2<X

<math alttext="{displaystyle P(2<XP()2c)Xc)18)=()18− − 2)⋅ ⋅ 123− − 0=1623.{displaystyle P(2 identificados)=(18-2)cdot {frac {1}{23-0}={frac {16}{23}}<img alt="{displaystyle P(2<X

En una representación gráfica de la función de distribución uniforme continua [f()x) vs x],{displaystyle [f(x){ vs }x],} el área bajo la curva dentro de los límites especificados, mostrando la probabilidad, es un rectángulo. Para el ejemplo específico anterior, la base sería 16,{displaystyle 16,} y la altura sería 123.{displaystyle {tfrac {1}{23}}

Ejemplo 2. Utilización de la función de distribución uniforme continua (condicional)

Para una variable aleatoria X♪ ♪ U()0,23),{displaystyle Xsim U(0,23),} encontrar 12 | X>8):}" xmlns="http://www.w3.org/1998/Math/MathML">P()X■12 Silencio X■8):{displaystyle P(X confidencial12 Silencio X título8):}12 | X>8):}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/a5347d7a4f554db17c7187fe89e9cfc50d6689cd" style="vertical-align: -0.838ex; width:20.299ex; height:2.843ex;"/>

12 | X>8)=(23-12)cdot {frac {1}{23-8}}={frac {11}{15}}.}" xmlns="http://www.w3.org/1998/Math/MathML">P()X■12 Silencio X■8)=()23− − 12)⋅ ⋅ 123− − 8=1115.{fnMicrosoft Sans Serif}=(23-12)cdot {frac {1}{23-8}={frac {11}{15}}12 | X>8)=(23-12)cdot {frac {1}{23-8}}={frac {11}{15}}.}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/a350d21f5518a874f10cf7c0ce504e01c14c4714" style="vertical-align: -2.005ex; width:47.154ex; height:5.343ex;"/>

El ejemplo anterior es un caso de probabilidad condicional para la distribución uniforme continua: dado que 8}" xmlns="http://www.w3.org/1998/Math/MathML">X■8{displaystyle X confiado8}8}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/c38845b4553400745c080fa4d2671a6bc26487e5" style="vertical-align: -0.338ex; width:6.241ex; height:2.176ex;"/> es cierto, cuál es la probabilidad de que 12?}" xmlns="http://www.w3.org/1998/Math/MathML">X■12?{displaystyle X confiado12?}12?}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/91ecab24ef2fc16a1892d090b519ccac7909e332" style="vertical-align: -0.338ex; width:8.501ex; height:2.176ex;"/> La probabilidad condicional cambia el espacio de la muestra, por lo que una nueva longitud de intervalo b− − a.{displaystyle b-a} debe calcularse, donde b=23{displaystyle b=23} y a.=8.{displaystyle a'=8.} La representación gráfica seguiría el ejemplo 1, donde el área bajo la curva dentro de los límites especificados muestra la probabilidad; la base del rectángulo sería 11,{displaystyle 11,} y la altura sería 115.{displaystyle {tfrac {}{15}}

Generar funciones

Función generadora de momentos

La función generadora de momentos de la distribución uniforme continua es:

MX=E()etX)=∫ ∫ abetxdxb− − a=etb− − etat()b− − a)=Bt− − Att()b− − a),{displaystyle M_{X}=mathrm {E} {fn} {fnMicrosoft} {fnMicrosoft} {fnMicrosoft} {fn} {f}} {fn}} {fnMicrosoft}}} {fn}} {fnK}}} {f}}}f}fnKfnK} {f} {f}f}}}f}f}}f}f}}f}f}f}f}f}f}f}f}f}f}f}f}fnKf}fnKf}f}f}f}f}f}fnKfnKfnKf}f}f}f}f}fnKf}f}fnKfnKfnKf}f}fnKf}f}f}f}fn {dx}{b-a}={frac} {fnK} {fnK}}={f} {f}} {f}} {f}} {f}} {f} {fn} {f}}} {fn}}}}}} {fnK}}}}}}

de los cuales podemos calcular los momentos crudos mk:{displaystyle #

m1=a+b2,{displaystyle m_{1}={frac {a+b}{2}}
m2=a2+ab+b23,{displaystyle m_{2}={frac {a^{2}+ab+b^{2} {3}}}}
mk=. . i=0kaibk− − ik+1.{displaystyle m_{k}={frac {sum ¿Qué?

Para una variable aleatoria después de la distribución uniforme continua, el valor esperado es m1=a+b2,{displaystyle m_{1}={tfrac {a+b}{2}} y la diferencia m2− − m12=()b− − a)212.{displaystyle m_{2}-m_{2}={tfrac {(b-a)}{12}}}

Para el caso especial a=− − b,{displaystyle a=-b,} la función de densidad de probabilidad de la distribución uniforme continua es:

f()x)={}12bpara − − b≤ ≤ x≤ ≤ b,0de otra manera;{displaystyle f(x)={begin{cases}{frac {1}{2b} }-bleq xleq b,[8pt]0 golpe{text{otherwise};end{cases}}

la función generadora de momentos se reduce a la forma simple:

MX=pecado⁡ ⁡ btbt.{displaystyle M_{X}={frac {peh bt}}

Función generadora de acumuladores

Para n≥ ≥ 2,{displaystyle ngeq 2,} el n{displaystyle n}- el acumulativo de la distribución uniforme continua en el intervalo [− − 12,12]{displaystyle [-{tfrac {1}{2}} {tfrac} {1}{2}}}} es Bnn,{displaystyle {tfrac {fn} {fn}} {fn}} {fn}} {fn}} {fn}}}} {fn}}}}} {fn}}} {fn}}}}}} Donde Bn{displaystyle B_{n} es n{displaystyle n}- el número Bernoulli.

Distribución uniforme estándar

Distribución uniforme continua con parámetros a=0{displaystyle a=0} y b=1,{displaystyle b=1,} i.e. U()0,1),{displaystyle U(0,1),} se llama Distribución uniforme estándar.

Una propiedad interesante de la distribución uniforme estándar es que si u1{displaystyle U_{1} tiene una distribución uniforme estándar, entonces lo hace 1− − u1.{displaystyle 1-u-{1} Esta propiedad se puede utilizar para generar variatos antitéticos, entre otras cosas. En otras palabras, esta propiedad se conoce como el método de inversión donde la distribución uniforme continua se puede utilizar para generar números aleatorios para cualquier otra distribución continua. Si u1{displaystyle U_{1} es un número aleatorio uniforme con distribución uniforme estándar, es decir, con U()0,1),{displaystyle U(0,1),} entonces x=F− − 1()u1){displaystyle x=F^{-1}(u_{1})} genera un número aleatorio x{displaystyle x} de cualquier distribución continua con la función de distribución acumulativa especificada F.{displaystyle F.}

Relación con otras funciones

Mientras se sigan las mismas convenciones en los puntos de transición, la función de densidad de probabilidad de la distribución uniforme continua también se puede expresar en términos de la función paso Heaviside como:

f()x)=H⁡ ⁡ ()x− − a)− − H⁡ ⁡ ()x− − b)b− − a,{displaystyle f(x)={frac {fone {H} (x-a)-operatorname {H} (x-b)}{b-a}}}}

o en términos de la función rectángulo como:

f()x)=1b− − a rectificado⁡ ⁡ ()x− − a+b2b− − a).{displaystyle f(x)={frac {1}{b-a}\fnMicroc {fnMicroc {x-{frac} {a+b}{2}} {b-a}right).}

No hay ambigüedad en el punto de transición de la función de signo. Utilizando la convención de medio máximo en los puntos de transición, la distribución uniforme continua puede expresarse en términos de la función de signo como:

f()x)=Sgn⁡ ⁡ ()x− − a)− − Sgn⁡ ⁡ ()x− − b)2()b− − a).{displaystyle f(x)={frac {fnh00} {cn}-operatorname {sgn} {x-b)}{2(b-a)}}}}

Propiedades

Momentos

La media (primer momento crudo) de la distribución uniforme continua es:

E()X)=∫ ∫ abxdxb− − a=b2− − a22()b− − a)=b+a2.{displaystyle E(X)=int _{a}{b}x{frac {dx}{b-a}={frac} {B^{2}-a^{2}{2(b-a)}={frac {b+a}{2}}

El segundo momento crudo de esta distribución es:

E()X2)=∫ ∫ abx2dxb− − a=b3− − a33()b− − a).{displaystyle E(X^{2}=int _{a}{b}x^{2}{frac} {dx}{b-a}={frac} {b^{3}-a^{3}{3(b-a)}}

En general, n{displaystyle n}- el momento crudo de esta distribución es:

E()Xn)=∫ ∫ abxndxb− − a=bn+1− − an+1()n+1)()b− − a).{displaystyle E(X^{n}=int _{a}{b}x^{n}{frac} {dx}{b-a}={frac} {b^{n+1}-a^{n+1}{(n+1)(b-a)}}}

La varianza (segundo momento central) de esta distribución es:

V()X)=E()()X− − E()X))2)=∫ ∫ ab()x− − a+b2)2dxb− − a=()b− − a)212.{displaystyle V(X)=Eleft({big (}X-E(X){big)}^{2}right)=int _{a}^{b}left(x-{frac] {a+b}{2}right)}{2}{2}{frac {dx}{b-a}={frac {(b-a)}{12}}} {fnMicrosoft Sans Serif}

Estadísticas de pedidos

Vamos. X1,...,Xn{displaystyle X_{1},... ser una muestra de i.i.d. U()0,1),{displaystyle U(0,1),} y dejar X()k){displaystyle X_{(k)}} ser el k{displaystyle k}- la estadística del orden de esta muestra.

X()k){displaystyle X_{(k)}} tiene una distribución beta, con parámetros k{displaystyle k} y n− − k+1.{displaystyle n-k+1.}

El valor esperado es:

E⁡ ⁡ ()X()k))=kn+1.{displaystyle operatorname {E} (X_{(k)})={k over n+1}

Este hecho es útil al realizar gráficos Q–Q.

La variación es:

V⁡ ⁡ ()X()k))=k()n− − k+1)()n+1)2()n+2).{displaystyle operatorname {V} (X_{(k)})={k(n-k+1) over (n+1)^{2}(n+2)}

Uniformidad

La probabilidad de que una variable aleatoria distribuida de forma uniforme caiga dentro de cualquier intervalo de longitud fija es independiente de la ubicación del intervalo en sí (pero depende del tamaño del intervalo ()l l ){displaystyle (ell)}), siempre y cuando el intervalo esté contenido en el soporte de la distribución.

De hecho, si X♪ ♪ U()a,b){displaystyle Xsim U(a,b)} y si [x,x+l l ]{displaystyle [x,x+ell] es un subintervalo de [a,b]{displaystyle [a,b]} con fijo 0,}" xmlns="http://www.w3.org/1998/Math/MathML">l l ■0,{displaystyle ell >0,}0,}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/2dd39b1dafc1e888a5b15c4e5de17f5fa2b9e204" style="vertical-align: -0.671ex; width:5.877ex; height:2.509ex;"/> entonces:

P()X▪ ▪ [x,x+l l ])=∫ ∫ xx+l l dSí.b− − a=l l b− − a,[x,x+ell]=int _{x}^{x+ell] }{frac {y}{b-a}={frac} {fnMicrosoft Sans Serif} } {b-a},}

que es independiente de x.{displaystyle x.} Este hecho motiva el nombre de la distribución.

Generalización a conjuntos de Borel

Esta distribución se puede generalizar a conjuntos más complicados que intervalos. Vamos. S{displaystyle S. ser un Borel conjunto de la medida de Lebesgue positiva y finita λ λ ()S),{displaystyle lambda (S),} i.e. <math alttext="{displaystyle 0<lambda (S)0c)λ λ ()S)c)+JUEGO JUEGO .{displaystyle 0 realizadaslambda (S) realizadas+infty.}<img alt="{displaystyle 0<lambda (S) Distribución uniforme S{displaystyle S. se puede especificar definiendo la función de densidad de probabilidad a ser cero fuera S{displaystyle S. y constantemente igual a 1λ λ ()S){displaystyle {tfrac {1}{lambda (S)}}} {fnMicroc {fnK}}}} {fnMicroc}}}}} {fn}}}} {fnMicroc}}}}}} {fn}}}} {fnMicroc}}}} on S.{displaystyle S.}

Distribuciones relacionadas

Inferencia estadística

Estimación de parámetros

Estimación del máximo

Estimador insesgado de varianza mínima

Dada la distribución uniforme [0,b]{displaystyle [0,b] con desconocido b,{displaystyle b,} el estimador imparcial mínimo (UMVUE) para el máximo es:

b^ ^ UMVU=k+1km=m+mk,{displaystyle {hat {b}_{text{UMVU}={frac} {k+1} {k}m=m+{frac} {m}{k},}

Donde m{displaystyle m} es la muestra máxima y k{displaystyle k} es el tamaño de la muestra, muestreo sin reemplazo (aunque esta distinción casi seguramente no marca ninguna diferencia para una distribución continua). Esto se debe a las mismas razones que la estimación para la distribución discreta, y se puede ver como un caso muy simple de estimación de espaciamiento máximo. Este problema se conoce comúnmente como el problema del tanque alemán, debido a la aplicación de la estimación máxima a las estimaciones de la producción de tanques alemanes durante la Segunda Guerra Mundial.

Método de estimación de momento

El método del estimador de momentos es:

b^ ^ MM=2X̄ ̄ ,{displaystyle {hat} {b}_{}=2{bar {X}}}

Donde X̄ ̄ {displaystyle {bar {X}}} es la muestra media.

Estimador de máxima verosimilitud

El estimador de máxima verosimilitud es:

b^ ^ ML=m,{fnMicrosoft Sans Serif}

Donde m{displaystyle m} es el máximo de la muestra, también denotado como m=X()n),{displaystyle m=X_{(n)} la estadística de pedido máximo de la muestra.

Estimación del mínimo

Dada la distribución uniforme [a,b]{displaystyle [a,b]} con desconocido a, el estimador de probabilidad máxima para a es:

a^ ^ ML=min{}X1,... ... ,Xn}{displaystyle {hat {}_{ML}=min{X_{1},dotsX_{n}}},

el mínimo de muestra.

Estimación del punto medio

El punto medio de la distribución, a+b2,{fnMicroc} {a+b}{2}} es tanto la mediana como la mediana de la distribución uniforme. Aunque tanto el medio de muestra como el medio de muestra son estimadores imparciales del punto medio, tampoco es tan eficiente como el medio de muestra, es decir, la media aritmética del máximo de muestra y el mínimo de muestra, que es el estimador UMVU del punto medio (y también la estimación de probabilidad máxima).

Intervalo de confianza

Para el máximo

Vamos. X1,X2,X3,...,Xn{displaystyle X_{1},X_{2},X_{3},X_{n} ser una muestra de U[0,L],{displaystyle U_{[0,L]},} Donde L{displaystyle L. es el valor máximo de la población. Entonces... X()n)=max()X1,X2,X3,...,Xn){displaystyle X_{(n)}=max(X_{1},X_{2},X_{3},...,X_{n}} tiene la densidad de Lebesgue-Borel f=dPrX()n)dλ λ :{displaystyle f={frac} Pr _{X_{(n)} {dlambda }

f()t)=n1L()tL)n− − 1=ntn− − 1Ln11[0,L]()t),{displaystyle f(t)=n{frac {1} {fn}left({frac} {fnK}}left({frac} {fnh} {fnh}} {fn}}}} {fn} {fnfn}}}left({fnf}fnfnfnf}fnfnfnh}fnh}fnh}fnh}fnh}fnfn}fn}fn}fnfnh}fnh}fnh}f}fn}f}fnh}f}fn}f}c}fnh}fnh}c}fnh}c}c}c}fnh}c}c}c}c}fnh}c}c}c}c}c}c}c}c {fn}fn}fn1}fn{fn} {fn}fn}fn}\fn}fn} {fn} ¡No! Donde 11[0,L]{displaystyle 1! es la función indicadora de [0,L].{displaystyle [0,L]

El intervalo de confianza dado antes es matemáticamente incorrecto, ya que

Pr()[Silencio Silencio ^ ^ ,Silencio Silencio ^ ^ +ε ε ]∋ ∋ Silencio Silencio )≥ ≥ 1− − α α {displaystyle Pr {big}[{hat {theta } {hat {theta] }+varepsilon ]ni theta {big)}geq 1-alpha }

no puede ser resuelto ε ε {displaystyle varepsilon } sin conocimiento de Silencio Silencio {displaystyle theta }. Sin embargo, uno puede resolver

Pr()[Silencio Silencio ^ ^ ,Silencio Silencio ^ ^ ()1+ε ε )]∋ ∋ Silencio Silencio )≥ ≥ 1− − α α {displaystyle Pr {big}[{hat {theta } {hat {theta] }(1+varepsilon)]ni theta {big]}geq 1-alpha } para ε ε ≥ ≥ ()1− − α α )− − 1/n− − 1{displaystyle varepsilon geq (1-alpha)^{-1/n}-1} para cualquier desconocido pero válido Silencio Silencio ;{displaystyle theta;}

uno entonces elige el más pequeño ε ε {displaystyle varepsilon } posible satisfacer la condición anterior. Tenga en cuenta que la longitud del intervalo depende de la variable aleatoria Silencio Silencio ^ ^ .{displaystyle {hat {theta }}

Ocurrencia y aplicaciones

Las probabilidades de la función de distribución uniforme son fáciles de calcular debido a la simplicidad de la forma de la función. Por lo tanto, existen varias aplicaciones para las que se puede utilizar esta distribución, como se muestra a continuación: situaciones de prueba de hipótesis, casos de muestreo aleatorio, finanzas, etc. Además, generalmente, los experimentos de origen físico siguen una distribución uniforme (por ejemplo, emisión de partículas radiactivas). Sin embargo, es importante señalar que en cualquier aplicación existe la suposición invariable de que la probabilidad de caer en un intervalo de longitud fija es constante.

Ejemplo económico para una distribución uniforme

En el campo de la economía, normalmente la demanda y el reabastecimiento pueden no seguir la distribución normal esperada. Como resultado, se utilizan otros modelos de distribución para predecir mejor probabilidades y tendencias, como el proceso de Bernoulli. Pero según Wanke (2008), en el caso particular de investigar el tiempo de entrega para la gestión de inventario al comienzo del ciclo de vida cuando se analiza un producto completamente nuevo, la distribución uniforme resulta más útil. En esta situación, otra distribución puede no ser viable ya que no existen datos sobre el nuevo producto o el historial de demanda no está disponible, por lo que realmente no existe una distribución adecuada o conocida. La distribución uniforme sería ideal en esta situación, ya que la variable aleatoria del tiempo de entrega (relacionada con la demanda) se desconoce para el nuevo producto, pero es probable que los resultados oscilen entre un rango plausible de dos valores. Por tanto, el tiempo de entrega representaría la variable aleatoria. A partir del modelo de distribución uniforme, se pudieron calcular otros factores relacionados con el tiempo de entrega, como el nivel de servicio del ciclo y la escasez por ciclo. También se observó que también se utilizó la distribución uniforme debido a la simplicidad de los cálculos.

Muestreo a partir de una distribución arbitraria

La distribución uniforme es útil para tomar muestras de distribuciones arbitrarias. Un método general es el método de muestreo por transformación inversa, que utiliza la función de distribución acumulativa (CDF) de la variable aleatoria objetivo. Este método es muy útil en el trabajo teórico. Dado que las simulaciones que utilizan este método requieren invertir la CDF de la variable objetivo, se han ideado métodos alternativos para los casos en los que la CDF no se conoce en forma cerrada. Uno de esos métodos es el muestreo de rechazo.

La distribución normal es un ejemplo importante en el que el método de transformación inversa no es eficiente. Sin embargo, existe un método exacto, la transformación de Box-Muller, que utiliza la transformada inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente.

Error de cuantificación

En la conversión de analógico a digital, se produce un error de cuantificación. Este error se debe a redondeo o truncamiento. Cuando la señal original es mucho mayor que un bit menos significativo (LSB), el error de cuantificación no se correlaciona significativamente con la señal y tiene una distribución aproximadamente uniforme. Por tanto, el error RMS se deriva de la varianza de esta distribución.

Generación variada aleatoria

Existen muchas aplicaciones en las que resulta útil ejecutar experimentos de simulación. Muchos lenguajes de programación vienen con implementaciones para generar números pseudoaleatorios que se distribuyen efectivamente según la distribución uniforme estándar.

Por otro lado, los números distribuidos uniformemente se utilizan a menudo como base para la generación de variables aleatorias no uniformes.

Si u{displaystyle u} es un valor muestrado de la distribución uniforme estándar, luego el valor a+()b− − a)u{displaystyle a+(b-a)u} sigue la distribución uniforme a{displaystyle a} y b,{displaystyle b,} como se describe anteriormente.

Historia

Si bien los orígenes históricos de la concepción de distribución uniforme no son concluyentes, se especula que el término "uniforme" surgió del concepto de equiprobabilidad en los juegos de dados (tenga en cuenta que los juegos de dados tendrían un espacio muestral uniforme discreto y no continuo). La equiprobabilidad se mencionó en el Liber de Ludo Aleae de Gerolamo Cardano, un manual escrito en el siglo XVI y que detalla el cálculo avanzado de probabilidades en relación con los dados.

Contenido relacionado

Conjunto vacío

En matemáticas, el conjunto vacío es el conjunto único que no tiene elementos; su tamaño o cardinalidad es cero. Algunas teorías axiomáticas de...

Historia de la lógica

La historia de la lógica se ocupa del estudio del desarrollo de la ciencia de la inferencia válida tal como se encuentran en el Organon, encontraron una...

Menor que <

El signo menor que es un símbolo matemático que denota una desigualdad entre dos valores. La forma ampliamente adoptada de dos trazos de igual longitud que...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save