Variable aleatoria multivariante

ImprimirCitar
Variable aleatoria con múltiples dimensiones componentes

En probabilidad y estadística, una variable aleatoria multivariante o vector aleatorio es una lista de variables matemáticas cuyo valor se desconoce, ya sea porque el valor aún no se ha ocurrido o porque hay un conocimiento imperfecto de su valor. Las variables individuales en un vector aleatorio se agrupan porque todas son parte de un solo sistema matemático; a menudo representan diferentes propiedades de una unidad estadística individual. Por ejemplo, mientras que una persona determinada tiene una edad, altura y peso específicos, la representación de estas características de una persona no especificada dentro de un grupo sería un vector aleatorio. Normalmente cada elemento de un vector aleatorio es un número real.

Los vectores aleatorios se utilizan a menudo como la implementación subyacente de varios tipos de variables aleatorias agregadas, p. una matriz aleatoria, un árbol aleatorio, una secuencia aleatoria, un proceso estocástico, etc.

Más formalmente, una variable aleatoria multivariada es un vector de columna X=()X1,...... ,Xn)T{displaystyle mathbf {X} =(X_{1},dotsX_{n}{mathsf {T} (o su transposición, que es un vector de fila) cuyos componentes son variables aleatorias de valor escalar en el mismo espacio de probabilidad que el otro, ()Ω Ω ,F,P){displaystyle (Omega{mathcal {F}},P)}, donde Ω Ω {displaystyle Omega } es el espacio de la muestra, F{displaystyle {fnMithcal}} es el sigma-álgebra (la colección de todos los eventos), y P{displaystyle P} es la medida de probabilidad (una función que devuelve la probabilidad de cada evento).

Distribución de probabilidad

Cada vector aleatorio da lugar a una medida de probabilidad en Rn{displaystyle mathbb {R} {} {}} {fn}} con el álgebra Borel como el sigma-algebra subyacente. Esta medida también se conoce como la distribución de probabilidad conjunta, la distribución conjunta o la distribución multivariada del vector aleatorio.

Las distribuciones de cada una de las variables aleatorias del componente Xi{displaystyle X_{i} se llaman distribuciones marginales. Distribución de probabilidad condicional Xi{displaystyle X_{i} dado Xj{displaystyle X_{j} es la distribución de probabilidad Xi{displaystyle X_{i} cuando Xj{displaystyle X_{j} se sabe que es un valor particular.

El función de distribución acumulativa FX:Rn↦ ↦ [0,1]{displaystyle F_{Mathbf Mathbb {R} {n}mapsto [0,1]} de un vector aleatorio X=()X1,...... ,Xn)T{displaystyle mathbf {X} =(X_{1},dotsX_{n}{mathsf {T} se define como

FX()x)=P⁡ ⁡ ()X1≤ ≤ x1,...... ,Xn≤ ≤ xn){displaystyle F_{Mathbf [X] }(mathbf {x}=operatorname {P} (X_{1}leq x_{1},ldotsX_{n}leq x_{n}}

()Eq.1)

Donde x=()x1,...... ,xn)T{displaystyle mathbf {x} =(x_{1},dotsx_{n}^{mathsf {T}}.

Operaciones sobre vectores aleatorios

Los vectores aleatorios se pueden someter a los mismos tipos de operaciones algebraicas que los vectores no aleatorios: suma, resta, multiplicación por un escalar y obtención de productos internos.

Transformaciones afines

Del mismo modo, un nuevo vector aleatorio Y{displaystyle mathbf {Y} se puede definir mediante la aplicación de una transformación afinada g:: Rn→ → Rn{displaystyle gcolon mathbb {R} ^{n}to mathbb {R} {fn} a un vector aleatorio X{displaystyle mathbf {X}:

Y=AX+b{displaystyle mathbf {Y} ={mathcal {A}Mathbf {X} +b}, donde A{displaystyle {fnMithcal}} es un n× × n{displaystyle ntimes n} matriz b{displaystyle b} es un n× × 1{displaystyle ntimes 1} vector de columna.

Si A{displaystyle {fnMithcal}} es una matriz invertible y X{displaystyle textstyle mathbf {X} tiene una función de densidad de probabilidad fX{displaystyle f_{mathbf {X}, entonces la densidad de probabilidad de Y{displaystyle mathbf {Y} es

fY()Sí.)=fX()A− − 1()Sí.− − b))SilencioDetASilencio{displaystyle f_{mathbf {Y}(y)={frac {f_{mathbf {X}({mathcal {A}} {i} {cHFF} {b)} {fnMitcal}} {cHFF}} {b}} {cHFF}} {cHFFFF}}}}} {f}}}}}}} {f}}}}} {f}}}}} {f}}} {f}f}}}}}}}}}} {f} {f} {f}f}}f}}f}f}f}f}f} {f} {f}f}}}}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}} {fnK}}.

Asignaciones invertibles

De manera más general, podemos estudiar aplicaciones invertibles de vectores aleatorios.

Vamos g{displaystyle g} ser una asignación de uno a uno de un subconjunto abierto D{displaystyle {fnMithcal}} de Rn{displaystyle mathbb {R} {} {}} {fn}} sobre un subconjunto R{displaystyle {fnMithcal}} de Rn{displaystyle mathbb {R} {} {}} {fn}}, vamos g{displaystyle g} tienen derivados parciales continuos en D{displaystyle {fnMithcal}} y dejar que el determinante jacobino de g{displaystyle g} ser cero en ningún punto D{displaystyle {fnMithcal}}. Supongamos que el vector aleatorio real X{displaystyle mathbf {X} tiene una función de densidad de probabilidad fX()x){displaystyle f_{mathbf {X}(mathbf {x})} y satisfizos P()X▪ ▪ D)=1{displaystyle P(mathbf {X} {fn}=1}. Entonces el vector al azar Y=g()X){displaystyle mathbf {Y} =g(mathbf {X})} es de densidad de probabilidad

fY()Sí.)=fX()x)SilencioDet∂ ∂ g()x)∂ ∂ xSilencioSilenciox=g− − 1()Sí.)1()Sí.▪ ▪ RY){f} {f} {f}} {f}} {f}}} {f}} {f}} {f}} {f}} {f}} {f}}} {f}} {f}} {f}}} {f}} {f}}}}} {f}b}}}} {f}}}}f} {f} {f}f}f}}}f}}}}}}}}}}}}}}}}}}}} {f} {f} {f} {f}f} {f} {f}f}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}

Donde 1{displaystyle mathbf {1} denota la función del indicador y el conjunto 0}subseteq {mathcal {R}}}" xmlns="http://www.w3.org/1998/Math/MathML">RY={}Sí.=g()x):fX()x)■0}⊆ ⊆ R{displaystyle R_{mathbf {Y}=\\\cHFF} {cH00}f_\cHFF} {cHFF}(mthbf {x})}cH00}cH0}cH0}bh}b9}cH}0}subseteq {mathcal {R}}}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/c2d2501f21cde86999c8614608b1eabd14ea13dc" style="vertical-align: -0.838ex; width:34.98ex; height:2.843ex;"/> denota apoyo Y{displaystyle mathbf {Y}.

Valor esperado

El valor esperado o la media de un vector aleatorio X{displaystyle mathbf {X} es un vector fijo E⁡ ⁡ [X]{displaystyle operatorname [Mathbf {X]} cuyos elementos son los valores esperados de las variables aleatorias respectivas.

E⁡ ⁡ [X]=()E⁡ ⁡ [X1],...,E⁡ ⁡ [Xn])T{displaystyle operatorname {E} [mathbf {X}=(operatorname {E} [X_{1}],operatorname {E} [X_{n}]

()Eq.2)

Covarianza y covarianza cruzada

Definiciones

El matriz de covariancia (también llamado segundo momento central o matriz de covariancia de varianza) de una n× × 1{displaystyle ntimes 1} vector aleatorio es un n× × n{displaystyle ntimes n} matriz cuyoi,j)T elemento es la covariancia entre el i T y el j T variables al azar. La matriz de covariancia es el valor esperado, elemento por elemento, de la n× × n{displaystyle ntimes n} matriz calculada [X− − E⁡ ⁡ [X]][X− − E⁡ ⁡ [X]]T{displaystyle [mathbf {X} -operatorname {E} [mathbf {X}] [mathbf {X} -operatorname [Mathbf {X]], donde el superscript T se refiere a la transposición del vector indicado:

KXX=Var⁡ ⁡ [X]=E⁡ ⁡ [()X− − E⁡ ⁡ [X])()X− − E⁡ ⁡ [X])T]=E⁡ ⁡ [XXT]− − E⁡ ⁡ [X]E⁡ ⁡ [X]T{displaystyle operatorname {K} {X} mathbf {X}= [Mathbf] ################################################################################################################################################################################################################################################################ [E] [Mathbf {X} -operatorname {E} [mathbf {X}] [X] -operatorname {E} [mathbf {X}]=operatorname {E} [X] ^{T} [Mathbf {X]fnMitbf}

()Eq.3)

Por extensión, la matriz de covariancia cruzada entre dos vectores aleatorios X{displaystyle mathbf {X} y Y{displaystyle mathbf {Y} ()X{displaystyle mathbf {X} teniendo n{displaystyle n} elementos y Y{displaystyle mathbf {Y} teniendo p{displaystyle p} elementos) n× × p{displaystyle ntimes p} matriz

KXY=Cov⁡ ⁡ [X,Y]=E⁡ ⁡ [()X− − E⁡ ⁡ [X])()Y− − E⁡ ⁡ [Y])T]=E⁡ ⁡ [XYT]− − E⁡ ⁡ [X]E⁡ ⁡ [Y]T{displaystyle operatorname {K} {X} mathbf {Y}=fnMicrosoft {Cov} ################################################################################################################################################################################################################################################################ [E] [Mathbf {X} -operatorname {E} [mathbf {X}] [Y] - 'operatorname {E} [mathbf {Y}] {E} ## Operatorname [Mathbf {X]fnMitbf}

()Eq.4)

donde nuevamente la expectativa matriz se toma elemento por elemento en la matriz. Aquí eli,j)T elemento es la covariancia entre el i T elemento X{displaystyle mathbf {X} y el j T elemento Y{displaystyle mathbf {Y}.

Propiedades

La matriz de covarianza es una matriz simétrica, es decir

KXXT=KXX{displaystyle operatorname {K} {X} mathbf {X} {T}=fnMicrosoft} {K} {X} mathbf {X}.

La matriz de covarianza es una matriz semidefinida positiva, es decir

aTKXX⁡ ⁡ a≥ ≥ 0para todosa▪ ▪ Rn{displaystyle mathbf {a} ^{T}operatorname {K} _{Mathbf {X}mathbf {X}Mathbf {a} geq 0quad {text{for all }mathbf {a} in mathbb {R} ^{n}.

La matriz de covariancia cruzada Cov⁡ ⁡ [Y,X]{displaystyle operatorname {Cov} es simplemente la transposición de la matriz Cov⁡ ⁡ [X,Y]{displaystyle operatorname {Cov}, es decir.

KYX=KXYT{displaystyle operatorname {K} _{Mathbf {Y} mathbf {X}= {K} {X} mathbf {Y} {T}}.

Incorrelación

Dos vectores al azar X=()X1,...,Xm)T{displaystyle mathbf {X} =(X_{1},...,X_{m} {T} y Y=()Y1,...,Yn)T{displaystyle mathbf {Y} =(Y_{1},Y_{n}}}} {}}} se llaman no estructurado si

E⁡ ⁡ [XYT]=E⁡ ⁡ [X]E⁡ ⁡ [Y]T{displaystyle operatorname {E} {Y} {fn}=fnMicrosoft} [Mathbf {X]fnMitbf}.

Son incorrelacionados si y sólo si su matriz de covariancia cruzada KXY{displaystyle operatorname {K} {X} mathbf {Y} es cero.

Correlación y correlación cruzada

Definiciones

El matriz de correlación (también llamado segundo momento) de un n× × 1{displaystyle ntimes 1} vector aleatorio es un n× × n{displaystyle ntimes n} matriz cuyoi,j)T elemento es la correlación entre i T y el j T variables al azar. La matriz de correlación es el valor esperado, elemento por elemento, de la n× × n{displaystyle ntimes n} matriz calculada XXT{displaystyle mathbf {X} mathbf {X} ^{T}, donde el superscript T se refiere a la transposición del vector indicado:

RXX=E⁡ ⁡ [XXT]{displaystyle operatorname {R} {cHFF} {X} mathbf {X}= {E} [X] ^{mathrm {T}

()Eq.5)

Por extensión, la matriz de puntuación cruzada entre dos vectores aleatorios X{displaystyle mathbf {X} y Y{displaystyle mathbf {Y} ()X{displaystyle mathbf {X} teniendo n{displaystyle n} elementos y Y{displaystyle mathbf {Y} teniendo p{displaystyle p} elementos) n× × p{displaystyle ntimes p} matriz

RXY=E⁡ ⁡ [XYT]{displaystyle operatorname {R} {cHFF} {X} mathbf {Y}=fnMicrosoft {E} [mathbf {X} mathbf {Y} {T}}

()Eq.6)

Propiedades

La matriz de correlación está relacionada con la matriz de covarianza por

RXX=KXX+E⁡ ⁡ [X]E⁡ ⁡ [X]T{displaystyle operatorname {R} {cHFF} {X} mathbf {X}= {K} {X} mathbf ################################################################################################################################################################################################################################################################ [Mathbf {X]fnMitbf}.

Del mismo modo para la matriz de correlación cruzada y la matriz de covarianza cruzada:

RXY=KXY+E⁡ ⁡ [X]E⁡ ⁡ [Y]T{displaystyle operatorname {R} {cHFF} {X} mathbf {Y}=fnMicrosoft {K} {X} mathbf {Y}+fnMi nombre de operador [Mathbf {X]fnMitbf}

Ortogonalidad

Dos vectores aleatorios del mismo tamaño X=()X1,...,Xn)T{displaystyle mathbf {X} =(X_{1},...,X_{n} y Y=()Y1,...,Yn)T{displaystyle mathbf {Y} =(Y_{1},Y_{n}}}} {}}} se llaman ortogonal si

E⁡ ⁡ [XTY]=0{displaystyle operatorname {E} {X} {fn}fnMitbf}=0}.

Independencia

Dos vectores al azar X{displaystyle mathbf {X} y Y{displaystyle mathbf {Y} se llaman independiente si para todos x{displaystyle mathbf {x} y Sí.{displaystyle mathbf {y}

FX,Y()x,Sí.)=FX()x)⋅ ⋅ FY()Sí.){displaystyle F_{mathbf {X,Y}(mathbf {x,y})=F_{mathbf {X}(mathbf {x})cdot F_{mathbf {Y}(mathbf {y})}

Donde FX()x){displaystyle F_{mathbf {X}(mathbf {x})} y FY()Sí.){displaystyle F_{mathbf {Y}(mathbf {y})} denota las funciones acumulativas de distribución X{displaystyle mathbf {X} y Y{displaystyle mathbf {Y} yFX,Y()x,Sí.){displaystyle F_{mathbf {X,Y}(mathbf {x,y})} denota su función de distribución acumulativa conjunta. Independence of X{displaystyle mathbf {X} y Y{displaystyle mathbf {Y} a menudo se denota X⊥ ⊥ ⊥ ⊥ Y{displaystyle mathbf {X} perp !!!perp mathbf {Y}. Componente escrito en sentido, X{displaystyle mathbf {X} y Y{displaystyle mathbf {Y} son llamados independientes si para todos x1,...... ,xm,Sí.1,...... ,Sí.n{displaystyle x_{1},ldotsx_{m},y_{1},ldotsy_{n}}

FX1,...... ,Xm,Y1,...... ,Yn()x1,...... ,xm,Sí.1,...... ,Sí.n)=FX1,...... ,Xm()x1,...... ,xm)⋅ ⋅ FY1,...... ,Yn()Sí.1,...... ,Sí.n){displaystyle ¿Qué? F_{Y_{1},ldots Y....

Función característica

La función característica de un vector aleatorio X{displaystyle mathbf {X} con n{displaystyle n} componentes es una función Rn→ → C{displaystyle mathbb {R}n}to mathbb {C} que mapea cada vector ⋅ ⋅ =()⋅ ⋅ 1,...... ,⋅ ⋅ n)T{displaystyle mathbf {omega } =(omega _{1},ldotsomega _{n})^{T} a un número complejo. Se define por

φ φ X()⋅ ⋅ )=E⁡ ⁡ [ei()⋅ ⋅ TX)]=E⁡ ⁡ [ei()⋅ ⋅ 1X1+...... +⋅ ⋅ nXn)]{displaystyle varphi _{mathbf {X}(mathbf {omega })=operatorname {E} left[e^{i(mathbf {omega ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ### ## ## ## ## ## ## ## ## ## ## ## ## ## #### ## ## ## ##################################### {E} left[e^{i(omega) ¿Por qué?.

Otras propiedades

Esperanza de una forma cuadrática

Uno puede tomar la expectativa de una forma cuadrática en el vector aleatorio X{displaystyle mathbf {X} como sigue:

E⁡ ⁡ [XTAX]=E⁡ ⁡ [X]TAE⁡ ⁡ [X]+tr⁡ ⁡ ()AKXX),{displaystyle operatorname {E} {X}Amathbf ################################################################################################################################################################################################################################################################ {E} Un nombre de operador [Mathbf {X}]+operatorname {tr} (AK_{mathbf {X} mathbf {X}),}}

Donde KXX{displaystyle K_{Mathbf {X} mathbf {X} es la matriz de covariancia X{displaystyle mathbf {X} y tr{displaystyle operatorname {tr} se refiere al trazo de una matriz, es decir, a la suma de los elementos en su diagonal principal (de izquierda superior a derecha inferior). Puesto que la forma cuadrática es un escalar, así es su expectativa.

Prueba# z{displaystyle mathbf {z} ser un m× × 1{displaystyle mtimes 1} vector aleatorio con E⁡ ⁡ [z]=μ μ {displaystyle operatorname {E} y Cov⁡ ⁡ [z]=V{displaystyle operatorname [Mathbf {z]=V] y dejar A{displaystyle A} ser un m× × m{displaystyle mtimes m} matriz no estocástica.

Luego basado en la fórmula para la covariancia, si denotamos zT=X{displaystyle mathbf {z}. y zTAT=Y{displaystyle mathbf {z}., vemos que:

Cov⁡ ⁡ [X,Y]=E⁡ ⁡ [XYT]− − E⁡ ⁡ [X]E⁡ ⁡ [Y]T{displaystyle operatorname {Cov} ################################################################################################################################################################################################################################################################ {E} ## Operatorname [Mathbf {X]fnMitbf}

Por lo tanto

E⁡ ⁡ [XYT]=Cov⁡ ⁡ [X,Y]+E⁡ ⁡ [X]E⁡ ⁡ [Y]TE⁡ ⁡ [zTAz]=Cov⁡ ⁡ [zT,zTAT]+E⁡ ⁡ [zT]E⁡ ⁡ [zTAT]T=Cov⁡ ⁡ [zT,zTAT]+μ μ T()μ μ TAT)T=Cov⁡ ⁡ [zT,zTAT]+μ μ TAμ μ ,{displaystyle {begin{aligned}operatorname {E} [XY^{T}] [X, Y]+ {E} [X] [E] [Y] {E} [z^{T}Az=operatorname [Cov] [z^{T},z^{T}A^{T}+operatorname [E] [z^{T] [E] [z^{T}A^{T}\\cH00=operatorname {Cov} [z^{T},z^{T}]+mu ^{T}(mu ^{T}A^{T})}\\\\\\\\\\fnMicrosoft} {Cov} [z^{T},z^{T}A^{T}+mu} ^{T}Amuend{aligned}

lo que nos deja demostrar que

Cov⁡ ⁡ [zT,zTAT]=tr⁡ ⁡ ()AV).{displaystyle operatorname {Cov} [z^{T},z^{T}]=operatorname {tr} (AV).}

Esto es cierto basado en el hecho de que uno puede cíclicamente permute matrices al tomar un rastro sin cambiar el resultado final (por ejemplo: tr⁡ ⁡ ()AB)=tr⁡ ⁡ ()BA){displaystyle operatorname {tr} (AB)=operatorname {tr} (BA)}).

Vemos que

Cov⁡ ⁡ [zT,zTAT]=E⁡ ⁡ [()zT− − E()zT))()zTAT− − E()zTAT))T]=E⁡ ⁡ [()zT− − μ μ T)()zTAT− − μ μ TAT)T]=E⁡ ⁡ [()z− − μ μ )T()Az− − Aμ μ )].{displaystyle {begin{aligned}operatorname {Cov} [z^{T},z^{T}A^{T} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft ] {fnMicrosoft Sans Serif} {fnMicrosoft ]} {f} {f} {fnMicrosoft}f}fnMicrosoft SansiguenMicrosoft SansiguenMicrosoft Sans}

Y desde entonces

()z− − μ μ )T()Az− − Aμ μ ){displaystyle left({z-mu }right)}left({Az-Amu }right)}

es un escalar, entonces

()z− − μ μ )T()Az− − Aμ μ )=tr⁡ ⁡ ()()z− − μ μ )T()Az− − Aμ μ ))=tr⁡ ⁡ ()()z− − μ μ )TA()z− − μ μ )){displaystyle (z-mu)}(Az-Amu)=operatorname {tr} left({(z-mu)^{T}(Az-Amu)}right)=operatorname {tr} left((z-mu)}{T}A(z-mu)}right)}}}

trivialmente. Usando la permutación obtenemos:

tr⁡ ⁡ ()()z− − μ μ )TA()z− − μ μ ))=tr⁡ ⁡ ()A()z− − μ μ )()z− − μ μ )T),{displaystyle operatorname {tr} left({(z-mu)}right)=operatorname {tr} left({A(z-mu)(z-mu)}derecho),}}}}

y al insertar esto en la fórmula original obtenemos:

Cov⁡ ⁡ [zT,zTAT]=E[()z− − μ μ )T()Az− − Aμ μ )]=E[tr⁡ ⁡ ()A()z− − μ μ )()z− − μ μ )T)]=tr⁡ ⁡ ()A⋅ ⋅ E⁡ ⁡ ()()z− − μ μ )()z− − μ μ )T))=tr⁡ ⁡ ()AV).{displaystyle {begin{aligned}operatorname {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft ] {fnMicrosoft ] {fnMicrosoft Sans Ser]

Esperanza del producto de dos formas cuadráticas diferentes

Uno puede tomar la expectativa del producto de dos formas cuadráticas diferentes en un vector aleatorio Gaussiano 0-medio X{displaystyle mathbf {X} como sigue:

E⁡ ⁡ [()XTAX)()XTBX)]=2tr⁡ ⁡ ()AKXXBKXX)+tr⁡ ⁡ ()AKXX)tr⁡ ⁡ ()BKXX){displaystyle operatorname {E} left[(mathbf [X] ^{T}Amathbf {X}(mathbf) [X} ^{T}Bmathbf {X})right]=2operatorname {tr} (AK_{mathbf {X} mathbf {X} {X} mathbf {X})+operatorname {tr} (AK_{mathbf {X} mathbf {X})operatorname {tr} (BK_{mathbf {X} mathbf {X} })}}}}}}}}}

donde de nuevo KXX{displaystyle K_{Mathbf {X} mathbf {X} es la matriz de covariancia X{displaystyle mathbf {X}. De nuevo, ya que ambas formas cuadráticas son escalares y por lo tanto su producto es un escalar, la expectativa de su producto es también un escalar.

Aplicaciones

Teoría de la cartera

En teoría de carteras en finanzas, un objetivo a menudo es elegir una cartera de activos arriesgados tales que la distribución del rendimiento de cartera al azar tiene propiedades deseables. Por ejemplo, es posible que desee elegir el rendimiento de la cartera con la menor diferencia por un valor esperado determinado. Aquí el vector al azar es el vector r{displaystyle mathbf {r} de rendimientos aleatorios en los activos individuales, y el rendimiento de la cartera p (un escalar aleatorio) es el producto interno del vector de retornos aleatorios con un vector w de pesos de cartera - las fracciones de la cartera colocadas en los activos respectivos. Desde p = wTr{displaystyle mathbf {r}, el valor esperado del rendimiento de la cartera es wTE(E)r{displaystyle mathbf {r}) y la diferencia de rendimiento de la cartera se puede demostrar wTCw, donde C es la matriz de covariancia r{displaystyle mathbf {r}.

Teoría de la regresión

En la teoría de regresión lineal, tenemos datos sobre n observaciones sobre una variable dependiente y y n observaciones sobre cada una de k variables independientes xj. Las observaciones sobre la variable dependiente se apilan en un vector de columna y; las observaciones de cada variable independiente también se apilan en vectores de columna, y estos últimos vectores de columna se combinan en una matriz de diseño X (que no denota un vector aleatorio en este contexto) de observaciones de las variables independientes. Luego se postula la siguiente ecuación de regresión como descripción del proceso que generó los datos:

Sí.=Xβ β +e,{displaystyle y=Xbeta +e,}

donde β es un vector fijo postulado pero desconocido k coeficientes de respuesta y e es un vector desconocido que refleja influencias aleatorias en la variable dependiente. Por alguna técnica elegida como mínimos cuadrados ordinarios, un vector β β ^ ^ {displaystyle {hat {beta } es elegido como una estimación de β, y la estimación del vector e, denotado e^ ^ {displaystyle {hat {e}}}, se calcula como

e^ ^ =Sí.− − Xβ β ^ ^ .{displaystyle {hat {}=y-X{hat {beta} }}

Entonces el estadístico debe analizar las propiedades de β β ^ ^ {displaystyle {hat {beta } y e^ ^ {displaystyle {hat {e}}}, que se consideran vectores aleatorios desde una selección aleatoriamente diferente de n los casos a observar habrían dado lugar a diferentes valores para ellos.

Serie temporal de vectores

La evolución de un k× 1 vector aleatorio X{displaystyle mathbf {X} a través del tiempo se puede modelar como un vector de autoregreso (VAR) como sigue:

Xt=c+A1Xt− − 1+A2Xt− − 2+⋯ ⋯ +ApXt− − p+et,{displaystyle mathbf {X} ¿Qué? {X} _{t-1}+A_{2}mathbf {X} _{t-2}+cdots +A_{p}mathbf ¿Qué?

Donde i-periods-back vector de observación Xt− − i{displaystyle mathbf {X} se llama i- lag de X{displaystyle mathbf {X}, c es un k× 1 vector de constantes (interceptos), Ai es un invariante k×k matriz et{displaystyle mathbf {e} es un k× 1 vector aleatorio de términos de error.

Contenido relacionado

Puntuación de votación

La votación por puntaje o votación por rango es un sistema electoral para elecciones de un solo escaño, en el que los votantes otorgan una puntuación a...

Interpretaciones de probabilidad

Hay dos amplias categorías de interpretaciones de probabilidad que se pueden llamar "físicas" y "evidencial" probabilidades Las...

Gradiente

En el cálculo vectorial, el gradiente de una función diferenciable de valor escalar f de varias variables es el campo vectorial Silencio Silencio...
Más resultados...
Tamaño del texto:
Copiar