Teorema de Gauss-Markov

Ajustar Compartir Imprimir Citar

En estadística, el teorema de Gauss-Markov (o simplemente teorema de Gauss para algunos autores) establece que el estimador de mínimos cuadrados ordinarios (OLS) tiene la varianza de muestreo más baja dentro de la clase de estimadores lineales insesgados, si los errores en el modelo de regresión lineal no están correlacionados, tienen varianzas iguales y un valor esperado de cero. No es necesario que los errores sean normales, ni que sean independientes e idénticamente distribuidos (solo no correlacionados con media cero y homocedásticos con varianza finita). El requisito de que el estimador sea insesgado no puede eliminarse, ya que existen estimadores sesgados con una varianza más baja. Consulte, por ejemplo, el estimador de James-Stein (que también elimina la linealidad), la regresión de cresta o simplemente cualquier estimador degenerado.

El teorema lleva el nombre de Carl Friedrich Gauss y Andrey Markov, aunque Gauss' el trabajo es significativamente anterior al de Markov. Pero mientras Gauss derivó el resultado bajo el supuesto de independencia y normalidad, Markov redujo los supuestos a la forma establecida anteriormente. Alexander Aitken dio una generalización adicional a los errores no esféricos.

Declaración

Supongamos que tenemos, en notación matricial, la relación lineal

expandiéndose a,

Donde no son de costumbre pero UNAParámetros observables, no son aleatorios y observables (llamados " variables explicativas"), son al azar, y así son al azar. Las variables aleatorias son llamados "disturbance", "noise" o simplemente "error" (se contrastará con "residual" más adelante en el artículo; ver errores y residuos en estadísticas). Tenga en cuenta que para incluir una constante en el modelo anterior, se puede optar por introducir la constante como variable con una última columna recientemente introducida de X siendo unidad, es decir, para todos . Tenga en cuenta que como respuestas de muestra, son observables, las siguientes declaraciones y argumentos, incluyendo supuestos, pruebas y los demás asumen bajo los sólo condición de saber pero no

El Gauss – Markov suposiciones se refieren al conjunto de variables aleatorias de error, :

A estimador lineal de es una combinación lineal

en que los coeficientes no se permite depender de los coeficientes subyacentes , ya que no son observables, pero se les permite depender de los valores , ya que estos datos son observables. (La dependencia de los coeficientes de cada uno es típicamente no lineal; el estimador es lineal en cada y por lo tanto en cada azar por eso es la regresión "lineal". Se dice que el estimador imparciales si

independientemente de los valores de . Ahora, vamos. ser una combinación lineal de los coeficientes. Entonces el error cuadrado de la estimación correspondiente

en otras palabras, es la expectativa del cuadrado de la suma ponderada (a través de parámetros) de las diferencias entre los estimadores y los parámetros correspondientes a ser estimados. (Ya que estamos considerando el caso en que todas las estimaciones del parámetro son imparciales, este error medio cuadrado es el mismo que la varianza de la combinación lineal.) El best linear unbiased estimator (BLUE) del vector de parámetros es uno con el más pequeño error medio cuadrado para cada vector de parámetros de combinación lineal. Esto equivale a la condición de que

es una matriz semi-definida positiva para cada otro estimador lineal imparcial .

El estimador de mínimos cuadrados ordinarios (MCO) es la función

de y (donde) denota la transposición de ) que minimiza el suma de cuadrados de residuos (cifras de predicción):

El teorema ahora declara que el estimador OLS es un BLUE. La idea principal de la prueba es que el estimador de mínimos cuartos no está relacionado con cada calculador lineal de cero, es decir, con cada combinación lineal cuyos coeficientes no dependen de los inservibles pero cuyo valor esperado es siempre cero.

Observación

La prueba de que MCO efectivamente MINIMIZA la suma de los cuadrados de los residuos puede proceder de la siguiente manera con un cálculo de la matriz hessiana y mostrando que es definida positiva.

La función MSE que queremos minimizar es

p
X

La matriz hessiana de segundas derivadas es

Asumiendo las columnas de son linealmente independientes para que es invertible, vamos , entonces

Ahora ser un eigenvector de .

En términos de multiplicación de vectores, esto significa

Finalmente, como eigenvector era arbitrario, significa todos los eigenvalues de son positivos, por lo tanto es positivo. Así,

O, sólo mira eso para todos los vectores . Así que el Hessian es positivo definitivo si es de rango completo.

Prueba

Vamos ser otro estimador lineal de con Donde es un matriz no cero. Como estamos restringiendo a imparciales estimadores, error mínimo medio cuadrado implica mínima varianza. Por lo tanto, el objetivo es demostrar que tal calculador tiene una diferencia no menor que la de el estimador OLS. Calculamos:

Por lo tanto, desde es UNAobservable, es imparcial si y sólo si . Entonces:

Desde DD ' es una matriz semidefinida positiva, excedentes por una matriz semidefinida positiva.

Observaciones sobre la prueba

Como se ha dicho antes, la condición es una matriz semidefinida positiva equivale a la propiedad que el mejor estimador lineal sinbias es (mejor en el sentido de que tiene una varianza mínima). Para ver esto, vamos otro estimador lineal sin prejuicios .

Además, la igualdad tiene si y sólo si . Calculamos

Esto demuestra que la igualdad tiene si y sólo si que da la singularidad del estimador OLS como BLUE.

Estimador de mínimos cuadrados generalizados

Los mínimos cuadrados generalizados (GLS), desarrollados por Aitken, extienden el teorema de Gauss-Markov al caso donde el vector de error tiene una matriz de covarianza no escalar. El estimador de Aitken también es AZUL.

Teorema de Gauss-Markov tal como se establece en la econometría

En la mayoría de los tratamientos de la OLS, los regredores (parameters of interest) en la matriz de diseño se supone que se fijan en muestras repetidas. Esta suposición se considera inapropiada para una ciencia predominantemente no experiencial como la econometría. En cambio, las suposiciones del teorema Gauss–Markov están condicionadas a .

Linealidad

Se supone que la variable dependiente es una función lineal de las variables especificadas en el modelo. La especificación debe ser lineal en sus parámetros. Esto no significa que haya una relación lineal entre las variables independientes y dependientes. Las variables independientes pueden tomar formas no lineales mientras los parámetros sean lineales. La ecuación califica como linear mientras se puede transformar para ser lineal reemplazando por otro parámetro, decir . Una ecuación con un parámetro dependiente de una variable independiente no califica como lineal, por ejemplo , donde es una función .

Las transformaciones de datos se utilizan a menudo para convertir una ecuación en una forma lineal. Por ejemplo, la función Cobb-Douglas, a menudo utilizada en economía, no es lineal:

Pero se puede expresar en forma lineal tomando el logaritmo natural de ambos lados:

Esta suposición también cubre problemas de especificación: suponiendo que se ha seleccionado la forma funcional adecuada y que no hay variables omitidas.

Se debe tener en cuenta, sin embargo, que los parámetros que minimizan los residuos de la ecuación transformada no necesariamente minimizan los residuos de la ecuación original.

Exogeneidad estricta

Para todos observaciones, la expectativa —condicional sobre los regresores— del término de error es cero:

Donde es el vector de datos de los regresores para el iy, en consecuencia, es la matriz de datos o matriz de diseño.

Geométricamente, esta suposición implica que y son ortogonales entre sí, por lo que su producto interno (es decir, su momento de la cruz) es cero.

Este supuesto se viola si las variables explicativas se miden con error o son endógenas. La endogeneidad puede ser el resultado de la simultaneidad, donde la causalidad fluye de un lado a otro entre la variable dependiente y la independiente. Las técnicas de variables instrumentales se utilizan comúnmente para abordar este problema.

Rango completo

La matriz de datos de muestra Debe tener rango de columna completa.

De lo contrario no es invertible y el estimador OLS no puede ser calculado.

Una violación de esta suposición es la multicolinealidad perfecta, es decir, algunas variables explicativas son linealmente dependientes. Un escenario en el que esto ocurrirá se denomina "trampa de variable ficticia" cuando no se omite una variable ficticia base, lo que da como resultado una correlación perfecta entre las variables ficticias y el término constante.

La multicolinealidad (siempre que no sea "perfecta") puede estar presente, lo que da como resultado una estimación menos eficiente, pero igualmente imparcial. Las estimaciones serán menos precisas y muy sensibles a determinados conjuntos de datos. La multicolinealidad se puede detectar a partir del número de condición o el factor de inflación de la varianza, entre otras pruebas.

Errores esféricos

El producto exterior del vector de error debe ser esférico.

Esto implica que el término de error tiene varianza uniforme (homoscedasticidad) y ninguna correlación serial. Si se viola esta suposición, la OLS sigue siendo imparcial, pero es ineficiente. El término "errores esféricos" describirá la distribución normal multivariada: si en la densidad normal multivariada, entonces la ecuación es la fórmula para una bola centrada en μ con radio σ en espacio ndimensional.

La heteroscedasticidad ocurre cuando la cantidad de error se correlaciona con una variable independiente. Por ejemplo, en una regresión sobre el gasto en alimentos y el ingreso, el error se correlaciona con el ingreso. Las personas de bajos ingresos generalmente gastan una cantidad similar en alimentos, mientras que las personas de altos ingresos pueden gastar una cantidad muy grande o tan pequeña como la que gastan las personas de bajos ingresos. La heterocedástica también puede ser causada por cambios en las prácticas de medición. Por ejemplo, a medida que las oficinas de estadística mejoran sus datos, el error de medición disminuye, por lo que el término de error disminuye con el tiempo.

Esta suposición se viola cuando hay autocorrelación. La autocorrelación se puede visualizar en un gráfico de datos cuando es más probable que una observación determinada se encuentre por encima de una línea ajustada si las observaciones adyacentes también se encuentran por encima de la línea de regresión ajustada. La autocorrelación es común en los datos de series de tiempo donde una serie de datos puede experimentar "inercia". Si una variable dependiente tarda un tiempo en absorber completamente un choque. La autocorrelación espacial también puede ocurrir. Es probable que las áreas geográficas tengan errores similares. La autocorrelación puede ser el resultado de una especificación incorrecta, como elegir la forma funcional incorrecta. En estos casos, corregir la especificación es una forma posible de lidiar con la autocorrelación.

En presencia de errores esféricos, se puede demostrar que el estimador de mínimos cuadrados generalizados es AZUL.