Estimador insesgado de varianza mínima
En estadística, un estimador insesgado de varianza mínima (MVUE) o un estimador insesgado de varianza mínima uniforme (UMVUE) es un estimador insesgado que tiene una varianza menor que cualquier otro estimador insesgado. estimador para todos los valores posibles del parámetro.
Para problemas estadísticos prácticos, es importante determinar el MVUE, si existe, ya que naturalmente se evitarían procedimientos menos que óptimos, en igualdad de condiciones. Esto ha llevado a un desarrollo sustancial de la teoría estadística relacionada con el problema de la estimación óptima.
Si bien la combinación de la restricción de la imparcialidad con la métrica de deseabilidad de la menor variabilidad conduce a buenos resultados en la mayoría de los entornos prácticos, haciendo de MVUE un punto de partida natural para una amplia gama de análisis, una especificación específica puede funcionar mejor para un problema determinado; por lo tanto, MVUE no siempre es el mejor punto de parada.
Definición
Considerar la estimación basado en datos i.i.d. de algún miembro de una familia de densidades , donde es el espacio del parámetro. Un estimador imparcial de es UMVUE si ,
para cualquier otro estimador imparcial
Si un estimador imparcial de existe, entonces uno puede probar que hay un MVUE esencialmente único. Usando el teorema Rao-Blackwell también se puede probar que determinar el MVUE es simplemente una cuestión de encontrar una estadística suficiente completa para la familia y climatización cualquiera Estimador imparcial.
Además, según el teorema de Lehmann-Scheffé, un estimador insesgado que es función de un estadístico suficiente y completo es el estimador UMVUE.
Ponga formalmente, supongamos es imparcial para , y eso es una estadística suficiente para la familia de las densidades. Entonces...
es el MVUE para
Un análogo bayesiano es un estimador de Bayes, particularmente con error cuadrático medio mínimo (MMSE).
Selección del estimador
No es necesario que exista un estimador eficiente, pero si existe y es insesgado, es el MVUE. Dado que el error cuadrático medio (MSE) de un estimador δ es
el MVUE minimiza el MSE entre estimadores insesgados. En algunos casos, los estimadores sesgados tienen un MSE más bajo porque tienen una varianza menor que cualquier estimador insesgado; ver sesgo del estimador.
Ejemplo
Considere que los datos son una sola observación desde una distribución absolutamente continua con densidad
y deseamos encontrar el estimador UMVU de
Primero reconocemos que la densidad se puede escribir como
Que es una familia exponencial con suficiente estadística . De hecho esta es una familia exponencial de rango completo, y por lo tanto es suficiente. Ver familia exponencial para una derivación que muestra
Por lo tanto,
Aquí usamos el teorema de Lehmann-Scheffé para obtener el MVUE
Claramente es imparcial y es suficiente, por lo tanto el estimador UMVU es
Este ejemplo ilustra que una función insesgada del estadístico suficiente completo será UMVU, como establece el teorema de Lehmann-Scheffé.
Otros ejemplos
- Para una distribución normal con media y varianza desconocidas, la varianza muestral media y (sin imparcial) son los MVUE para la media poblacional y la varianza poblacional.
- Sin embargo, la desviación estándar de la muestra no es imparcial para la desviación estándar de la población – ver la estimación imparcial de la desviación estándar.
- Además, para otras distribuciones la media muestra y la varianza muestral no son en general MVUEs – para una distribución uniforme con límites superiores e inferiores desconocidos, el rango medio es el MVUE para la media poblacional.
- Si k se eligen ejemplares (sin reemplazo) de una distribución uniforme discreta sobre el conjunto {1, 2,..., N} con límite superior desconocido N, el MVUE para N es
- Donde m es el máximo de muestra. Se trata de una transformación escalada y desplazada (tan imparcial) del máximo de la muestra, que es una estadística suficiente y completa. Vea el problema del tanque alemán para detalles.