Consistencia (estadísticas)

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

En estadística, la consistencia de los procedimientos, como calcular intervalos de confianza o realizar pruebas de hipótesis, es una propiedad deseada de su comportamiento a medida que el número de elementos del conjunto de datos al que se aplican aumenta indefinidamente.. En particular, la coherencia requiere que el resultado del procedimiento con datos ilimitados identifique la verdad subyacente. El uso del término en estadística deriva de Sir Ronald Fisher en 1922.

El uso de los términos consistencia y consistente en estadísticas se limita a casos en los que esencialmente se puede aplicar el mismo procedimiento a cualquier número de elementos de datos. En aplicaciones complicadas de estadística, puede haber varias formas en las que puede crecer el número de elementos de datos. Por ejemplo, los registros de precipitaciones dentro de un área podrían aumentar de tres maneras: registros para períodos de tiempo adicionales; registros para sitios adicionales con un área fija; registros de sitios adicionales obtenidos al ampliar el tamaño del área. En tales casos, la propiedad de consistencia puede limitarse a una o más de las posibles formas en que puede crecer el tamaño de una muestra.

Estimadores

Un estimador consistente es aquel en el que, cuando la estimación se considera como una variable aleatoria indexada por el número n de elementos en el conjunto de datos, a medida que n aumenta el las estimaciones convergen en probabilidad al valor que el estimador está diseñado para estimar.

Un estimador que tiene consistencia de Fisher es aquel para el cual, si el estimador se aplicara a toda la población en lugar de a una muestra, se obtendría el valor real del parámetro estimado.

Pruebas

Una prueba consistente es aquella en la que el poder de la prueba para una hipótesis fija falsa aumenta a uno a medida que aumenta el número de elementos de datos.

Clasificación

En clasificación estadística, un clasificador consistente es aquel para el cual la probabilidad de clasificación correcta, dado un conjunto de entrenamiento, se acerca, a medida que aumenta el tamaño del conjunto de entrenamiento, a la mejor probabilidad teóricamente posible si las distribuciones de la población fueran completamente conocidas.

Escasez

Vamos. ser un vector y definir el soporte, , donde es t elemento de . Vamos. ser un estimador . Entonces la esparsistencia es la propiedad que el apoyo del estimador converge al verdadero apoyo a medida que el número de muestras crece al infinito. Más formalmente, como .

Contenido relacionado

Conjunto vacío

En matemáticas, el conjunto vacío es el conjunto único que no tiene elementos; su tamaño o cardinalidad es cero. Algunas teorías axiomáticas de...

Historia de la lógica

La historia de la lógica se ocupa del estudio del desarrollo de la ciencia de la inferencia válida tal como se encuentran en el Organon, encontraron una...

Ley de los grandes números

En la teoría de la probabilidad, la ley de los grandes números es un teorema que describe el resultado de realizar el mismo experimento un gran número de...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save