Prueba F
Una prueba F es cualquier prueba estadística en la que la estadística de prueba tiene una distribución F bajo la hipótesis nula. Se utiliza con mayor frecuencia cuando se comparan modelos estadísticos que se han ajustado a un conjunto de datos, con el fin de identificar el modelo que mejor se ajusta a la población de la que se tomaron muestras de los datos. Pruebas "F exactas" surgen principalmente cuando los modelos se han ajustado a los datos utilizando mínimos cuadrados. El nombre fue acuñado por George W. Snedecor, en honor a Ronald Fisher. Fisher desarrolló inicialmente la estadística como la razón de varianza en la década de 1920.
Ejemplos comunes
Los ejemplos comunes del uso de las pruebas F incluyen el estudio de los siguientes casos:
- La hipótesis de que los medios de un determinado conjunto de poblaciones normalmente distribuidas, todas con la misma desviación estándar, son iguales. Este es quizás el más conocido F-prueba y desempeña un papel importante en el análisis de la varianza (ANOVA).
- La hipótesis de que un modelo de regresión propuesto encaja bien con los datos. Ver La falta de ajuste suma de cuadrados.
- La hipótesis de que los datos establecidos en un análisis de regresión siguen los modelos lineales más simples propuestos que se anidan entre sí.
Además, algunos procedimientos estadísticos, como el método de Scheffé para el ajuste de comparaciones múltiples en modelos lineales, también utilizan pruebas F.
Prueba F de la igualdad de dos varianzas
La prueba F es sensible a la no normalidad. En el análisis de varianza (ANOVA), las pruebas alternativas incluyen la prueba de Levene, la prueba de Bartlett y la prueba de Brown-Forsythe. Sin embargo, cuando cualquiera de estas pruebas se lleva a cabo para probar la suposición subyacente de homocedasticidad (es decir, homogeneidad de la varianza), como un paso preliminar para probar los efectos medios, hay un aumento en el tipo experimental. Tasa de error.
Fórmula y cálculo
La mayoría de las pruebas F surgen al considerar una descomposición de la variabilidad en una colección de datos en términos de sumas de cuadrados. La estadística de prueba en una prueba F es la relación de dos sumas de cuadrados escaladas que reflejan diferentes fuentes de variabilidad. Estas sumas de cuadrados se construyen de manera que el estadístico tiende a ser mayor cuando la hipótesis nula no es cierta. Para que la estadística siga la distribución F bajo la hipótesis nula, las sumas de los cuadrados deben ser estadísticamente independientes y cada una debe seguir una distribución χ² escalada. La última condición se garantiza si los valores de los datos son independientes y se distribuyen normalmente con una varianza común.
Problemas ANOVA de comparación múltiple
La prueba F en el análisis de varianza unidireccional (ANOVA) se utiliza para evaluar si los valores esperados de una variable cuantitativa dentro de varios grupos predefinidos difieren entre sí. Por ejemplo, suponga que un ensayo médico compara cuatro tratamientos. La prueba ANOVA F se puede utilizar para evaluar si alguno de los tratamientos es, en promedio, superior o inferior a los demás frente a la hipótesis nula de que los cuatro tratamientos producen la misma respuesta media. Este es un ejemplo de un "ómnibus" prueba, lo que significa que se realiza una sola prueba para detectar cualquiera de varias posibles diferencias. Alternativamente, podríamos realizar pruebas por pares entre los tratamientos (por ejemplo, en el ejemplo del ensayo médico con cuatro tratamientos podríamos realizar seis pruebas entre pares de tratamientos). La ventaja de la prueba ANOVA F es que no necesitamos especificar previamente qué tratamientos se van a comparar, y no necesitamos ajustar para hacer comparaciones múltiples. La desventaja de la prueba ANOVA F es que si rechazamos la hipótesis nula, no sabemos qué tratamientos pueden decirse que son significativamente diferentes de los demás, ni tampoco, si la F-test se realiza en el nivel α, podemos afirmar que el par de tratamientos con la mayor diferencia de medias es significativamente diferente en el nivel α.
La fórmula para el estadístico de prueba ANOVA F unidireccional es
- F=Variación explicadavarianza no explicada,{displaystyle F={fractext{explained variation}{text{unexplained variation}}}}}
o
- F=variabilidad entre gruposvariabilidad dentro del grupo.{displaystyle F={frac {text{between-group variability}{text{in-group Variabilidad.
La "varianza explicada", o "variabilidad entre grupos" es
- .. i=1Kni()Ȳ ̄ i⋅ ⋅ − − Ȳ ̄ )2/()K− − 1){displaystyle sum _{i=1}{K}n_{i}({bar {Y}_{icdot}-{bar {Y}} {2}/(K-1)}
Donde Ȳ ̄ i⋅ ⋅ {displaystyle {bar {} {cdot}}} {cdot}} {cdot}} {cdot}} {cdot}}}} {cdot}}}}} {cdot}}}} {cdot}} {cdot} denota la muestra media en la i- el grupo, ni{displaystyle No. es el número de observaciones en el i- el grupo,Ȳ ̄ {displaystyle {bar}} denota la media general de los datos, y K{displaystyle K} denota el número de grupos.
La "varianza no explicada", o "variabilidad dentro del grupo" es
- .. i=1K.. j=1ni()Yij− − Ȳ ̄ i⋅ ⋅ )2/()N− − K),{displaystyle sum - ¿Qué? ¿Por qué? {Y}_{icdot}right)} {2}/(N-K),}
Donde Yij{displaystyle Y... es jT observación en la iT fuera de K{displaystyle K} grupos y N{displaystyle N} es el tamaño de la muestra general. Esto F-La estadística sigue la F-distribución con grados de libertad d1=K− − 1{displaystyle D_{1}=K-1} y d2=N− − K{displaystyle D_{2}=N-K} bajo la hipótesis nula. La estadística será grande si la variabilidad entre grupos es grande en relación con la variabilidad dentro del grupo, que es poco probable que ocurra si los medios de población de todos los grupos tienen el mismo valor.
Tenga en cuenta que cuando sólo hay dos grupos para la ANOVA de un solo sentido F- Prueba, F=t2{displaystyle F=t^{2}Donde t es Estudiante t{displaystyle t} estadística.
Problemas de regresión
Considere dos modelos, 1 y 2, donde el modelo 1 está 'anidado' dentro del modelo 2. El modelo 1 es el modelo restringido y el modelo 2 es el no restringido. Es decir, el modelo 1 tiene parámetros p1 y el modelo 2 tiene parámetros p2, donde p1 < p2, y para cualquier elección de parámetros en el modelo 1, se puede lograr la misma curva de regresión mediante alguna elección de los parámetros del modelo 2.
Un contexto común en este sentido es el de decidir si un modelo se ajusta a los datos significativamente mejor que un modelo ingenuo, en el que el único término explicativo es el término de intercepción, de modo que todos los valores predichos para la variable dependiente sean iguales. a la media muestral de esa variable. El modelo ingenuo es el modelo restringido, ya que los coeficientes de todas las posibles variables explicativas están restringidos a cero.
Otro contexto común es decidir si hay una ruptura estructural en los datos: aquí el modelo restringido usa todos los datos en una regresión, mientras que el modelo sin restricciones usa regresiones separadas para dos subconjuntos diferentes de datos. Este uso de la prueba F se conoce como la prueba de Chow.
El modelo con más parámetros siempre podrá ajustar los datos al menos tan bien como el modelo con menos parámetros. Por lo tanto, típicamente el modelo 2 dará un mejor ajuste a los datos (es decir, menor error) que el modelo 1. Pero a menudo se quiere determinar si el modelo 2 da un ajuste significativamente mejor a los datos. Un enfoque para este problema es utilizar una prueba F.
Si hay n puntos de datos para estimar los parámetros de ambos modelos, entonces se puede calcular la estadística F, dada por
- F=()RSS1− − RSS2p2− − p1)()RSS2n− − p2),{fnMicrosoft Sans Serif} {fnMicroc {fnMicrosoft}} {fnMicrosoft Sans}}} {fnMicroc}}}} {fnK}}} {fnMicroc {f}}} {f}} {f}} {fnK}} {f}}}} {f}}} {f}}}}}}}}}}}} {f}}}}}}} {f}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}} {f} {f} {f}}}}}}} {f}}}}} {f}} {f}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}
donde RSSi es la suma residual de los cuadrados del modelo i. Si el modelo de regresión se calculó con pesos, reemplace RSSi con χ2, la suma ponderada de los residuos cuadrados. Bajo la hipótesis nula de que el modelo 2 no proporciona un ajuste significativamente mejor que el modelo 1, F tendrá una distribución F, con (p2−p1, n−p2) grados de libertad. La hipótesis nula se rechaza si la F calculada a partir de los datos es mayor que el valor crítico de la distribución F para alguna probabilidad deseada de falso rechazo (p. ej., 0,05). Dado que F es una función monótona del estadístico de razón de verosimilitud, la prueba F es una prueba de razón de verosimilitud.
Contenido relacionado
Pablo Guldin
Teoría matemática (desambiguación)
Condado de Beckham, Oklahoma