Prueba de Levene
En estadística, la prueba de Levene es una estadística inferencial que se utiliza para evaluar la igualdad de varianzas para una variable calculada para dos o más grupos. Esta prueba se utiliza porque algunos procedimientos estadísticos comunes suponen que las varianzas de las poblaciones de las que se extraen diferentes muestras son iguales. La prueba de Levene evalúa esta suposición. Prueba la hipótesis nula de que las varianzas de la población son iguales (llamada homogeneidad de varianza u homocedasticidad). Si el valor p resultante de la prueba de Levene es menor que un nivel de significación (normalmente 0,05), es poco probable que las diferencias obtenidas en las varianzas de la muestra se hayan producido en función de un muestreo aleatorio de una población con varianzas iguales. Por tanto, se rechaza la hipótesis nula de varianzas iguales y se concluye que existe una diferencia entre las varianzas de la población.
La prueba de Levene se ha utilizado en el pasado antes de una comparación de medias para fundamentar la decisión sobre si se debe utilizar una prueba t agrupada o la prueba t de Welch para pruebas de dos muestras o un análisis de varianza o un ANOVA unidireccional modificado de Welch para pruebas de múltiples niveles. Sin embargo, se ha demostrado que un procedimiento de dos pasos de este tipo puede inflar notablemente el error de tipo 1 obtenido con las pruebas t y, por lo tanto, no se recomienda. En cambio, el enfoque preferido es utilizar simplemente la prueba de Welch en todos los casos.
La prueba de Levene también puede utilizarse como prueba principal para responder a una pregunta independiente sobre si dos submuestras de una población dada tienen varianzas iguales o diferentes.
La prueba de Levene fue desarrollada por el estadístico y genetista estadounidense Howard Levene y recibió su nombre en honor a él.
Definición
La prueba de Levene equivale a un análisis de 1 vía entre grupos de varianza (ANOVA) con la variable dependiente siendo el valor absoluto de la diferencia entre una partitura y la media del grupo al que pertenece la partitura (que aparece abajo como ). La estadística de prueba, , es equivalente a estadística que sería producida por tal ANOVA, y se define como sigue:
donde
- es el número de grupos diferentes a los que pertenecen los casos muestreados,
- es el número de casos en el grupo,
- es el número total de casos en todos los grupos,
- es el valor de la variable medida para lael caso del grupo,
(Ambas definiciones se utilizan, aunque la segunda es, estrictamente hablando, la prueba de Brown-Forsythe; véase más abajo para comparar).
- es la media de la para grupo ,
- es la media de todos .
La estadística de prueba es aproximadamente F-distribuido con y grados de libertad, y por lo tanto es la importancia del resultado de probados contra Donde es un cuntil de la F-distribución, con y grados de libertad, y es el nivel elegido de significación (generalmente 0,05 o 0.01).
Comparación con la prueba Brown-Forsythe
La prueba Brown-Forsythe utiliza la mediana en lugar de la media en la computación de la propagación dentro de cada grupo ( vs. , arriba). Aunque la elección óptima depende de la distribución subyacente, la definición basada en la mediana se recomienda como la opción que proporciona una buena robustez contra muchos tipos de datos no normales al tiempo que conserva buena potencia estadística. Si uno tiene conocimiento de la distribución subyacente de los datos, esto puede indicar el uso de una de las otras opciones. Brown y Forsythe realizaron estudios de Monte Carlo que indicaron que el uso de la media trimmed funcionó mejor cuando los datos subyacentes siguieron una distribución de Cauchy (una distribución de cola pesada) y la mediana se realizó mejor cuando los datos subyacentes siguieron una distribución de Chi-squared con cuatro grados de libertad (una distribución muy ajustada). Usando el medio proporcionó la mejor potencia para distribuciones simétricas, de cola moderada.
Implementaciones de software
Muchos programas de hojas de cálculo y paquetes de estadísticas, como R, Python, Julia y MATLAB, incluyen implementaciones de la prueba de Levene.
Idioma/programa | Función | Notas |
---|---|---|
Python | scipy.stats.levene(group1, group2, group3) | Véase [1] |
MATLAB | vartestn(data,groups,'TestType','LeveneAbsolute') | Véase [2] |
R | leveneTest(lm(y ~ x, data=data)) | Véase [3] |
Julia | HypothesisTests.LeveneTest(group1, group2, group3) | Véase [4] |
Véase también
- Prueba de Bartlett
- Prueba de la igualdad de diferencias
- Prueba M de Box
Referencias
- ^ Levene, Howard (1960). "Pruebas para la igualdad de diferencias". En Ingram Olkin; Harold Hotelling; et al. (eds.). Contribuciones a la probabilidad y estadísticas: Ensayos en honor de Harold Hotelling. Stanford University Press. pp. 278–292.
- ^ a b Zimmermann, Donald W. (2004). "Una nota sobre pruebas preliminares de igualdad de diferencias". British Journal of Mathematical and Statistical Psychology. 57 (1): 173–81. doi:10.1348/000711004849222.
- ^ a b Derrick, B; Ruck, A; Toher, D; White, P (2018). "Tests for equality of variations between two samples which contain both paired observations and independent observations" (PDF). Journal of Applied Quantitative Métodos. 13 (2): 36–47.
Enlaces externos
- Paramétricas y no paramétricas Prueba de Levene en SPSS
- http://www.itl.nist.gov/div898/handbook/eda/section3/eda35a.htm