Prueba de normalidad
En estadística, las pruebas de normalidad se utilizan para determinar si un conjunto de datos está bien modelado por una distribución normal y para calcular la probabilidad de que una variable aleatoria subyacente al conjunto de datos esté distribuida normalmente.
Más precisamente, las pruebas son una forma de selección de modelos y pueden interpretarse de varias maneras, dependiendo de las interpretaciones que uno haga de la probabilidad:
- En términos estadísticos descriptivos, uno mide una bondad de ajuste de un modelo normal a los datos – si el ajuste es pobre entonces los datos no están bien modelados en ese sentido por una distribución normal, sin hacer un juicio sobre cualquier variable subyacente.
- En las estadísticas frecuentes las pruebas de hipótesis estadísticas, los datos se prueban contra la hipótesis nula de que se distribuye normalmente.
- En las estadísticas bayesianas, uno no "prueba la normalidad" en sí, sino que computa la probabilidad de que los datos vengan de una distribución normal con parámetros dados μ,σ (para todos) μ,σ), y compara que con la probabilidad de que los datos vengan de otras distribuciones en consideración, más simplemente utilizando un factor Bayes (de la probabilidad relativa de ver los datos dados diferentes modelos), o más bien tomando una distribución previa sobre posibles modelos y parámetros y computar una distribución posterior dadas las probabilidades calculadas.
Se utiliza una prueba de normalidad para determinar si los datos de la muestra se han extraído de una población con distribución normal (dentro de cierta tolerancia). Varias pruebas estadísticas, como la prueba t de Student y el ANOVA de una vía y de dos vías, requieren una población de muestra con distribución normal.
Métodos gráficos
Un enfoque informal para probar la normalidad es comparar un histograma de los datos de la muestra con una curva de probabilidad normal. La distribución empírica de los datos (el histograma) debe tener forma de campana y parecerse a la distribución normal. Esto puede ser difícil de ver si la muestra es pequeña. En este caso, se puede proceder mediante una regresión de los datos contra los cuantiles de una distribución normal con la misma media y varianza que la muestra. La falta de ajuste a la línea de regresión sugiere una desviación de la normalidad (consulte el coeficiente de Anderson Darling y Minitab).
Una herramienta gráfica para evaluar la normalidad es el gráfico de probabilidad normal, un gráfico cuantil-cuantil (gráfico QQ) de los datos estandarizados contra la distribución normal estándar. Aquí la correlación entre los datos de la muestra y los cuantiles normales (una medida de la bondad del ajuste) mide qué tan bien los datos son modelados por una distribución normal. Para los datos normales, los puntos graficados en el gráfico QQ deben caer aproximadamente en una línea recta, lo que indica una alta correlación positiva. Estos gráficos son fáciles de interpretar y también tienen la ventaja de que los valores atípicos se identifican fácilmente.
Prueba de back-the-envelope
La prueba simple del tipo "back_of_the_envelope" toma el máximo y el mínimo de la muestra y calcula su puntuación z, o más propiamente, la estadística t (número de desviaciones estándar de la muestra que una muestra está por encima o por debajo de la media de la muestra), y lo compara con la regla 68-95-99,7: si uno tiene un evento 3σ (propiamente, un evento 3s) y sustancialmente menos de 300 muestras, o un evento 4s y sustancialmente menos de 15.000 muestras, entonces una distribución normal subestimará la magnitud máxima de las desviaciones en los datos de la muestra.
Esta prueba es útil en casos en los que se enfrenta un riesgo de curtosis (donde las desviaciones grandes son importantes) y tiene la ventaja de que es muy fácil de calcular y comunicar: los no estadísticos pueden comprender fácilmente que "los eventos 6σ son muy raros en distribuciones normales".
Pruebas frecuentes
Las pruebas de normalidad univariante incluyen las siguientes:
- La prueba de la K de D'Agostino,
- Prueba Jarque-Bera,
- Anderson-Darling test,
- Cramér-von Mises criterion,
- Prueba Kolmogorov–Smirnov: esta prueba sólo funciona si la media y la varianza de la distribución normal se asumen conocida bajo la hipótesis nula,
- Prueba Lilliefors: basado en la prueba Kolmogorov–Smirnov, ajustada para cuando también se estima la media y la variabilidad de los datos,
- Prueba de Shapiro-Wilk, y
- La prueba de Pearson.
Un estudio de 2011 concluye que Shapiro-Wilk tiene el mejor poder para una significancia dada, seguido de cerca por Anderson-Darling al comparar las pruebas Shapiro-Wilk, Kolmogorov-Smirnov, Lilliefors y Anderson-Darling.
Algunos trabajos publicados recomiendan la prueba de Jarque-Bera, pero la prueba tiene debilidades. En particular, la prueba tiene baja potencia para distribuciones con colas cortas, especialmente para distribuciones bimodales. Algunos autores se han negado a incluir sus resultados en sus estudios debido a su pobre desempeño general.
Históricamente, los momentos estandarizados tercero y cuarto (asimetría y curtosis) fueron algunas de las primeras pruebas de normalidad. La prueba de Lin-Mudholkar apunta específicamente a alternativas asimétricas. La prueba de Jarque-Bera se deriva de estimaciones de asimetría y curtosis. Las pruebas multivariadas de asimetría y curtosis de Mardia generalizan las pruebas de momento al caso multivariado. Otras estadísticas de prueba tempranas incluyen la relación entre la desviación absoluta media y la desviación estándar y entre el rango y la desviación estándar.
Entre las pruebas de normalidad más recientes se encuentran la prueba de energía (Székely y Rizzo) y las pruebas basadas en la función característica empírica (ECF) (p. ej., Epps y Pulley, Henze–Zirkler, prueba BHEP). Las pruebas de energía y ECF son pruebas potentes que se aplican para probar la normalidad univariante o multivariante y son estadísticamente consistentes frente a alternativas generales.
La distribución normal tiene la entropía más alta de todas las distribuciones para una desviación estándar dada. Hay varias pruebas de normalidad basadas en esta propiedad, la primera atribuible a Vasicek.
Pruebas bayesianas
Las divergencias de Kullback-Leibler entre todas las distribuciones posteriores de la pendiente y la varianza no indican no normalidad. Sin embargo, la razón de las expectativas de estas posteriores y la esperanza de las razones dan resultados similares a la estadística de Shapiro-Wilk, excepto para muestras muy pequeñas, cuando se utilizan valores previos no informativos.
Spiegelhalter sugiere utilizar un factor de Bayes para comparar la normalidad con una clase diferente de alternativas distributivas. Este enfoque ha sido ampliado por Farrell y Rogers-Stewart.
Aplicaciones
Una aplicación de las pruebas de normalidad es a los residuos de un modelo de regresión lineal. Si no se distribuyen normalmente, los residuos no deben utilizarse en pruebas Z ni en ninguna otra prueba derivada de la distribución normal, como las pruebas t, las pruebas F y las pruebas de chi-cuadrado. Si los residuos no se distribuyen normalmente, entonces la variable dependiente o al menos una variable explicativa puede tener la forma funcional incorrecta, o pueden faltar variables importantes, etc. La corrección de uno o más de estos errores sistemáticos puede producir residuos que se distribuyan normalmente; en otras palabras, la no normalidad de los residuos es a menudo una deficiencia del modelo más que un problema de datos.
Véase también
- Prueba de azar
- Resumen de siete números
Notas
- ^ Razali, Nornadiah; Wah, Yap Bee (2011). "Power comparisons of Shapiro–Wilk, Kolmogorov–Smirnov, Lilliefors and Anderson–Darling tests" (PDF). Journal of Statistical Modeling and Analytics. 2 (1): 21–33. Archivado desde el original (PDF) el 2015-06-30.
- ^ Magistrado, George G.; Griffiths, W. E.; Hill, R. Carter; Lütkepohl, Helmut; Lee, T. (1988). Introducción a la teoría y práctica de la econometría (Segunda edición). Wiley. pp. 890–892. ISBN 978-0-471-08277-4.
- ^ Gujarati, Damodar N. (2002). Econométrico básico (Cuarta edición). McGraw Hill. pp. 147–148. ISBN 978-0-07-123017-9.
- ^ Thadewald, Thorsten; Büning, Herbert (1 de enero de 2007). "Jarque-Bera Test y sus competidores para probar la normalidad – una comparación de poder". Journal of Applied Statistics. 34 (1): 87-105. CiteSeerX 10.1.1.507.1186. doi:10.1080/02664760994539. S2CID 13866566.
- ^ Sürücü, Barış (1 de septiembre de 2008). "Un estudio de comparación de potencia y simulación de pruebas de bondad de beneficio". Computadoras & Matemáticas con Aplicaciones. 56 (6): 1617-1625. doi:10.1016/j.camwa.2008.03.010.
- ^ Lin, C. C.; Mudholkar, G. S. (1980). "Una prueba simple para la normalidad contra alternativas asimétricas". Biometrika. 67 (2): 455-461. doi:10.1093/biomet/67.2.455.
- ^ Mardia, K. V. (1970). Medidas de manguito multivariado y kurtosis con aplicaciones. Biometrika 57, 519-530.
- ^ Filliben, J. J. (Febrero de 1975). "El Test Coeficiente de Correlación de Probabilidad para la Normalidad". Technometrics. 17 (1): 111–117. doi:10.2307/1268008. JSTOR 1268008.
- ^ Székely, G. J. and Rizzo, M. L. (2005) Una nueva prueba para la normalidad multivariada, Journal of Multivariate Analysis 93, 58–80.
- ^ Epps, T. W. y Pulley, L. B. (1983). Una prueba de normalidad basada en la función empírica característica. Biometrika 70, 723-726.
- ^ Henze, N., y Zirkler, B. (1990). Una clase de pruebas invariantes y consistentes para la normalidad multivariada. Comunicaciones en Estadísticas – Teoría y Métodos 19, 3595–3617.
- ^ Henze, N., and Wagner, T. (1997). Un nuevo enfoque de las pruebas BHEP para la normalidad multivariada. Journal of Multivariate Analysis 62, 1 a 23.
- ^ Vasicek, Oldrich (1976). "Un examen para la normalidad basado en la presencia de muestras". Journal of the Royal Statistical Society. Serie B (Metodológica). 38 (1): 54–59. JSTOR 2984828.
- ^ Young K. D. S. (1993), "diagnóstico judío para comprobar supuestos de normalidad". Journal of Statistical Computation and Simulation, 47 (3 a 4),167–180
- ^ Spiegelhalter, D.J. (1980). Una prueba omnibus para la normalidad para muestras pequeñas. Biometrika, 67, 493-496. doi:10.1093/biomet/67.2.493
- ^ Farrell, P.J., Rogers-Stewart, K. (2006) "Estudio amplio de las pruebas para la normalidad y la simetría: extender la prueba Spiegelhalter". Journal of Statistical Computation and Simulation, 76(9), 803 – 816. doi:10.1080/10629360500109023
- ^ Portney, L.G. ' Watkins, M.P. (2000). Fundaciones de investigación clínica: aplicaciones para la práctica. New Jersey: Prentice Hall Health. pp. 516-517. ISBN 0838526950.
{{cite book}}
: CS1 maint: múltiples nombres: lista de autores (link) - ^ Pek, Jolynn; Wong, Octavia; Wong, Augustine C. M. (2018-11-06). "Cómo abordar la no normalidad: una taxonomía de enfoques, revisados e ilustrados". Fronteras en Psicología. 9: 2104. doi:10.3389/fpsyg.2018.02104. ISSN 1664-1078. PMC 6232275. PMID 30459683.
Más lectura
- Ralph B. D'Agostino (1986). "Tests for the Normal Distribution". En D'Agostino, R.B.; Stephens, M.A. (eds.). Técnicas de bondad de ficción. Nueva York: Marcel Dekker. ISBN 978-0-8247-7487-5.
- Henry C. Thode, Jr. (2002). Pruebas para la normalidad. Nueva York: Marcel Dekker, Inc. pp. 479. ISBN 978-0-8247-9613-6.