Prueba de Friedman
La prueba de Friedman es una prueba estadística no paramétrica desarrollada por Milton Friedman. De manera similar al ANOVA paramétrico de medidas repetidas, se utiliza para detectar diferencias en los tratamientos en múltiples intentos de prueba. El procedimiento implica clasificar cada fila (o bloque) en conjunto y luego considerar los valores de las clasificaciones por columnas. Aplicable a diseños de bloques completos, es por lo tanto un caso especial de la prueba de Durbin.
Ejemplos clásicos de uso son:
- n{textstyle n} el vino juzga cada tarifa k{textstyle k} diferentes vinos. Son cualquiera de los k{textstyle k} vinos clasificados consistentemente más alto o más bajo que los otros?
- n{textstyle n} Welders cada uso k{textstyle k} soldando antorchas, y las soldaduras subsiguientes fueron valoradas en calidad. Haga cualquiera de los k{textstyle k} ¿Las antorchas producen constantemente mejores o peores soldaduras?
La prueba Friedman se utiliza para un análisis de medidas reiteradas de varianza por rangos. En su uso de las filas es similar al análisis de la varianza de Kruskal-Wallis por rangos.
La prueba Friedman está ampliamente respaldada por muchos paquetes de software estadístico.
Método
- Datos dados {}xij}n× × k{displaystyle {x_{ij}}\ntimes K}, es decir, una matriz con n{displaystyle n} filas (las bloques), k{displaystyle k} columnas (las tratamientos) y una observación única en la intersección de cada bloque y tratamiento, calcula las filas dentro cada bloque. Si hay valores atados, asigne a cada valor atado el promedio de las filas que habrían sido asignadas sin vínculos. Reemplazar los datos con una nueva matriz {}rij}n× × k{displaystyle ################################################################################################################################################################################################################################################################ K} donde la entrada rij{displaystyle r_{ij} es el rango de xij{displaystyle x_{ij}} dentro de bloque i{displaystyle i}.
- Encontrar los valores r̄ ̄ ⋅ ⋅ j=1n. . i=1nrij{displaystyle {bar} {cdot} - ¿Qué? ¿Qué?
- La estadística de prueba es dada por Q=12nk()k+1). . j=1k()r̄ ̄ ⋅ ⋅ j− − k+12)2{displaystyle Q={frac {12n}{k(k+1)}sum _{j=1}^{k}left({bar {fnh} {cdot} J. {k+1}{2}right)}{2}}. Note que el valor de Q{textstyle Q} necesita ser ajustado para valores atados en los datos.
- Finalmente, cuando n{textstyle n} o k{textstyle k} es grande (es decir, 15}" xmlns="http://www.w3.org/1998/Math/MathML">n■15{textstyle n confía15}
15}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert skin-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/f0c22543d2c4899e9bebec68d1b305a187e3a27d" style="vertical-align: -0.338ex; width:6.818ex; height:2.176ex;"/> o 4}" xmlns="http://www.w3.org/1998/Math/MathML">k■4{textstyle k confía4}
4}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert skin-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/dcdac7675b70c8983e4b50b5ecd8a5ddc39f0001" style="vertical-align: -0.338ex; width:5.472ex; height:2.176ex;"/>), la distribución de probabilidad de Q{textstyle Q} puede ser aproximado por el de una distribución de chi-squared. En este caso el valor p es dado por P()χ χ k− − 12≥ ≥ Q){displaystyle mathbf {P} (chi _{k-1}{2}geq Q)}. Si n{textstyle n} o k{textstyle k} es pequeña, la aproximación a chi-square se vuelve pobre y el valor p debe obtenerse de tablas Q{textstyle Q} especialmente preparado para la prueba Friedman. Si el valor p es significativo, se realizarán pruebas de comparación múltiples apropiadas post-hoc.
Pruebas relacionadas
- Al utilizar este tipo de diseño para una respuesta binaria, uno utiliza la prueba Q de Cochran.
- La prueba Sign (con una alternativa de dos caras) equivale a una prueba de Friedman en dos grupos.
- Kendall's W es una normalización de la estadística Friedman entre 0 y 1.
- El test de Wilcoxon firmado-rank es una prueba no paramétrica de datos no independientes de sólo dos grupos.
- La prueba Skillings-Mack es una estadística general tipo Friedman que se puede utilizar en casi cualquier diseño de bloques con una estructura arbitraria de datos perdidos.
- La prueba Wittkowski es una estadística general de tipo Friedman similar a la prueba Skillings-Mack. Cuando los datos no contienen ningún valor perdido, da el mismo resultado que la prueba Friedman. Pero si los datos contienen valores perdidos, es tanto, más preciso y sensible que la prueba Skillings-Mack. Existe una aplicación de la prueba en R.
Análisis post hoc
Las pruebas post-hoc fueron propuestas por Schaich y Hamerle (1984) así como Conover (1971, 1980) para decidir qué grupos son significativamente diferentes entre sí, sobre la base de las diferencias de rango medio de los grupos. Estos procedimientos se detallan en Bortz, Lienert y Boehnke (2000, pág. 275). Eisinga, Heskes, Pelzer y Te Grotenhuis (2017) proporcionan una prueba exacta para la comparación de pares de las sumas de las filas de Friedman, implementadas en R. La prueba exacta Eisinga c.s. ofrece una mejora sustancial sobre las pruebas aproximadas disponibles, especialmente si el número de grupos (k{displaystyle k}) es grande y el número de bloques (n{displaystyle n}) es pequeño.
No todos los paquetes estadísticos admiten análisis post-hoc para la prueba de Friedman, pero existe código aportado por el usuario que proporciona estas funciones (por ejemplo, en SPSS y en R.). Además, existe un paquete especializado disponible en R que contiene numerosos métodos no paramétricos para análisis post-hoc según Friedman.
Contenido relacionado
Ciencias formales
Estadística matemática
Teoría estadística
Distribución logarítmica normal
Historia de la medición