Método de comparación múltiple en las estadísticas
En estadística, el método de Scheffé, llamado así por el estadístico estadounidense Henry Scheffé, es un método para ajustar los niveles de significancia en un análisis de regresión lineal para tener en cuenta las comparaciones múltiples. Es particularmente útil en el análisis de varianza (un caso especial de análisis de regresión) y en la construcción de bandas de confianza simultáneas para regresiones que involucran funciones de base.El método de Scheffé es un procedimiento de comparación múltiple de un solo paso que se aplica al conjunto de estimaciones de todos los contrastes posibles entre las medias a nivel de factor, no solo a las diferencias por pares consideradas por el método de Tukey-Kramer. Funciona con principios similares a los del procedimiento Working-Hotelling para estimar las respuestas medias en regresión, que se aplica al conjunto de todos los niveles de factor posibles.
El método
Vamos.
ser el medio de alguna variable en
desvincular poblaciones.
Un contraste arbitrario se define por

dónde

Si
son todos iguales entre sí, entonces todos los contrastes entre ellos son 0. De lo contrario, algunos contrastes difieren de 0.
Técnicamente hay infinitamente muchos contrastes. El coeficiente de confianza simultáneo es exactamente
, si los tamaños de muestra de nivel factor son iguales o desiguales. (Usualmente sólo un número finito de comparaciones son de interés. En este caso, el método de Scheffé es típicamente bastante conservador, y la tasa de error familiar (tasa de error experiencial) generalmente será mucho menor que la de Scheffé
)
Estimamos
por

para la cual la varianza estimada es

dónde
es el tamaño de la muestra tomada del
T población (el que significa
), y
es la diferencia estimada de los errores.
Se puede demostrar que la probabilidad es
que todos los límites de confianza del tipo

son simultáneamente correctos, donde como siempre
es el tamaño de toda la población. Norman R. Draper y Harry Smith, en su 'Análisis de regresión aplicada' (ver referencias), indican que
debe estar en la ecuación en lugar de
. El deslizamiento con
es el resultado de no permitir el efecto adicional del término constante en muchas regresiones. Que el resultado se basa en
está mal se ve fácilmente considerando
, como en una simple regresión lineal estándar. Esa fórmula reduciría a una con lo habitual.
-distribución, que es adecuada para predecir/estimar un solo valor de la variable independiente, no para construir una banda de confianza para una gama de valores del valor independiente. También tenga en cuenta que la fórmula es para tratar los valores medios de una gama de valores independientes, no para comparar con valores individuales como los valores de datos observados individuales.
Denotar la importancia del programa en un cuadro
Con frecuencia, se utilizan subíndices para indicar qué valores son significativamente diferentes según el método Scheffé. Por ejemplo, cuando se presentan en una tabla las medias de las variables analizadas mediante un ANOVA, se les asigna un subíndice diferente según el contraste de Scheffé. Los valores que no difieren significativamente según el contraste de Scheffé post-hoc tendrán el mismo subíndice, mientras que los valores significativamente diferentes tendrán subíndices diferentes (p. ej., 15
a, 17
a, 34
b significarían que la primera y la segunda variable difieren de la tercera, pero no entre sí, ya que a ambas se les asigna el subíndice "a").
Comparación con el método Tukey–Kramer
Si solo se realiza un número fijo de comparaciones por pares, el método de Tukey-Kramer generará un intervalo de confianza más preciso. En el caso general, cuando muchos o todos los contrastes podrían ser de interés, el método de Scheffé es más apropiado y proporcionará intervalos de confianza más estrechos en caso de un gran número de comparaciones.
Referencias
- ^ Maxwell, Scott E.; Delaney, Harold D. (2004). Diseño de experimentos y análisis de datos: una comparación modelo. Lawrence Erlbaum Associates. pp. 217–218. ISBN 0-8058-3718-3.
- ^ Milliken, George A.; Johnson, Dallas E. (1993). Análisis de datos de Messy. CRC Prensa. pp. 35 –36. ISBN 0-412-99081-4.
- ^ Draper, Norman R; Smith, Harry (1998). Análisis de regresión aplicado (2a edición). John Wiley and Sons, Inc. p. 93. ISBN 9780471170822.
- Bohrer, Robert (1967). "En Sharpening Scheffé Bounds". Journal of the Royal Statistical Society. Serie B. 29 1): 110–114. JSTOR 2984571.
- Scheffé, H. (1999) [1959]. El análisis de la variación. Wiley. ISBN 0-471-34505-9.
Enlaces externos
Este artículo incorpora material de dominio público del Instituto Nacional de Normas y Tecnología
Más resultados...