El método de Scheffé

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
En estadística, el método de Scheffé, llamado así por el estadístico estadounidense Henry Scheffé, es un método para ajustar los niveles de significancia en un análisis de regresión lineal para tener en cuenta las comparaciones múltiples. Es particularmente útil en el análisis de varianza (un caso especial de análisis de regresión) y en la construcción de bandas de confianza simultáneas para regresiones que involucran funciones de base.El método de Scheffé es un procedimiento de comparación múltiple de un solo paso que se aplica al conjunto de estimaciones de todos los contrastes posibles entre las medias a nivel de factor, no solo a las diferencias por pares consideradas por el método de Tukey-Kramer. Funciona con principios similares a los del procedimiento Working-Hotelling para estimar las respuestas medias en regresión, que se aplica al conjunto de todos los niveles de factor posibles.

El método

Vamos. ser el medio de alguna variable en desvincular poblaciones.

Un contraste arbitrario se define por

dónde

Si son todos iguales entre sí, entonces todos los contrastes entre ellos son 0. De lo contrario, algunos contrastes difieren de 0.

Técnicamente hay infinitamente muchos contrastes. El coeficiente de confianza simultáneo es exactamente , si los tamaños de muestra de nivel factor son iguales o desiguales. (Usualmente sólo un número finito de comparaciones son de interés. En este caso, el método de Scheffé es típicamente bastante conservador, y la tasa de error familiar (tasa de error experiencial) generalmente será mucho menor que la de Scheffé )

Estimamos por

para la cual la varianza estimada es

dónde

  • es el tamaño de la muestra tomada del T población (el que significa ), y
  • es la diferencia estimada de los errores.

Se puede demostrar que la probabilidad es que todos los límites de confianza del tipo

son simultáneamente correctos, donde como siempre es el tamaño de toda la población. Norman R. Draper y Harry Smith, en su 'Análisis de regresión aplicada' (ver referencias), indican que debe estar en la ecuación en lugar de . El deslizamiento con es el resultado de no permitir el efecto adicional del término constante en muchas regresiones. Que el resultado se basa en está mal se ve fácilmente considerando , como en una simple regresión lineal estándar. Esa fórmula reduciría a una con lo habitual. -distribución, que es adecuada para predecir/estimar un solo valor de la variable independiente, no para construir una banda de confianza para una gama de valores del valor independiente. También tenga en cuenta que la fórmula es para tratar los valores medios de una gama de valores independientes, no para comparar con valores individuales como los valores de datos observados individuales.

Denotar la importancia del programa en un cuadro

Con frecuencia, se utilizan subíndices para indicar qué valores son significativamente diferentes según el método Scheffé. Por ejemplo, cuando se presentan en una tabla las medias de las variables analizadas mediante un ANOVA, se les asigna un subíndice diferente según el contraste de Scheffé. Los valores que no difieren significativamente según el contraste de Scheffé post-hoc tendrán el mismo subíndice, mientras que los valores significativamente diferentes tendrán subíndices diferentes (p. ej., 15a, 17a, 34b significarían que la primera y la segunda variable difieren de la tercera, pero no entre sí, ya que a ambas se les asigna el subíndice "a").

Comparación con el método Tukey–Kramer

Si solo se realiza un número fijo de comparaciones por pares, el método de Tukey-Kramer generará un intervalo de confianza más preciso. En el caso general, cuando muchos o todos los contrastes podrían ser de interés, el método de Scheffé es más apropiado y proporcionará intervalos de confianza más estrechos en caso de un gran número de comparaciones.

Referencias

  1. ^ Maxwell, Scott E.; Delaney, Harold D. (2004). Diseño de experimentos y análisis de datos: una comparación modelo. Lawrence Erlbaum Associates. pp. 217–218. ISBN 0-8058-3718-3.
  2. ^ Milliken, George A.; Johnson, Dallas E. (1993). Análisis de datos de Messy. CRC Prensa. pp. 35 –36. ISBN 0-412-99081-4.
  3. ^ Draper, Norman R; Smith, Harry (1998). Análisis de regresión aplicado (2a edición). John Wiley and Sons, Inc. p. 93. ISBN 9780471170822.
  • Bohrer, Robert (1967). "En Sharpening Scheffé Bounds". Journal of the Royal Statistical Society. Serie B. 29 1): 110–114. JSTOR 2984571.
  • Scheffé, H. (1999) [1959]. El análisis de la variación. Wiley. ISBN 0-471-34505-9.
  • Método de Scheffé

Public Domain Este artículo incorpora material de dominio público del Instituto Nacional de Normas y Tecnología

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save