El método de Fisher

En estadística, el método de Fisher, también conocido como prueba de probabilidad combinada de Fisher, es una técnica de fusión de datos o "metaanálisis" (análisis de análisis). Fue desarrollado por Ronald Fisher y recibió su nombre en honor a él. En su forma básica, se utiliza para combinar los resultados de varias pruebas de independencia que se basan en la misma hipótesis general (H0).
Aplicación a estadísticas de prueba independientes
El método de Fisher combina las probabilidades de los valores extremos de cada prueba, comúnmente conocidos como "valores p", en una estadística de prueba (X2) utilizando la fórmula
donde pi es el valor p para la iésima prueba de hipótesis. Cuando los valores p tienden a ser pequeños, el estadístico de prueba X2 será grande, lo que sugiere que las hipótesis nulas no son verdaderas para cada prueba.
Cuando todas las hipótesis nulas son verdaderas y las pi (o sus correspondientes estadísticas de prueba) son independientes, X2 tiene una distribución de chi-cuadrado con 2k grados de libertad, donde k es el número de pruebas que se combinan. Este hecho se puede utilizar para determinar el valor p para X2.
La distribución de X2 es una distribución de chi-cuadrado por la siguiente razón: bajo la hipótesis nula para la prueba i, el valor p pi sigue una distribución uniforme en el intervalo [0,1]. El logaritmo negativo de un valor distribuido uniformemente sigue una distribución exponencial. Al escalar un valor que sigue una distribución exponencial por un factor de dos, se obtiene una cantidad que sigue una distribución de chi-cuadrado con dos grados de libertad. Finalmente, la suma de k valores de chi-cuadrado independientes, cada uno con dos grados de libertad, sigue una distribución de chi-cuadrado con 2k grados de libertad.
Limitaciones del supuesto de independencia
La dependencia entre las pruebas estadísticas es generalmente positiva, lo que significa que p- valor de X2 es demasiado pequeño (anticonservador) si no se tiene en cuenta la dependencia. Así, si el método de Fisher para pruebas independientes se aplica en un entorno dependiente, y el p- el valor no es lo suficientemente pequeño como para rechazar la hipótesis nula, entonces esa conclusión seguirá manteniendo incluso si la dependencia no se cuenta adecuadamente. Sin embargo, si no se cuenta la dependencia positiva y el metaanálisis p-el valor se encuentra pequeño, la evidencia contra la hipótesis nula es generalmente exagerada. El falso índice de descubrimiento, , reducido para k prueba independiente o positivamente correlacionada, puede bastar para controlar alfa para una comparación útil a una sobre-pequeña p-valor de Fisher X2.
Extension to dependent test statistics
En los casos en que las pruebas no son independientes, la distribución nula de X2 es más complicada. Una estrategia común es aproximar la distribución nula con una variable aleatoria escalada de distribución χ2. Se pueden utilizar diferentes enfoques dependiendo de si se conoce o no la covarianza entre los diferentes valores p.
El método de Brown se puede utilizar para combinar valores p dependientes cuyas estadísticas de prueba subyacentes tienen una distribución normal multivariada con una matriz de covarianza conocida. El método de Kost extiende el de Brown para permitir combinar valores p cuando la matriz de covarianza se conoce solo hasta un factor multiplicativo escalar.
El valor p de media armónica ofrece una alternativa al método de Fisher para combinar valores p cuando se desconoce la estructura de dependencia pero no se puede suponer que las pruebas sean independientes.
Interpretación
El método de Fisher se aplica normalmente a una colección de estadísticas de prueba independientes, normalmente de estudios separados que tienen la misma hipótesis nula. La hipótesis nula del metanálisis es que todas las hipótesis nulas independientes son verdaderas. La hipótesis alternativa del metanálisis es que al menos una de las hipótesis alternativas independientes es verdadera.
En algunos contextos, tiene sentido considerar la posibilidad de "heterogeneidad", en la que la hipótesis nula se cumple en algunos estudios pero no en otros, o en la que diferentes hipótesis alternativas pueden cumplirse en diferentes estudios. Una razón común para la última forma de heterogeneidad es que los tamaños del efecto pueden diferir entre poblaciones. Por ejemplo, considere una colección de estudios médicos que analizan el riesgo de una dieta alta en glucosa para desarrollar diabetes tipo II. Debido a factores genéticos o ambientales, el riesgo real asociado con un nivel dado de consumo de glucosa puede ser mayor en algunas poblaciones humanas que en otras.
En otros contextos, la hipótesis alternativa es universalmente falsa o universalmente verdadera: no hay posibilidad de que se cumpla en algunos contextos pero no en otros. Por ejemplo, considere varios experimentos diseñados para probar una ley física particular. Cualquier discrepancia entre los resultados de estudios o experimentos separados debe deberse al azar, posiblemente impulsado por diferencias en la potencia.
En el caso de un metanálisis que utilice pruebas bilaterales, es posible rechazar la hipótesis nula del metanálisis incluso cuando los estudios individuales muestran efectos fuertes en direcciones diferentes. En este caso, rechazamos la hipótesis de que la hipótesis nula es verdadera en todos los estudios, pero esto no implica que exista una hipótesis alternativa uniforme que se cumpla en todos los estudios. Por lo tanto, el metanálisis bilateral es particularmente sensible a la heterogeneidad en las hipótesis alternativas. El metanálisis unilateral puede detectar heterogeneidad en las magnitudes de los efectos, pero se centra en una única dirección del efecto preestablecida.
Relación con el método Z-score de Stouffer

Un enfoque estrechamente relacionado con el método de Fisher es el método Z de Stouffer, basado en puntuaciones Z en lugar de valores p, lo que permite la incorporación de ponderaciones de estudio. Recibe su nombre en honor al sociólogo Samuel A. Stouffer. Si hacemos que Zi = Φ − 1(1−pi), donde Φ es la función de distribución acumulativa normal estándar, entonces
es una puntuación Z para el metanálisis general. Esta puntuación Z es apropiada para valores p unilaterales de cola derecha; se pueden realizar modificaciones menores si se analizan valores p bilaterales o de cola izquierda. Específicamente, si se analizan valores p bilaterales, se utiliza el valor p bilateral (pi/2), o 1-pi si se utilizan valores p de cola izquierda.
Dado que el método de Fisher se basa en el promedio de los valores −log(pi), y el método de puntuación Z se basa en el promedio de los valores Zi, la relación entre estos dos enfoques se deduce de la relación entre z y −log(p) = −log(1−Φ(z)). Para la distribución normal, estos dos valores no están perfectamente relacionados linealmente, pero siguen una relación altamente lineal en el rango de valores Z observados con mayor frecuencia, de 1 a 5. Como resultado, la potencia del método de puntuación Z es casi idéntica a la potencia del método de Fisher.
Una ventaja del método de puntuación Z es que es sencillo introducir ponderaciones. Si la puntuación Z iésima se pondera con wi, entonces la puntuación Z del metanálisis es
que sigue una distribución normal estándar bajo la hipótesis nula. Si bien se pueden derivar versiones ponderadas de la estadística de Fisher, la distribución nula se convierte en una suma ponderada de estadísticas de chi-cuadrado independientes, con las que resulta menos conveniente trabajar.
Referencias
- ^ Fisher, R.A. (1925). Métodos estadísticos para los trabajadores de investigación. Oliver y Boyd (Edinburgh). ISBN 0-05-002170-2.
- ^ Fisher, R.A.; Fisher, R. A (1948). "Preguntas y respuestas #14". El Estadístico Americano. 2 (5): 30–31. doi:10.2307/2681650. JSTOR 2681650.
- ^ Brown, M. (1975). "Un método para combinar pruebas de significado no independientes y unilaterales". Biometrics. 31 (4): 987–992. doi:10.2307/2529826. JSTOR 2529826.
- ^ Kost, J.; McDermott, M. (2002). "Combinar dependientes P-valores". Estadísticas y probabilidad Cartas. 60 (2): 183–190. doi:10.1016/S0167-7152(02)00310-3.
- ^ Bien, I J (1958). "Exámenes de significación en paralelo y en serie". Journal of the American Statistical Association. 53 (284): 799–813. doi:10.1080/01621459.1958.10501480. JSTOR 2281953.
- ^ Wilson, D J (2019). "El valor p-valor armónico para combinar pruebas dependientes". Proceedings of the National Academy of Sciences USA. 116 (4): 1195-1200. Código:2019PNAS..116.1195W. doi:10.1073/pnas.1814092116. PMC 6347718. PMID 30610179.
- ^ Stouffer, S.A.; Suchman, E.A.; DeVinney, L.C.; Star, S.A.; Williams, R.M. Jr. (1949). El soldado americano, Vol.1: Ajuste durante la vida del ejército. Princeton University Press, Princeton.
- ^ "Contar valores p-de dos colas usando el enfoque de Stouffer". Estadísticas.stackexchange.com. Retrieved 2015-09-14.
- ^ Mosteller, F.; Bush, R.R. (1954). "Técnicas cuantitativas seleccionadas". En Lindzey, G. (ed.). Handbook of Social Psychology, Vol. 1. Addison_Wesley, Cambridge, Mass. pp. 289–334.
- ^ Liptak, T. (1958). "En la combinación de pruebas independientes" (PDF). Magyar Tud. Akad. Kutato Int. Kozl. 3: 171–197.
Véase también
- Extensiones del método de Fisher
- Una fuente alternativa para la nota de Fisher de 1948: [1]
- El Fisher, el Z-score de Stouffer, y algunos métodos relacionados se implementan en el paquete de metap R.