Análisis secuencial
En estadística, el análisis secuencial o la prueba de hipótesis secuencial es un análisis estadístico en el que el tamaño de la muestra no está fijado de antemano. En cambio, los datos se evalúan a medida que se recopilan y se detiene el muestreo adicional de acuerdo con una regla de interrupción predefinida tan pronto como se observan resultados significativos. Por lo tanto, a veces se puede llegar a una conclusión en una etapa mucho más temprana de lo que sería posible con pruebas o estimaciones de hipótesis más clásicas, con un costo financiero y/o humano, en consecuencia, menor.
Historia
El método de análisis secuencial se atribuye por primera vez a Abraham Wald con Jacob Wolfowitz, W. Allen Wallis y Milton Friedman mientras estaban en el Grupo de Investigación Estadística de la Universidad de Columbia como herramienta para un control de calidad industrial más eficiente durante la Segunda Guerra Mundial. . Su valor para el esfuerzo bélico fue inmediatamente reconocido y llevó a que recibiera una calificación "restringida". clasificación. Al mismo tiempo, George Barnard dirigió un grupo que trabajaba en la realización de paradas óptimas en Gran Bretaña. Otra contribución temprana al método fue realizada por K.J. Flecha con D. Blackwell y M.A. Girshick.
Alan Turing desarrolló de forma independiente un enfoque similar a partir de los primeros principios aproximadamente al mismo tiempo, como parte de la técnica Banburismus utilizada en Bletchley Park, para probar hipótesis sobre si diferentes mensajes codificados por máquinas alemanas Enigma deberían conectarse y analizarse juntos. . Este trabajo permaneció en secreto hasta principios de los años 1980.
Peter Armitage introdujo el uso del análisis secuencial en la investigación médica, especialmente en el área de los ensayos clínicos. Los métodos secuenciales se hicieron cada vez más populares en medicina tras el trabajo de Stuart Pocock, que proporcionó recomendaciones claras sobre cómo controlar las tasas de error tipo 1 en diseños secuenciales.
Funciones de gasto alfa
Cuando los investigadores analizan datos repetidamente a medida que se agregan más observaciones, la probabilidad de cometer un error de tipo 1 aumenta. Por lo tanto, es importante ajustar el nivel alfa en cada análisis intermedio, de modo que la tasa de error general de Tipo 1 permanezca en el nivel deseado. Esto es conceptualmente similar al uso de la corrección de Bonferroni, pero debido a que las miradas repetidas a los datos son dependientes, se pueden usar correcciones más eficientes para el nivel alfa. Entre las primeras propuestas se encuentra el límite de Pocock. Existen formas alternativas de controlar la tasa de error Tipo 1, como los límites de Haybittle-Peto, y O'Brien & Fleming y Wang & Tsiatis.
Una limitación de las correcciones como el límite de Pocock es que el número de miradas a los datos debe determinarse antes de recopilarlos, y que las miradas a los datos deben estar espaciadas equidistantemente (por ejemplo, después de 50, 100, 150 y 200 pacientes). El enfoque de la función de gasto alfa desarrollado por Demets & Lan no tiene estas restricciones y dependiendo de los parámetros elegidos para la función de gasto, puede ser muy similar a los límites de Pocock o las correcciones propuestas por O'Brien y Fleming. Otro enfoque que no tiene tales restricciones se basa en los valores electrónicos y los procesos electrónicos.
Aplicaciones del análisis secuencial
Ensayos clínicos
En un ensayo aleatorio con dos grupos de tratamiento, las pruebas grupales secuenciales se pueden realizar, por ejemplo, de la siguiente manera: después de que n sujetos en cada grupo estén disponibles, se realiza un análisis intermedio. Se realiza una prueba estadística para comparar los dos grupos y si se rechaza la hipótesis nula se da por terminado el ensayo; en caso contrario, el ensayo continúa, se reclutan otros n sujetos por grupo y se vuelve a realizar la prueba estadística, incluyendo a todos los sujetos. Si se rechaza la nula, se da por terminado el ensayo, y en caso contrario se continúa con evaluaciones periódicas hasta que se haya realizado un número máximo de análisis intermedios, momento en el que se realiza la última prueba estadística y se suspende el ensayo.
Otras aplicaciones
El análisis secuencial también tiene una conexión con el problema de la ruina del jugador que ha sido estudiado, entre otros, por Huygens en 1657.
La detección de pasos es el proceso de encontrar cambios abruptos en el nivel medio de una serie temporal o señal. Generalmente se considera un tipo especial de método estadístico conocido como detección de puntos de cambio. A menudo, el paso es pequeño y la serie temporal está corrompida por algún tipo de ruido, lo que hace que el problema sea desafiante porque el ruido puede ocultar el paso. Por lo tanto, a menudo se requieren algoritmos estadísticos y/o de procesamiento de señales. Cuando los algoritmos se ejecutan en línea a medida que llegan los datos, especialmente con el objetivo de producir una alerta, se trata de una aplicación de análisis secuencial.
Sesgo
Los ensayos que finalizan anticipadamente porque rechazan la hipótesis nula normalmente sobreestiman el verdadero tamaño del efecto. Esto se debe a que en muestras pequeñas, sólo las estimaciones del tamaño del efecto grandes conducirán a un efecto significativo y a la posterior terminación de un ensayo. Se han propuesto métodos para corregir las estimaciones del tamaño del efecto en ensayos únicos. Tenga en cuenta que este sesgo es principalmente problemático cuando se interpretan estudios individuales. En los metanálisis, los tamaños del efecto sobreestimados debido a la interrupción temprana se equilibran con la subestimación en los ensayos que se detienen tarde, lo que llevó a Schou & Marschner para concluir que "la interrupción anticipada de los ensayos clínicos no es una fuente importante de sesgo en los metanálisis".
El significado de los valores p en los análisis secuenciales también cambia, porque cuando se utilizan análisis secuenciales, se realiza más de un análisis y se necesita la definición típica de un valor p como datos "al menos tan extremos" como los observados. por redefinir. Una solución es ordenar los valores p de una serie de pruebas secuenciales en función del tiempo de parada y de qué tan alta fue la estadística de la prueba en un aspecto determinado, lo que se conoce como ordenamiento por etapas, propuesto por primera vez por Armitage.