Errores tipo I y tipo II
En las pruebas de hipótesis estadísticas, un error de tipo I, o un falso positivo, es el rechazo de la hipótesis nula cuando en realidad es cierta. Por ejemplo, una persona inocente puede ser condenada.
Un error de tipo II, o un falso negativo, es no rechazar una hipótesis nula que en realidad es falsa. Por ejemplo: una persona culpable puede no ser condenada.
Gran parte de la teoría estadística gira en torno a la minimización de uno o ambos de estos errores, aunque la eliminación completa de cualquiera de ellos es imposible si el resultado no está determinado por un proceso causal conocido y observable. Al seleccionar un valor umbral (de corte) bajo y modificar el nivel alfa (α), se puede aumentar la calidad de la prueba de hipótesis. El conocimiento de los errores de tipo I y de tipo II se utiliza ampliamente en la ciencia médica, la biometría y la informática.
Intuitivamente, los errores de tipo I pueden considerarse errores de comisión (es decir, el investigador concluye desafortunadamente que algo es cierto). Por ejemplo, considere un estudio en el que los investigadores comparan un fármaco con un placebo. Si los pacientes a los que se les administra el fármaco mejoran más que los pacientes a los que se les administra el placebo por casualidad, puede parecer que el fármaco es eficaz, pero en realidad ocurre lo contrario.
Por el contrario, los errores de tipo II son errores de omisión. En el ejemplo anterior, si los pacientes que recibieron el medicamento no mejoraron a un ritmo mayor que los que recibieron el placebo y esto fue un accidente fortuito, se trataría de un error de tipo II.
Definición
Antecedentes estadísticos
En la teoría de las pruebas estadísticas, la noción de un error estadístico es parte integral de las pruebas de hipótesis. La prueba va sobre elegir entre dos proposiciones que compiten llamadas hipótesis nulas, denotadas por y hipótesis alternativas, denotadas por . This is conceptually similar to the judgement in a court trial. La hipótesis nula corresponde a la posición del acusado: tal como se presume que es inocente hasta que se demuestre su culpabilidad, por lo que la hipótesis nula presume ser verdadera hasta que los datos proporcionen pruebas convincentes en su contra. La hipótesis alternativa corresponde a la posición contra el acusado. Específicamente, la hipótesis nula implica también la ausencia de una diferencia o la ausencia de una asociación. Así, la hipótesis nula nunca puede ser que haya una diferencia o una asociación.
Si el resultado de la prueba corresponde a la realidad, se ha tomado una decisión correcta. Sin embargo, si el resultado de la prueba no corresponde con la realidad, se ha producido un error. Hay dos situaciones en las que la decisión es errónea. La hipótesis nula puede ser verdadera, mientras que rechazamos . Por otro lado, la hipótesis alternativa puede ser cierto, mientras que es rechazado. Se distinguen dos tipos de error: error tipo I y error tipo II.
Error tipo I
El primer tipo de error es el rechazo erróneo de una hipótesis nula como resultado de un procedimiento de prueba. Este tipo de error se denomina error de tipo I (falso positivo) y, a veces, se lo denomina error del primer tipo. En términos del ejemplo del tribunal, un error de tipo I corresponde a condenar a un acusado inocente.
Error tipo II
El segundo tipo de error es el error que se comete al no rechazar la hipótesis nula como resultado de un procedimiento de prueba. Este tipo de error se denomina error de tipo II (falso negativo) y también se conoce como error de segundo tipo. En términos del ejemplo del tribunal, un error de tipo II corresponde a absolver a un criminal.
Tasa de error cruzada
La tasa de error de cruce (CER) es el punto en el que los errores de tipo I y de tipo II son iguales. Un sistema con un valor de CER más bajo proporciona más precisión que un sistema con un valor de CER más alto.
Falso positivo y falso negativo
En términos de falsos positivos y falsos negativos, un resultado positivo corresponde a rechazar la hipótesis nula, mientras que un resultado negativo corresponde a no rechazar la hipótesis nula; "falso" significa que la conclusión extraída es incorrecta. Por lo tanto, un error de tipo I equivale a un falso positivo y un error de tipo II equivale a un falso negativo.
Cuadro de tipos de error
Relaciones tabuladas entre la verdad o falsedad de la hipótesis nula y los resultados de la prueba:
Cuadro de tipos de error | Hipótesis nula) es | ||
---|---|---|---|
Cierto. | Falso | ||
Decisión sobre null hipotesis) | No rechazar | Inferencia correcta (verdadero negativo) (probabilidad = ) | Error tipo II (falso negativo) (probabilidad = ) |
Rechazo | Error tipo I (falso positivo) (probabilidad = ) | Inferencia correcta (muy positivo) (probabilidad = ) |
Tasa de error

Una prueba perfecta tendría cero falsos positivos y cero falsos negativos. Sin embargo, los métodos estadísticos son probabilísticos y no se puede saber con certeza si las conclusiones estadísticas son correctas. Siempre que hay incertidumbre, existe la posibilidad de cometer un error. Teniendo esto en cuenta, todas las pruebas de hipótesis estadísticas tienen una probabilidad de cometer errores de tipo I y tipo II.
- La tasa de error tipo I es la probabilidad de rechazar la hipótesis nula dado que es verdad. La prueba está diseñada para mantener la tasa de error tipo I debajo de un límite predeterminado llamado el nivel de significación, generalmente denotado por la letra griega α (alfa) y también se llama el nivel alfa. Por lo general, el nivel de significación se fija en 0.05 (5%), lo que implica que es aceptable tener una probabilidad del 5% de rechazar incorrectamente la verdadera hipótesis nula.
- La tasa del error tipo II es denotada por la letra griega β (beta) y relacionada con el poder de una prueba, que equivale a 1−β.
Estos dos tipos de tasas de error se compensan entre sí: para cualquier conjunto de muestras dado, el esfuerzo por reducir un tipo de error generalmente resulta en un aumento del otro tipo de error.
La calidad de la prueba de hipótesis
La misma idea puede expresarse en términos de la tasa de resultados correctos y, por lo tanto, utilizarse para minimizar las tasas de error y mejorar la calidad de la prueba de hipótesis. Para reducir la probabilidad de cometer un error de tipo I, hacer que el valor alfa sea más estricto es a la vez simple y eficiente. Para disminuir la probabilidad de cometer un error de tipo II, que está estrechamente asociado con la potencia del análisis, ya sea aumentando el tamaño de la muestra de la prueba o relajando el nivel alfa podría aumentar la potencia del análisis. Una estadística de prueba es robusta si se controla la tasa de error de tipo I.
También se podrían utilizar distintos valores de umbral (de corte) para hacer que la prueba sea más específica o más sensible, lo que a su vez eleva la calidad de la prueba. Por ejemplo, imaginemos una prueba médica en la que un experimentador podría medir la concentración de una determinada proteína en la muestra de sangre. El experimentador podría ajustar el umbral (línea vertical negra en la figura) y se diagnosticaría a las personas que tuvieran enfermedades si se detectara cualquier número por encima de este umbral determinado. Según la imagen, cambiar el umbral daría lugar a cambios en los falsos positivos y falsos negativos, que corresponden al movimiento en la curva.
Ejemplo
Dado que en un experimento real es imposible evitar todos los errores de tipo I y tipo II, es importante considerar la cantidad de riesgo que uno está dispuesto a asumir para rechazar falsamente H0 o aceptar H0. La solución a esta cuestión sería informar el valor p o el nivel de significancia α de la estadística. Por ejemplo, si el valor p del resultado de una estadística de prueba se estima en 0,0596, entonces hay una probabilidad del 5,96 % de que rechacemos falsamente H0. O, si decimos que la estadística se realiza en el nivel α, como 0,05, entonces permitimos rechazar falsamente H0 en el 5 %. Un nivel de significancia α de 0,05 es relativamente común, pero no hay una regla general que se ajuste a todos los escenarios.
Medición de la velocidad del vehículo
El límite de velocidad de una autopista en los Estados Unidos es de 120 kilómetros por hora (75 mph). Se establece un dispositivo para medir la velocidad de los vehículos que pasan. Supongamos que el dispositivo llevará a cabo tres mediciones de la velocidad de un vehículo que pasa, registrando como una muestra al azar X1, X2, X3. La policía de tráfico hará o no multará a los conductores dependiendo de la velocidad promedio . Es decir, la estadística de prueba
Además, suponemos que las medidas X1, X2, X3 son modelados como distribución normal N(μ,2). Entonces, T debe seguir N(μ,2/) y el parámetro μ representa la verdadera velocidad del vehículo que pasa. En este experimento, la hipótesis nula H0 y la hipótesis alternativa H1 debería ser
H0: μ=120 contra H1: μ>120.
Si realizamos el nivel estadístico en α=0,05, entonces se debe calcular un valor crítico c para resolver
De acuerdo con la regla de cambio de unidades para la distribución normal, consultando la tabla Z, podemos obtener:
Aquí se encuentra la zona crítica. Es decir, si la velocidad registrada de un vehículo es mayor que el valor crítico 121,9, el conductor será multado. Sin embargo, todavía hay un 5% de conductores que son multados falsamente ya que la velocidad media registrada es mayor que 121,9 pero la velocidad real no pasa de 120, lo que llamamos un error de tipo I.
El error de tipo II corresponde al caso en el que la velocidad real de un vehículo es superior a 120 kilómetros por hora pero el conductor no es multado. Por ejemplo, si la velocidad real de un vehículo μ=125, la probabilidad de que el conductor no sea multado se puede calcular como
lo que significa que, si la velocidad real de un vehículo es 125, el conductor tiene una probabilidad del 0,36 % de evitar la multa cuando la estadística se realiza en el nivel α=0,05, ya que la velocidad media registrada es inferior a 121,9. Si la velocidad real está más cerca de 121,9 que de 125, entonces la probabilidad de evitar la multa también será mayor.
También se deben considerar las compensaciones entre el error de tipo I y el error de tipo II. Es decir, en este caso, si la policía de tránsito no quiere multar falsamente a conductores inocentes, el nivel α se puede establecer en un valor menor, como 0,01. Sin embargo, si ese es el caso, es más probable que más conductores cuya velocidad real sea superior a 120 kilómetros por hora, como 125, eviten la multa.
Etymology
En 1928, Jerzy Neyman (1894-1981) y Egon Pearson (1895-1980), ambos eminentes estadísticos, analizaron los problemas asociados con la "decisión de si es o no posible juzgar que una muestra particular fue extraída aleatoriamente de una población determinada" y, como señaló Florence Nightingale David, "es necesario recordar que el adjetivo "aleatorio" [en el término "muestra aleatoria"] debería aplicarse al método de extracción de la muestra y no a la muestra en sí".
Identificaron "dos fuentes de error", a saber:
- el error de rechazar una hipótesis que no debería haber sido rechazada, y
- el error de no rechazar una hipótesis que debería haber sido rechazada.
En 1930, profundizaron en estas dos fuentes de error, señalando que
en las hipótesis de prueba se deben tener en cuenta dos consideraciones, debemos ser capaces de reducir la posibilidad de rechazar una hipótesis verdadera a un valor tan bajo como se desea; la prueba debe ser tan ideada que rechazará la hipótesis probada cuando es probable que sea falsa.
En 1933, observaron que estos "problemas rara vez se presentan de tal forma que podamos discriminar con certeza entre la hipótesis verdadera y la falsa". También observaron que, al decidir si rechazar o no una hipótesis particular entre un "conjunto de hipótesis alternativas", H1, H2..., era fácil cometer un error.
[y] estos errores serán de dos tipos:
- rechazamos H0 [es decir, la hipótesis a ser probada] cuando es verdad,
- no podemos rechazar H0 cuando algunas hipótesis alternativas HA o H1 es verdad. (Hay varias notaciones para la alternativa).
En todos los artículos escritos conjuntamente por Neyman y Pearson, la expresión H0 siempre significa "la hipótesis que se debe probar".
En el mismo artículo se denominan a estas dos fuentes de error, errores de tipo I y errores de tipo II respectivamente.
Mandatos relacionados
Hipótesis nula
Es una práctica habitual que los estadísticos realicen pruebas para determinar si una "hipótesis especulativa" sobre los fenómenos observados en el mundo (o sus habitantes) puede ser confirmada o no. Los resultados de dichas pruebas determinan si un conjunto particular de resultados concuerda razonablemente (o no concuerda) con la hipótesis especulada.
Sobre la base de que siempre se supone, por convención estadística, que la hipótesis especulada es errónea y la llamada "hipótesis nula" de que los fenómenos observados simplemente ocurren por casualidad (y que, como consecuencia, el agente especulado no tiene efecto), la prueba determinará si esta hipótesis es correcta o incorrecta. Por eso, la hipótesis que se prueba a menudo se denomina hipótesis nula (probabilidad, acuñado por Fisher (1935, p. 19)), porque es esta hipótesis la que se debe anular o no mediante la prueba. Cuando se anula la hipótesis nula, es posible concluir que los datos respaldan la "hipótesis alternativa" (que es la especulada original).
La aplicación consistente por parte de los estadísticos de la convención de Neyman y Pearson de representar "la hipótesis a ser probada" (o "la hipótesis a ser anulada") con la expresión H0 ha llevado a circunstancias en las que muchos entienden el término "hipótesis nula" como "hipótesis nula", es decir, una afirmación de que los resultados en cuestión han surgido por casualidad. Este no es necesariamente el caso: la restricción clave, según Fisher (1966), es que "la hipótesis nula debe ser exacta, es decir, libre de vaguedad y ambigüedad, porque debe proporcionar la base del "problema de distribución", cuya solución es la prueba de significación". Como consecuencia de esto, en la ciencia experimental la hipótesis nula es generalmente una afirmación de que un tratamiento particular no tiene efecto; En la ciencia observacional, se sostiene que no hay diferencia entre el valor de una variable medida en particular y el de una predicción experimental.
Significado estadístico
Si la probabilidad de obtener un resultado tan extremo como el obtenido, suponiendo que la hipótesis nula fuera cierta, es menor que una probabilidad de corte preestablecida (por ejemplo, 5%), entonces se dice que el resultado es estadísticamente significativo y se rechaza la hipótesis nula.
El estadístico británico Sir Ronald Aylmer Fisher (1890-1962) destacó que la hipótesis nula
nunca es probado o establecido, pero es posiblemente desaprobado, en el curso de experimentación. Cada experimento puede decirse que existe sólo para dar a los hechos una oportunidad de desprobar la hipótesis nula.
—Fisher, 1935, pág. 19
Dominios de aplicaciones
Medicina
En la práctica de la medicina, las diferencias entre las aplicaciones de detección y de pruebas son considerables.
Examen médico
La detección precoz implica la realización de pruebas relativamente baratas que se realizan a grandes poblaciones, en las que ninguna de ellas manifiesta indicios clínicos de enfermedad (por ejemplo, pruebas de Papanicolaou).
Las pruebas implican procedimientos mucho más costosos, a menudo invasivos, que se realizan sólo a quienes manifiestan algún indicio clínico de enfermedad y se aplican con mayor frecuencia para confirmar un diagnóstico sospechoso.
Por ejemplo, la mayoría de los estados de los EE. UU. exigen que los recién nacidos sean sometidos a pruebas de detección de fenilcetonuria e hipotiroidismo, entre otros trastornos congénitos.
- Hipótesis: "Los recién nacidos tienen fenilcetonuria e hipotiroidismo".
- Hipótesis nula (H)0"Los recién nacidos no tienen fenilcetonuria e hipotiroidismo".
- Error tipo I (falso positivo): El hecho verdadero es que los recién nacidos no tienen fenilcetonuria e hipotiroidismo, pero consideramos que tienen los trastornos según los datos.
- Error tipo II (falso negativo): El hecho es que los recién nacidos tienen fenilcetonuria e hipotiroidismo, pero consideramos que no tienen los trastornos según los datos.
Aunque presentan una alta tasa de falsos positivos, las pruebas de detección se consideran valiosas porque aumentan en gran medida la probabilidad de detectar estos trastornos en una etapa mucho más temprana.
Los análisis de sangre sencillos que se utilizan para detectar el VIH y la hepatitis en posibles donantes de sangre tienen una tasa significativa de falsos positivos; sin embargo, los médicos utilizan pruebas mucho más caras y precisas para determinar si una persona está realmente infectada con alguno de estos virus.
Tal vez los falsos positivos más discutidos en los exámenes médicos provienen de la mamografía, un procedimiento de detección del cáncer de mama. La tasa de falsos positivos en los EE. UU. es de hasta un 15 %, la más alta del mundo. Una consecuencia de la alta tasa de falsos positivos en los EE. UU. es que, en cualquier período de 10 años, la mitad de las mujeres estadounidenses examinadas reciben una mamografía con falso positivo. Las mamografías con falsos positivos son costosas, con más de 100 millones de dólares gastados anualmente en los EE. UU. en pruebas de seguimiento y tratamiento. También causan a las mujeres una ansiedad innecesaria. Como resultado de la alta tasa de falsos positivos en los EE. UU., hasta un 90-95 % de las mujeres que obtienen una mamografía con resultado positivo no padecen la enfermedad. La tasa más baja del mundo se encuentra en los Países Bajos, un 1 %. Las tasas más bajas se encuentran generalmente en el norte de Europa, donde las películas de mamografía se leen dos veces y se establece un umbral alto para pruebas adicionales (el umbral alto disminuye la potencia de la prueba).
La prueba ideal para la detección de la enfermedad sería barata, fácil de administrar y, en lo posible, no produciría ningún falso negativo. Estas pruebas suelen producir más falsos positivos, que pueden solucionarse posteriormente con pruebas más sofisticadas (y más caras).
Ensayos médicos
Los falsos negativos y los falsos positivos son problemas importantes en las pruebas médicas.
- Hipótesis: "Los pacientes tienen la enfermedad específica".
- Hipótesis nula (H)0): "Los pacientes no tienen la enfermedad específica".
- Error tipo I (falso positivo): El hecho es que los pacientes no tienen una enfermedad específica, pero el médico juzga que el paciente está enfermo según los informes de prueba.
- Error tipo II (falso negativo): El verdadero hecho es que la enfermedad está realmente presente pero los informes de prueba proporcionan un mensaje falsamente tranquilizador a los pacientes y médicos que la enfermedad está ausente.
Los falsos positivos también pueden producir problemas graves y contraintuitivos cuando la enfermedad que se busca es poco frecuente, como en el caso de las pruebas de detección. Si una prueba tiene una tasa de falsos positivos de uno en diez mil, pero sólo una en un millón de muestras (o personas) es un verdadero positivo, la mayoría de los positivos detectados por esa prueba serán falsos. La probabilidad de que un resultado positivo observado sea un falso positivo se puede calcular utilizando el teorema de Bayes.
Los falsos negativos generan problemas graves y contraintuitivos, especialmente cuando la afección que se busca es común. Si se utiliza una prueba con una tasa de falsos negativos de solo el 10 % para analizar una población con una tasa de incidencia real del 70 %, muchos de los negativos detectados por la prueba serán falsos.
Esto a veces conduce a un tratamiento inadecuado o inapropiado tanto del paciente como de su enfermedad. Un ejemplo común es confiar en las pruebas de esfuerzo cardíaco para detectar la aterosclerosis coronaria, a pesar de que se sabe que las pruebas de esfuerzo cardíaco solo detectan limitaciones del flujo sanguíneo de la arteria coronaria debido a una estenosis avanzada.
Biometrics
La comparación biométrica, como la del reconocimiento de huellas dactilares, el reconocimiento facial o el reconocimiento del iris, es susceptible de errores de tipo I y tipo II.
- Hipótesis: "La entrada no identifica a alguien en la lista de personas registrada".
- Hipótesis nula: "La entrada identifica a alguien en la lista de personas registrada".
- Error tipo I (falsa tasa de rechazo): El hecho verdadero es que la persona es alguien en la lista registrada pero el sistema concluye que la persona no está de acuerdo con los datos.
- Error tipo II (falsa tasa de coincidencia): El hecho verdadero es que la persona no es alguien en la lista registrada, pero el sistema concluye que la persona es alguien a quien estamos buscando según los datos.
La probabilidad de errores de tipo I se denomina «tasa de falsos rechazos» (FRR) o «tasa de falsas no coincidencias» (FNMR), mientras que la probabilidad de errores de tipo II se denomina «tasa de falsas aceptaciones» (FAR) o «tasa de falsas coincidencias» (FMR).
Si el sistema está diseñado para que rara vez se asocien sospechosos, entonces la probabilidad de errores de tipo II puede denominarse "tasa de falsas alarmas". Por otro lado, si el sistema se utiliza para validación (y la aceptación es la norma), entonces la FAR es una medida de seguridad del sistema, mientras que la FRR mide el nivel de incomodidad para el usuario.
Vigilancia de la seguridad
Todos los días se detectan falsos positivos en los controles de seguridad de los aeropuertos, que son, en definitiva, sistemas de inspección visual. Las alarmas de seguridad instaladas tienen como objetivo impedir que se introduzcan armas en los aviones; sin embargo, suelen estar configuradas con una sensibilidad tan alta que suenan muchas veces al día para detectar objetos de poca importancia, como llaves, hebillas de cinturón, monedas sueltas, teléfonos móviles y tachuelas en los zapatos.
- Hipótesis: "El objeto es un arma".
- Hipótesis nula: "El objeto no es un arma".
- Error tipo I (falso positivo): El hecho es que el artículo no es un arma, pero el sistema todavía suena una alarma.
- Error tipo II (falso negativo) El hecho es que el artículo es un arma, pero el sistema mantiene silencio en este momento.
La proporción de falsos positivos (que identifican a un viajero inocente como terrorista) con respecto a los verdaderos positivos (que detectan a un posible terrorista) es, por lo tanto, muy alta; y como casi todas las alarmas son falsos positivos, el valor predictivo positivo de estas pruebas de detección es muy bajo.
El coste relativo de los resultados falsos determina la probabilidad de que los creadores de pruebas permitan que estos eventos ocurran. Como el coste de un falso negativo en este escenario es extremadamente alto (no detectar una bomba que se introduce en un avión podría dar lugar a cientos de muertes) mientras que el coste de un falso positivo es relativamente bajo (una inspección posterior razonablemente sencilla), la prueba más adecuada es una con una especificidad estadística baja pero una sensibilidad estadística alta (una que permita una alta tasa de falsos positivos a cambio de un número mínimo de falsos negativos).
Computadoras
Los conceptos de falsos positivos y falsos negativos están muy extendidos en el ámbito de las computadoras y las aplicaciones informáticas, incluidas la seguridad informática, el filtrado de spam, el malware, el reconocimiento óptico de caracteres y muchos otros.
Por ejemplo, en el caso del filtrado de spam:
- Hipótesis: "El mensaje es spam".
- Hipótesis nula: "El mensaje no es spam".
- Error tipo I (falso positivo): Filtro de spam o técnicas de bloqueo de spam clasifican erróneamente un mensaje de correo electrónico legítimo como spam y, como resultado, interfieren con su entrega.
- Error tipo II (falso negativo): Correo electrónico Spam no se detecta como spam, pero se clasifica como no-spam.
Si bien la mayoría de las tácticas antispam pueden bloquear o filtrar un alto porcentaje de correos electrónicos no deseados, hacerlo sin generar resultados falsos positivos significativos es una tarea mucho más exigente. Una cantidad baja de falsos negativos es un indicador de la eficiencia del filtrado de spam.
Véase también
- Clasificación binaria
- Teoría de detección
- Egon Pearson
- Ética en matemáticas
- Falsa paradoja positiva
- Falsa tasa de descubrimiento
- Tasa de error basada en la familia
- Medidas de recuperación de información
- Neyman-Pearson lemma
- Hipótesis nula
- Probabilidad de una hipótesis para la inferencia bayesiana
- Precisión y recuerdo
- La falacia del fiscal
- Prozone phenomenon
- Características de funcionamiento del receptor
- Sensibilidad y especificidad
- Referencias de estadística e ingeniería de términos estadísticos
- Prueba de hipótesis sugeridas por los datos
- Error tipo III
Referencias
- ^ "Error tipo I y Error tipo II". Explorable.com. Retrieved 14 de diciembre 2019.
- ^ a b Una introducción moderna a la probabilidad y las estadísticas: entender por qué y cómo. Dekking, Michel, 1946... Londres: Springer. 2005. ISBN 978-1-85233-896-1. OCLC 262680588
{{cite book}}
: CS1 maint: others (link) - ^ Sheskin, David (2004). Handbook of Parametric and Nonparametric Statistical Procedures. CRC Press. p. 54. ISBN 1584884401.
- ^ Rohatgi, V. K.; Saleh, A. K. Md Ehsanes (2015). Una introducción a la teoría de probabilidad y estadísticas matemáticas. Serie Wiley en probabilidad y estadísticas (3a edición). Hoboken, New Jersey: John Wiley & Sons, Inc. ISBN 978-118-79963-5.
- ^ Lindenmayer, David. (2005). Biología de conservación práctica. Burgman, Mark A. Collingwood, Vic.: CSIRO Pub. ISBN 0-643-09310-9. OCLC 65216357.
- ^ Neyman, J.; Pearson, E. S. (1928). "Sobre el uso e interpretación de ciertos criterios de prueba para fines de la inferencia estadística Parte I". Biometrika. 20A (1–2): 175–240 doi:10.1093/biomet/20a.1-2.175. ISSN 0006-3444.
- ^ C. I. K. F. (Julio de 1951). "Teoría de probabilidad para los métodos estadísticos. Por F. N. David. [Pp. ix + 230. Cambridge University Press. 1949. Precio 155.]". Journal of the Staple Inn Actuarial Society. 10 (3): 243–244. doi:10.1017/s0020269x00004564. ISSN 0020-269X.
- ^ El subscripto en la expresión H0 es un cero (indicar nulo), y no es una "O" (indicando original).
- ^ Neyman, J.; Pearson, E. S. (30 de octubre de 1933). "La prueba de hipótesis estadísticas en relación con probabilidades a priori". Proceedings Matemáticos de la Sociedad Filosófica de Cambridge. 29 (4): 492–510. Bibcode:1933PCPS...29..492N. doi:10.1017/s030500410001152x. ISSN 0305-0041. S2CID 119855116.
- ^ Fisher, R. A. (1966). El diseño de experimentos (8th ed.). Edimburgo: Hafner.
Bibliografía
- Betz, M.A. " Gabriel, K.R., "Type IV Errores y análisis de efectos simples", Journal of Educational Statistics, Vol.3, No.2, (Summer 1978), págs. 121 a 144.
- David, F.N., "A Power Function for Tests of Randomness in a Sequence of Alternatives", Biometrika, Vol.34, Nos.3/4, (diciembre de 1947), págs. 335 a 339.
- Fisher, R.A., El diseño de los experimentos, Oliver & Boyd (Edinburgh), 1935.
- Gambrill, W., "False Positives on Newborns' Disease Tests Worry Parents", Día de la Salud, (5 de junio de 2006). [1] Archivado el 17 de mayo de 2018 en la máquina Wayback
- Kaiser, H.F., "Directional Statistical Decisions", Psicológica Examen, Vol.67, No.3, (mayo de 1960), págs. 160 a 167.
- Kimball, A.W., "Errors of the Third Kind in Statistical Consulting", Journal of the American Statistical Association, Vol.52, No.278, (junio de 1957), págs. 133 a 14.
- Lubin, A., "La interpretación de la interacción significativa", Medición educativa y psicológica, Vol.21, No.4, (Invierno 1961), págs. 807 a 817.
- Marascuilo, L.A. ' Levin, J.R., "Apropiados Comparaciones Post Hoc para la Interacción y Hipótesis anidadas en el Análisis de Diseños de Variación: La Eliminación de Errores Tipo-IV", American Educational Research Journal, Vol.7., No.3, (mayo de 1970), págs. 397 a 421.
- Mitroff, I.I. " Featheringham, T.R., "On Systemic Problem Solving and the Error of the Third Kind", Behavioral Science, Vol.19, No.6, (noviembre de 1974), págs. 383 a 393.
- Mosteller, F., "A k-Sample Slippage Prueba para una población extrema", Los Anales de las Estadísticas Matemáticas, Vol.19, No.1, (marzo 1948), págs. 58 a 65.
- Moulton, R.T., "Seguridad de Redes", Datamation, Vol.29, No.7, (julio de 1983), págs. 121 a 127.
- Raiffa, H. Análisis de decisiones: Conferencias introductorias sobre opciones bajo incertidumbre, Addison-Wesley, (Reading), 1968.
Enlaces externos
- Bias y confusión – presentación de Nigel Paneth, Graduate School of Public Health, University of Pittsburgh