Falacia de la tasa base

La falacia de la tasa base, también llamada negligencia de la tasa base o sesgo de la tasa base, es un tipo de falacia en la que las personas tienden a ignorar la tasa base (por ejemplo, prevalencia general) de una ocurrencia en una población y, en cambio, centrarse en la información relacionada únicamente con ese caso específico. Por ejemplo, si alguien escucha que un amigo es muy tímido y callado, podría pensar que es más probable que sea un bibliotecario que un vendedor, aunque en general hay muchos más vendedores que bibliotecarios, por lo que es más probable que su amigo En realidad es un vendedor. La negligencia de la tasa base es una forma específica de la negligencia de extensión más general.
También se denomina falacia del fiscal o falacia del abogado defensor cuando se aplica a los resultados de pruebas estadísticas (como las pruebas de ADN). en el marco de un procedimiento judicial. Estos términos fueron introducidos por William C. Thompson y Edward Schumann en 1987, aunque se ha argumentado que su definición de falacia del fiscal se extiende a muchas imputaciones adicionales inválidas de culpa o responsabilidad que no son analizables como errores en las tasas base. o el teorema de Bayes.
Paradoja del falso positivo
Un ejemplo de la falacia de la tasa base es la paradoja del falso positivo (también conocida como paradoja de la precisión). Esta paradoja describe situaciones en las que hay más resultados falsos positivos que verdaderos positivos (esto significa que el clasificador tiene una precisión baja). Por ejemplo, si una cámara de reconocimiento facial puede identificar a los delincuentes buscados con una precisión del 99%, pero analiza a 10.000 personas por día, la alta precisión se ve superada por la cantidad de pruebas, y la lista de delincuentes del programa probablemente tendrá muchas más información falsa. positivos que verdaderos. La probabilidad de un resultado positivo de la prueba está determinada no sólo por la precisión de la prueba sino también por las características de la población muestreada. Cuando la prevalencia, la proporción de quienes padecen una determinada afección, es inferior a la tasa de falsos positivos de la prueba, incluso las pruebas que tienen un riesgo muy bajo de dar un falso positivo en un caso individual dará más falsos que verdaderos positivos en general.
Es especialmente contrario a la intuición cuando se interpreta un resultado positivo en una prueba en una población de baja prevalencia después de haber tratado con resultados positivos extraídos de una población de alta prevalencia. Si la tasa de falsos positivos de la prueba es mayor que la proporción de la población nueva con la afección, entonces un administrador de la prueba cuya experiencia se haya extraído de pruebas en una población de alta prevalencia puede concluir a partir de la experiencia que un resultado positivo de la prueba generalmente indica un sujeto positivo, cuando en realidad es mucho más probable que haya ocurrido un falso positivo.
Ejemplos
Ejemplo 1: Enfermedad
Población de alta prevalencia
Número de personas | Infectados | Infectados | Total |
---|---|---|---|
Prueba positivo | 400 (muy positivo) | 30 (falso positivo) | 430 |
Prueba negativo | 0 (falso negativo) | 570 (verdadero negativo) | 570 |
Total | 400 | 600 | 1000 |
Imagina realizar una prueba de enfermedad infecciosa en una población A de 1.000 personas, de las cuales 40% están infectadas. La prueba tiene una tasa positiva falsa del 5% (0.05) y una tasa negativa falsa de cero. El resultado previsto de los 1.000 ensayos sobre población A sería:
- Infectado y test indica enfermedad (verdadera positiva)
- 1000 × 40/100 = 400 personas recibirían un verdadero positivo
- Uninfectado y test indica enfermedad (falso positivo)
- 1000 × 100 – 40/100 × 0,05 = 30 personas recibirían un falso positivo
- Las 570 pruebas restantes son correctamente negativas.
Entonces, en la población A, una persona que reciba una prueba positiva podría tener más del 93 % de confianza (400/30 + 400) que funciona correctamente indica infección.
Población de baja prevalencia
Número de personas | Infectados | Infectados | Total |
---|---|---|---|
Prueba positivo | 20 (muy positivo) | 49 (falso positivo) | 69 |
Prueba negativo | 0 (falso negativo) | 931 (verdadero negativo) | 931 |
Total | 20 | 980 | 1000 |
Consideremos ahora la misma prueba aplicada a la población B, de la cual sólo el 2% está infectado. El resultado esperado de 1000 pruebas en la población B sería:
- Infectado y test indica enfermedad (verdadera positiva)
- 1000 × 2/100 = 20 personas recibirían un verdadero positivo
- Uninfectado y test indica enfermedad (falso positivo)
- 1000 × 100 – 2/100 × 0,05 = 49 personas recibirían un falso positivo
- Las 931 pruebas restantes son correctamente negativas.
En la población B, solo 20 del total de 69 personas con un resultado positivo en la prueba están realmente infectadas. Por lo tanto, la probabilidad de estar realmente infectado después de que a uno le dicen que está infectado es solo del 29% (20 /20 + 49) para una prueba que, por lo demás, parece ser " ;95% de precisión".
Un evaluador con experiencia en el grupo A podría encontrar una paradoja que en el grupo B, un resultado que normalmente indicaba correctamente una infección ahora suele ser un falso positivo. La confusión de la probabilidad posterior de infección con la probabilidad previa de recibir un falso positivo es un error natural después de recibir un resultado de prueba que pone en peligro la salud.
Ejemplo 2: conductores ebrios
Imaginemos que un grupo de policías tienen unos alcoholímetros que muestran una falsa ebriedad en un 5% de los casos en los que el conductor está sobrio. Sin embargo, los alcoholímetros nunca dejan de detectar a una persona verdaderamente ebria. Uno de cada mil conductores conduce ebrio. Supongamos que los agentes de policía detienen a un conductor al azar para realizarle una prueba de alcoholemia. Indica que el conductor está ebrio. No se sabe más información sobre ellos.
Muchos estimarían que la probabilidad de que el conductor esté ebrio es de hasta un 95%, pero la probabilidad correcta es de aproximadamente un 2%.
Una explicación para esto es la siguiente: en promedio, por cada 1000 conductores examinados,
- 1 conductor está borracho, y es 100% seguro que para ese conductor hay un verdadero resultado positivo de prueba, por lo que hay 1 verdadero resultado positivo de la prueba
- 999 conductores no están borrachos, y entre esos conductores hay 5% falso resultados positivos de prueba, por lo que hay 49.95 falso resultados positivos
Por lo tanto, la probabilidad de que cualquier conductor dado entre los 1 + 49,95 = 50,95 resultados positivos de prueba realmente está borracho es 1/50.95. . 0,019627{displaystyle 1/50.95approx 0,019627}.
Sin embargo, la validez de este resultado depende de la validez de la suposición inicial de que el oficial de policía detuvo al conductor verdaderamente al azar y no por mala conducción. Si esa u otra razón no arbitraria para detener al conductor estaba presente, entonces el cálculo también implica la probabilidad de que un conductor ebrio conduzca de manera competente y un conductor no ebrio conduzca de manera (in)competente.
Más formalmente, se puede establecer la misma probabilidad de aproximadamente 0,02 utilizando el teorema de Bayes. El objetivo es encontrar la probabilidad de que el conductor esté ebrio dado que el alcoholímetro indicó que está ebrio, lo cual se puede representar como
- p()drunk▪ ▪ D){displaystyle p(mathrm {drunk} mid D)}
Donde D significa que el respirador indica que el conductor está borracho. Usando el teorema de Bayes,
- p()drunk▪ ▪ D)=p()D▪ ▪ drunk)p()drunk)p()D).{displaystyle p(mathrm {drunk} mid D)={frac {p(Dmid mathrm {drunk}),p(mathrm {drunk}{p(D)}}}
En este escenario se conoce la siguiente información:
- p()drunk)=0,001,{displaystyle p(mathrm {drunk}=0.001,}
- p()sober)=0.999,{displaystyle p(mathrm {sober})=0.999,}
- p()D▪ ▪ drunk)=1.00,{displaystyle p(Dmid mathrm {drunk}=1.00,} y
- p()D▪ ▪ sober)=0.05.{displaystyle p(Dmid mathrm {sober})=0.05.}
Como se puede ver en la fórmula, se necesita p(D) para Bayes' teorema, que se puede calcular a partir de los valores anteriores utilizando la ley de probabilidad total:
- p()D)=p()D▪ ▪ drunk)p()drunk)+p()D▪ ▪ sober)p()sober){displaystyle p(D)=p(Dmid mathrm {drunk}),p(mathrm {drunk})+p(Dmid mathrm {sober}),p(mathrm {sober})}}
lo que da
- p()D)=()1.00× × 0,001)+()0,05× × 0.999)=0.05095.{displaystyle p(D)=(1.00times 0.001)+(0.05times 0.999)=0.05095.}
Conectando estos números en el teorema de Bayes, uno encuentra que
- p()drunk▪ ▪ D)=1.00× × 0,0010,05095. . 0,019627,{displaystyle p(mathrm {drunk}mid D)={frac {1.00times 0,001}{0.05095}}approx 0.019627,}
que es la precisión de la prueba.
Ejemplo 3: Identificación de terroristas
En una ciudad de 1 millón de habitantes, que haya 100 terroristas y 999.900 no terroristas. Para simplificar el ejemplo, se supone que todas las personas presentes en la ciudad son habitantes. Por lo tanto, la tasa de probabilidad base de que un habitante de la ciudad seleccionado al azar sea terrorista es 0,0001, y la tasa de probabilidad base de que ese mismo habitante no sea terrorista es 0,9999. En un intento de atrapar a los terroristas, la ciudad instala un sistema de alarma con una cámara de vigilancia y un software de reconocimiento facial automático.
El software tiene dos tasas de error del 1%:
- La tasa negativa falsa: Si la cámara escanea a un terrorista, una campana sonará el 99% del tiempo, y no tocará el 1% del tiempo.
- El falso índice positivo: Si la cámara escanea a un no terrorista, una campana no sonará el 99% del tiempo, pero sonará el 1% del tiempo.
Supongamos ahora que un habitante activa la alarma. Alguien haciendo la falacia de la tasa base inferiría que hay una probabilidad del 99% de que la persona detectada es un terrorista. Aunque la inferencia parece tener sentido, en realidad es un mal razonamiento, y un cálculo a continuación mostrará que la probabilidad de un terrorista es en realidad cerca del 1%, no cerca del 99%.
La falacia surge de confundir las naturalezas de dos tipos de falla diferentes. El 'número de no-hermanos por 100 terroristas' (P(¬B TEN-T), o la probabilidad de que la campana no suene dado que el habitante es un terrorista) y el 'número de no-terroristas por 100 campanas' (P(¬T ANTERIENTE B), o la probabilidad de que el habitante sea un no-terrorista dado los anillos de campana) son necesariamente cantidades no relacionadas; uno no se cierra. Para mostrar esto, considere lo que sucede si se estableció un sistema de alarma idéntico en una segunda ciudad sin terroristas en absoluto. Como en la primera ciudad, la alarma suena para 1 de cada 100 habitantes no terroristas detectados, pero a diferencia de la primera ciudad, la alarma nunca suena para un terrorista. Por lo tanto, el 100% de todas las ocasiones de la alarma sonora son para los no terroristas, pero una tasa negativa falsa ni siquiera puede ser calculada. El 'número de no terroristas por cada 100 campanas' en esa ciudad es 100, sin embargo P(T Silencio B) = 0%. No hay ninguna posibilidad de que un terrorista haya sido detectado dado el anillo de la campana.
Imagina que toda la población de la primera ciudad de un millón de personas pasan frente a la cámara. Aproximadamente 99 de los 100 terroristas desencadenarán la alarma, así como alrededor de 9.999 de los 999.900 no terroristas. Por lo tanto, alrededor de 10.098 personas activarán la alarma, entre las cuales alrededor de 99 serán terroristas. La probabilidad de que una persona que dispara la alarma en realidad es un terrorista es sólo alrededor de 99 en 10,098, que es menos del 1% y muy, muy por debajo de la suposición inicial del 99%.
La falacia de la tasa base es muy engañosa en este ejemplo porque hay muchos más no terroristas que terroristas, y el número de falsos positivos (no terroristas analizados como terroristas) es mucho mayor que los verdaderos positivos (terroristas analizados como terroristas). terroristas).
Múltiples profesionales han argumentado que como la tasa base de terrorismo es extremadamente baja, el uso de minería de datos y algoritmos predictivos para identificar a terroristas no puede funcionar debido a la paradoja del falso positivo. Las estimaciones del número de falsos positivos para cada resultado exacto varían entre más de diez mil y mil millones; en consecuencia, investigar cada pista tendría un costo y un tiempo prohibitivos. El nivel de precisión necesario para que estos modelos sean viables probablemente sea inalcanzable. Ante todo, la baja tasa base de terrorismo también significa que faltan datos con los que elaborar un algoritmo preciso. Además, en el contexto de la detección del terrorismo, los falsos negativos son muy indeseables y, por tanto, deben minimizarse tanto como sea posible; sin embargo, esto requiere aumentar la sensibilidad a costa de la especificidad, aumentando los falsos positivos. También es cuestionable si el uso de tales modelos por parte de las fuerzas del orden cumpliría con la carga de la prueba requerida, dado que más del 99% de los resultados serían falsos positivos.
Ejemplo 4: pruebas biológicas de un sospechoso
Se comete un delito. El análisis forense determina que el perpetrador tiene un determinado tipo de sangre compartido por el 10% de la población. Un sospechoso es arrestado y se descubre que tiene el mismo tipo de sangre.
Un fiscal podría acusar al sospechoso del delito únicamente sobre esa base y afirmar en el juicio que la probabilidad de que el acusado sea culpable es del 90%.
Sin embargo, esta conclusión sólo es casi correcta si el acusado fue seleccionado como el principal sospechoso basándose en pruebas sólidas descubiertas antes del análisis de sangre y no relacionadas con él. De lo contrario, el razonamiento presentado es erróneo, ya que pasa por alto la alta probabilidad previa (es decir, antes del análisis de sangre) de que se trate de una persona inocente al azar. Supongamos, por ejemplo, que 1000 personas viven en la ciudad donde ocurrió el crimen. Esto significa que allí viven 100 personas que tienen el tipo de sangre del perpetrador, de las cuales solo una es el verdadero perpetrador; por lo tanto, la verdadera probabilidad de que el acusado sea culpable –basada únicamente en el hecho de que su tipo de sangre coincide con la del asesino– es sólo del 1%, muy por debajo del 90% argumentado por el fiscal.
La falacia del fiscal implica suponer que la probabilidad previa de una coincidencia aleatoria es igual a la probabilidad de que el acusado sea inocente. Al utilizarlo, un fiscal que interroga a un perito puede preguntar: "Las probabilidades de encontrar esta evidencia sobre un hombre inocente son tan pequeñas que el jurado puede descartar con seguridad la posibilidad de que este acusado sea inocente, ¿correcto?" La afirmación supone que la probabilidad de que se encuentren pruebas sobre un hombre inocente es la misma que la probabilidad de que un hombre sea inocente dado que se encontraron pruebas sobre él, lo cual no es cierto. Mientras que el primero suele ser pequeño (10% en el ejemplo anterior) debido a buenos procedimientos de prueba forense, el segundo (99% en ese ejemplo) no se relaciona directamente con él y a menudo será mucho mayor, ya que, de hecho, depende sobre las probables probabilidades bastante altas de que el acusado sea una persona inocente al azar.
Ejemplos en derecho
O. Juicio a J. Simpson
O. J. Simpson fue juzgado y absuelto en 1995 por los asesinatos de su ex esposa Nicole Brown Simpson y su amigo Ronald Goldman.
La sangre de la escena del crimen coincidía con la de Simpson y tenía características compartidas por 1 de cada 400 personas. Sin embargo, la defensa argumentó que el número de personas de Los Ángeles que coincidían con la muestra podría llenar un estadio de fútbol y que la cifra de 1 entre 400 era inútil. Habría sido incorrecto, y un ejemplo de falacia del fiscal, confiar únicamente en la ecuación "1 entre 400" cifra para deducir que una persona determinada que coincida con la muestra probablemente sea el culpable.

En el mismo juicio, la fiscalía presentó pruebas de que Simpson había sido violento con su esposa. La defensa argumentó que solo hubo una mujer asesinada por cada 2500 mujeres que fueron sometidas a abuso conyugal, y que cualquier historial de Simpson siendo violento hacia su esposa era irrelevante para el juicio. Sin embargo, el razonamiento detrás del cálculo de la defensa era falaz. Según el autor Gerd Gigerenzer, la probabilidad correcta requiere un contexto adicional: la esposa de Simpson no sólo había sido sometida a violencia doméstica, sino que también había sido sometida a violencia doméstica (por Simpson) y asesinada (por alguien). ). Gigerenzer escribe que "las posibilidades de que un agresor realmente haya asesinado a su pareja, dado que ella ha sido asesinada, son aproximadamente 8 entre 9 o aproximadamente el 90%". Si bien la mayoría de los casos de abuso conyugal no terminan en asesinato, la mayoría de los casos de asesinato en los que hay antecedentes de abuso conyugal fueron cometidos por el cónyuge.
Caso Sally Clark
Sally Clark, una mujer británica, fue acusada en 1998 de haber matado a su primer hijo a las 11 semanas de edad y luego a su segundo hijo a las 8 semanas de edad. La fiscalía hizo que el perito Sir Roy Meadow, profesor y pediatra consultor, testificara que la probabilidad de que dos niños de la misma familia mueran de SMSL es aproximadamente de 1 entre 73 millones. Esto fue mucho menos frecuente que la tasa real medida en datos históricos: Meadow la estimó a partir de datos de muertes por SMSL y del supuesto de que la probabilidad de tales muertes no debería estar correlacionada entre los bebés.
Meadow reconoció que 1 entre 73 millones no es imposible, pero argumentó que tales accidentes ocurrirían "una vez cada cien años" y que, en un país de 15 millones de familias con dos hijos, es mucho más probable que las muertes dobles se deban al síndrome de Münchausen indirectamente que a un accidente tan raro. Sin embargo, hay buenas razones para suponer que la probabilidad de muerte por SMSL en una familia es significativamente mayor si un hijo anterior ya ha muerto en estas circunstancias (una predisposición genética al SMSL probablemente invalide la supuesta independencia estadística), lo que hace que algunas familias más susceptibles al SMSL y el error es el resultado de la falacia ecológica. La probabilidad de dos muertes por SMSL en la misma familia no se puede estimar sólidamente elevando al cuadrado la probabilidad de una sola muerte de ese tipo en todas las familias por lo demás similares.
La cifra de 1 entre 73 millones subestimó en gran medida la posibilidad de dos accidentes sucesivos, pero incluso si esa evaluación fuera precisa, el tribunal parece haber pasado por alto el hecho de que la cifra de 1 entre 73 millones no significaba nada por sí sola. . Como probabilidad a priori, debería haberse sopesado con las probabilidades a priori de las alternativas. Dado que se habían producido dos muertes, una de las siguientes explicaciones debe ser cierta, y todas ellas son a priori extremadamente improbables:
- Two successive deaths in the same family, both by SIDS
- Doble homicidio (caso de la fiscalía)
- Otras posibilidades (incluido un homicidio y un caso de pequeños Estados insulares en desarrollo)
No está claro si alguna vez se propuso una estimación de la probabilidad para la segunda posibilidad durante el juicio, o si se entendió que la comparación de las dos primeras probabilidades era la estimación clave a realizar en el análisis estadístico que evalúa la acusación' ;s caso contra el caso de inocencia.
Clark fue condenado en 1999, lo que dio lugar a un comunicado de prensa de la Royal Statistical Society que señalaba los errores.
En 2002, Ray Hill (profesor de matemáticas en Salford) intentó comparar con precisión las posibilidades de estas dos posibles explicaciones; Concluyó que los accidentes sucesivos son entre 4,5 y 9 veces más probables que los asesinatos sucesivos, de modo que las probabilidades a priori de la culpabilidad de Clark estaban entre 4,5 a 1 y 9 a 1 en contra.
Después de que el tribunal determinara que el patólogo forense que había examinado a ambos bebés había ocultado pruebas exculpatorias, un tribunal superior anuló la condena de Clark, el 29 de enero de 2003.
Hallazgos en psicología
En experimentos, se ha descubierto que las personas prefieren información individualizada a información general cuando la primera está disponible.
En algunos experimentos, se pidió a los estudiantes que estimaran los promedios de calificaciones (GPA) de estudiantes hipotéticos. Cuando se les dieron estadísticas relevantes sobre la distribución del GPA, los estudiantes tendieron a ignorarlas si se les daba información descriptiva sobre el estudiante en particular, incluso si la nueva información descriptiva era obviamente de poca o ninguna relevancia para el desempeño escolar. Este hallazgo se ha utilizado para argumentar que las entrevistas son una parte innecesaria del proceso de admisión a la universidad porque los entrevistadores no pueden elegir a los candidatos exitosos mejor que las estadísticas básicas.
Los psicólogos Daniel Kahneman y Amos Tversky intentaron explicar este hallazgo en términos de una regla simple o método "heurístico" llama representatividad. Argumentaron que muchos juicios relacionados con la probabilidad, o con la causa y efecto, se basan en cuán representativa es una cosa de otra o de una categoría. Kahneman considera que la negligencia de la tasa base es una forma específica de negligencia de la extensión. Richard Nisbett ha argumentado que algunos sesgos atribucionales, como el error de atribución fundamental, son ejemplos de la falacia de la tasa base: las personas no utilizan la "información de consenso" (la "tasa base") sobre cómo se comportaron otros en situaciones similares y, en cambio, prefieren atribuciones disposicionales más simples.
Existe un debate considerable en psicología sobre las condiciones bajo las cuales las personas aprecian o no la información sobre la tasa base. Los investigadores del programa de heurísticas y sesgos han destacado los hallazgos empíricos que muestran que las personas tienden a ignorar las tasas base y a hacer inferencias que violan ciertas normas de razonamiento probabilístico, como las de Bayes. teorema. La conclusión extraída de esta línea de investigación fue que el pensamiento probabilístico humano es fundamentalmente defectuoso y propenso a errores. Otros investigadores han enfatizado el vínculo entre los procesos cognitivos y los formatos de información, argumentando que tales conclusiones generalmente no están justificadas.
Considere nuevamente el ejemplo 2 desde arriba. La inferencia requerida es estimar la probabilidad (posterior) de que un conductor (recogido al azar) esté borracho, dado que la prueba de alcoholemia es positiva. Formalmente, esta probabilidad se puede calcular usando Bayes ' Teorema, como se muestra arriba. Sin embargo, hay diferentes formas de presentar la información relevante. Considere la siguiente variante formalmente equivalente del problema:
- 1 de cada 1000 conductores conducen borrachos. Los respiradores nunca fallan en detectar a una persona verdaderamente borracha. Para 50 de los 999 conductores que no están borrachos el respirador falsamente muestra la borrachera. Supongamos que los policías detienen a un conductor al azar, y los obligan a tomar una prueba de respiración. Indica que están borrachos. No se sabe otra información sobre ellos. Estimar la probabilidad de que el conductor esté realmente borracho.
En este caso, la información numérica relevante: p (borracho), p ( d | borracho), p ( d | sobrio): se presenta en términos de frecuencias naturales con respecto a una determinada clase de referencia (ver problema de la clase de referencia). Los estudios empíricos muestran que las inferencias de las personas se corresponden más estrechamente a Bayes ' Regla cuando la información se presenta de esta manera, ayudando a superar la negligencia de la tasa base en laicos y expertos. Como consecuencia, organizaciones como la colaboración Cochrane recomiendan usar este tipo de formato para comunicar estadísticas de salud. Enseñar a las personas a traducir este tipo de problemas de razonamiento bayesiano en formatos de frecuencia natural es más efectivo que simplemente enseñarles a enchufar las probabilidades (o porcentajes) en Bayes ' teorema. También se ha demostrado que las representaciones gráficas de frecuencias naturales (por ejemplo, matrices de iconos, gráficos de resultados hipotéticos) ayudan a las personas a hacer mejores inferencias.
Una razón importante por la cual los formatos de frecuencia natural son útiles es que este formato de información facilita la inferencia requerida porque simplifica los cálculos necesarios. Esto se puede ver al usar una forma alternativa de calcular la probabilidad requerida P (borracho | d )::
- p()drunk▪ ▪ D)=N()drunk∩ ∩ D)N()D)=151=0,0196{displaystyle p(mathrm {drunk} mid D)={frac {N(mathrm {drunk} cap D)}{N(D)}={frac {1}{51}=0.0196}
donde N(borracho ∩ D) denota el número de conductores que están ebrios y obtienen un resultado positivo en el alcoholímetro, y N(D) indica el número total de casos con resultado positivo de alcoholemia. La equivalencia de esta ecuación con la anterior se deriva de los axiomas de la teoría de la probabilidad, según los cuales N(borracho ∩ D) = N × p (D | borracho) × p (borracho). Es importante destacar que, aunque esta ecuación es formalmente equivalente a la ecuación de Bayes; regla, no es psicológicamente equivalente. El uso de frecuencias naturales simplifica la inferencia porque la operación matemática requerida se puede realizar con números naturales, en lugar de fracciones normalizadas (es decir, probabilidades), porque hace que el gran número de falsos positivos sea más transparente y porque las frecuencias naturales exhiben una &" estructura de conjunto anidado".
No todos los formatos de frecuencia facilitan el razonamiento bayesiano. Las frecuencias naturales se refieren a la información de frecuencia que resulta del muestreo natural, que preserva la información de la tasa base (por ejemplo, el número de conductores ebrios cuando se toma una muestra aleatoria de conductores). Esto es diferente del muestreo sistemático, en el que las tasas base se fijan a priori (por ejemplo, en experimentos científicos). En el último caso, no es posible inferir la probabilidad posterior p(borracho | prueba positiva) comparando el número de conductores que están ebrios y dan positivo con el número total de personas que obtienen un resultado positivo. resultado del alcoholímetro, porque la información de la tasa base no se conserva y debe reintroducirse explícitamente utilizando el método Bayes. teorema.
Contenido relacionado
Filosofía de la lógica
Historia de la lógica
Positivismo lógico
Lógica de primer orden
Propiedades emergentes