Muestreo por transformada inversa
(leer más)
El teorema de Cox, llamado así por el físico Richard Threlkeld Cox, es una derivación de las leyes de la teoría de la probabilidad a partir de un cierto conjunto de postulados. Esta derivación justifica la llamada interpretación "lógica" de la probabilidad, ya que las leyes de probabilidad derivadas del teorema de Cox son aplicables a cualquier proposición. La probabilidad lógica (también conocida como bayesiana objetiva) es un tipo de probabilidad bayesiana. Otras formas de bayesianismo, como la interpretación subjetiva, reciben otras justificaciones.
Cox quería que su sistema cumpliera las siguientes condiciones:
Los postulados que se establecen aquí están tomados de Arnborg y Sjödin. El "sentido común" incluye la coherencia con la lógica aristotélica en el sentido de que las proposiciones lógicamente equivalentes tendrán la misma plausibilidad.
Los postulados establecidos originalmente por Cox no eran matemáticamente rigurosos (aunque más que la descripción informal anterior), como señaló Halpern. Sin embargo, parece posible aumentarlos con varias suposiciones matemáticas hechas implícita o explícitamente por Cox para producir una prueba válida.
Notación de Cox:La plausibilidad de una proposición dada cierta información relacionada se denota por .
Los postulados de Cox y las ecuaciones funcionales son:
En forma de ecuación funcionalDebido a la naturaleza asociativa de la conjunción en la lógica proposicional, la coherencia con la lógica da una ecuación funcional que dice que la función es una operación binaria asociativa.
Todas las operaciones binarias asociativas estrictamente crecientes en los números reales son isomorfas a la multiplicación de números en un subintervalo de [0, +∞], lo que significa que hay una función monótona que asigna plausibilidades a [0, +∞] tal que
Esto será válido para cualquier proposición que conduzca a
Esto será válido para cualquier proposición que, sin pérdida de generalidad, conduzca a una soluciónDebido al requisito de monotonicidad, esto significa que asigna plausibilidades al intervalo [0, 1].
Esto postula la existencia de una función tal queDebido a que "un doble negativo es un afirmativo", la coherencia con la lógica da una ecuación funcionaldiciendo que la función es una involución, es decir, es su propia inversa.
Las ecuaciones funcionales anteriores y la coherencia con la lógica implican queComo es lógicamente equivalente a , también obtenemosSi, en particular, , entonces también y y obtenemosyAbreviando y obtenemos la ecuación funcional
Las leyes de probabilidad derivables de estos postulados son las siguientes. Sea la plausibilidad de la proposición dada satisfaciendo los postulados de Cox. Entonces hay una función que asigna plausibilidades al intervalo [0,1] y un número positivo tal que
Es importante notar que los postulados implican solo estas propiedades generales. Podemos recuperar las leyes habituales de probabilidad estableciendo una nueva función, denotada convencionalmente o , igual a . Entonces obtenemos las leyes de probabilidad en una forma más familiar:
La regla 2 es una regla para la negación y la regla 3 es una regla para la conjunción. Dado que cualquier proposición que contenga conjunción, disyunción y negación puede reformularse de manera equivalente usando solo conjunción y negación (la forma normal conjuntiva), ahora podemos manejar cualquier proposición compuesta.
Las leyes así derivadas producen una aditividad finita de probabilidad, pero no una aditividad contable. La formulación teórica de medida de Kolmogorov asume que una medida de probabilidad es contablemente aditiva. Esta condición ligeramente más fuerte es necesaria para la demostración de ciertos teoremas.
El teorema de Cox ha llegado a utilizarse como una de las justificaciones para el uso de la teoría de la probabilidad bayesiana. Por ejemplo, en Jaynes se analiza en detalle en los capítulos 1 y 2 y es la piedra angular del resto del libro. La probabilidad se interpreta como un sistema formal de lógica, la extensión natural de la lógica aristotélica (en la que cada afirmación es verdadera o falsa) al ámbito del razonamiento en presencia de incertidumbre.
Se ha debatido en qué medida el teorema excluye modelos alternativos para razonar sobre la incertidumbre. Por ejemplo, si se eliminaran ciertos supuestos matemáticos "poco intuitivos", se podrían idear alternativas, por ejemplo, un ejemplo proporcionado por Halpern. Sin embargo, Arnborg y Sjödin sugieren postulados adicionales de "sentido común", que permitirían relajar los supuestos en algunos casos y descartar el ejemplo de Halpern. Hardy o Dupré y Tipler idearon otros enfoques.
La formulación original del teorema de Cox se encuentra en Cox (1946), que se amplía con resultados adicionales y más discusión en Cox (1961). Jaynes cita a Abel por el primer uso conocido de la ecuación funcional de asociatividad. János Aczél proporciona una larga prueba de la "ecuación de asociatividad" (páginas 256-267). Jaynes reproduce la prueba más breve de Cox en la que se supone diferenciabilidad. Una guía del teorema de Cox de Van Horn tiene como objetivo presentar al lector de manera integral todas estas referencias.
(leer más)
Un mapa de calor o gráfico de calor son gráficos de visualización de datos que utilizan una serie de franjas de colores ordenadas cronológicamente para... (leer más)
Statistics Canada formada en 1971, es la agencia del Gobierno de Canadá encargado de producir estadísticas para ayudar a comprender mejor a Canadá, su... (leer más)