Probabilidad bayesiana

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

La probabilidad bayesiana es una interpretación del concepto de probabilidad, en la que, en lugar de la frecuencia o la propensión de algún fenómeno, la probabilidad se interpreta como una expectativa razonable que representa un estado de conocimiento o como la cuantificación de una creencia personal.

La interpretación bayesiana de probabilidad puede verse como una extensión de la lógica proposicional que permite razonar con hipótesis; es decir, con proposiciones cuya verdad o falsedad se desconoce. En el punto de vista bayesiano, se asigna una probabilidad a una hipótesis, mientras que en la inferencia frecuentista, una hipótesis generalmente se prueba sin que se le asigne una probabilidad.

La probabilidad bayesiana pertenece a la categoría de probabilidades evidenciales; para evaluar la probabilidad de una hipótesis, el probabilista bayesiano especifica una probabilidad previa. Esto, a su vez, se actualiza a una probabilidad posterior a la luz de nuevos datos relevantes (evidencia). La interpretación bayesiana proporciona un conjunto estándar de procedimientos y fórmulas para realizar este cálculo.

El término bayesiano deriva del matemático y teólogo del siglo XVIII Thomas Bayes, quien proporcionó el primer tratamiento matemático de un problema no trivial del análisis de datos estadísticos utilizando lo que ahora se conoce como inferencia bayesiana. El matemático Pierre-Simon Laplace fue pionero y popularizó lo que ahora se llama probabilidad bayesiana.

Metodología bayesiana

Los métodos bayesianos se caracterizan por conceptos y procedimientos de la siguiente manera:

  • El uso de variables aleatorias, o más generalmente cantidades desconocidas, para modelar todas las fuentes de incertidumbre en modelos estadísticos, incluida la incertidumbre resultante de la falta de información (ver también incertidumbre aleatoria y epistémica).
  • La necesidad de determinar la distribución de probabilidad previa teniendo en cuenta la información (previa) disponible.
  • El uso secuencial de la fórmula de Bayes: cuando haya más datos disponibles, calcule la distribución posterior utilizando la fórmula de Bayes; posteriormente, la distribución posterior se convierte en la siguiente anterior.
  • Mientras que para el frecuentista, una hipótesis es una proposición (que debe ser verdadera o falsa) por lo que la probabilidad frecuentista de una hipótesis es 0 o 1, en la estadística bayesiana, la probabilidad que se le puede asignar a una hipótesis también puede estar en un rango de 0 a 1 si el valor de verdad es incierto.

Probabilidades bayesianas objetivas y subjetivas

En términos generales, hay dos interpretaciones de la probabilidad bayesiana. Para los objetivistas, que interpretan la probabilidad como una extensión de la lógica, la probabilidad cuantifica la expectativa razonable que todos (incluso un "robot") que comparten el mismo conocimiento deberían compartir de acuerdo con las reglas de la estadística bayesiana, lo que puede justificarse mediante el teorema de Cox. Para los subjetivistas, la probabilidad corresponde a una creencia personal. La racionalidad y la coherencia permiten una variación sustancial dentro de las limitaciones que plantean; las restricciones están justificadas por el argumento del libro holandés o por la teoría de la decisión y el teorema de De Finetti.Las variantes objetiva y subjetiva de la probabilidad bayesiana difieren principalmente en su interpretación y construcción de la probabilidad previa.

Historia

El término bayesiano deriva de Thomas Bayes (1702-1761), quien demostró un caso especial de lo que ahora se llama el teorema de Bayes en un artículo titulado "Un ensayo para resolver un problema en la doctrina de las posibilidades". En ese caso especial, las distribuciones anterior y posterior eran distribuciones beta y los datos provenían de ensayos de Bernoulli. Fue Pierre-Simon Laplace (1749–1827) quien introdujo una versión general del teorema y la utilizó para abordar problemas de mecánica celeste, estadísticas médicas, confiabilidad y jurisprudencia. La inferencia bayesiana temprana, que usaba antecedentes uniformes siguiendo el principio de razón insuficiente de Laplace, se denominó "probabilidad inversa" (porque infiere hacia atrás desde las observaciones a los parámetros, o desde los efectos a las causas).Después de la década de 1920, la "probabilidad inversa" fue reemplazada en gran medida por una colección de métodos que se denominó estadística frecuentista.

En el siglo XX, las ideas de Laplace se desarrollaron en dos direcciones, dando lugar a corrientes objetivas y subjetivas en la práctica bayesiana. La teoría de la probabilidad de Harold Jeffreys (publicada por primera vez en 1939) desempeñó un papel importante en el renacimiento de la visión bayesiana de la probabilidad, seguida de los trabajos de Abraham Wald (1950) y Leonard J. Savage (1954). El adjetivo bayesiano en sí data de la década de 1950; el bayesianismo derivado, el neobayesianismo es acuñado en la década de 1960. En la corriente objetivista, el análisis estadístico depende únicamente del modelo asumido y de los datos analizados.No es necesario involucrar decisiones subjetivas. En contraste, los estadísticos "subjetivistas" niegan la posibilidad de un análisis completamente objetivo para el caso general.

En la década de 1980, hubo un crecimiento espectacular en la investigación y las aplicaciones de los métodos bayesianos, atribuido principalmente al descubrimiento de los métodos de Monte Carlo de la cadena de Markov y la consiguiente eliminación de muchos de los problemas computacionales, y al creciente interés en aplicaciones complejas no estándar. Si bien la estadística frecuentista sigue siendo fuerte (como lo demuestra el hecho de que gran parte de la enseñanza de pregrado se basa en ella), los métodos bayesianos son ampliamente aceptados y utilizados, por ejemplo, en el campo del aprendizaje automático.

Justificación de las probabilidades bayesianas

El uso de probabilidades bayesianas como base de la inferencia bayesiana ha sido respaldado por varios argumentos, como los axiomas de Cox, el argumento del libro holandés, argumentos basados ​​en la teoría de la decisión y el teorema de De Finetti.

Enfoque axiomático

Richard T. Cox demostró que la actualización bayesiana se deriva de varios axiomas, incluidas dos ecuaciones funcionales y una hipótesis de diferenciabilidad. La suposición de diferenciabilidad o incluso de continuidad es controvertida; Halpern encontró un contraejemplo basado en su observación de que el álgebra booleana de declaraciones puede ser finita. Otros axiomatizaciones han sido sugeridas por varios autores con el propósito de hacer más rigurosa la teoría.

Enfoque del libro holandés

El argumento del libro holandés fue propuesto por de Finetti; se basa en apuestas. Un libro holandés se hace cuando un jugador inteligente hace una serie de apuestas que garantizan una ganancia, sin importar el resultado de las apuestas. Si un corredor de apuestas sigue las reglas del cálculo bayesiano en la construcción de sus cuotas, no se puede hacer un libro holandés.

Sin embargo, Ian Hacking señaló que los argumentos de los libros holandeses tradicionales no especificaban la actualización bayesiana: dejaban abierta la posibilidad de que las reglas de actualización no bayesianas pudieran evitar los libros holandeses. Por ejemplo, Hacking escribe: "Y ni el argumento del libro holandés, ni ningún otro en el arsenal personalista de pruebas de los axiomas de probabilidad, implica la suposición dinámica. Ninguno implica el bayesianismo. Entonces, el personalista requiere que la suposición dinámica sea bayesiana. Es cierto que, en consistencia, un personalista podría abandonar el modelo bayesiano de aprender de la experiencia. La sal podría perder su sabor".

De hecho, existen reglas de actualización no bayesianas que también evitan los libros holandeses (como se discute en la literatura sobre "cinemática de probabilidad" después de la publicación de la regla de Richard C. Jeffrey, que en sí misma se considera bayesiana). Las hipótesis adicionales suficientes para (únicamente) especificar la actualización bayesiana son sustanciales y no se consideran universalmente satisfactorias.

Enfoque de la teoría de la decisión

Abraham Wald dio una justificación teórica de la decisión del uso de la inferencia bayesiana (y, por lo tanto, de las probabilidades bayesianas), quien demostró que todo procedimiento estadístico admisible es un procedimiento bayesiano o un límite de los procedimientos bayesianos. Por el contrario, todo procedimiento bayesiano es admisible.

Probabilidades personales y métodos objetivos para la construcción de priores

Siguiendo el trabajo sobre la teoría de la utilidad esperada de Ramsey y von Neumann, los teóricos de la decisión han explicado el comportamiento racional utilizando una distribución de probabilidad para el agente. Johann Pfanzagl completó la Teoría de los Juegos y el Comportamiento Económico proporcionando una axiomatización de la probabilidad subjetiva y la utilidad, tarea que von Neumann y Oskar Morgenstern dejaron sin completar: su teoría original suponía que todos los agentes tenían la misma distribución de probabilidad, por conveniencia.La axiomatización de Pfanzagl fue respaldada por Oskar Morgenstern: "Von Neumann y yo hemos anticipado... [la cuestión de si las probabilidades] podrían, quizás más típicamente, ser subjetivas y hemos declarado específicamente que en el último caso se podrían encontrar axiomas de los que se podría derivar la utilidad numérica deseada junto con un número para las probabilidades (cf. p. 19 de Teoría de juegos y comportamiento económico). Esto no lo llevamos a cabo, lo demostró Pfanzagl... con todo el rigor necesario".

Ramsey y Savage notaron que la distribución de probabilidad del agente individual podría estudiarse objetivamente en experimentos. Los procedimientos para probar hipótesis sobre probabilidades (usando muestras finitas) se deben a Ramsey (1931) y de Finetti (1931, 1937, 1964, 1970). Tanto Bruno de Finetti como Frank P. Ramsey reconocen sus deudas con la filosofía pragmática, particularmente (para Ramsey) con Charles S. Peirce.

La "prueba de Ramsey" para evaluar distribuciones de probabilidad es implementable en teoría y ha mantenido ocupados a los psicólogos experimentales durante medio siglo. Este trabajo demuestra que las proposiciones de probabilidad bayesiana se pueden falsear y, por lo tanto, cumplen con un criterio empírico de Charles S. Peirce, cuyo trabajo inspiró a Ramsey. (Este criterio de falsabilidad fue popularizado por Karl Popper).

El trabajo moderno sobre la evaluación experimental de las probabilidades personales utiliza los procedimientos de aleatorización, cegamiento y decisión booleana del experimento de Peirce-Jastrow. Dado que los individuos actúan de acuerdo con diferentes juicios de probabilidad, las probabilidades de estos agentes son "personales" (pero susceptibles de estudio objetivo).

Las probabilidades personales son problemáticas para la ciencia y para algunas aplicaciones donde los tomadores de decisiones carecen del conocimiento o del tiempo para especificar una distribución de probabilidad informada (sobre la cual están preparados para actuar). Para satisfacer las necesidades de la ciencia y de las limitaciones humanas, los estadísticos bayesianos han desarrollado métodos "objetivos" para especificar probabilidades previas.

De hecho, algunos bayesianos han argumentado que el estado previo del conocimiento define la distribución de probabilidad previa (única) para problemas estadísticos "regulares"; cf. problemas bien planteados. Encontrar el método correcto para construir dichos priores "objetivos" (para clases apropiadas de problemas regulares) ha sido la búsqueda de teóricos estadísticos desde Laplace hasta John Maynard Keynes, Harold Jeffreys y Edwin Thompson Jaynes. Estos teóricos y sus sucesores han sugerido varios métodos para construir antecedentes "objetivos" (desafortunadamente, no está claro cómo evaluar la "objetividad" relativa de los antecedentes propuestos bajo estos métodos):

  • entropía máxima
  • Análisis del grupo de transformación
  • Análisis de referencia

Cada uno de estos métodos aporta a priori útiles para problemas "regulares" de un parámetro, y cada a priori puede manejar algunos modelos estadísticos desafiantes (con "irregularidad" o varios parámetros). Cada uno de estos métodos ha sido útil en la práctica bayesiana. De hecho, los métodos para construir antecedentes "objetivos" (alternativamente, "por defecto" o "ignorancia") han sido desarrollados por bayesianos subjetivos (o "personales") declarados como James Berger (Duke University) y José-Miguel Bernardo (Universitat de València)., simplemente porque tales antecedentes son necesarios para la práctica bayesiana, particularmente en ciencia. La búsqueda del "método universal para construir priores" sigue atrayendo a los teóricos de la estadística.

Por lo tanto, el estadístico bayesiano necesita utilizar antecedentes informados (utilizando experiencia relevante o datos previos) o elegir entre los métodos en competencia para construir antecedentes "objetivos".

Contenido relacionado

Observación (probabilidades)

En probabilidad y estadística, una realización concreción, observación o valor observado de una variable aleatoria es el valor que realmente se observa...

Axiomas de probabilidad

Los axiomas de Kolmogorov son los fundamentos de la teoría de la probabilidad introducida por Andrey Kolmogorov en 1933. Estos axiomas siguen siendo...

Causalidad de Granger

La prueba de causalidad de Granger es una prueba de hipótesis estadística para determinar si una serie de tiempo es útil para pronosticar otra, propuesta...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save