Estadísticas bayesianas

ImprimirCitar
Teoría en el campo de las estadísticas

Estadística bayesiana (BAY-zee-ən o BAY-zhən) es una teoría en el campo de la estadística basada en la interpretación bayesiana de la probabilidad, donde la probabilidad expresa un grado de creencia en un evento. El grado de creencia puede basarse en conocimientos previos sobre el evento, como los resultados de experimentos anteriores, o en creencias personales sobre el evento. Esto difiere de otras interpretaciones de la probabilidad, como la interpretación frecuentista que considera la probabilidad como el límite de la frecuencia relativa de un evento después de muchas pruebas.

Los métodos estadísticos bayesianos utilizan el método Bayes' Teorema para calcular y actualizar probabilidades después de obtener nuevos datos. Bayes' El teorema describe la probabilidad condicional de un evento basándose en datos, así como en información o creencias previas sobre el evento o condiciones relacionadas con el evento. Por ejemplo, en la inferencia bayesiana, Bayes' El teorema se puede utilizar para estimar los parámetros de una distribución de probabilidad o un modelo estadístico. Dado que la estadística bayesiana trata la probabilidad como un grado de creencia, la probabilidad de Bayes. El teorema puede asignar directamente una distribución de probabilidad que cuantifica la creencia al parámetro o conjunto de parámetros.

La estadística bayesiana lleva el nombre de Thomas Bayes, quien formuló un caso específico de la estadística bayesiana. teorema en un artículo publicado en 1763. En varios artículos que abarcan desde finales del siglo XVIII hasta principios del XIX, Pierre-Simon Laplace desarrolló la interpretación bayesiana de la probabilidad. Laplace utilizó métodos que ahora se considerarían bayesianos para resolver una serie de problemas estadísticos. Muchos métodos bayesianos fueron desarrollados por autores posteriores, pero el término no se utilizó comúnmente para describir dichos métodos hasta la década de 1950. Durante gran parte del siglo XX, muchos estadísticos vieron desfavorablemente los métodos bayesianos debido a consideraciones filosóficas y prácticas. Muchos métodos bayesianos requirieron mucho cálculo para completarse, y la mayoría de los métodos que se utilizaron ampliamente durante el siglo se basaron en la interpretación frecuentista. Sin embargo, con la llegada de potentes ordenadores y nuevos algoritmos como la cadena de Markov Monte Carlo, los métodos bayesianos se han utilizado cada vez más en las estadísticas del siglo XXI.

Did you mean:

Bayes N#39; theorem

El teorema de Bayes se utiliza en métodos Bayesian para actualizar las probabilidades, que son grados de creencia, después de obtener nuevos datos. Dados dos eventos A{displaystyle A} y B{displaystyle B}, la probabilidad condicional de A{displaystyle A} dado que B{displaystyle B} es verdad se expresa como sigue:

P()A▪ ▪ B)=P()B▪ ▪ A)P()A)P()B){displaystyle P(Amid B)={frac {P(Bmid A)P(A)}{P(B)}}

Donde P()B)ل ل 0{displaystyle P(B)neq 0}. Aunque el teorema de Bayes es un resultado fundamental de la teoría de la probabilidad, tiene una interpretación específica en las estadísticas bayesianas. En la ecuación anterior, A{displaystyle A} generalmente representa una proposición (como la afirmación de que una moneda aterriza en las cabezas cincuenta por ciento del tiempo) y B{displaystyle B} representa la evidencia, o nuevos datos que se deben tener en cuenta (como el resultado de una serie de volteretas de monedas). P()A){displaystyle P(A)} es la probabilidad previa de A{displaystyle A} que expresa sus creencias sobre A{displaystyle A} antes de que se tengan en cuenta las pruebas. La probabilidad anterior también puede cuantificar conocimientos o información anteriores sobre A{displaystyle A}. P()B▪ ▪ A){displaystyle P(Bmid A)} es la función de probabilidad, que se puede interpretar como la probabilidad de la evidencia B{displaystyle B} dado que A{displaystyle A} es verdad. La probabilidad cuantifica la medida en que las pruebas B{displaystyle B} apoya la propuesta A{displaystyle A}. P()A▪ ▪ B){displaystyle P(Amid B)} es la probabilidad posterior, la probabilidad de la proposición A{displaystyle A} después de tomar las pruebas B{displaystyle B} en cuenta. Esencialmente, el teorema de Bayes actualiza sus creencias anteriores P()A){displaystyle P(A)} después de considerar las nuevas pruebas B{displaystyle B}.

La probabilidad de las pruebas P()B){displaystyle P(B)} se puede calcular utilizando la ley de probabilidad total. Si {}A1,A2,...... ,An}{displaystyle {A_{1},A_{2},dots A_{n} es una partición del espacio de muestra, que es el conjunto de todos los resultados de un experimento, entonces,

P()B)=P()B▪ ▪ A1)P()A1)+P()B▪ ▪ A2)P()A2)+⋯ ⋯ +P()B▪ ▪ An)P()An)=.. iP()B▪ ▪ Ai)P()Ai){displaystyle P(B)=P(Bmid A_{1})P(A_{1})+P(Bmid A_{2})P(A_{2})+dots +P(Bmid A_{n})P(A_{n})=sum ¿Por qué?

Cuando hay un número infinito de resultados, es necesario integrarse en todos los resultados para calcular P()B){displaystyle P(B)} usando la ley de probabilidad total. A menudo, P()B){displaystyle P(B)} es difícil de calcular ya que el cálculo implicaría sumas o integrales que llevarían mucho tiempo para evaluar, tan a menudo sólo se considera el producto del anterior y la probabilidad, ya que la evidencia no cambia en el mismo análisis. El posterior es proporcional a este producto:

P()A▪ ▪ B)∝ ∝ P()B▪ ▪ A)P()A){displaystyle P(Amid B)propto P(Bmid A)P(A)}

El a posteriori máximo, que es el modo del posterior y a menudo se computa en las estadísticas bayesianas utilizando métodos de optimización matemática, sigue siendo el mismo. El posterior se puede aproximar incluso sin calcular el valor exacto de P()B){displaystyle P(B)} con métodos como la cadena Markov Monte Carlo o métodos fluviales Bayesian.

Esquema de los métodos bayesianos

El conjunto general de técnicas estadísticas se puede dividir en una serie de actividades, muchas de las cuales tienen versiones bayesianas especiales.

Inferencia bayesiana

La inferencia bayesiana se refiere a la inferencia estadística en la que la incertidumbre en las inferencias se cuantifica mediante la probabilidad. En la inferencia frecuentista clásica, los parámetros y las hipótesis del modelo se consideran fijos. Las probabilidades no se asignan a parámetros o hipótesis en la inferencia frecuentista. Por ejemplo, en la inferencia frecuentista no tendría sentido asignar directamente una probabilidad a un evento que sólo puede ocurrir una vez, como el resultado del siguiente lanzamiento de una moneda justa. Sin embargo, tendría sentido afirmar que la proporción de caras se acerca a la mitad a medida que aumenta el número de lanzamientos de moneda.

Los modelos estadísticos especifican un conjunto de suposiciones y procesos estadísticos que representan cómo se generan los datos de muestra. Los modelos estadísticos tienen una serie de parámetros que pueden modificarse. Por ejemplo, una moneda se puede representar como muestras de una distribución de Bernoulli, que modela dos resultados posibles. La distribución de Bernoulli tiene un único parámetro igual a la probabilidad de un resultado, que en la mayoría de los casos es la probabilidad de caer en cara. Diseñar un buen modelo para los datos es fundamental en la inferencia bayesiana. En la mayoría de los casos, los modelos sólo se aproximan al proceso real y es posible que no tengan en cuenta ciertos factores que influyen en los datos. En la inferencia bayesiana, se pueden asignar probabilidades a los parámetros del modelo. Los parámetros se pueden representar como variables aleatorias. La inferencia bayesiana utiliza el método Bayes' Teorema para actualizar las probabilidades después de obtener o conocer más evidencia.

Modelado estadístico

La formulación de modelos estadísticos utilizando estadísticas bayesianas tiene la característica identificativa de requerir la especificación de distribuciones previas para cualquier parámetro desconocido. De hecho, los parámetros de distribuciones anteriores pueden tener distribuciones previas, lo que lleva al modelado jerárquico bayesiano, también conocido como modelado multinivel. Un caso especial son las redes bayesianas.

Para realizar un análisis estadístico bayesiano, van de Schoot et al. analizan las mejores prácticas.

Para informar los resultados de un análisis estadístico bayesiano, se proporcionan pautas de informes de análisis bayesianos (BARG) en un artículo de acceso abierto escrito por John K. Kruschke.

Diseño de experimentos

El diseño bayesiano de experimentos incluye un concepto llamado "influencia de creencias previas". Este enfoque utiliza técnicas de análisis secuencial para incluir el resultado de experimentos anteriores en el diseño del siguiente experimento. Esto se logra actualizando las 'creencias' mediante el uso de distribución previa y posterior. Esto permite diseñar experimentos para hacer un buen uso de recursos de todo tipo. Un ejemplo de esto es el problema de los bandidos con múltiples brazos.

Análisis exploratorio de modelos bayesianos

El análisis exploratorio de modelos bayesianos es una adaptación o extensión del enfoque de análisis de datos exploratorios a las necesidades y peculiaridades del modelado bayesiano. En palabras de Persi Diaconis:

El análisis de datos exploratorio busca revelar estructura, o descripciones simples en los datos. Miramos números o gráficos e intentamos encontrar patrones. Proseguimos pistas sugeridas por información de fondo, imaginación, patrones percibidos y experiencia con otros análisis de datos

El proceso de inferencia genera una distribución posterior, que tiene un papel central en la estadística bayesiana, junto con otras distribuciones como la distribución predictiva posterior y la distribución predictiva previa. La correcta visualización, análisis e interpretación de estas distribuciones es clave para responder adecuadamente a las preguntas que motivan el proceso de inferencia.

Cuando se trabaja con modelos bayesianos, hay una serie de tareas relacionadas que deben abordarse además de la propia inferencia:

  • Diagnóstico de la calidad de la inferencia, esto se necesita cuando se utilizan métodos numéricos como la cadena Markov Monte Carlo técnicas
  • Criterios modelo, incluidas evaluaciones de hipótesis modelo y predicciones modelo
  • Comparación de modelos, incluyendo la selección de modelos o el promedio de modelos
  • Preparación de los resultados para un público en particular

Todas estas tareas son parte del enfoque de análisis exploratorio de modelos bayesianos y realizarlas con éxito es fundamental para el proceso de modelado iterativo e interactivo. Estas tareas requieren resúmenes tanto numéricos como visuales.

Contenido relacionado

Teorema de maxwell

En teoría de probabilidad, Teorema de Maxwell afirma que si la distribución de probabilidad de un vector aleatorio en Rn{displaystyle mathbb {R} {} {}}...

Funciones ortogonales empíricas

En estadística y procesamiento de señales, el método de análisis de la función ortogonal empírica es una descomposición de una señal o conjunto de...

Aeropuerto Internacional de Filadelfia

Aeropuerto Internacional de Filadelfia es el aeropuerto principal que da servicio a Filadelfia, Pensilvania. El aeropuerto atendió a 9,8 millones de...
Más resultados...
Tamaño del texto:
Copiar
Síguenos en YouTube
¡ Ayúdanos a crecer con @academialab !