Probabilidad marginal
Una verosimilitud marginal o probabilidad marginal es una función de verosimilitud que se ha integrado sobre el espacio de parámetros. En las estadísticas bayesianas, representa la probabilidad de generar la muestra observada a partir de una anterior y, por lo tanto, a menudo se la denomina evidencia modelo o simplemente evidencia.
Concepto
Dado un conjunto de puntos de datos independientes distribuidos de manera idéntica donde,
de acuerdo con alguna distribución de probabilidad parametrizada por
, donde en
sí misma es una variable aleatoria descrita por una distribución, es decir,
la probabilidad marginal en general pregunta cuál es la probabilidad
, dónde
se ha marginado (integrado):
La definición anterior se expresa en el contexto de las estadísticas bayesianas. En las estadísticas clásicas (frecuentistas), el concepto de probabilidad marginal aparece en cambio en el contexto de un parámetro conjunto , donde
es el parámetro real de interés y
es un parámetro molesto no interesante. Si existe una distribución de probabilidad para
, a menudo es deseable considerar la función de probabilidad solo en términos de
, excluyendo
:
Desafortunadamente, las probabilidades marginales son generalmente difíciles de calcular. Se conocen soluciones exactas para una pequeña clase de distribuciones, particularmente cuando el parámetro marginado es el conjugado previo de la distribución de los datos. En otros casos, se necesita algún tipo de método de integración numérica, ya sea un método general como la integración gaussiana o el método de Monte Carlo, o un método especializado para problemas estadísticos como la aproximación de Laplace, el muestreo de Gibbs/Metropolis o el algoritmo EM.
También es posible aplicar las consideraciones anteriores a una sola variable aleatoria (punto de datos) , en lugar de un conjunto de observaciones. En un contexto bayesiano, esto es equivalente a la distribución predictiva previa de un punto de datos.
Aplicaciones
Comparación de modelos bayesianos
En la comparación de modelos bayesianos, las variables marginadas son parámetros para un tipo particular de modelo, y la variable restante es la identidad del propio modelo. En este caso, la probabilidad marginalizada es la probabilidad de los datos dado el tipo de modelo, sin asumir ningún parámetro de modelo en particular. Escribiendo para los parámetros del modelo, la verosimilitud marginal para el modelo M es
Es en este contexto que normalmente se utiliza el término evidencia modelo. Esta cantidad es importante porque la razón de posibilidades posterior de un modelo M 1 frente a otro modelo M 2 implica una razón de verosimilitud marginal, el llamado factor de Bayes:
que puede enunciarse esquemáticamente comoprobabilidades posteriores = probabilidades anteriores × factor de Bayes
Contenido relacionado
Demografía de Canadá
Aleatorización
Distribución Erlang