Probabilidad marginal

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Una verosimilitud marginal o probabilidad marginal es una función de verosimilitud que se ha integrado sobre el espacio de parámetros. En las estadísticas bayesianas, representa la probabilidad de generar la muestra observada a partir de una anterior y, por lo tanto, a menudo se la denomina evidencia modelo o simplemente evidencia.

Concepto

Dado un conjunto de puntos de datos independientes distribuidos de manera idéntica {displaystyle mathbf {X} =(x_{1},ldots,x_{n}),}donde, { Displaystyle x_ {i}  sim p (x |  theta)}de acuerdo con alguna distribución de probabilidad parametrizada por  theta, donde en  thetasí misma es una variable aleatoria descrita por una distribución, es decir, { estilo de visualización  theta  sim p ( theta  mid  alfa),}la probabilidad marginal en general pregunta cuál es la probabilidad {displaystyle p(mathbf {X} mid alpha)}, dónde  thetase ha marginado (integrado):{displaystyle p(mathbf {X} mid alpha)=int _{theta }p(mathbf {X} mid theta),p(theta mid alpha) operatorname { d} !theta }

La definición anterior se expresa en el contexto de las estadísticas bayesianas. En las estadísticas clásicas (frecuentistas), el concepto de probabilidad marginal aparece en cambio en el contexto de un parámetro conjunto { estilo de visualización  theta = ( psi,  lambda)}, donde psies el parámetro real de interés y lambdaes un parámetro molesto no interesante. Si existe una distribución de probabilidad para lambda, a menudo es deseable considerar la función de probabilidad solo en términos de psi, excluyendo lambda:{displaystyle {mathcal {L}}(psi;mathbf {X})=p(mathbf {X} mid psi)=int _{lambda }p(mathbf {X} mid lambda,psi),p(lambda mid psi) operatorname {d} !lambda }

Desafortunadamente, las probabilidades marginales son generalmente difíciles de calcular. Se conocen soluciones exactas para una pequeña clase de distribuciones, particularmente cuando el parámetro marginado es el conjugado previo de la distribución de los datos. En otros casos, se necesita algún tipo de método de integración numérica, ya sea un método general como la integración gaussiana o el método de Monte Carlo, o un método especializado para problemas estadísticos como la aproximación de Laplace, el muestreo de Gibbs/Metropolis o el algoritmo EM.

También es posible aplicar las consideraciones anteriores a una sola variable aleatoria (punto de datos) X, en lugar de un conjunto de observaciones. En un contexto bayesiano, esto es equivalente a la distribución predictiva previa de un punto de datos.

Aplicaciones

Comparación de modelos bayesianos

En la comparación de modelos bayesianos, las variables marginadas son parámetros para un tipo particular de modelo, y la variable restante es la identidad del propio modelo. En este caso, la probabilidad marginalizada es la probabilidad de los datos dado el tipo de modelo, sin asumir ningún parámetro de modelo en particular. Escribiendo  thetapara los parámetros del modelo, la verosimilitud marginal para el modelo M es{displaystyle p(mathbf {X} mid M)=int p(mathbf {X} mid theta,M),p(theta mid M),operatorname {d} !  theta }

Es en este contexto que normalmente se utiliza el término evidencia modelo. Esta cantidad es importante porque la razón de posibilidades posterior de un modelo M 1 frente a otro modelo M 2 implica una razón de verosimilitud marginal, el llamado factor de Bayes:{displaystyle {frac {p(M_{1}mid mathbf {X})}{p(M_{2}mid mathbf {X})}}={frac {p(M_{1})}{p(M_{2})}},{frac {p(mathbf {X} mid M_{1})}{p(mathbf {X} mid M_{2})}} }

que puede enunciarse esquemáticamente comoprobabilidades posteriores = probabilidades anteriores × factor de Bayes

Contenido relacionado

Demografía de Canadá

Aleatorización

Distribución Erlang

El Distribución de Erlang es una familia de dos parámetros de distribución continua de probabilidad con soporte x▪ ▪ [0,JUEGO JUEGO ){displaystyle xin...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save