Constante de normalización

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Constante a tal que af(x) es una medida de probabilidad

En teoría de la probabilidad, una constante de normalización o un factor de normalización se utiliza para reducir cualquier función de probabilidad a una función de densidad de probabilidad con una probabilidad total de uno.

Por ejemplo, una función gaussiana se puede normalizar en una función de densidad de probabilidad, lo que da la distribución normal estándar. En Bayes' teorema, se utiliza una constante de normalización para garantizar que la suma de todas las hipótesis posibles sea igual a 1. Otros usos de las constantes de normalización incluyen hacer que el valor de un polinomio de Legendre sea 1 y en la ortogonalidad de funciones ortonormales.

Se ha utilizado un concepto similar en áreas distintas a la probabilidad, como los polinomios.

Definición

En teoría de probabilidad, una constante de normalización es una constante por la cual se debe multiplicar una función no negativa en todas partes para que el área bajo su gráfica sea 1, por ejemplo, para convertirla en una función de densidad de probabilidad o una función de masa de probabilidad.

Ejemplos

Si partimos de la función gaussiana simple

p()x)=e− − x2/2,x▪ ▪ ()− − JUEGO JUEGO ,JUEGO JUEGO ){displaystyle p(x)=e^{-x^{2}/2},quad xin (-inftyinfty)}
∫ ∫ − − JUEGO JUEGO JUEGO JUEGO p()x)dx=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO e− − x2/2dx=2π π ,{displaystyle int _{-infty }{infty }p(x),dx=int _{-infty }^{infty ¿Qué?

Ahora si usamos el valor recíproco de este último como una constante normalizadora para el primero, definiendo una función φ φ ()x){displaystyle varphi (x)} como

φ φ ()x)=12π π p()x)=12π π e− − x2/2{displaystyle varphi (x)={frac {1}{sqrt {2pi }}p(x)={frac {1}{sqrt {2pi }}}}e^{-x^{2}/2}} {}} {f}} {f}
∫ ∫ − − JUEGO JUEGO JUEGO JUEGO φ φ ()x)dx=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO 12π π e− − x2/2dx=1{displaystyle int _{-infty }infty }varphi (x),dx=int ¿Qué? {1}{sqrt {2pi} ¿Qué?
φ φ ()x){displaystyle varphi (x)}Estándar

Y constante 12π π {textstyle {frac {1}{sqrt {2pi}}} {}} {f}} {f}}} {f}}}}} {f}}}}}}} {f}}}} {f}}}}}} {f}}}}}} {f}} {}}}}}} {f}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} { es normalización constante de la función p()x){displaystyle p(x)}.

Del mismo modo,

.. n=0JUEGO JUEGO λ λ nn!=eλ λ ,{displaystyle sum _{infty }{frac {lambda ¡No!
f()n)=λ λ ne− − λ λ n!{displaystyle f(n)={frac {lambda }e^{-lambda ¡No!

Tenga en cuenta que si la función de densidad de probabilidad es una función de varios parámetros, también lo será su constante de normalización. La constante de normalización parametrizada para la distribución de Boltzmann juega un papel central en la mecánica estadística. En ese contexto, la constante de normalización se llama función de partición.

Did you mean:

Bayes N#39; theorem

Bayés' El teorema dice que la medida de probabilidad posterior es proporcional al producto de la medida de probabilidad anterior y la función de verosimilitud. Proporcional a implica que se debe multiplicar o dividir por una constante de normalización para asignar la medida 1 a todo el espacio, es decir, para obtener una medida de probabilidad. En un caso discreto simple tenemos

P()H0SilencioD)=P()DSilencioH0)P()H0)P()D){displaystyle P(H_{0}Pri)={frac {P(D habitH_{0}P(H_{0})}{P(D)}}}

donde P(H0) es la probabilidad previa de que la hipótesis sea cierta; P(D|H0) es la probabilidad condicional de los datos dado que la hipótesis es verdadera, pero dado que los datos son conocidos, es la probabilidad de la hipótesis (o sus parámetros) dados los datos.; P(H0|D) es la probabilidad posterior de que la hipótesis sea cierta dados los datos. P(D) debería ser la probabilidad de producir los datos, pero por sí solo es difícil de calcular, por lo que una forma alternativa de describir esta relación es como una de proporcionalidad:

P()H0SilencioD)∝ ∝ P()DSilencioH0)P()H0).{displaystyle P(H_{0}fortD)propto P(D habitH_{0})P(H_{0}). }

Dado que P(H|D) es una probabilidad, la suma de todas las hipótesis posibles (mutuamente excluyentes) debe ser 1, lo que lleva a la conclusión de que

P()H0SilencioD)=P()DSilencioH0)P()H0).. iP()DSilencioHi)P()Hi).{displaystyle {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}}{displaystyle {}}}}

En este caso, el recíproco del valor

P()D)=.. iP()DSilencioHi)P()Hi){displaystyle P(D)=sum ¿Por qué?

es la constante de normalización. Se puede extender de hipótesis contables a incontables reemplazando la suma por una integral.

Para ser más concretos, existen muchos métodos para estimar la constante de normalización con fines prácticos. Los métodos incluyen la técnica de muestreo puente, el estimador ingenuo de Monte Carlo, el estimador de media armónica generalizada y el muestreo de importancia.

Usos no probabilísticos

Los polinomios de Legendre se caracterizan por su ortogonalidad con respecto a la medida uniforme en el intervalo [−1, 1] y por el hecho de que están normalizados de modo que su valor en 1 es 1. La constante por el cual se multiplica un polinomio para que su valor en 1 sea una constante de normalización.

Las funciones ortonormales están normalizadas de modo que

.. fi,fj.. =δ δ i,j{displaystyle langle F_{i},f_{j}rangle =,delta _{i,j}
.f, g.

La constante 1/2 se utiliza para establecer las funciones hiperbólicas cosh y sinh a partir de las longitudes de los lados adyacentes y opuestos de un triángulo hiperbólico.

Contenido relacionado

Matriz Hessiana

En matemáticas, la matriz de Hesse, hessiana o la matriz de Hesse es una matriz cuadrada de derivadas parciales de segundo orden de una función con valores...

Función Weierstrass

En matemáticas, la función de Weierstrass es un ejemplo de una función de valor real que es continua en todas partes pero no diferenciable en ninguna. Es...

Diagrama de hasse

En la teoría del orden, un Diagrama de Hasse es un tipo de diagrama matemático usado para representar un conjunto parcialmente ordenado finito, en la forma...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save