Momento (matemáticas)

AjustarCompartirImprimirCitar
En matemáticas, una medida cuantitativa de la forma de un conjunto de puntos

En matemáticas, los momentos de una función son ciertas medidas cuantitativas relacionadas con la forma de la gráfica de la función. Si la función representa la densidad de masa, entonces el momento cero es la masa total, el primer momento (normalizado por la masa total) es el centro de masa y el segundo momento es el momento de inercia. Si la función es una distribución de probabilidad, entonces el primer momento es el valor esperado, el segundo momento central es la varianza, el tercer momento estandarizado es la asimetría y el cuarto momento estandarizado es la curtosis. El concepto matemático está estrechamente relacionado con el concepto de momento en física.

Para una distribución de masa o probabilidad en un intervalo acotado, la colección de todos los momentos (de todos los órdenes, desde 0 hasta ) determina de forma única la distribución (problema del momento de Hausdorff). No ocurre lo mismo en intervalos ilimitados (problema del momento de hamburguesa).

A mediados del siglo XIX, Pafnuty Chebyshev se convirtió en la primera persona en pensar sistemáticamente en términos de momentos de variables aleatorias.

Importancia de los momentos

El n-ésimo momento bruto (es decir, el momento alrededor de cero) de una distribución es definido por

μ μ n.=.. xn.. {displaystyle mu '_{n}=langle x^{n}rangle }
.. f()x).. ={}.. f()x)P()x),Distribución discreta∫ ∫ f()x)P()x)dx,Distribución continua{displaystyle langle f(x)rangle ={begin{cases}sum f(x)P(x), limit{text{discrete distribution}}\\int f(x)P(x)dx, limit{text{continuous distribution}end{cases}}}}}}}}}}
nfxc
μ μ n=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO ()x− − c)nf()x)dx.{displaystyle mu _{n}=int _{-infty } {infty }(x-c)^{n},f(x),mathrm {d} x.}
cc

También se pueden definir otros momentos. Por ejemplo, el nel momento inverso sobre cero es E⁡ ⁡ [X− − n]{displaystyle operatorname {E} left[X^{-n}right]} y el n- el momento logarítmico sobre cero es E⁡ ⁡ [Inn⁡ ⁡ ()X)].{displaystyle operatorname {E} left[ln ^{n}(X)right].}

El n-ésimo momento alrededor del cero de una función de densidad de probabilidad f( x) es el valor esperado de Xn y se llama momento crudo o momento crudo. Los momentos respecto de su media μ se denominan momentos centrales; estos describen la forma de la función, independientemente de la traducción.

Si f es una función de densidad de probabilidad, entonces el valor de la integral anterior se llama n-ésimo momento de la distribución de probabilidad. De manera más general, si F es una función de distribución de probabilidad acumulada de cualquier distribución de probabilidad, que puede no tener una función de densidad, entonces n-ésimo momento de la distribución de probabilidad viene dado por la integral de Riemann-Stieltjes

μ μ n.=E⁡ ⁡ [Xn]=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO xndF()x){displaystyle mu '_{n}=operatorname {E} left [X^{n}right]=int _{-infty }{infty }x^{n},mathrm {d} F(x)}
XFE
E⁡ ⁡ [SilencioXnSilencio]=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO SilencioxnSilenciodF()x)=JUEGO JUEGO {displaystyle operatorname {E} left[left uponX^{n}right WordPressright]=int _{-infty }{infty }left imperx^{n}right sobre la vida,mathrm {d} F(x)=infty }
n()n −1)

Significado de momentos (raw, central, normalizado) y acumuladores (raw, normalizado), en conexión con propiedades nombradas de distribuciones
Moment
ordinal
Moment Cumulant
Raw Central Normalización Raw Normalización
1Significa00Significa
2Diferencia1Diferencia1
3SkewnessSkewness
4(No-exceso o histórico) kurtosisLa kurtosis excesiva
5Hyperskewness
6Hipertailedness
7+

Momentos estandarizados

El normalizado n-ésimo momento central o momento estandarizado es el n-ésimo momento central dividido por σn; el n-ésimo momento central normalizado de la variable aleatoria X es

μ μ nσ σ n=E⁡ ⁡ [()X− − μ μ )n]σ σ n=E⁡ ⁡ [()X− − μ μ )n]E⁡ ⁡ [()X− − μ μ )2]n2.{displaystyle {frac {fnMicroc} {fn} {fn} {fn} {fn}fnfn}=fnn}=frac {fn} {fn}fn}fn}=fn}fnfnfn}fnfnK} {cHFF} {cHFF} {cHFF}fn}}fn}fn} {fn}fn}fn}fn}fn}fn}fn}fn}}fn}fn}fn}fn}fn}fn}fn}fn}fnfn}fn}fn}fn}fn}fn}fn}fnfn}fn}fn}fn}fn}fn}fn}fn}fn}fn}fn}fn {n}}}}}}}

Estos momentos centrales normalizados son cantidades adimensionales, que representan la distribución independientemente de cualquier cambio lineal de escala.

Para una señal eléctrica, el primer momento es su nivel de CC y el segundo momento es proporcional a su potencia promedio.

Momentos destacados

Medio

El primer momento crudo es el medio, generalmente denotado μ μ ↑ ↑ E⁡ ⁡ [X].{displaystyle mu equiv operatorname {E} [X].}

Varianza

El segundo momento central es la varianza. La raíz cuadrada positiva de la diferencia es la desviación estándar σ σ ↑ ↑ ()E⁡ ⁡ [()x− − μ μ )2])12.{displaystyle sigma equiv left(operatorname {E} left[(x-mu)^{2}right]right)^{frac {1}{2}}

Asimetría

El tercer momento central es la medida del desequilibrio de la distribución; cualquier distribución simétrica tendrá un tercer momento central, si se define, de cero. El tercer momento central normalizado se llama asimetría, a menudo γ. Una distribución sesgada hacia la izquierda (la cola de la distribución es más larga a la izquierda) tendrá una asimetría negativa. Una distribución que está sesgada hacia la derecha (la cola de la distribución es más larga a la derecha) tendrá una asimetría positiva.

Para distribuciones que no son muy diferentes de la distribución normal, la mediana estará cerca de μγσ/6; el modo sobre μγσ/2.

Curtosis

El cuarto momento central es una medida del peso de la cola de la distribución. Dado que es la expectativa de un cuarto poder, el cuarto momento central, cuando se define, siempre es no negativo; y salvo distribución de puntos, siempre es estrictamente positiva. El cuarto momento central de una distribución normal es 3σ4.

La curtosis κ se define como el cuarto momento central estandarizado. (De manera equivalente, como en la siguiente sección, el exceso de curtosis es el cuarto cumulante dividido por el cuadrado del segundo cumulante). Si una distribución tiene colas pesadas, la curtosis será alta (a veces llamada leptocúrtica); por el contrario, las distribuciones de cola ligera (por ejemplo, distribuciones acotadas como la uniforme) tienen curtosis baja (a veces llamada platicúrtica).

La curtosis puede ser positiva sin límite, pero κ debe ser mayor o igual a γ2 + 1; la igualdad solo es válida para distribuciones binarias. Para distribuciones sesgadas ilimitadas no muy alejadas de lo normal, κ tiende a estar en algún lugar del área de γ2 y 2γ2.

La desigualdad se puede probar considerando

E⁡ ⁡ [()T2− − aT− − 1)2]{displaystyle operatorname {E} left[left(T^{2}-aT-1right)}{2}right]
T =Xμ)/σaa

Momentos más altos

Los

momentos de orden superior son momentos que van más allá de los momentos de cuarto orden.

Al igual que con la varianza, la asimetría y la curtosis, estas son estadísticas de orden superior, que involucran combinaciones no lineales de los datos, y pueden usarse para describir o estimar otros parámetros de forma. Cuanto mayor es el momento, más difícil es estimar, en el sentido de que se requieren muestras más grandes para obtener estimaciones de calidad similar. Esto se debe al exceso de grados de libertad consumidos por los órdenes superiores. Además, pueden ser sutiles de interpretar, y a menudo se entienden más fácilmente en términos de momentos de orden inferior (compárese con las derivadas de orden superior de sacudida y rebote en física). Por ejemplo, así como el momento de cuarto orden (curtosis) puede interpretarse como "la importancia relativa de las colas en comparación con los hombros en la contribución a la dispersión"; (para una cantidad dada de dispersión, una curtosis más alta corresponde a colas más gruesas, mientras que una curtosis más baja corresponde a hombros más anchos), el momento de quinto orden puede interpretarse como una medida de la "importancia relativa de las colas en comparación con el centro (modo y hombros).) en contribución a la asimetría" (para una determinada cantidad de asimetría, un quinto momento más alto corresponde a una mayor asimetría en las porciones de la cola y poca asimetría de la moda, mientras que un quinto momento más bajo corresponde a una mayor asimetría en los hombros).

Momentos encontrados

Los

momentos mixtos son momentos que involucran múltiples variables.

El valor E[Xk]{displaystyle E[X^{k]} se llama el momento del orden k{displaystyle k} (Momentos también se definen para no integración k{displaystyle k}). Los momentos de la distribución conjunta de variables aleatorias X1...Xn{displaystyle X_{1}...X_{n} se definen de forma similar. Para cualquier entero ki≥ ≥ 0{displaystyle k_{i}gq 0}, la expectativa matemática E[X1k1⋯ ⋯ Xnkn]{displaystyle E[{ ¿Qué? {X_{n}} {k_{n}}} se llama un momento mixto de orden k{displaystyle k} (donde) k=k1+...+kn{displaystyle k=k_{1}+...+k_{n}), y E[()X1− − E[X1])k1⋯ ⋯ ()Xn− − E[Xn])kn]{displaystyle E[(X_{1}-E[X_{1})}cdots (X_{n}-E[X_{n}])}}}}} se llama un momento central mixto de orden k{displaystyle k}. El momento mezclado E[()X1− − E[X1])()X2− − E[X2])]{displaystyle E[(X_{1}-E[X_{1}])(X_{2}-E[X_{2})}] se llama covariancia y es una de las características básicas de dependencia entre variables aleatorias.

Algunos ejemplos son la covarianza, la asimetría y la cokurtosis. Si bien existe una covarianza única, existen múltiples co-asismos y co-kurtosas.

Propiedades de los momentos

Transformación del centro

Desde

()x− − b)n=()x− − a+a− − b)n=.. i=0n()ni)()x− − a)i()a− − b)n− − i{displaystyle (x-b)^{n}=(x-a+a-b)}=sum ¿Qué? {cHFF} {cHFF} {cH00}}
()ni){fnMicrosoft} {n}{i}}ba
E[()x− − b)n]=.. i=0n()ni)E[()x− − a)i]()a− − b)n− − i.{displaystyle Eleft[(x-b)}{n}right]=sum ¿Qué? choose i}Eleft[(x-a)^{i}right](a-b)^{n-i}

El momento de una convolución de función

El momento de una convolución h()t)=()fAlternativa Alternativa g)()t)=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()τ τ )g()t− − τ τ )dτ τ {textstyle h(t)=(f*g)=int _{-infty }{infty }f(tau)g(t-tau),dtau } lecturas

μ μ n[h]=.. i=0n()ni)μ μ i[f]μ μ n− − i[g]{displaystyle mu _{n}[h]=sum ¿Qué? ¿Qué?
μ μ n[⋅ ⋅ ]{displaystyle mu _{n}[,cdot ,]}n{displaystyle n}

Acumulantes

El primer momento bruto y el segundo y tercer momento central no normalizado son aditivos en el sentido de que si X y Y son variables aleatorias independientes entonces

m1()X+Y)=m1()X)+m1()Y)Var⁡ ⁡ ()X+Y)=Var⁡ ⁡ ()X)+Var⁡ ⁡ ()Y)μ μ 3()X+Y)=μ μ 3()X)+μ μ 3()Y){displaystyle {begin{aligned}m_{1}(X+Y)}(X)+m_{1}(Y)\\ {Var} (X+Y) {Var} (X)+operatorname {Var} (Y)\mu _{3}(X+Y) sensible=mu _{3}(X)+mu _{3}(Y)end{aligned}}}

(Estos también pueden ser válidos para variables que satisfacen condiciones más débiles que la independencia. La primera siempre se cumple; si se cumple la segunda, las variables se denominan no correlacionadas).

De hecho, estos son los tres primeros cumulantes y todos los cumulantes comparten esta propiedad de aditividad.

Momentos de muestra

Para todo k, el k-ésimo momento bruto de una población se puede estimar utilizando el k-ésimo momento de muestra sin procesar

1n.. i=1nXik{displaystyle {frac {fn} {fnK}}}}sum} ¿Qué?
X1,... Xn

Se puede demostrar que el valor esperado del momento bruto de la muestra es igual al k-ésimo momento bruto del población, si ese momento existe, para cualquier tamaño de muestra n. Por tanto, es un estimador insesgado. Esto contrasta con la situación de los momentos centrales, cuyo cálculo consume un grado de libertad al utilizar la media muestral. Entonces, por ejemplo, una estimación insesgada de la varianza poblacional (el segundo momento central) viene dada por

1n− − 1.. i=1n()Xi− − X̄ ̄ )2{displaystyle {frac}{n-1}sum ¿Qué? {X}right)} {2}}
nn − 1X̄ ̄ {displaystyle {bar {X}}}nn− − 1,{fnMicroc} {n} {n-1}},}

Problema de momentos

Los problemas de determinar una distribución de probabilidad de su secuencia de momentos se llaman problema de los momentos. Tales problemas fueron tratados por primera vez por P.L. Chebyshev (1874) en relación con la investigación sobre teoremas límite. Para que la distribución de probabilidad de una variable aleatoria X{displaystyle X} ser único definido por sus momentos α α k=EXk{displaystyle alpha ¿Qué? es suficiente, por ejemplo, que la condición de Carleman sea satisfecha:

.. k=1JUEGO JUEGO 1α α 2k1/2k=JUEGO JUEGO {displaystyle sum _{k=1} {infty}{frac {1}{alpha - ¿Qué?
problema de los momentosμ μ n.:n=1,2,3,...... {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {\\fnMicrosoft {\\\\\\\fnMicrosoft {\\\fnMicrosoft\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ ################################################################################################################################################################################################################################################################fα α k()n){displaystyle alpha _{k}(n)}k≥ ≥ 1{displaystyle kgeq 1}
α α k()n)→ → α α k,n→ → JUEGO JUEGO ,{displaystyle alpha _{k}(n)rightarrow alpha _{k},nrightarrow infty}
α α k{displaystyle alpha _{k}μ μ n.{displaystyle {mu} {fn}}μ μ {displaystyle mu }α α k{displaystyle alpha _{k}μ μ {displaystyle mu }μ μ n.{displaystyle {mu} {fn}}μ μ {displaystyle mu }

Momentos parciales

Los momentos parciales a veces se denominan "momentos unilaterales". Se pueden expresar los momentos parciales inferiores y superiores de n-ésimo orden con respecto a un punto de referencia r. como

μ μ n− − ()r)=∫ ∫ − − JUEGO JUEGO r()r− − x)nf()x)dx,{displaystyle mu _{n}{-}(r)=int _{-infty }{r}(r-x)^{n},f(x),mathrm {d} x,}
μ μ n+()r)=∫ ∫ rJUEGO JUEGO ()x− − r)nf()x)dx.{displaystyle mu _{n}{+}(r)=int _{r}{infty }(x-r)^{n},f(x),mathrm {d} x.}

Si la función integral no converge, el momento parcial no existe.

Los momentos parciales se normalizan elevándolos a la potencia 1/n. La relación de potencial alcista puede expresarse como una relación entre un momento parcial superior de primer orden y un momento parcial inferior normalizado de segundo orden. Se han utilizado en la definición de algunas métricas financieras, como el índice de Sortino, ya que se centran exclusivamente en las ventajas o desventajas.

Momentos centrales en espacios métricos

Sea (M, d) un espacio métrico y sea B(M) sea el σ-álgebra de Borel en M, el σ-álgebra generado por los subconjuntos abiertos d de M. (Por razones técnicas, también es conveniente suponer que M es un espacio separable con respecto a la métrica d.) Sea 1 ≤ p ≤ ∞.

El p-ésimo momento central de una medida μ en el espacio medible (M, B(M)) alrededor de un punto determinado x0M se define como

∫ ∫ Md()x,x0)pdμ μ ()x).{displaystyle int _{M}dleft(x,x_{0}right)^{p},mathrm {d} mu (x).}

Se dice que

μ tiene un finito p-ésimo momento central si el p-ésimo momento central de μ sobre x0 es finito para algunos x0M.

Esta terminología para medidas se aplica a variables aleatorias de la forma habitual: si (Ω, Σ, P) es un espacio de probabilidad y X: Ω → M es una variable aleatoria, entonces el p-ésimo momento central de X sobre x0M se define como

∫ ∫ Md()x,x0)pd()XAlternativa Alternativa ()P))()x)=∫ ∫ Ω Ω d()X()⋅ ⋅ ),x0)pdP()⋅ ⋅ )=E⁡ ⁡ [d()X,x0)p],{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {f} {f} {f} {cH0}f} {cH0}cH0}cH0}cH0} {cH00}cH0}cH00}cH0}cH0}cH00}cH0}cH0}cH0}cH00cH00}cH00cH00}cH00}cH00}cH00cH00cH00}cH00cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00cH00}cH00cH00}cH00}cH00}cH00}cH0cH00}cH00}cH00}cH
Xfinito p- el momento centralpXx0x0M

Contenido relacionado

Modelo de bosón interactivo

A veces se conoce como aproximación de bosones interactivos...

Optimización (desambiguación)

Optimización matemática es la teoría y el cálculo de extremos o puntos estacionarios de...

Interferencia conducida

Wikipedia no tiene actualmente un artículo sobre intromisión conducida, pero nuestro proyecto hermana Wiktionary...
Más resultados...
Tamaño del texto: