Sistema determinista
En matemáticas, informática y física, un sistema determinista es un sistema en el que no interviene la aleatoriedad en el desarrollo de estados futuros del... (leer más)
En teoría de probabilidad y estadística, un momento central es un momento de una distribución de probabilidad de una variable aleatoria sobre la media de la variable aleatoria; es decir, es el valor esperado de una potencia entera especificada de la desviación de la variable aleatoria de la media. Los diversos momentos forman un conjunto de valores por los cuales las propiedades de una distribución de probabilidad pueden caracterizarse de manera útil. Los momentos centrales se usan con preferencia a los momentos ordinarios, calculados en términos de desviaciones de la media en lugar de cero, porque los momentos centrales de orden superior se relacionan solo con la dispersión y la forma de la distribución, y no también con su ubicación.
Se pueden definir conjuntos de momentos centrales para distribuciones univariadas y multivariadas.
El nésimo momento con respecto a la media (o nésimo momento central) de una variable aleatoria de valor real X es la cantidad μn:= E[(X − E[X])n], donde E es el operador de expectativa. Para una distribución de probabilidad univariante continua con función de densidad de probabilidad f(x), el nésimo momento con respecto a la media μ es
Para variables aleatorias que no tienen media, como la distribución de Cauchy, los momentos centrales no están definidos.
Los primeros momentos centrales tienen interpretaciones intuitivas:
El nmo momento central es invariante traslacional, es decir, para cualquier variable aleatoria X y cualquier constante c, tenemos
Para todo n, el momento central nésimo es homogéneo de grado n:
Solo para n tal que n es igual a 1, 2 o 3 tenemos una propiedad de aditividad para las variables aleatorias X y Y que son independientes:
Un funcional relacionado que comparte las propiedades de homogeneidad e invariancia de traducción con el momento central n, pero continúa teniendo esta propiedad de aditividad incluso cuando n ≥ 4 es el nésimo cumulante κn(X). Para n = 1, el nésimo cumulante es justo el valor esperado; para n = 2 o 3, el nésimo cumulante es solo el nésimo momento central; para n ≥ 4, el nésimo cumulante es un polinomio mónico de ngrado en los primeros n momentos (alrededor de cero), y también es un polinomio (más simple) de n grado en los primeros n momentos centrales.
A veces es conveniente convertir momentos sobre el origen en momentos sobre la media. La ecuación general para convertir el momento de orden n con respecto al origen en el momento con respecto a la media es
donde μ es la media de la distribución, y el momento sobre el origen está dado por
Para los casos n = 2, 3, 4 —que son de mayor interés debido a las relaciones de varianza, esquedad y kurtosis, respectivamente— esta fórmula se convierte (sintiendo que μ μ =μ μ 1.{displaystyle mu =mu '_{1} y μ μ 0.=1{displaystyle mu '_{0}=1}):
... y así sucesivamente, siguiendo el triángulo de Pascal, es decir,
porque 5μ μ 4μ μ 1.− − μ μ 5μ μ 0.=5μ μ 4μ μ − − μ μ 5=5μ μ 5− − μ μ 5=4μ μ 5{displaystyle 5mu ^{4}mu '_{1}-mu ^{5}mu ¿Qué?
La siguiente suma es una variable estocástica que tiene una distribución compuesta
Donde Yi{displaystyle Y... son variables aleatorias mutuamente independientes que comparten la misma distribución común y M{displaystyle M} una variable entero aleatoria independiente del Yk{displaystyle Y... con su propia distribución. Los momentos de W{displaystyle W. se obtienen como
Donde E [().. k=1jYk)n]{displaystyle operatorname {E} left[left(sum _{k=1}{j}Y_{k}right)^{n}right] se define como cero para j=0{displaystyle j=0}.
En distribuciones que son simétricas con respecto a sus medias (no afectadas por reflejarse con respecto a la media), todos los momentos centrales impares son iguales a cero siempre que existan, porque en la fórmula para el nésimo momento, cada término que involucra un valor de X menor que la media por una cierta cantidad cancela exactamente el término que involucra un valor de X mayor que la media por la misma cantidad.
Para una distribución de probabilidad bivariada continua con función de densidad de probabilidad f(x,y) el (j,k) momento respecto a la media μ = (μX, μY) es
El nmo momento central para una variable aleatoria compleja X se define como
α α n=E [()X− − E [X])n],{displaystyle alpha ¿Por qué?
El nésimo momento central absoluto de X se define como
β β n=E [Silencio()X− − E [X])Silencion].{displaystyle beta _{n}=operatorname {E} left [sobreviviente(X-operatorname {E} [X]) _right^{n}right].}
El momento central de segundo orden β2 se denomina varianza de X mientras que el momento central de segundo orden α2 es la pseudo-varianza de X.
En matemáticas, informática y física, un sistema determinista es un sistema en el que no interviene la aleatoriedad en el desarrollo de estados futuros del... (leer más)
En la teoría de la probabilidad, un resultado es un posible resultado de un experimento o ensayo. Cada resultado posible de un experimento en particular es... (leer más)
En matemáticas, una caminata aleatoria, paseo aleatorio o camino aleatorio es un proceso aleatorio que describe un camino que consiste en una sucesión de... (leer más)