Método de los momentos (teoría de la probabilidad)

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

En teoría de la probabilidad, el método de los momentos es una forma de demostrar la convergencia en una distribución demostrando la convergencia de una secuencia de secuencias de momentos. Supongamos que X es una variable aleatoria y que todos los momentos

existen. Supongamos además que la distribución de probabilidad de X está completamente determinada por sus momentos, es decir, no existe otra distribución de probabilidad con la misma secuencia de momentos (cf. el problema de los momentos). Si

para todos los valores de k, entonces la secuencia {Xn} converge a X en la distribución.

El método de momentos fue introducido por Pafnuty Chebyshev para demostrar el teorema del límite central; Chebyshev citó contribuciones anteriores de Irénée-Jules Bienaymé. Más recientemente, Eugene Wigner lo aplicó para demostrar la ley del semicírculo de Wigner y, desde entonces, ha encontrado numerosas aplicaciones en la teoría de matrices aleatorias.

Notas

  1. ^ Prokhorov, A.V. "Momentos, método de (en teoría de probabilidad)". En M. Hazewinkel (ed.). Encyclopaedia of Mathematics (online). ISBN 1-4020-0609-8. MR 1375697.
  2. ^ Fischer, H. (2011). "4. Contribuciones de Chebyshev y Markov." Una historia del teorema límite central. De la teoría de probabilidad clásica a moderna. Fuentes y Estudios en la Historia de las Matemáticas y Ciencias Físicas. Nueva York: Springer. ISBN 978-0-387-87856-0. MR 2743162.
  3. ^ Anderson, G.W.; Guionnet, A.; Zeitouni, O. (2010). "2.1". Introducción a matrices aleatorias. Cambridge: Cambridge University Press. ISBN 978-0-521-19452-5.
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save