Proceso estocástico

Compartir Imprimir Citar

En la teoría de la probabilidad y campos relacionados, un proceso estocástico o aleatorio es un objeto matemático generalmente definido como una familia de variables aleatorias. Los procesos estocásticos se utilizan ampliamente como modelos matemáticos de sistemas y fenómenos que parecen variar de manera aleatoria. Los ejemplos incluyen el crecimiento de una población bacteriana, una corriente eléctrica que fluctúa debido al ruido térmico o el movimiento de una molécula de gas. Los procesos estocásticos tienen aplicaciones en muchas disciplinas como biología, química, ecología, neurociencia, física,procesamiento de imágenes, procesamiento de señales, teoría de control, teoría de la información, informática, criptografía y telecomunicaciones. Además, los cambios aparentemente aleatorios en los mercados financieros han motivado el uso extensivo de procesos estocásticos en las finanzas.

Las aplicaciones y el estudio de los fenómenos han inspirado a su vez la propuesta de nuevos procesos estocásticos. Los ejemplos de tales procesos estocásticos incluyen el proceso de Wiener o el proceso de movimiento browniano, utilizado por Louis Bachelier para estudiar los cambios de precios en la Bolsa de París, y el proceso de Poisson, utilizado por AK Erlang para estudiar la cantidad de llamadas telefónicas que ocurren en un cierto período de tiempo.. Estos dos procesos estocásticos se consideran los más importantes y centrales en la teoría de los procesos estocásticos, y fueron descubiertos de forma repetida e independiente, tanto antes como después de Bachelier y Erlang, en diferentes escenarios y países.

El término función aleatoria también se usa para referirse a un proceso estocástico o aleatorio, porque un proceso estocástico también puede interpretarse como un elemento aleatorio en un espacio funcional. Los términos proceso estocástico y proceso aleatorio se usan indistintamente, a menudo sin un espacio matemático específico para el conjunto que indexa las variables aleatorias. Pero a menudo estos dos términos se usan cuando las variables aleatorias están indexadas por los números enteros o un intervalo de la línea real. Si las variables aleatorias están indexadas por el plano cartesiano o algún espacio euclidiano de mayor dimensión, entonces la colección de variables aleatorias generalmente se denomina campo aleatorio.Los valores de un proceso estocástico no siempre son números y pueden ser vectores u otros objetos matemáticos.

Según sus propiedades matemáticas, los procesos estocásticos se pueden agrupar en varias categorías, que incluyen caminatas aleatorias, martingalas, procesos de Markov, procesos de Lévy, procesos de Gauss, campos aleatorios, procesos de renovación y procesos de ramificación. El estudio de los procesos estocásticos utiliza conocimientos matemáticos y técnicas de probabilidad, cálculo, álgebra lineal, teoría de conjuntos y topología, así como ramas del análisis matemático como el análisis real, la teoría de la medida, el análisis de Fourier y el análisis funcional. La teoría de los procesos estocásticos se considera una contribución importante a las matemáticas y continúa siendo un tema activo de investigación tanto por razones teóricas como por aplicaciones.

Introducción

Un proceso estocástico o aleatorio se puede definir como una colección de variables aleatorias indexadas por algún conjunto matemático, lo que significa que cada variable aleatoria del proceso estocástico está asociada de manera única con un elemento del conjunto. El conjunto utilizado para indexar las variables aleatorias se denomina conjunto índice. Históricamente, el conjunto de índices era un subconjunto de la línea real, como los números naturales, lo que le daba al conjunto de índices la interpretación del tiempo. Cada variable aleatoria de la colección toma valores del mismo espacio matemático conocido como espacio de estado. Este espacio de estados puede ser, por ejemplo, los números enteros, la línea real o norteel espacio euclidiano -dimensional. un incrementoes la cantidad que un proceso estocástico cambia entre dos valores de índice, a menudo interpretados como dos puntos en el tiempo. Un proceso estocástico puede tener muchos resultados, debido a su aleatoriedad, y un solo resultado de un proceso estocástico se denomina, entre otros nombres, función de muestra o realización.

Clasificaciones

Un proceso estocástico se puede clasificar de diferentes maneras, por ejemplo, por su espacio de estado, su conjunto de índices o la dependencia entre las variables aleatorias. Una forma común de clasificación es por la cardinalidad del conjunto de índices y el espacio de estado.

Cuando se interpreta como tiempo, si el conjunto de índices de un proceso estocástico tiene un número finito o numerable de elementos, como un conjunto finito de números, el conjunto de enteros o los números naturales, entonces se dice que el proceso estocástico es discreto. tiempo _ Si el conjunto índice es algún intervalo de la línea real, entonces se dice que el tiempo es continuo. Los dos tipos de procesos estocásticos se denominan respectivamente procesos estocásticos de tiempo discreto y de tiempo continuo. Los procesos estocásticos de tiempo discreto se consideran más fáciles de estudiar porque los procesos de tiempo continuo requieren técnicas y conocimientos matemáticos más avanzados, particularmente debido a que el conjunto de índices no es contable.Si el conjunto de índices son los números enteros, o algún subconjunto de ellos, entonces el proceso estocástico también puede denominarse secuencia aleatoria.

Si el espacio de estado son los números enteros o naturales, entonces el proceso estocástico se denomina proceso estocástico discreto o de valores enteros. Si el espacio de estado es la línea real, entonces el proceso estocástico se denomina proceso estocástico de valor real o proceso con espacio de estado continuo. Si el espacio de estado es norteun espacio euclidiano bidimensional, entonces el proceso estocástico se denomina proceso nortevectorial bidimensional o procesonorte vectorial bidimensional.

Etimología

La palabra estocástico en inglés se usó originalmente como un adjetivo con la definición "perteneciente a conjeturar", y se deriva de una palabra griega que significa "apuntar a una marca, adivinar", y el Oxford English Dictionary da el año 1662 como su aparición más temprana.. En su obra sobre probabilidad Ars Conjectandi, publicada originalmente en latín en 1713, Jakob Bernoulli usó la frase "Ars Conjectandi sive Stochastice", que se ha traducido como "el arte de conjeturar o estocástica". Esta frase fue utilizada, con referencia a Bernoulli, por Ladislaus Bortkiewicz quien en 1917 escribió en alemán la palabra stochastik con un sentido que significa aleatorio. El término proceso estocásticoapareció por primera vez en inglés en un artículo de 1934 de Joseph Doob. Para el término y una definición matemática específica, Doob citó otro artículo de 1934, donde Aleksandr Khinchin usó el término stochastischer Prozeß en alemán, aunque el término alemán había sido usado antes, por ejemplo, por Andrei Kolmogorov en 1931.

Según el Oxford English Dictionary, las primeras apariciones de la palabra random en inglés con su significado actual, que se relaciona con el azar o la suerte, se remontan al siglo XVI, mientras que los primeros usos registrados comenzaron en el siglo XIV como un sustantivo que significa "impetuosidad, gran velocidad, fuerza o violencia (al montar, correr, golpear, etc.)". La palabra en sí proviene de una palabra del francés medio que significa "velocidad, prisa", y probablemente se deriva de un verbo francés que significa "correr" o "galopar". La primera aparición escrita del término proceso aleatorio es anterior a proceso estocástico, que el Oxford English Dictionary también da como sinónimo, y fue utilizado en un artículo de Francis Edgeworth publicado en 1888. desde arriba

Terminología

La definición de un proceso estocástico varía, pero un proceso estocástico se define tradicionalmente como una colección de variables aleatorias indexadas por algún conjunto. Los términos proceso aleatorio y proceso estocástico se consideran sinónimos y se usan indistintamente, sin especificar con precisión el conjunto de índices. Se utilizan tanto "colección" como "familia", mientras que en lugar de "conjunto de índices", a veces se utilizan los términos "conjunto de parámetros" o "espacio de parámetros".

El término función aleatoria también se usa para referirse a un proceso estocástico o aleatorio, aunque a veces solo se usa cuando el proceso estocástico toma valores reales. Este término también se usa cuando los conjuntos de índices son espacios matemáticos distintos de la línea real, mientras que los términos proceso estocástico y proceso aleatorio generalmente se usan cuando el conjunto de índices se interpreta como tiempo, y se usan otros términos como campo aleatorio cuando el índice conjunto es norteun espacio euclidiano -dimensional mathbb{R} ^{n}o una variedad.

Notación

Un proceso estocástico se puede denotar, entre otras formas, por, {displaystyle {X(t)}_{ten T}}o simplemente como o, aunque se considera un abuso de la notación de funciones. Por ejemplo, o se utilizan para referirse a la variable aleatoria con el índice y no a todo el proceso estocástico. Si el conjunto de índices es, entonces se puede escribir, por ejemplo, para denotar el proceso estocástico. { estilo de visualización  {X_ {t} }_ {t  en T}} { estilo de visualización  {X_ {t} }} { estilo de visualización  {X (t) }}XX(t)X(t)X(t)X_{t}t{displaystyle T=[0,infty)}{ estilo de visualización (X_ {t}, t  geq 0)}

Ejemplos

Proceso de Bernoulli

Uno de los procesos estocásticos más simples es el proceso de Bernoulli, que es una secuencia de variables aleatorias independientes e idénticamente distribuidas (iid), donde cada variable aleatoria toma el valor uno o cero, digamos uno con probabilidad pagy cero con probabilidad 1 p. Este proceso se puede vincular a lanzar repetidamente una moneda, donde la probabilidad de obtener una cara es pagy su valor es uno, mientras que el valor de una cruz es cero. En otras palabras, un proceso de Bernoulli es una secuencia de variables aleatorias de iid Bernoulli, donde cada lanzamiento de moneda es un ejemplo de un ensayo de Bernoulli.

Caminata aleatoria

Los paseos aleatorios son procesos estocásticos que normalmente se definen como sumas de variables aleatorias iid o vectores aleatorios en el espacio euclidiano, por lo que son procesos que cambian en tiempo discreto. Pero algunos también usan el término para referirse a procesos que cambian en tiempo continuo, en particular el proceso de Wiener utilizado en finanzas, lo que ha generado cierta confusión, lo que ha dado lugar a sus críticas. Existen otros tipos de paseos aleatorios, definidos para que sus espacios de estado puedan ser otros objetos matemáticos, como retículas y grupos, y en general son muy estudiados y tienen muchas aplicaciones en diferentes disciplinas.

Un ejemplo clásico de paseo aleatorio se conoce como paseo aleatorio simple, que es un proceso estocástico en tiempo discreto con los números enteros como espacio de estado, y se basa en un proceso de Bernoulli, donde cada variable de Bernoulli toma el valor positivo uno o uno negativo En otras palabras, el paseo aleatorio simple tiene lugar en los números enteros, y su valor aumenta en uno con la probabilidad, digamos, pago disminuye en uno con la probabilidad 1 p, por lo que el conjunto índice de este paseo aleatorio son los números naturales, mientras que su espacio de estado son los enteros. Si el p=0,5, este paseo aleatorio se llama paseo aleatorio simétrico.

Proceso de salchicha

El proceso de Wiener es un proceso estocástico con incrementos estacionarios e independientes que se distribuyen normalmente en función del tamaño de los incrementos. El proceso de Wiener lleva el nombre de Norbert Wiener, quien demostró su existencia matemática, pero el proceso también se llama proceso de movimiento browniano o simplemente movimiento browniano debido a su conexión histórica como modelo para el movimiento browniano en líquidos.

Jugando un papel central en la teoría de la probabilidad, el proceso de Wiener a menudo se considera el proceso estocástico más importante y estudiado, con conexiones a otros procesos estocásticos. Su conjunto de índices y su espacio de estados son los números no negativos y los números reales, respectivamente, por lo que tiene un conjunto de índices y un espacio de estados continuos. Pero el proceso se puede definir de manera más general, por lo que su espacio de estado puede ser norteun espacio euclidiano bidimensional. Si la media de cualquier incremento es cero, entonces se dice que el proceso de movimiento de Wiener o Browniano resultante tiene deriva cero. Si la media del incremento para dos puntos cualesquiera en el tiempo es igual a la diferencia de tiempo multiplicada por alguna constante mu, que es un número real, entonces se dice que el proceso estocástico resultante tiene deriva mu.

Casi con seguridad, una ruta de muestra de un proceso de Wiener es continua en todas partes pero no diferenciable en ninguna parte. Se puede considerar como una versión continua del paseo aleatorio simple. El proceso surge como el límite matemático de otros procesos estocásticos como ciertos paseos aleatorios reescalados, que es objeto del teorema de Donsker o principio de invariancia, también conocido como teorema del límite central funcional.

El proceso de Wiener es miembro de algunas familias importantes de procesos estocásticos, incluidos los procesos de Markov, los procesos de Lévy y los procesos de Gauss. El proceso también tiene muchas aplicaciones y es el principal proceso estocástico utilizado en el cálculo estocástico. Desempeña un papel central en las finanzas cuantitativas, donde se utiliza, por ejemplo, en el modelo Black-Scholes-Merton. El proceso también se utiliza en diferentes campos, incluida la mayoría de las ciencias naturales y algunas ramas de las ciencias sociales, como un modelo matemático para varios fenómenos aleatorios.

Proceso de envenenamiento

El proceso de Poisson es un proceso estocástico que tiene diferentes formas y definiciones. Se puede definir como un proceso de conteo, que es un proceso estocástico que representa el número aleatorio de puntos o eventos hasta cierto tiempo. El número de puntos del proceso que se encuentran en el intervalo de cero a un tiempo dado es una variable aleatoria de Poisson que depende de ese tiempo y de algún parámetro. Este proceso tiene los números naturales como su espacio de estados y los números no negativos como su conjunto de índices. Este proceso también se denomina proceso de conteo de Poisson, ya que puede interpretarse como un ejemplo de un proceso de conteo.

Si un proceso de Poisson se define con una sola constante positiva, entonces el proceso se denomina proceso de Poisson homogéneo. El proceso de Poisson homogéneo es miembro de clases importantes de procesos estocásticos como los procesos de Markov y los procesos de Lévy.

El proceso de Poisson homogéneo se puede definir y generalizar de diferentes maneras. Se puede definir de tal manera que su conjunto de índices sea la línea real, y este proceso estocástico también se denomina proceso de Poisson estacionario. Si el parámetro constante del proceso de Poisson se reemplaza con alguna función integrable no negativa de t, el proceso resultante se llama proceso de Poisson no homogéneo o no homogéneo, donde la densidad promedio de puntos del proceso ya no es constante. Sirviendo como un proceso fundamental en la teoría de colas, el proceso de Poisson es un proceso importante para los modelos matemáticos, donde encuentra aplicaciones para modelos de eventos que ocurren aleatoriamente en ciertas ventanas de tiempo.

Definido en la línea real, el proceso de Poisson puede interpretarse como un proceso estocástico, entre otros objetos aleatorios. Pero luego se puede definir en el norteespacio euclidiano -dimensional u otros espacios matemáticos, donde a menudo se interpreta como un conjunto aleatorio o una medida de conteo aleatoria, en lugar de un proceso estocástico. En este contexto, el proceso de Poisson, también llamado proceso de puntos de Poisson, es uno de los objetos más importantes de la teoría de la probabilidad, tanto por aplicaciones como por razones teóricas. Pero se ha comentado que el proceso de Poisson no recibe tanta atención como debería, en parte debido a que a menudo se considera solo en la línea real y no en otros espacios matemáticos.

Definiciones

Proceso estocástico

Un proceso estocástico se define como una colección de variables aleatorias definidas en un espacio de probabilidad común (Omega,{mathcal {F}},P), donde Omegaes un espacio muestral, { matemáticas {F}}es un sigmaálgebra y PAGes una medida de probabilidad; y las variables aleatorias, indexadas por algún conjunto T, todas toman valores en el mismo espacio matemático S, que debe ser medible con respecto a algún sigma-álgebra Sigma.

En otras palabras, para un espacio de probabilidad dado (Omega,{mathcal {F}},P)y un espacio medible (S,Sigma), un proceso estocástico es una colección de Svariables aleatorias con valores de -, que se pueden escribir como:{ estilo de visualización  {X (t): t  en T }.}

Históricamente, en muchos problemas de las ciencias naturales un punto ten Ttenía el significado de tiempo, por lo que X(t)es una variable aleatoria que representa un valor observado en el tiempo t. Un proceso estocástico también se puede escribir {displaystyle {X(t,omega):tin T}}para reflejar que en realidad es una función de dos variables, ten Ty { estilo de visualización  omega  en  Omega}.

Hay otras formas de considerar un proceso estocástico, siendo la definición anterior considerada la tradicional. Por ejemplo, un proceso estocástico se puede interpretar o definir como una { estilo de visualización S^{T}}variable aleatoria de valor -, donde { estilo de visualización S^{T}}es el espacio de todas las funciones posibles del conjunto Tal espacio S. Sin embargo, esta definición alternativa como una "variable aleatoria con valor de función" en general requiere suposiciones de regularidad adicionales para estar bien definida.

Conjunto de índices

El conjunto Tse denomina conjunto de índices o conjunto de parámetros del proceso estocástico. A menudo, este conjunto es un subconjunto de la línea real, como los números naturales o un intervalo, lo que le da al conjunto Tla interpretación del tiempo. Además de estos conjuntos, el conjunto índice Tpuede ser otro conjunto de orden total o un conjunto más general, como el plano cartesiano R^{2}o norteel espacio euclidiano -dimensional, donde un elemento ten Tpuede representar un punto en el espacio. Dicho esto, muchos resultados y teoremas solo son posibles para procesos estocásticos con un conjunto de índices totalmente ordenado.

Espacio de Estados

El espacio matemático Sde un proceso estocástico se denomina espacio de estado. Este espacio matemático se puede definir usando números enteros, líneas reales, norteespacios euclidianos bidimensionales, planos complejos o espacios matemáticos más abstractos. El espacio de estado se define utilizando elementos que reflejan los diferentes valores que puede tomar el proceso estocástico.

Función de muestra

Una función de muestra es un resultado único de un proceso estocástico, por lo que se forma tomando un único valor posible de cada variable aleatoria del proceso estocástico. Más precisamente, si {displaystyle {X(t,omega):tin T}}es un proceso estocástico, entonces para cualquier punto omega en Omega, el mapeo{displaystyle X(cdot,omega):Trightarrow S,}

se llama una función de muestra, una realización o, particularmente cuando Tse interpreta como tiempo, una ruta de muestra del proceso estocástico {displaystyle {X(t,omega):tin T}}. Esto significa que, para un valor fijo omega en Omega, existe una función de muestra que asigna el conjunto de índices Tal espacio de estado S. Otros nombres para una función de muestra de un proceso estocástico incluyen trayectoria, función de ruta o camino.

Incremento

Un incremento de un proceso estocástico es la diferencia entre dos variables aleatorias del mismo proceso estocástico. Para un proceso estocástico con un conjunto de índices que se puede interpretar como tiempo, un incremento es cuánto cambia el proceso estocástico durante un cierto período de tiempo. Por ejemplo, si { estilo de visualización  {X (t): t  en T }}es un proceso estocástico con un espacio de estado Sy un conjunto de índices {displaystyle T=[0,infty)}, entonces para dos números no negativos cualesquiera {displaystyle t_{1}in [0,infty)}y {displaystyle t_{2}in [0,infty)}tales que {displaystyle t_{1}leq t_{2}}, la diferencia {displaystyle X_{t_{2}}-X_{t_{1}}}es una Svariable aleatoria de valor conocido como incremento. Cuando está interesado en los incrementos, a menudo el espacio de estado Ses la línea real o los números naturales, pero puede ser norteun espacio euclidiano bidimensional o espacios más abstractos como los espacios de Banach.

Otras definiciones

Ley

Para un proceso estocástico {displaystyle Xcolon Omega rightarrow S^{T}}definido en el espacio de probabilidad (Omega,{mathcal {F}},P), la ley del proceso estocástico Xse define como la medida de la imagen:{displaystyle mu =Pcirc X^{-1},}

donde PAGes una medida de probabilidad, el símbolo circdenota la composición de la función y { estilo de visualización X ^ {-1}}es la preimagen de la función medible o, de manera equivalente, la { estilo de visualización S^{T}}variable aleatoria de valor variable X, donde { estilo de visualización S^{T}}es el espacio de todas las Sfunciones de valor posible de ten T, por lo que la ley de un estocástico proceso es una medida de probabilidad.

Para un subconjunto medible Bde { estilo de visualización S^{T}}, la imagen previa de Xda{displaystyle X^{-1}(B)={omega en Omega:X(omega)en B},}

por lo que la ley de a Xse puede escribir como:{displaystyle mu (B)=P({omega in Omega:X(omega)in B}).}

La ley de un proceso estocástico o una variable aleatoria también se denomina ley de probabilidad, distribución de probabilidad o distribución.

Distribuciones de probabilidad de dimensión finita

Para un proceso estocástico Xcon ley mu, su distribución de dimensión finita para {displaystyle t_{1},puntos,t_{n}en T}se define como:{displaystyle mu _{t_{1},puntos,t_{n}}=Pcirc (X({t_{1}}),puntos,X({t_{n}}))^{ -1},}

Esta medida { estilo de visualización  mu _ {t_ {1},.., t_ {n}}}es la distribución conjunta del vector aleatorio { estilo de visualización (X ({t_ {1}}),  puntos, X ({t_ {n}}))}; puede verse como una "proyección" de la ley muen un subconjunto finito de T.

Para cualquier subconjunto medible Cde la nortepotencia cartesiana -fold {displaystyle S^{n}=Sveces puntos veces S}, las distribuciones de dimensión finita de un proceso estocástico Xse pueden escribir como:{displaystyle mu _{t_{1},dots,t_{n}}(C)=P{Big (}{big {}omega in Omega:{big (}X_{ t_{1}}(omega),dots,X_{t_{n}}(omega){big)}in C{big }}{Big)}.}

Las distribuciones de dimensión finita de un proceso estocástico satisfacen dos condiciones matemáticas conocidas como condiciones de consistencia.

Estacionariedad

La estacionariedad es una propiedad matemática que tiene un proceso estocástico cuando todas las variables aleatorias de ese proceso estocástico están distribuidas de forma idéntica. En otras palabras, si Xes un proceso estocástico estacionario, entonces para cualquier ten Tvariable aleatoria X_{t}tiene la misma distribución, lo que significa que para cualquier conjunto de nortevalores de conjunto de índices, las variables aleatorias {displaystyle t_{1},puntos,t_{n}}correspondientesnorte{displaystyle X_{t_{1}},puntos X_{t_{n}},}

todos tienen la misma distribución de probabilidad. El conjunto de índices de un proceso estocástico estacionario generalmente se interpreta como tiempo, por lo que pueden ser los números enteros o la línea real. Pero el concepto de estacionariedad también existe para procesos puntuales y campos aleatorios, donde el conjunto de índices no se interpreta como tiempo.

Cuando el conjunto de índices se Tpuede interpretar como tiempo, se dice que un proceso estocástico es estacionario si sus distribuciones de dimensión finita son invariantes bajo traslaciones de tiempo. Este tipo de proceso estocástico se puede utilizar para describir un sistema físico que se encuentra en estado estable, pero aún experimenta fluctuaciones aleatorias. La intuición detrás de la estacionariedad es que a medida que pasa el tiempo, la distribución del proceso estocástico estacionario sigue siendo la misma. Una secuencia de variables aleatorias forma un proceso estocástico estacionario solo si las variables aleatorias están distribuidas de manera idéntica.

A veces se dice que un proceso estocástico con la definición anterior de estacionariedad es estrictamente estacionario, pero existen otras formas de estacionariedad. Un ejemplo es cuando se dice que un proceso estocástico de tiempo discreto o continuo Xes estacionario en el sentido amplio, entonces el proceso Xtiene un segundo momento finito para todos ten Ty la covarianza de las dos variables aleatorias X_{t}y { estilo de visualización X_ {t + h}}depende solo del número hpara todos ten T. Khinchin introdujo el concepto relacionado de estacionariedad en sentido amplio, que tiene otros nombres que incluyen estacionariedad de covarianza o estacionariedad en sentido amplio.

Filtración

Una filtración es una secuencia creciente de sigma-álgebras definidas en relación con algún espacio de probabilidad y un conjunto de índices que tiene alguna relación de orden total, como en el caso de que el conjunto de índices sea un subconjunto de los números reales. Más formalmente, si un proceso estocástico tiene un conjunto de índices con un orden total, entonces una filtración {displaystyle {{mathcal {F}}_{t}}_{tin T}}, en un espacio de probabilidad, (Omega,{mathcal {F}},P)es una familia de sigma-álgebras tales que {displaystyle {mathcal {F}}_{s}subseteq {mathcal {F}}_{t}subseteq {mathcal {F}}}para todos s  leq t, donde { estilo de visualización t, s  en T}y leqdenota el orden total del conjunto de índices T. Con el concepto de filtración, es posible estudiar la cantidad de información contenida en un proceso estocástico X_{t}en ten T, que puede interpretarse como tiempo t. La intuición detrás de una filtración {mathcal {F}}_{t}es que a medida que pasa el tiempotpasa, X_{t}se conoce o se dispone de más y más información, que se captura en {mathcal {F}}_{t}, lo que da como resultado particiones cada vez más finas de Omega.

Modificación

Una modificación de un proceso estocástico es otro proceso estocástico, que está estrechamente relacionado con el proceso estocástico original. Más precisamente, se dice que un proceso estocástico Xque tiene el mismo conjunto de índices T, espacio de estado Sy espacio de probabilidad {displaystyle (Omega,{cal {F}},P)}que otro proceso estocástico Yes una modificación de Yif para todo ten Tlo siguiente{displaystyle P(X_{t}=Y_{t})=1,}

sostiene Dos procesos estocásticos que son modificaciones uno del otro tienen la misma ley de dimensión finita y se dice que son estocásticamente equivalentes o equivalentes.

En lugar de modificación, también se usa el término versión, sin embargo, algunos autores usan el término versión cuando dos procesos estocásticos tienen las mismas distribuciones de dimensión finita, pero pueden estar definidos en diferentes espacios de probabilidad, por lo que dos procesos que son modificaciones uno del otro, también son versiones entre sí, en el último sentido, pero no al revés.

Si un proceso estocástico de valor real en tiempo continuo cumple ciertas condiciones de momento en sus incrementos, entonces el teorema de continuidad de Kolmogorov dice que existe una modificación de este proceso que tiene rutas de muestra continuas con probabilidad uno, por lo que el proceso estocástico tiene una modificación continua o versión. El teorema también se puede generalizar a campos aleatorios, por lo que el conjunto de índices es norteun espacio euclidiano bidimensional, así como a procesos estocásticos con espacios métricos como espacios de estado.

Indistinguible

Se dice que dos procesos estocásticos Xy Ydefinidos en el mismo espacio de probabilidad (Omega,{mathcal {F}},P)con el mismo conjunto de índices Ty espacio de conjunto Sson indistinguibles si se cumple lo siguiente{displaystyle P(X_{t}=Y_{t}{text{ para todos }}tin T)=1,}

sostiene Si dos Xy Yson modificaciones la una de la otra y casi con seguridad son continuas, entonces Xy Yson indistinguibles.

Posibilidad de separación

La separabilidad es una propiedad de un proceso estocástico basada en su conjunto de índices en relación con la medida de probabilidad. La propiedad se asume para que los funcionales de procesos estocásticos o campos aleatorios con conjuntos de índices incontables puedan formar variables aleatorias. Para que un proceso estocástico sea separable, además de otras condiciones, su conjunto de índices debe ser un espacio separable, lo que significa que el conjunto de índices tiene un subconjunto contable denso.

Más precisamente, un proceso estocástico de tiempo continuo de valor real Xcon un espacio de probabilidad {displaystyle (Omega,{cal {F}},P)}es separable si su conjunto índice Ttiene un subconjunto contable denso {displaystyle Usubconjunto T}y hay un conjunto { estilo de visualización  Omega _ {0}  subconjunto  Omega}de probabilidad cero, entonces {displaystyle P(Omega _{0})=0}, tal que para todo conjunto abierto {displaystyle Gsubconjunto T}y todo conjunto cerrado {displaystyle Fsubconjunto textstyle R=(-infty,infty)}, el dos eventos {displaystyle {X_{t}in F{text{ para todos }}tin Gcap U}}y {displaystyle {X_{t}in F{text{ para todos }}tin G}}difieren entre sí como máximo en un subconjunto de Omega _{0}. La definición de separabilidad también se puede establecer para otros conjuntos de índices y espacios de estado, como en el caso de campos aleatorios, donde el conjunto de índices, así como el espacio de estados, pueden ser norteespacios euclidianos bidimensionales.

El concepto de separabilidad de un proceso estocástico fue introducido por Joseph Doob. La idea subyacente de la separabilidad es hacer que un conjunto contable de puntos del conjunto índice determine las propiedades del proceso estocástico. Cualquier proceso estocástico con un conjunto de índices contables ya cumple con las condiciones de separabilidad, por lo que los procesos estocásticos de tiempo discreto siempre son separables. Un teorema de Doob, a veces conocido como el teorema de separabilidad de Doob, dice que cualquier proceso estocástico de tiempo continuo de valor real tiene una modificación separable. También existen versiones de este teorema para procesos estocásticos más generales con conjuntos de índices y espacios de estado distintos de la línea real.

Independencia

Se dice que dos procesos estocásticos Xy Ydefinidos en el mismo espacio de probabilidad (Omega,{mathcal {F}},P)con el mismo conjunto de índices Tson independientes si para todas nen mathbb {N}y para cada elección de épocas {displaystyle t_{1},ldots,t_{n}in T}, los vectores aleatorios {displaystyle left(X(t_{1}),ldots,X(t_{n})right)}y {displaystyle left(Y(t_{1}),ldots,Y(t_{n})right)}son independientes.

Falta de correlación

Dos procesos estocásticos izquierda{X_{t}derecha}y { estilo de visualización  izquierda  {Y_ {t}  derecha }}se denominan no correlacionados si su covarianza cruzada {displaystyle operatorname {K} _{mathbf {X} mathbf {Y} }(t_{1},t_{2})=operatorname {E} left[left(X(t_{1}))-mu _{X}(t_{1})derecha)izquierda(Y(t_{2})-mu _{Y}(t_{2})derecha)derecha]}es cero para todos los tiempos. Formalmente:{displaystyle left{X_{t}right},left{Y_{t}right}{text{ no correlacionado}}quad iff quad operatorname {K}_{mathbf {X} mathbf {Y} }(t_{1},t_{2})=0quad forall t_{1},t_{2}}.

La independencia implica falta de correlación

Si dos procesos estocásticos Xy Yson independientes, entonces tampoco están correlacionados.

Ortogonalidad

Dos procesos estocásticos izquierda{X_{t}derecha}y { estilo de visualización  izquierda  {Y_ {t}  derecha }}se denominan ortogonales si su correlación cruzada {displaystyle operatorname {R} _{mathbf {X} mathbf {Y} }(t_{1},t_{2})=operatorname {E} [X(t_{1}){overline { Y(t_{2})}}]}es cero para todos los tiempos. Formalmente:{displaystyle left{X_{t}right},left{Y_{t}right}{text{ ortogonal}}quad iff quad operatorname {R}_{mathbf {X} mathbf {Y} }(t_{1},t_{2})=0quad forall t_{1},t_{2}}.

Espacio Skorokhod

Un espacio de Skorokhod, también escrito como espacio de Skorokhod, es un espacio matemático de todas las funciones que son continuas por la derecha con límites por la izquierda, definidas en algún intervalo de la línea real como [0,1]o [0,infty), y toman valores en la línea real o en alguna métrica espacio. Tales funciones se conocen como funciones càdlàg o cadlag, basadas en las siglas de la frase francesa continue à droite, limite à gauche. Un espacio funcional de Skorokhod, introducido por Anatoliy Skorokhod, a menudo se denota con la letra D, por lo que el espacio funcional también se conoce como espacio D.La notación de este espacio de funciones también puede incluir el intervalo en el que se definen todas las funciones càdlàg, así, por ejemplo, { estilo de visualización D [0,1]}denota el espacio de funciones càdlàg definido en el intervalo unitario [0,1].

Los espacios de funciones de Skorokhod se utilizan con frecuencia en la teoría de los procesos estocásticos porque a menudo se supone que las funciones de muestra de los procesos estocásticos de tiempo continuo pertenecen a un espacio de Skorokhod. Dichos espacios contienen funciones continuas, que corresponden a funciones de muestra del proceso de Wiener. Pero el espacio también tiene funciones con discontinuidades, lo que significa que las funciones de muestra de procesos estocásticos con saltos, como el proceso de Poisson (en la línea real), también son miembros de este espacio.

Regularidad

En el contexto de la construcción matemática de procesos estocásticos, el término regularidad se usa cuando se discuten y asumen ciertas condiciones para que un proceso estocástico resuelva posibles problemas de construcción. Por ejemplo, para estudiar procesos estocásticos con conjuntos de índices no contables, se supone que el proceso estocástico se adhiere a algún tipo de condición de regularidad, como que las funciones de muestra sean continuas.

Más ejemplos

Procesos y cadenas de Markov

Los procesos de Markov son procesos estocásticos, tradicionalmente en tiempo discreto o continuo, que tienen la propiedad de Markov, lo que significa que el siguiente valor del proceso de Markov depende del valor actual, pero es condicionalmente independiente de los valores anteriores del proceso estocástico. En otras palabras, el comportamiento del proceso en el futuro es estocásticamente independiente de su comportamiento en el pasado, dado el estado actual del proceso.

El proceso de movimiento browniano y el proceso de Poisson (en una dimensión) son ejemplos de procesos de Markov en tiempo continuo, mientras que los paseos aleatorios sobre los números enteros y el problema de la ruina del jugador son ejemplos de procesos de Markov en tiempo discreto.

Una cadena de Markov es un tipo de proceso de Markov que tiene un espacio de estado discreto o un conjunto de índices discretos (que a menudo representan el tiempo), pero la definición precisa de una cadena de Markov varía. Por ejemplo, es común definir una cadena de Markov como un proceso de Markov en tiempo discreto o continuo con un espacio de estado contable (por lo tanto, independientemente de la naturaleza del tiempo), pero también ha sido común definir una cadena de Markov como un proceso discreto o continuo. tiempo en un espacio de estado contable o continuo (por lo tanto, independientemente del espacio de estado). Se ha argumentado que la primera definición de una cadena de Markov, donde tiene un tiempo discreto, ahora tiende a usarse, a pesar de que la segunda definición ha sido utilizada por investigadores como Joseph Doob y Kai Lai Chung.

Los procesos de Markov forman una clase importante de procesos estocásticos y tienen aplicaciones en muchas áreas. Por ejemplo, son la base de un método de simulación estocástica general conocido como cadena de Markov Monte Carlo, que se utiliza para simular objetos aleatorios con distribuciones de probabilidad específicas y ha encontrado aplicación en las estadísticas bayesianas.

El concepto de la propiedad de Markov fue originalmente para procesos estocásticos en tiempo continuo y discreto, pero la propiedad se ha adaptado para otros conjuntos de índices como norteel espacio euclidiano bidimensional, que da como resultado colecciones de variables aleatorias conocidas como campos aleatorios de Markov.

Martingala

Una martingala es un proceso estocástico de tiempo discreto o continuo con la propiedad de que, en cada instante, dado el valor actual y todos los valores pasados ​​del proceso, la expectativa condicional de cada valor futuro es igual al valor actual. En tiempo discreto, si esta propiedad se cumple para el siguiente valor, entonces se cumple para todos los valores futuros. La definición matemática exacta de una martingala requiere otras dos condiciones junto con el concepto matemático de una filtración, que está relacionado con la intuición de aumentar la información disponible a medida que pasa el tiempo. Las martingalas generalmente se definen como de valor real, pero también pueden ser de valor complejo o incluso más generales.

Una caminata aleatoria simétrica y un proceso de Wiener (con deriva cero) son ejemplos de martingalas, respectivamente, en tiempo discreto y continuo. Para una secuencia de variables aleatorias independientes e idénticamente distribuidas X_{1},X_{2},X_{3},puntoscon media cero, el proceso estocástico formado a partir de las sumas parciales sucesivas {displaystyle X_{1},X_{1}+X_{2},X_{1}+X_{2}+X_{3},puntos}es una martingala de tiempo discreto. En este aspecto, las martingalas de tiempo discreto generalizan la idea de sumas parciales de variables aleatorias independientes.

Las martingalas también se pueden crear a partir de procesos estocásticos aplicando algunas transformaciones adecuadas, como es el caso del proceso de Poisson homogéneo (en la línea real) que da como resultado una martingala denominada proceso de Poisson compensado. Las martingalas también se pueden construir a partir de otras martingalas. Por ejemplo, hay martingalas basadas en el proceso de martingala de Wiener, formando martingalas de tiempo continuo.

Las martingalas formalizan matemáticamente la idea de un juego limpio y se desarrollaron originalmente para demostrar que no es posible ganar un juego limpio. Pero ahora se utilizan en muchas áreas de probabilidad, que es una de las principales razones para estudiarlos. Muchos problemas de probabilidad se han resuelto encontrando una martingala en el problema y estudiándola. Las martingalas convergerán, dadas algunas condiciones en sus momentos, por lo que a menudo se utilizan para derivar resultados de convergencia, debido en gran parte a los teoremas de convergencia de martingalas.

Las martingalas tienen muchas aplicaciones en estadística, pero se ha señalado que su uso y aplicación no están tan extendidos como podría estarlo en el campo de la estadística, en particular de la inferencia estadística. Han encontrado aplicaciones en áreas de la teoría de la probabilidad, como la teoría de colas y el cálculo de Palm, y en otros campos, como la economía y las finanzas.

Proceso de levy

Los procesos de Lévy son tipos de procesos estocásticos que pueden considerarse como generalizaciones de caminatas aleatorias en tiempo continuo. Estos procesos tienen muchas aplicaciones en campos como las finanzas, la mecánica de fluidos, la física y la biología. Las principales características definitorias de estos procesos son sus propiedades de estacionariedad e independencia, por lo que se les conoció como procesos con incrementos estacionarios e independientes. En otras palabras, un proceso estocástico Xes un proceso de Lévy si para nortenúmeros no negativos,, los incrementos {displaystyle 0leq t_{1}leq puntos leq t_{n}}correspondientesn-1{displaystyle X_{t_{2}}-X_{t_{1}},puntos,X_{t_{n}}-X_{t_{n-1}},}

son todos independientes entre sí, y la distribución de cada incremento sólo depende de la diferencia en el tiempo.

Un proceso de Lévy se puede definir de tal manera que su espacio de estado sea un espacio matemático abstracto, como un espacio de Banach, pero los procesos a menudo se definen para que tomen valores en el espacio euclidiano. El conjunto de índices son los números no negativos, por lo {displaystyle I=[0,infty)}que da la interpretación del tiempo. Importantes procesos estocásticos como el proceso de Wiener, el proceso homogéneo de Poisson (en una dimensión) y los subordinados son todos procesos de Lévy.

Campo aleatorio

Un campo aleatorio es una colección de variables aleatorias indexadas por un norteespacio euclidiano -dimensional o alguna variedad. En general, un campo aleatorio puede considerarse un ejemplo de un proceso estocástico o aleatorio, donde el conjunto de índices no es necesariamente un subconjunto de la línea real. Pero existe una convención de que una colección indexada de variables aleatorias se denomina campo aleatorio cuando el índice tiene dos o más dimensiones. Si la definición específica de un proceso estocástico requiere que el conjunto de índices sea un subconjunto de la línea real, entonces el campo aleatorio puede considerarse como una generalización del proceso estocástico.

Proceso de punto

Un proceso puntual es una colección de puntos ubicados aleatoriamente en algún espacio matemático, como la línea real, norteel espacio euclidiano bidimensional o espacios más abstractos. A veces, no se prefiere el término proceso de puntos, ya que históricamente la palabra proceso denotaba una evolución de algún sistema en el tiempo, por lo que un proceso de puntos también se denomina campo de puntos aleatorios. Hay diferentes interpretaciones de un proceso puntual, como una medida de conteo aleatorio o un conjunto aleatorio. Algunos autores consideran que un proceso puntual y un proceso estocástico son dos objetos diferentes, de modo que un proceso puntual es un objeto aleatorio que surge o está asociado con un proceso estocástico.aunque se ha comentado que la diferencia entre procesos puntuales y procesos estocásticos no está clara.

Otros autores consideran un proceso puntual como un proceso estocástico, donde el proceso está indexado por conjuntos del espacio subyacente sobre el que se define, como la línea real o norteel espacio euclidiano -dimensional. Otros procesos estocásticos como los procesos de renovación y conteo se estudian en la teoría de procesos puntuales.

Historia

Teoría temprana de la probabilidad

La teoría de la probabilidad tiene sus orígenes en los juegos de azar, que tienen una larga historia, con algunos juegos que se jugaron hace miles de años, pero se hizo muy poco análisis sobre ellos en términos de probabilidad. El año 1654 a menudo se considera el nacimiento de la teoría de la probabilidad cuando los matemáticos franceses Pierre Fermat y Blaise Pascal mantuvieron una correspondencia escrita sobre probabilidad, motivada por un problema de apuestas. Pero hubo un trabajo matemático anterior realizado sobre la probabilidad de los juegos de apuestas, como el Liber de Ludo Aleae de Gerolamo Cardano, escrito en el siglo XVI pero publicado póstumamente más tarde en 1663.

Después de Cardano, Jakob Bernoulli escribió Ars Conjectandi, que se considera un acontecimiento significativo en la historia de la teoría de la probabilidad. El libro de Bernoulli se publicó, también póstumamente, en 1713 e inspiró a muchos matemáticos a estudiar la probabilidad. Pero a pesar de que algunos matemáticos de renombre contribuyeron a la teoría de la probabilidad, como Pierre-Simon Laplace, Abraham de Moivre, Carl Gauss, Siméon Poisson y Pafnuty Chebyshev, la mayoría de la comunidad matemática no consideró que la teoría de la probabilidad fuera parte de las matemáticas hasta el siglo XX.

Mecánica estadística

En las ciencias físicas, los científicos desarrollaron en el siglo XIX la disciplina de la mecánica estadística, donde los sistemas físicos, como los recipientes llenos de gases, pueden considerarse o tratarse matemáticamente como colecciones de muchas partículas en movimiento. Aunque hubo intentos de incorporar la aleatoriedad en la física estadística por parte de algunos científicos, como Rudolf Clausius, la mayor parte del trabajo tenía poca o ninguna aleatoriedad. Esto cambió en 1859 cuando James Clerk Maxwell contribuyó significativamente al campo, más específicamente, a la teoría cinética de los gases, al presentar un trabajo en el que asumía que las partículas de gas se mueven en direcciones aleatorias a velocidades aleatorias.La teoría cinética de los gases y la física estadística continuaron desarrollándose en la segunda mitad del siglo XIX, con trabajos realizados principalmente por Clausius, Ludwig Boltzmann y Josiah Gibbs, que más tarde tendrían influencia en el modelo matemático de Albert Einstein para el movimiento browniano.

Teoría de la medida y teoría de la probabilidad

En el Congreso Internacional de Matemáticos en París en 1900, David Hilbert presentó una lista de problemas matemáticos, donde su sexto problema pedía un tratamiento matemático de la física y la probabilidad que involucraba axiomas. A principios del siglo XX, los matemáticos desarrollaron la teoría de la medida, una rama de las matemáticas para estudiar integrales de funciones matemáticas, donde dos de los fundadores fueron los matemáticos franceses, Henri Lebesgue y Émile Borel. En 1925, otro matemático francés, Paul Lévy, publicó el primer libro de probabilidad que utilizaba ideas de la teoría de la medida.

En la década de 1920, matemáticos como Sergei Bernstein, Aleksandr Khinchin y Andrei Kolmogorov hicieron contribuciones fundamentales a la teoría de la probabilidad en la Unión Soviética. Kolmogorov publicó en 1929 su primer intento de presentar un fundamento matemático, basado en la teoría de la medida, para la teoría de la probabilidad. A principios de la década de 1930, Khinchin y Kolmogorov establecieron seminarios de probabilidad, a los que asistieron investigadores como Eugene Slutsky y Nikolai Smirnov, y Khinchin dio la primera definición matemática de un proceso estocástico como un conjunto de variables aleatorias indexadas por la línea real.

Nacimiento de la teoría de la probabilidad moderna

En 1933, Andrei Kolmogorov publicó en alemán su libro sobre los fundamentos de la teoría de la probabilidad titulado Grundbegriffe der Wahrscheinlichkeitsrechnung, donde Kolmogorov utilizó la teoría de la medida para desarrollar un marco axiomático para la teoría de la probabilidad. La publicación de este libro ahora se considera ampliamente como el nacimiento de la teoría de la probabilidad moderna, cuando las teorías de la probabilidad y los procesos estocásticos se convirtieron en parte de las matemáticas.

Después de la publicación del libro de Kolmogorov, Khinchin y Kolmogorov, así como otros matemáticos como Joseph Doob, William Feller, Maurice Fréchet, Paul Lévy, Wolfgang Doeblin y Harald Cramér, realizaron más trabajos fundamentales sobre la teoría de la probabilidad y los procesos estocásticos. Décadas más tarde, Cramér se refirió a la década de 1930 como el "período heroico de la teoría matemática de la probabilidad". La Segunda Guerra Mundial interrumpió en gran medida el desarrollo de la teoría de la probabilidad, provocando, por ejemplo, la migración de Feller de Suecia a los Estados Unidos de América y la muerte de Doeblin, considerado ahora un pionero en los procesos estocásticos.

Procesos estocásticos después de la Segunda Guerra Mundial

Después de la Segunda Guerra Mundial, el estudio de la teoría de la probabilidad y los procesos estocásticos ganó más atención por parte de los matemáticos, con contribuciones significativas en muchas áreas de la probabilidad y las matemáticas, así como la creación de nuevas áreas. A partir de la década de 1940, Kiyosi Itô publicó artículos que desarrollaban el campo del cálculo estocástico, que involucra integrales estocásticas y ecuaciones diferenciales estocásticas basadas en el proceso de movimiento de Wiener o browniano.

También a partir de la década de 1940, se establecieron conexiones entre los procesos estocásticos, particularmente las martingalas, y el campo matemático de la teoría del potencial, con las primeras ideas de Shizuo Kakutani y luego el trabajo posterior de Joseph Doob. Gilbert Hunt realizó un trabajo adicional, considerado pionero, en la década de 1950, conectando los procesos de Markov y la teoría potencial, lo que tuvo un efecto significativo en la teoría de los procesos de Lévy y generó un mayor interés en estudiar los procesos de Markov con métodos desarrollados por Itô.

En 1953, Doob publicó su libro Procesos estocásticos, que tuvo una fuerte influencia en la teoría de los procesos estocásticos y destacó la importancia de la teoría de la medida en la probabilidad. Doob también desarrolló principalmente la teoría de las martingalas, con contribuciones sustanciales posteriores de Paul-André Meyer. Sergei Bernstein, Paul Lévy y Jean Ville habían realizado trabajos anteriores, este último adoptó el término martingala para el proceso estocástico. Los métodos de la teoría de las martingalas se hicieron populares para resolver varios problemas de probabilidad. Se desarrollaron técnicas y teorías para estudiar los procesos de Markov y luego se aplicaron a las martingalas. Por el contrario, se establecieron métodos de la teoría de las martingalas para tratar los procesos de Markov.

Se desarrollaron y utilizaron otros campos de la probabilidad para estudiar los procesos estocásticos, siendo un enfoque principal la teoría de las grandes desviaciones. La teoría tiene muchas aplicaciones en física estadística, entre otros campos, y tiene ideas centrales que se remontan al menos a la década de 1930. Posteriormente, en las décadas de 1960 y 1970, Alexander Wentzell realizó un trabajo fundamental en la Unión Soviética y Monroe D. Donsker y Srinivasa Varadhan en los Estados Unidos de América, lo que más tarde resultaría en que Varadhan ganara el Premio Abel 2007.En las décadas de 1990 y 2000, se introdujeron y desarrollaron las teorías de la evolución de Schramm-Loewner y los caminos aproximados para estudiar los procesos estocásticos y otros objetos matemáticos en la teoría de la probabilidad, lo que resultó en la concesión de Medallas Fields a Wendelin Werner en 2008 y a Martin Hairer en 2014, respectivamente..

La teoría de los procesos estocásticos sigue siendo un foco de investigación, con conferencias internacionales anuales sobre el tema de los procesos estocásticos.

Descubrimientos de procesos estocásticos específicos

Aunque Khinchin dio definiciones matemáticas de los procesos estocásticos en la década de 1930, ya se habían descubierto procesos estocásticos específicos en diferentes entornos, como el proceso de movimiento browniano y el proceso de Poisson. Algunas familias de procesos estocásticos, como los procesos puntuales o los procesos de renovación, tienen historias largas y complejas que se remontan a siglos atrás.

Proceso de Bernoulli

El proceso de Bernoulli, que puede servir como modelo matemático para lanzar una moneda sesgada, es posiblemente el primer proceso estocástico que se ha estudiado. El proceso es una secuencia de ensayos de Bernoulli independientes, que llevan el nombre de Jackob Bernoulli, quien los usó para estudiar juegos de azar, incluidos los problemas de probabilidad propuestos y estudiados anteriormente por Christiaan Huygens. El trabajo de Bernoulli, incluido el proceso de Bernoulli, se publicó en su libro Ars Conjectandi en 1713.

Paseos aleatorios

En 1905 Karl Pearson acuñó el término paseo aleatorio al plantear un problema que describía un paseo aleatorio en el plano, que estaba motivado por una aplicación en biología, pero este tipo de problemas que involucran paseos aleatorios ya habían sido estudiados en otros campos. Ciertos problemas de juego que se estudiaron siglos antes pueden considerarse como problemas que implican paseos aleatorios. Por ejemplo, el problema conocido como la ruina del jugador se basa en una caminata aleatoria simple y es un ejemplo de una caminata aleatoria con barreras absorbentes. Pascal, Fermat y Huyens dieron soluciones numéricas a este problema sin detallar sus métodos, y luego Jakob Bernoulli y Abraham de Moivre presentaron soluciones más detalladas.

Para paseos aleatorios en norteretículas de enteros bidimensionales, George Pólya publicó, en 1919 y 1921, un trabajo en el que estudiaba la probabilidad de que un paseo aleatorio simétrico volviera a una posición anterior en la retícula. Pólya demostró que un paseo aleatorio simétrico, que tiene la misma probabilidad de avanzar en cualquier dirección en la red, regresará a una posición anterior en la red un número infinito de veces con probabilidad uno en una y dos dimensiones, pero con probabilidad cero en tres o más dimensiones.

Proceso de salchicha

El proceso de Wiener o proceso de movimiento browniano tiene su origen en diferentes campos, como la estadística, las finanzas y la física. En 1880, Thorvald Thiele escribió un artículo sobre el método de los mínimos cuadrados, donde usó el proceso para estudiar los errores de un modelo en el análisis de series de tiempo. El trabajo ahora se considera como un descubrimiento temprano del método estadístico conocido como filtrado de Kalman, pero el trabajo se pasó por alto en gran medida. Se cree que las ideas del artículo de Thiele eran demasiado avanzadas para que la comunidad matemática y estadística en general las entendiera en ese momento.

El matemático francés Louis Bachelier utilizó un proceso de Wiener en su tesis de 1900 para modelar los cambios de precios en la Bolsa de París, una bolsa de valores, sin conocer el trabajo de Thiele. Se ha especulado que Bachelier extrajo ideas del modelo de paseo aleatorio de Jules Regnault, pero Bachelier no lo citó, y la tesis de Bachelier ahora se considera pionera en el campo de las matemáticas financieras.

Comúnmente se piensa que el trabajo de Bachelier ganó poca atención y fue olvidado durante décadas hasta que fue redescubierto en la década de 1950 por Leonard Savage, y luego se hizo más popular después de que la tesis de Bachelier se tradujera al inglés en 1964. Pero el trabajo nunca fue olvidado en el comunidad matemática, ya que Bachelier publicó un libro en 1912 detallando sus ideas, que fue citado por matemáticos como Doob, Feller y Kolmogorov. El libro continuó siendo citado, pero luego, a partir de la década de 1960, la tesis original de Bachelier comenzó a ser citada más que su libro cuando los economistas comenzaron a citar el trabajo de Bachelier.

En 1905, Albert Einstein publicó un artículo en el que estudiaba la observación física del movimiento browniano para explicar los movimientos aparentemente aleatorios de las partículas en los líquidos mediante el uso de ideas de la teoría cinética de los gases. Einstein derivó una ecuación diferencial, conocida como ecuación de difusión, para describir la probabilidad de encontrar una partícula en una cierta región del espacio. Poco después del primer artículo de Einstein sobre el movimiento browniano, Marian Smoluchowski publicó un trabajo en el que citaba a Einstein, pero escribió que había obtenido resultados equivalentes de forma independiente mediante el uso de un método diferente.

El trabajo de Einstein, así como los resultados experimentales obtenidos por Jean Perrin, más tarde inspiraron a Norbert Wiener en la década de 1920 a utilizar un tipo de teoría de la medida, desarrollada por Percy Daniell, y el análisis de Fourier para probar la existencia del proceso de Wiener como objeto matemático.

Proceso de envenenamiento

El proceso de Poisson lleva el nombre de Siméon Poisson, debido a que su definición involucra la distribución de Poisson, pero Poisson nunca estudió el proceso. Hay una serie de afirmaciones de los primeros usos o descubrimientos del proceso de Poisson. A principios del siglo XX el proceso de Poisson surgiría de forma independiente en distintas situaciones. En Suecia 1903, Filip Lundberg publicó una tesis que contenía un trabajo, ahora considerado fundamental y pionero, donde proponía modelar las reclamaciones de seguros con un proceso homogéneo de Poisson.

Otro descubrimiento ocurrió en Dinamarca en 1909 cuando AK Erlang derivó la distribución de Poisson al desarrollar un modelo matemático para la cantidad de llamadas telefónicas entrantes en un intervalo de tiempo finito. Erlang no estaba al tanto en ese momento del trabajo anterior de Poisson y asumió que las llamadas telefónicas de números que llegaban en cada intervalo de tiempo eran independientes entre sí. Luego encontró el caso límite, que efectivamente reformula la distribución de Poisson como un límite de la distribución binomial.

En 1910, Ernest Rutherford y Hans Geiger publicaron resultados experimentales sobre el conteo de partículas alfa. Motivado por su trabajo, Harry Bateman estudió el problema de conteo y derivó las probabilidades de Poisson como solución a una familia de ecuaciones diferenciales, lo que resultó en el descubrimiento independiente del proceso de Poisson. Después de este tiempo, hubo muchos estudios y aplicaciones del proceso de Poisson, pero su historia temprana es complicada, lo que se explica por las diversas aplicaciones del proceso en numerosos campos por parte de biólogos, ecólogos, ingenieros y varios científicos físicos.

Procesos de Markov

Los procesos de Markov y las cadenas de Markov llevan el nombre de Andrey Markov, quien estudió las cadenas de Markov a principios del siglo XX. Markov estaba interesado en estudiar una extensión de secuencias aleatorias independientes. En su primer artículo sobre las cadenas de Markov, publicado en 1906, Markov mostró que, bajo ciertas condiciones, los resultados promedio de la cadena de Markov convergerían en un vector fijo de valores, demostrando así una ley débil de los grandes números sin el supuesto de independencia, que había sido comúnmente considerado como un requisito para que tales leyes matemáticas se cumplan. Más tarde, Markov usó las cadenas de Markov para estudiar la distribución de las vocales en Eugene Onegin, escrito por Alexander Pushkin, y demostró un teorema del límite central para tales cadenas.

En 1912, Poincaré estudió las cadenas de Markov en grupos finitos con el objetivo de estudiar el barajado de cartas. Otros usos tempranos de las cadenas de Markov incluyen un modelo de difusión, presentado por Paul y Tatyana Ehrenfest en 1907, y un proceso de ramificación, presentado por Francis Galton y Henry William Watson en 1873, que precede al trabajo de Markov. Después del trabajo de Galton y Watson, más tarde se reveló que su proceso de ramificación había sido descubierto y estudiado de forma independiente unas tres décadas antes por Irénée-Jules Bienaymé. A partir de 1928, Maurice Fréchet se interesó en las cadenas de Markov, lo que finalmente lo llevó a publicar en 1938 un estudio detallado sobre las cadenas de Markov.

Andrei Kolmogorov desarrolló en un artículo de 1931 una gran parte de la teoría inicial de los procesos de Markov en tiempo continuo. Kolmogorov se inspiró en parte en el trabajo de 1900 de Louis Bachelier sobre las fluctuaciones en el mercado de valores, así como en el trabajo de Norbert Wiener sobre el modelo de movimiento browniano de Einstein. Introdujo y estudió un conjunto particular de procesos de Markov conocidos como procesos de difusión, donde derivó un conjunto de ecuaciones diferenciales que describen los procesos. Independientemente del trabajo de Kolmogorov, Sydney Chapman derivó en un artículo de 1928 una ecuación, ahora llamada ecuación de Chapman-Kolmogorov, de una manera matemáticamente menos rigurosa que Kolmogorov, mientras estudiaba el movimiento browniano. Las ecuaciones diferenciales ahora se denominan ecuaciones de Kolmogorov o ecuaciones de Kolmogorov-Chapman.Otros matemáticos que contribuyeron significativamente a las bases de los procesos de Markov incluyen a William Feller, a partir de la década de 1930, y luego a Eugene Dynkin, a partir de la década de 1950.

Procesos Lévy

Los procesos de Lévy como el proceso de Wiener y el proceso de Poisson (en la línea real) llevan el nombre de Paul Lévy, quien comenzó a estudiarlos en la década de 1930, pero tienen conexiones con distribuciones infinitamente divisibles que se remontan a la década de 1920. En un artículo de 1932, Kolmogorov derivó una función característica para variables aleatorias asociadas con procesos de Lévy. Lévy dedujo este resultado bajo condiciones más generales en 1934, y luego Khinchin independientemente dio una forma alternativa para esta función característica en 1937. Además de Lévy, Khinchin y Kolomogrov, las primeras contribuciones fundamentales a la teoría de los procesos de Lévy fueron hechas por Bruno de Finetti y Kiyosi Itô.

Construcción matemática

En matemáticas, se necesitan construcciones de objetos matemáticos, lo que también es el caso de los procesos estocásticos, para demostrar que existen matemáticamente. Hay dos enfoques principales para construir un proceso estocástico. Un enfoque implica considerar un espacio medible de funciones, definir un mapeo medible adecuado desde un espacio de probabilidad a este espacio medible de funciones, y luego derivar las distribuciones de dimensión finita correspondientes.

Otro enfoque implica definir una colección de variables aleatorias para que tengan distribuciones de dimensión finita específicas, y luego usar el teorema de existencia de Kolmogorov para demostrar que existe un proceso estocástico correspondiente. Este teorema, que es un teorema de existencia para medidas en espacios de productos infinitos, dice que si cualquier distribución de dimensión finita satisface dos condiciones, conocidas como condiciones de consistencia, entonces existe un proceso estocástico con esas distribuciones de dimensión finita.

Problemas de construcción

Al construir procesos estocásticos en tiempo continuo surgen ciertas dificultades matemáticas, debido a los conjuntos de índices incontables, que no ocurren con los procesos en tiempo discreto. Un problema es que es posible tener más de un proceso estocástico con las mismas distribuciones de dimensión finita. Por ejemplo, tanto la modificación continua por la izquierda como la modificación continua por la derecha de un proceso de Poisson tienen las mismas distribuciones de dimensión finita. Esto significa que la distribución del proceso estocástico no especifica necesariamente de forma única las propiedades de las funciones muestrales del proceso estocástico.

Otro problema es que las funciones del proceso de tiempo continuo que se basan en un número incontable de puntos del conjunto de índices pueden no ser medibles, por lo que las probabilidades de ciertos eventos pueden no estar bien definidas. Por ejemplo, el supremo de un proceso estocástico o campo aleatorio no es necesariamente una variable aleatoria bien definida. Para un proceso estocástico de tiempo continuo X, otras características que dependen de un número incontable de puntos del conjunto de índices Tincluyen:

Para superar estas dos dificultades, son posibles diferentes supuestos y enfoques.

Resolver problemas de construcción.

Un enfoque para evitar los problemas de construcción matemática de los procesos estocásticos, propuesto por Joseph Doob, es suponer que el proceso estocástico es separable. La separabilidad garantiza que las distribuciones de dimensión infinita determinen las propiedades de las funciones de muestra al exigir que las funciones de muestra estén determinadas esencialmente por sus valores en un conjunto denso de puntos contables en el conjunto de índices. Además, si un proceso estocástico es separable, entonces los funcionales de un número incontable de puntos del conjunto de índices son medibles y sus probabilidades pueden estudiarse.

Es posible otro enfoque, desarrollado originalmente por Anatoliy Skorokhod y Andrei Kolmogorov, para un proceso estocástico de tiempo continuo con cualquier espacio métrico como su espacio de estado. Para la construcción de un proceso estocástico de este tipo, se supone que las funciones de muestra del proceso estocástico pertenecen a algún espacio funcional adecuado, que suele ser el espacio de Skorokhod que consta de todas las funciones continuas por la derecha con límites por la izquierda. Este enfoque ahora se usa más que la suposición de separabilidad, pero tal proceso estocástico basado en este enfoque será automáticamente separable.

Aunque se usa menos, la suposición de separabilidad se considera más general porque todo proceso estocástico tiene una versión separable. También se utiliza cuando no es posible construir un proceso estocástico en un espacio de Skorokhod. Por ejemplo, se asume la separabilidad al construir y estudiar campos aleatorios, donde la colección de variables aleatorias ahora está indexada por conjuntos distintos a la línea real, como norteel espacio euclidiano bidimensional.