Método de Montecarlo

Compartir Imprimir Citar
algoritmo de solución de problemas probabilístico
Los métodos de Monte Carlo, o experimentos de Monte Carlo, son una amplia clase de algoritmos informáticos que se basan en muestreos aleatorios repetidos para obtener resultados numéricos. El concepto subyacente es utilizar la aleatoriedad para resolver problemas que pueden ser deterministas en principio. A menudo se usan en problemas físicos y matemáticos y son más útiles cuando es difícil o imposible usar otros enfoques. Los métodos de Monte Carlo se utilizan principalmente en tres clases de problemas: optimización, integración numérica y generación de sorteos a partir de una distribución de probabilidad.

En problemas relacionados con la física, los métodos de Monte Carlo son útiles para simular sistemas con muchos grados de libertad acoplados, como fluidos, materiales desordenados, sólidos fuertemente acoplados y estructuras celulares (consulte el modelo celular de Potts, sistemas de partículas que interactúan, McKean– Procesos de Vlasov, modelos cinéticos de gases).

Otros ejemplos incluyen el modelado de fenómenos con una incertidumbre significativa en las entradas, como el cálculo del riesgo en los negocios y, en matemáticas, la evaluación de integrales definidas multidimensionales con condiciones límite complicadas. En la aplicación a problemas de ingeniería de sistemas (espacio, exploración de petróleo, diseño de aeronaves, etc.), las predicciones de fallas, los sobrecostos y los sobrecostos de programación basados en Monte Carlo son habitualmente mejores que la intuición humana o alternativas 'suaves'. métodos.

En principio, los métodos de Monte Carlo se pueden utilizar para resolver cualquier problema que tenga una interpretación probabilística. Por la ley de los grandes números, las integrales descritas por el valor esperado de alguna variable aleatoria se pueden aproximar tomando la media empírica (también conocida como la 'media de la muestra') de muestras independientes de la variable. Cuando se parametriza la distribución de probabilidad de la variable, los matemáticos suelen utilizar un muestreador Monte Carlo de cadena de Markov (MCMC). La idea central es diseñar un modelo juicioso de cadena de Markov con una distribución de probabilidad estacionaria prescrita. Es decir, en el límite, las muestras generadas por el método MCMC serán muestras de la distribución deseada (objetivo). Por el teorema ergódico, la distribución estacionaria se aproxima mediante las medidas empíricas de los estados aleatorios del muestreador MCMC.

En otros problemas, el objetivo es generar sorteos a partir de una secuencia de distribuciones de probabilidad que satisfagan una ecuación de evolución no lineal. Estos flujos de distribuciones de probabilidad siempre se pueden interpretar como las distribuciones de los estados aleatorios de un proceso de Markov cuyas probabilidades de transición dependen de las distribuciones de los estados aleatorios actuales (ver procesos de McKean-Vlasov, ecuación de filtrado no lineal). En otros casos, se nos proporciona un flujo de distribuciones de probabilidad con un nivel creciente de complejidad de muestreo (modelos de espacios de trayectoria con un horizonte temporal creciente, medidas de Boltzmann-Gibbs asociadas con parámetros de temperatura decrecientes y muchos otros). Estos modelos también pueden verse como la evolución de la ley de los estados aleatorios de una cadena de Markov no lineal. Una forma natural de simular estos sofisticados procesos no lineales de Markov es muestrear múltiples copias del proceso, reemplazando en la ecuación de evolución las distribuciones desconocidas de los estados aleatorios por las medidas empíricas muestreadas. En contraste con las metodologías tradicionales de Monte Carlo y MCMC, estas técnicas de partículas de campo medio se basan en muestras de interacción secuencial. La terminología campo medio refleja el hecho de que cada una de las muestras (a.k.a. partículas, individuos, caminantes, agentes, criaturas o fenotipos) interactúa con las medidas empíricas del proceso. Cuando el tamaño del sistema tiende a infinito, estas medidas empíricas aleatorias convergen a la distribución determinista de los estados aleatorios de la cadena de Markov no lineal, de modo que la interacción estadística entre partículas desaparece.

A pesar de su simplicidad conceptual y algorítmica, el costo computacional asociado con una simulación de Monte Carlo puede ser asombrosamente alto. En general, el método requiere muchas muestras para obtener una buena aproximación, lo que puede incurrir en un tiempo de ejecución total arbitrariamente grande si el tiempo de procesamiento de una sola muestra es alto. Aunque esta es una limitación severa en problemas muy complejos, la naturaleza vergonzosamente paralela del algoritmo permite reducir este gran costo (quizás a un nivel factible) a través de estrategias de computación paralela en procesadores locales, clústeres, computación en la nube, GPU, FPGA, etc..

Resumen

Los métodos de Monte Carlo varían, pero tienden a seguir un patrón particular:

  1. Define un dominio de posibles entradas
  2. Generar entradas aleatoriamente desde una distribución de probabilidad sobre el dominio
  3. Realizar un cálculo determinista sobre las entradas
  4. Aggregar los resultados
Monte Carlo método aplicado para aproximar el valor π.

Por ejemplo, considere un cuadrante (sector circular) inscrito en un cuadrado unitario. Dado que la proporción de sus áreas es π /4, el valor de π se puede aproximar usando un Método de Montecarlo:

  1. Dibuja un cuadrado, luego escriba un cuadrante dentro de él
  2. Dispersa uniformemente un número dado de puntos sobre la plaza
  3. Cuenta el número de puntos dentro del cuadrante, es decir, teniendo una distancia del origen de menos de 1
  4. La relación entre la cuenta interna y la cuenta total es una estimación de la proporción de las dos áreas, π/4. Multiplicar el resultado por 4 para estimar π.

En este procedimiento, el dominio de las entradas es el cuadrado que circunscribe el cuadrante. Generamos entradas aleatorias dispersando granos sobre el cuadrado y luego realizamos un cálculo en cada entrada (probamos si cae dentro del cuadrante). Al agregar los resultados se obtiene nuestro resultado final, la aproximación de π.

Hay dos consideraciones importantes:

  1. Si los puntos no se distribuyen uniformemente, entonces la aproximación será pobre.
  2. Hay muchos puntos. La aproximación es generalmente pobre si sólo algunos puntos se colocan al azar en toda la plaza. En promedio, la aproximación mejora a medida que se colocan más puntos.

Los usos de los métodos de Monte Carlo requieren grandes cantidades de números aleatorios, y su uso se benefició enormemente de los generadores de números pseudoaleatorios, que eran mucho más rápidos de usar que las tablas de números aleatorios que se usaban anteriormente para el muestreo estadístico.

Historia

Antes de que se desarrollara el método de Monte Carlo, las simulaciones probaban un problema determinista previamente conocido y se usaba un muestreo estadístico para estimar las incertidumbres en las simulaciones. Las simulaciones de Monte Carlo invierten este enfoque, resolviendo problemas deterministas usando metaheurísticas probabilísticas (ver recocido simulado).

Se ideó una variante temprana del método Monte Carlo para resolver el problema de la aguja de Buffon, en el que π se puede estimar dejando caer agujas sobre un piso hecho de tiras paralelas equidistantes. En la década de 1930, Enrico Fermi experimentó por primera vez con el método Monte Carlo mientras estudiaba la difusión de neutrones, pero no publicó este trabajo.

A fines de la década de 1940, Stanislaw Ulam inventó la versión moderna del método Monte Carlo de la Cadena de Markov mientras trabajaba en proyectos de armas nucleares en el Laboratorio Nacional de Los Álamos. En 1946, los físicos de armas nucleares de Los Álamos estaban investigando la difusión de neutrones en el núcleo de un arma nuclear. A pesar de tener la mayoría de los datos necesarios, como la distancia promedio que viajaría un neutrón en una sustancia antes de chocar con un núcleo atómico y cuánta energía probablemente emitiría el neutrón después de una colisión, los físicos de Los Álamos no pudieron resolver el problema utilizando métodos matemáticos deterministas convencionales. Ulam propuso utilizar experimentos aleatorios. Él relata su inspiración de la siguiente manera:

Los primeros pensamientos e intentos que hice para practicar [el método Monte Carlo] fueron sugeridos por una pregunta que me ocurrió en 1946, ya que estaba convaleciendo de una enfermedad y jugando solitarios. La pregunta fue ¿cuáles son las posibilidades de que un solitario Canfield se fije con 52 cartas salga con éxito? Después de pasar mucho tiempo tratando de estimarlos mediante cálculos combinatorios puros, me preguntaba si un método más práctico que "pensamiento abstracto" podría no ser ponerlo a decir cien veces y simplemente observar y contar el número de obras exitosas. Esto ya era posible concebir con el comienzo de la nueva era de computadoras rápidas, y inmediatamente pensé en problemas de difusión de neutrones y otras cuestiones de física matemática, y más generalmente cómo cambiar los procesos descritos por ciertas ecuaciones diferenciales en una forma equivalente interpretable como una sucesión de operaciones aleatorias. Más tarde [en 1946], describí la idea a John von Neumann, y empezamos a planear cálculos reales.

Al ser secreto, el trabajo de von Neumann y Ulam requería un nombre en clave. Un colega de von Neumann y Ulam, Nicholas Metropolis, sugirió usar el nombre Monte Carlo, que hace referencia al Casino de Monte Carlo en Mónaco, donde el tío de Ulam pedía dinero prestado a sus familiares para jugar. Los métodos de Monte Carlo fueron fundamentales para las simulaciones requeridas para el Proyecto Manhattan, aunque severamente limitados por las herramientas computacionales en ese momento. Von Neumann, Nicholas Metropolis y otros programaron la computadora ENIAC para realizar los primeros cálculos completamente automatizados de Monte Carlo, de un núcleo de arma de fisión, en la primavera de 1948. En la década de 1950, los métodos de Monte Carlo se utilizaron en Los Álamos para el desarrollo del hidrógeno. bomba, y se popularizó en los campos de la física, la química física y la investigación de operaciones. La Rand Corporation y la Fuerza Aérea de los EE. UU. fueron dos de las principales organizaciones responsables de financiar y difundir información sobre los métodos de Monte Carlo durante este tiempo, y comenzaron a encontrar una amplia aplicación en muchos campos diferentes.

La teoría de los métodos de Monte Carlo de partículas de campo medio más sofisticados ciertamente comenzó a mediados de la década de 1960, con el trabajo de Henry P. McKean Jr. sobre las interpretaciones de Markov de una clase de ecuaciones diferenciales parciales parabólicas no lineales que surgen en fluidos. mecánica. También citamos un artículo pionero anterior de Theodore E. Harris y Herman Kahn, publicado en 1951, utilizando métodos Monte Carlo de tipo genético de campo medio para estimar las energías de transmisión de partículas. Las metodologías Monte Carlo de tipo genético de campo medio también se utilizan como algoritmos de búsqueda natural heurísticos (también conocidos como metaheurísticos) en la computación evolutiva. Los orígenes de estas técnicas computacionales de campo medio se remontan a 1950 y 1954 con el trabajo de Alan Turing sobre máquinas de aprendizaje de selección de mutación de tipo genético y los artículos de Nils Aall Barricelli en el Instituto de Estudios Avanzados en Princeton, Nueva Jersey.

Los métodos Quantum Monte Carlo y, más específicamente, los métodos de difusión Monte Carlo también se pueden interpretar como una aproximación Monte Carlo de partículas de campo medio de las integrales de trayectoria de Feynman-Kac. Los orígenes de los métodos Quantum Monte Carlo a menudo se atribuyen a Enrico Fermi y Robert Richtmyer, quienes desarrollaron en 1948 una interpretación de partículas de campo medio de las reacciones en cadena de neutrones, pero el primer algoritmo de partículas de tipo heurístico y de tipo genético (también conocido como Remuestreado o Reconfiguración Monte Carlo métodos) para estimar las energías del estado fundamental de los sistemas cuánticos (en modelos de matriz reducida) se debe a Jack H. Hetherington en 1984. En química molecular, el uso de metodologías de partículas similares a heurísticas genéticas (también conocidas como estrategias de poda y enriquecimiento) se remonta a 1955 con el trabajo seminal de Marshall N. Rosenbluth y Arianna W. Rosenbluth.

El uso de Sequential Monte Carlo en el procesamiento avanzado de señales y la inferencia bayesiana es más reciente. Fue en 1993 que Gordon et al. publicaron en su trabajo seminal la primera aplicación de un algoritmo de remuestreo de Monte Carlo en la inferencia estadística bayesiana. Los autores llamaron a su algoritmo 'el filtro de arranque' y demostraron que, en comparación con otros métodos de filtrado, su algoritmo de arranque no requiere ninguna suposición sobre ese espacio de estado o el ruido del sistema. También citamos otro artículo pionero en este campo de Genshiro Kitagawa sobre un "filtro Monte Carlo" relacionado, y los de Pierre Del Moral y Himilcon Carvalho, Pierre Del Moral, André Monin y Gérard Salut sobre filtros de partículas publicados a mediados de la década de 1990. Los filtros de partículas también fueron desarrollados en el procesamiento de señales en 1989–1992 por P. Del Moral, J. C. Noyer, G. Rigal y G. Salut en LAAS-CNRS en una serie de informes de investigación restringidos y clasificados con STCAN (Service Technique des Constructions et Armes Navales), la empresa de TI DIGILOG y el LAAS-CNRS (Laboratorio de Análisis y Arquitectura de Sistemas) en problemas de procesamiento de señales de radar/sonar y GPS. Estas metodologías secuenciales de Monte Carlo pueden interpretarse como un muestreador de aceptación-rechazo equipado con un mecanismo de reciclaje interactivo.

Desde 1950 hasta 1996, todas las publicaciones sobre metodologías secuenciales de Monte Carlo, incluidos los métodos de poda y remuestreo de Monte Carlo introducidos en física computacional y química molecular, presentan algoritmos naturales y de tipo heurístico aplicados a diferentes situaciones sin una sola prueba de su consistencia, ni una discusión sobre el sesgo de las estimaciones y sobre algoritmos basados en árboles genealógicos y ancestrales. Los fundamentos matemáticos y el primer análisis riguroso de estos algoritmos de partículas fueron escritos por Pierre Del Moral en 1996.

Dan Crisan, Jessica Gaines y Terry Lyons, y Dan Crisan, Pierre Del Moral y Terry Lyons también desarrollaron metodologías de partículas de tipo ramificado con diferentes tamaños de población a fines de la década de 1990. Otros desarrollos en este campo fueron desarrollados en 2000 por P. Del Moral, A. Guionnet y L. Miclo.

Definiciones

No hay consenso sobre cómo debe definirse Monte Carlo. Por ejemplo, Ripley define la mayoría de los modelos probabilísticos como simulación estocástica, y Monte Carlo se reserva para la integración de Monte Carlo y las pruebas estadísticas de Monte Carlo. Sawilowsky distingue entre una simulación, un método de Monte Carlo y una simulación de Monte Carlo: una simulación es una representación ficticia de la realidad, un método de Monte Carlo es una técnica que se puede utilizar para resolver un problema matemático o estadístico, y una simulación de Monte Carlo utiliza muestreo repetido para obtener las propiedades estadísticas de algún fenómeno (o comportamiento). Ejemplos:

Kalos y Whitlock señalan que tales distinciones no siempre son fáciles de mantener. Por ejemplo, la emisión de radiación de los átomos es un proceso estocástico natural. Puede simularse directamente, o su comportamiento promedio puede describirse mediante ecuaciones estocásticas que pueden resolverse mediante métodos de Monte Carlo. "De hecho, el mismo código de computadora se puede ver simultáneamente como una 'simulación natural' o como solución de las ecuaciones por muestreo natural."

Monte Carlo y números aleatorios

La idea principal detrás de este método es que los resultados se calculan en base a muestreos aleatorios repetidos y análisis estadísticos. La simulación de Monte Carlo son, de hecho, experimentos aleatorios, en el caso de que los resultados de estos experimentos no sean bien conocidos. Las simulaciones de Monte Carlo se caracterizan típicamente por muchos parámetros desconocidos, muchos de los cuales son difíciles de obtener experimentalmente. Los métodos de simulación de Monte Carlo no siempre requieren números verdaderamente aleatorios para ser útiles (aunque, para algunas aplicaciones, como las pruebas de primalidad, la imprevisibilidad es vital). Muchas de las técnicas más útiles utilizan secuencias pseudoaleatorias deterministas, lo que facilita probar y volver a ejecutar simulaciones. La única cualidad generalmente necesaria para hacer buenas simulaciones es que la secuencia pseudoaleatoria parezca "suficientemente aleatoria" en cierto sentido.

Lo que esto significa depende de la aplicación, pero normalmente deben pasar una serie de pruebas estadísticas. Probar que los números se distribuyen uniformemente o siguen otra distribución deseada cuando se considera un número suficientemente grande de elementos de la secuencia es una de las más simples y comunes. Las correlaciones débiles entre muestras sucesivas también suelen ser deseables/necesarias.

Sawilowsky enumera las características de una simulación Monte Carlo de alta calidad:

Los algoritmos de muestreo de números pseudoaleatorios se utilizan para transformar números pseudoaleatorios distribuidos uniformemente en números que se distribuyen de acuerdo con una distribución de probabilidad determinada.

Las secuencias de discrepancia baja se usan a menudo en lugar del muestreo aleatorio de un espacio, ya que garantizan una cobertura uniforme y normalmente tienen un orden de convergencia más rápido que las simulaciones de Monte Carlo que usan secuencias aleatorias o pseudoaleatorias. Los métodos basados en su uso se denominan métodos cuasi-Monte Carlo.

En un esfuerzo por evaluar el impacto de la calidad de los números aleatorios en los resultados de la simulación de Monte Carlo, los investigadores astrofísicos probaron números pseudoaleatorios criptográficamente seguros generados a través del conjunto de instrucciones RDRAND de Intel, en comparación con los derivados de algoritmos, como Mersenne Twister, en simulaciones de Monte Carlo de bengalas de radio de enanas marrones. RDRAND es el generador de números pseudoaleatorios más cercano a un verdadero generador de números aleatorios. No se encontraron diferencias estadísticamente significativas entre los modelos generados con generadores de números pseudoaleatorios típicos y RDRAND para ensayos que consisten en la generación de 107 números aleatorios.

Simulación Monte Carlo versus "qué pasaría si" escenarios

Hay formas de usar probabilidades que definitivamente no son simulaciones de Monte Carlo, por ejemplo, modelos deterministas que usan estimaciones de punto único. A cada variable incierta dentro de un modelo se le asigna una "mejor suposición" estimar. Se eligen escenarios (como el mejor, el peor o el más probable) para cada variable de entrada y se registran los resultados.

Por el contrario, las simulaciones de Monte Carlo toman muestras de una distribución de probabilidad para cada variable para producir cientos o miles de resultados posibles. Los resultados se analizan para obtener probabilidades de que ocurran diferentes resultados. Por ejemplo, una comparación de un modelo de construcción de costos de una hoja de cálculo que se ejecuta usando el tradicional "qué pasaría si" escenarios, y luego ejecutar la comparación nuevamente con la simulación de Monte Carlo y las distribuciones de probabilidad triangulares muestra que el análisis de Monte Carlo tiene un rango más estrecho que el 'qué pasaría si'. análisis. Esto se debe a que el "qué pasaría si" El análisis otorga el mismo peso a todos los escenarios (ver cuantificación de la incertidumbre en finanzas corporativas), mientras que el método de Monte Carlo apenas muestra en las regiones de muy baja probabilidad. Las muestras en dichas regiones se llaman "eventos raros".

Aplicaciones

Los métodos de Monte Carlo son especialmente útiles para simular fenómenos con una incertidumbre significativa en las entradas y sistemas con muchos grados de libertad acoplados. Las áreas de aplicación incluyen:

Ciencias físicas

Los métodos de Monte Carlo son muy importantes en física computacional, química física y campos aplicados relacionados, y tienen diversas aplicaciones, desde complicados cálculos de cromodinámica cuántica hasta el diseño de escudos térmicos y formas aerodinámicas, así como en el modelado del transporte de radiación para cálculos de dosimetría de radiación. En física estadística, el modelado molecular de Monte Carlo es una alternativa a la dinámica molecular computacional, y los métodos de Monte Carlo se utilizan para calcular teorías de campos estadísticos de sistemas de polímeros y partículas simples. Los métodos cuánticos de Monte Carlo resuelven el problema de muchos cuerpos para los sistemas cuánticos. En la ciencia de materiales de radiación, la aproximación de colisión binaria para simular la implantación de iones generalmente se basa en un enfoque de Monte Carlo para seleccionar el siguiente átomo en colisión. En física de partículas experimental, los métodos de Monte Carlo se utilizan para diseñar detectores, comprender su comportamiento y comparar datos experimentales con la teoría. En astrofísica, se utilizan de maneras tan diversas como para modelar tanto la evolución de galaxias como la transmisión de radiación de microondas a través de una superficie planetaria rugosa. Los métodos de Monte Carlo también se utilizan en los modelos de conjuntos que forman la base de la predicción meteorológica moderna.

Ingeniería

Los métodos de Monte Carlo se utilizan ampliamente en ingeniería para el análisis de sensibilidad y el análisis probabilístico cuantitativo en el diseño de procesos. La necesidad surge del comportamiento interactivo, colineal y no lineal de las simulaciones de procesos típicas. Por ejemplo,

Cambio climático y forzamiento radiativo

El Panel Intergubernamental sobre el Cambio Climático se basa en los métodos de Monte Carlo en el análisis de la función de densidad de probabilidad del forzamiento radiativo.

Función de densidad de probabilidad (PDF) de ERF debido al GHG total, forzamiento de aerosol y forzamiento antropogénico total. El GHG consta de WMGHG, ozono y vapor de agua estratosférica. Los PDF se generan sobre la base de las incertidumbres proporcionadas en el cuadro 8.6. La combinación de los distintos agentes RF para derivar forzamiento total sobre la era industrial se realiza mediante simulaciones de Monte Carlo y se basa en el método de Boucher y Haywood (2001). El PDF del ERF de los cambios de albedo superficial y los contrails combinados y el cirrus inducido por el contrail se incluyen en el forzamiento antropogénico total, pero no se muestra como un PDF separado. Actualmente no tenemos estimaciones de ERF para algunos mecanismos de forzamiento: ozono, uso de la tierra, energía solar, etc.

Biología computacional

Los métodos Monte Carlo se utilizan en varios campos de la biología computacional, por ejemplo, para la inferencia bayesiana en filogenia o para estudiar sistemas biológicos como genomas, proteínas o membranas. Los sistemas se pueden estudiar en los marcos de trabajo de grano grueso o ab initio dependiendo de la precisión deseada. Las simulaciones por computadora nos permiten monitorear el entorno local de una molécula en particular para ver si está ocurriendo alguna reacción química, por ejemplo. En los casos en que no sea factible realizar un experimento físico, se pueden realizar experimentos mentales (por ejemplo: ruptura de enlaces, introducción de impurezas en sitios específicos, cambio de la estructura local/global o introducción de campos externos).

Gráficos por computadora

El trazado de rutas, en ocasiones denominado trazado de rayos de Monte Carlo, representa una escena en 3D mediante el trazado aleatorio de muestras de posibles rutas de luz. El muestreo repetido de cualquier píxel dado eventualmente hará que el promedio de las muestras converja en la solución correcta de la ecuación de renderizado, lo que lo convierte en uno de los métodos de renderizado de gráficos 3D físicamente más precisos que existen.

Estadísticas aplicadas

Sawilowsky estableció los estándares para los experimentos de Monte Carlo en estadística. En estadística aplicada, los métodos de Monte Carlo se pueden utilizar para al menos cuatro propósitos:

  1. Comparar las estadísticas competitivas para pequeñas muestras en condiciones realistas de datos. Aunque errores de tipo I y propiedades de potencia de las estadísticas se pueden calcular para datos extraídos de distribuciones teóricas clásicas (Por ejemplo., curva normal, distribución Cauchy) para condiciones asintoticas (i. e, tamaño de muestra infinito y efecto de tratamiento infinitamente pequeño), los datos reales a menudo no tienen tales distribuciones.
  2. Proporcionar implementaciones de pruebas de hipótesis que son más eficientes que pruebas exactas como pruebas de permutación (que a menudo son imposibles de calcular) mientras que son más exactos que valores críticos para las distribuciones asintoticas.
  3. Proporcionar una muestra aleatoria de la distribución posterior en la inferencia bayesiana. Esta muestra se aproxima y resume todas las características esenciales de la posterior.
  4. Proporcionar estimaciones aleatorias eficientes de la matriz hesiana de la función de probabilidad de registro negativa que puede ser mediada para formar una estimación de la matriz de información Fisher.

Los métodos de Monte Carlo también son un compromiso entre la aleatorización aproximada y las pruebas de permutación. Una prueba de aleatorización aproximada se basa en un subconjunto específico de todas las permutaciones (lo que implica un mantenimiento potencialmente enorme de las permutaciones que se han considerado). El enfoque de Monte Carlo se basa en un número específico de permutaciones extraídas al azar (cambiando una pequeña pérdida de precisión si una permutación se extrae dos veces, o con más frecuencia, por la eficiencia de no tener que rastrear qué permutaciones ya se han seleccionado).

Inteligencia artificial para juegos

Los métodos de Monte Carlo se han desarrollado en una técnica llamada búsqueda de árbol de Monte-Carlo que es útil para buscar el mejor movimiento en un juego. Los posibles movimientos se organizan en un árbol de búsqueda y se utilizan muchas simulaciones aleatorias para estimar el potencial a largo plazo de cada movimiento. Un simulador de caja negra representa los movimientos del oponente.

El método de búsqueda del árbol de Monte Carlo (MCTS) consta de cuatro pasos:

  1. Partiendo del nodo raíz del árbol, seleccione los nodos óptimos del niño hasta que se llegue a un nodo de hoja.
  2. Ampliar el nodo de hoja y elegir a uno de sus hijos.
  3. Juega un juego simulado empezando con ese nodo.
  4. Utilice los resultados de ese juego simulado para actualizar el nodo y sus antepasados.

El efecto neto, en el transcurso de muchos juegos simulados, es que el valor de un nodo que representa un movimiento aumentará o disminuirá, con la esperanza de que corresponda a si ese nodo representa o no un buen movimiento.

Monte Carlo Tree Search se ha utilizado con éxito para jugar juegos como Go, Tantrix, Battleship, Havannah y Arimaa.

Diseño y visuales

Los métodos de Monte Carlo también son eficientes para resolver ecuaciones diferenciales integrales acopladas de campos de radiación y transporte de energía y, por lo tanto, estos métodos se han utilizado en cálculos de iluminación global que producen imágenes fotorrealistas de modelos 3D virtuales, con aplicaciones en videojuegos, arquitectura, diseño, películas generadas por computadora y efectos especiales cinematográficos.

Búsqueda y rescate

La Guardia Costera de EE. UU. utiliza métodos de Monte Carlo dentro de su software de modelado por computadora SAROPS para calcular las ubicaciones probables de las embarcaciones durante las operaciones de búsqueda y rescate. Cada simulación puede generar hasta diez mil puntos de datos que se distribuyen aleatoriamente según las variables proporcionadas. Los patrones de búsqueda luego se generan en base a las extrapolaciones de estos datos para optimizar la probabilidad de contención (POC) y la probabilidad de detección (POD), que en conjunto equivalen a una probabilidad general de éxito (POS). En última instancia, esto sirve como una aplicación práctica de la distribución de probabilidad para proporcionar el método de rescate más rápido y conveniente, salvando vidas y recursos.

Finanzas y negocios

La simulación de Monte Carlo se usa comúnmente para evaluar el riesgo y la incertidumbre que afectarían el resultado de diferentes opciones de decisión. La simulación de Monte Carlo permite al analista de riesgos empresariales incorporar los efectos totales de la incertidumbre en variables como el volumen de ventas, los precios de los productos básicos y de la mano de obra, los tipos de interés y de cambio, así como el efecto de distintos eventos de riesgo como la cancelación de un contrato o el cambio de una ley fiscal.

Los métodos de Monte Carlo en finanzas se utilizan a menudo para evaluar inversiones en proyectos a nivel de unidad de negocio o corporativa, u otras valoraciones financieras. Se pueden usar para modelar cronogramas de proyectos, donde las simulaciones agregan estimaciones para el peor de los casos, el mejor de los casos y las duraciones más probables para cada tarea para determinar los resultados del proyecto en general.[1] Los métodos de Monte Carlo también se utilizan en la fijación de precios de opciones, análisis de riesgo de incumplimiento. Además, se pueden utilizar para estimar el impacto financiero de las intervenciones médicas.

Ley

Se utilizó un enfoque de Monte Carlo para evaluar el valor potencial de un programa propuesto para ayudar a las peticionarias en Wisconsin a tener éxito en sus solicitudes de órdenes de restricción por acoso y abuso doméstico. Se propuso ayudar a las mujeres a tener éxito en sus peticiones brindándoles una mayor defensa y, por lo tanto, reduciendo potencialmente el riesgo de violación y agresión física. Sin embargo, hubo muchas variables en juego que no se pudieron estimar a la perfección, incluida la efectividad de las órdenes de restricción, la tasa de éxito de los peticionarios con y sin defensa, y muchas otras. El estudio realizó pruebas que variaron estas variables para llegar a una estimación general del nivel de éxito del programa propuesto en su conjunto.

Biblioteconomía

El enfoque de Monte Carlo también se utilizó para simular la cantidad de publicaciones de libros según el género del libro en Malasia. La simulación de Monte Carlo utilizó datos de publicación de National Book publicados anteriormente y el precio del libro según el género del libro en el mercado local. Los resultados de Monte Carlo se usaron para determinar qué tipo de género de libros les gusta a los malayos y se usaron para comparar las publicaciones de libros entre Malasia y Japón.

Otro

Nassim Nicholas Taleb escribe sobre los generadores de Monte Carlo en su libro de 2001 Engañados por la aleatoriedad como un ejemplo real de la prueba inversa de Turing: se puede declarar que un ser humano no es inteligente si su escritura no se puede distinguir de una generó uno.

Uso en matemáticas

En general, los métodos de Monte Carlo se usan en matemáticas para resolver varios problemas generando números aleatorios adecuados (ver también Generación de números aleatorios) y observando esa fracción de los números que obedece a alguna propiedad o propiedades. El método es útil para obtener soluciones numéricas a problemas demasiado complicados para resolverlos analíticamente. La aplicación más común del método de Monte Carlo es la integración de Monte Carlo.

Integración

La integración de Montecarlo funciona comparando puntos aleatorios con el valor de la función
Los errores reducen por un factor de 1/N{displaystyle scriptstyle 1/{sqrt {N}}

Los algoritmos de integración numérica deterministas funcionan bien en un pequeño número de dimensiones, pero encuentran dos problemas cuando las funciones tienen muchas variables. Primero, el número de evaluaciones de funciones necesarias aumenta rápidamente con el número de dimensiones. Por ejemplo, si 10 evaluaciones proporcionan una precisión adecuada en una dimensión, entonces se necesitan 10100 puntos para 100 dimensiones, demasiados para calcular. Esto se llama la maldición de la dimensionalidad. En segundo lugar, el límite de una región multidimensional puede ser muy complicado, por lo que puede que no sea factible reducir el problema a una integral iterada. 100 dimensiones no es inusual, ya que en muchos problemas físicos, una "dimensión" es equivalente a un grado de libertad.

Los métodos de Monte Carlo proporcionan una salida de este aumento exponencial del tiempo de cálculo. Mientras la función en cuestión sea razonablemente bien adaptada, se puede estimar seleccionando puntos al azar en el espacio de 100 dimensiones y tomando algún tipo de promedio de los valores de función en estos puntos. Por el teorema límite central, este método muestra 1/N{displaystyle scriptstyle 1/{sqrt {N}} La convergencia, es decir, cuadruplicando el número de puntos muestrados, esquiva el error, independientemente del número de dimensiones.

Un refinamiento de este método, conocido como muestreo de importancia en estadística, implica el muestreo de puntos al azar, pero con más frecuencia donde el integrando es grande. Para hacer esto con precisión, uno ya tendría que conocer la integral, pero se puede aproximar la integral mediante una integral de una función similar o usar rutinas adaptativas como el muestreo estratificado, el muestreo estratificado recursivo, el muestreo paraguas adaptativo o el algoritmo VEGAS.

Un enfoque similar, el método cuasi-Monte Carlo, utiliza secuencias de discrepancia baja. Estas secuencias "llenan" el área mejor y muestrear los puntos más importantes con mayor frecuencia, por lo que los métodos cuasi-Monte Carlo a menudo pueden converger en la integral más rápidamente.

Otra clase de métodos para muestrear puntos en un volumen es simular caminatas aleatorias sobre él (cadena de Markov Monte Carlo). Dichos métodos incluyen el algoritmo Metropolis-Hastings, el muestreo de Gibbs, el algoritmo de Wang y Landau y metodologías MCMC de tipo interactivo, como los muestreadores secuenciales de Monte Carlo.

Simulación y optimización

Otra aplicación poderosa y muy popular para números aleatorios en simulación numérica es la optimización numérica. El problema es minimizar (o maximizar) funciones de algún vector que a menudo tiene muchas dimensiones. Muchos problemas se pueden formular de esta manera: por ejemplo, un programa de ajedrez de computadora podría verse como tratando de encontrar el conjunto de, digamos, 10 movimientos que produce la mejor función de evaluación al final. En el problema del viajante de comercio, el objetivo es minimizar la distancia recorrida. También hay aplicaciones para el diseño de ingeniería, como la optimización del diseño multidisciplinario. Se ha aplicado con modelos casi unidimensionales para resolver problemas de dinámica de partículas mediante la exploración eficiente de grandes espacios de configuración. La referencia es una revisión exhaustiva de muchos temas relacionados con la simulación y la optimización.

El problema del viajante de comercio es lo que se denomina un problema de optimización convencional. Es decir, todos los hechos (distancias entre cada punto de destino) necesarios para determinar la ruta óptima a seguir se conocen con certeza y el objetivo es analizar las posibles opciones de viaje para encontrar la que tenga la distancia total más baja. Sin embargo, supongamos que en lugar de querer minimizar la distancia total recorrida para visitar cada destino deseado, queríamos minimizar el tiempo total necesario para llegar a cada destino. Esto va más allá de la optimización convencional, ya que el tiempo de viaje es intrínsecamente incierto (atascos, hora del día, etc.). Como resultado, para determinar nuestra ruta óptima, nos gustaría usar la simulación: optimización para comprender primero el rango de tiempos potenciales que podría llevar ir de un punto a otro (representado por una distribución de probabilidad en este caso en lugar de una distancia específica) y luego optimizar nuestras decisiones de viaje para identificar el mejor camino a seguir teniendo en cuenta esa incertidumbre.

Problemas inversos

La formulación probabilística de problemas inversos conduce a la definición de una distribución de probabilidad en el espacio modelo. Esta distribución de probabilidad combina información previa con información nueva obtenida al medir algunos parámetros observables (datos). Como, en el caso general, la teoría que relaciona los datos con los parámetros del modelo no es lineal, la probabilidad posterior en el espacio del modelo puede no ser fácil de describir (puede ser multimodal, algunos momentos pueden no estar definidos, etc.).

A la hora de analizar un problema inverso, no suele ser suficiente obtener un modelo de máxima verosimilitud, ya que normalmente también deseamos tener información sobre el poder de resolución de los datos. En el caso general, podemos tener muchos parámetros del modelo, y una inspección de las densidades de probabilidad marginales de interés puede ser poco práctica o incluso inútil. Pero es posible generar pseudoaleatoriamente una gran colección de modelos de acuerdo con la distribución de probabilidad posterior y analizar y mostrar los modelos de tal manera que se transmita al espectador información sobre las probabilidades relativas de las propiedades del modelo. Esto se puede lograr mediante un método eficiente de Monte Carlo, incluso en los casos en que no se dispone de una fórmula explícita para la distribución a priori.

El método de muestreo de importancia más conocido, el algoritmo de Metropolis, se puede generalizar y proporciona un método que permite el análisis de problemas inversos (posiblemente muy no lineales) con información y datos a priori complejos con una distribución de ruido arbitraria.

Filosofía

La exposición popular del Método Monte Carlo estuvo a cargo de McCracken. La filosofía general de Method fue discutida por Elishakoff y Grüne-Yanoff y Weirich.