Historia del azar

Compartir Imprimir Citar

En la historia antigua, los conceptos de azar y aleatoriedad estaban entrelazados con el de destino. Muchos pueblos antiguos tiraban dados para determinar el destino, y esto luego se convirtió en juegos de azar. Al mismo tiempo, la mayoría de las culturas antiguas usaban varios métodos de adivinación para intentar eludir la aleatoriedad y el destino.

Los chinos fueron quizás los primeros en formalizar las probabilidades y el azar hace 3.000 años. Los filósofos griegos discutieron la aleatoriedad extensamente, pero solo en formas no cuantitativas. Fue solo en el siglo XVI que los matemáticos italianos comenzaron a formalizar las probabilidades asociadas con varios juegos de azar. La invención del cálculo moderno tuvo un impacto positivo en el estudio formal de la aleatoriedad. En el siglo XIX se introdujo en la física el concepto de entropía.

La primera parte del siglo XX vio un rápido crecimiento en el análisis formal de la aleatoriedad y se introdujeron los fundamentos matemáticos de la probabilidad, lo que llevó a su axiomatización en 1933. Al mismo tiempo, el advenimiento de la mecánica cuántica cambió la perspectiva científica sobre la determinación. A mediados y finales del siglo XX, las ideas de la teoría algorítmica de la información introdujeron nuevas dimensiones en el campo a través del concepto de aleatoriedad algorítmica.

Aunque la aleatoriedad a menudo se había visto como un obstáculo y una molestia durante muchos siglos, en el siglo XX los científicos informáticos comenzaron a darse cuenta de que la introducción deliberada de la aleatoriedad en los cálculos puede ser una herramienta eficaz para diseñar mejores algoritmos. En algunos casos, estos algoritmos aleatorios pueden superar a los mejores métodos deterministas.

Antigüedad a la Edad Media

Los pueblos precristianos a lo largo del Mediterráneo tiraban dados para determinar el destino, y esto luego se convirtió en juegos de azar. También hay evidencia de juegos de azar jugados por los antiguos egipcios, hindúes y chinos, que datan del 2100 a. Los chinos usaron los dados antes que los europeos y tienen una larga historia de juegos de azar.

Hace más de 3.000 años, los problemas relacionados con el lanzamiento de varias monedas fueron considerados en el I Ching, uno de los textos matemáticos chinos más antiguos, que probablemente data del 1150 a. Los dos elementos principales yin y yang se combinaron en el I Ching en varias formas para producir permutaciones de cara y cruz del tipo HH, TH, HT, etc. y los chinos parecen haber sido conscientes del triángulo de Pascal mucho antes de que los europeos lo formalizaran. en el siglo 17. Sin embargo, la filosofía occidental se centró en los aspectos no matemáticos del azar y la aleatoriedad hasta el siglo XVI.

El desarrollo del concepto de azar a lo largo de la historia ha sido muy paulatino. Los historiadores se han preguntado por qué el progreso en el campo de la aleatoriedad fue tan lento, dado que los humanos se han encontrado con el azar desde la antigüedad. Deborah J. Bennett sugiere que la gente común enfrenta una dificultad inherente para comprender la aleatoriedad, aunque el concepto a menudo se considera obvio y evidente. Cita estudios de Kahneman y Tversky; estos concluyeron que los principios estadísticos no se aprenden de la experiencia cotidiana porque las personas no prestan atención a los detalles necesarios para obtener dicho conocimiento.

Los filósofos griegos fueron los primeros pensadores occidentales en abordar el azar y la casualidad. Alrededor del año 400 a. C., Demócrito presentó una visión del mundo gobernada por las inequívocas leyes del orden y consideró la aleatoriedad como un concepto subjetivo que solo se originaba en la incapacidad de los humanos para comprender la naturaleza de los eventos. Usó el ejemplo de dos hombres que enviarían a sus sirvientes a traer agua al mismo tiempo para que se encontraran. Los sirvientes, sin darse cuenta del plan, verían la reunión como aleatoria.

Aristóteles vio el azar y la necesidad como fuerzas opuestas. Argumentó que la naturaleza tenía patrones ricos y constantes que no podían ser el resultado de la casualidad únicamente, pero que estos patrones nunca mostraban la uniformidad mecánica del determinismo necesario. Veía la aleatoriedad como una parte genuina y extendida del mundo, pero subordinada a la necesidad y el orden. Aristóteles clasificó los eventos en tres tipos: ciertos eventos que suceden necesariamente; eventos probables que suceden en la mayoría de los casos; y eventos desconocidos que suceden por pura casualidad. Consideraba que el resultado de los juegos de azar era incognoscible.

Alrededor del 300 a. C., Epicuro propuso el concepto de que la aleatoriedad existe por sí misma, independientemente del conocimiento humano. Él creía que en el mundo atómico, los átomos se desviarían al azar a lo largo de sus caminos, provocando la aleatoriedad en los niveles superiores.

Durante varios siglos después, la idea de azar siguió entrelazada con el destino. La adivinación se practicaba en muchas culturas, utilizando diversos métodos. Los chinos analizaron las grietas en los caparazones de las tortugas, mientras que los germanos, que según Tácito tenían la mayor estima por las suertes y los presagios, utilizaron tiras de corteza. En el Imperio Romano, el azar era personificado por la Diosa Fortuna. Los romanos participaban en juegos de azar para simular lo que hubiera decidido Fortuna. En el 49 a. C., Julio César supuestamente tomó su fatídica decisión de cruzar el Rubicón después de tirar los dados.

Los filósofos romanos adoptaron la clasificación de eventos de Aristóteles en las tres clases: ciertos, probables e incognoscibles, pero tuvieron que reconciliarla con las enseñanzas cristianas deterministas en las que incluso los eventos incognoscibles para el hombre se consideraban predeterminados por Dios. Hacia el año 960, el obispo Wibold de Cambrai enumeró correctamente los 56 resultados diferentes (sin permutaciones) de jugar con tres dados. No se ha encontrado ninguna referencia a los juegos de cartas en Europa antes de 1350. La Iglesia predicó contra los juegos de cartas y los juegos de cartas se difundieron mucho más lentamente que los juegos basados ​​​​en dados. La Iglesia cristiana prohibió específicamente la adivinación; y dondequiera que fue el cristianismo, la adivinación perdió la mayor parte de su antiguo poder.

A lo largo de los siglos, muchos eruditos cristianos lucharon con el conflicto entre la creencia en el libre albedrío y su aleatoriedad implícita, y la idea de que Dios sabe todo lo que sucede. San Agustín y Aquino intentaron llegar a un acuerdo entre el conocimiento previo y el libre albedrío, pero Martín Lutero argumentó en contra de la aleatoriedad y adoptó la posición de que la omnisciencia de Dios hace que las acciones humanas sean inevitables y determinadas. En el siglo XIII, Tomás de Aquino vio la aleatoriedad no como el resultado de una sola causa, sino de varias causas que se unen por casualidad. Si bien creía en la existencia de la aleatoriedad, la rechazó como una explicación de la dirección final de la naturaleza, porque vio demasiados patrones en la naturaleza como para haberlos obtenido por casualidad.

Los griegos y los romanos no se habían percatado de las magnitudes de las frecuencias relativas de los juegos de azar. Durante siglos, el azar se discutió en Europa sin fundamento matemático y fue solo en el siglo XVI que los matemáticos italianos comenzaron a discutir los resultados de los juegos de azar como proporciones. En su Liber de Lude Aleae de 1565 (un manual del jugador publicado después de su muerte), Gerolamo Cardano escribió uno de los primeros tratados formales para analizar las probabilidades de ganar en varios juegos.

Siglos XVII-XIX

Alrededor de 1620, Galileo escribió un artículo llamado Sobre un descubrimiento relacionado con los dados que utilizó un modelo probabilístico temprano para abordar preguntas específicas. En 1654, impulsado por el interés de Chevalier de Méré por los juegos de azar, Blaise Pascal mantuvo correspondencia con Pierre de Fermat y se sentaron muchas de las bases para la teoría de la probabilidad. La apuesta de Pascal se destacó por su uso temprano del concepto de infinito y el primer uso formal de la teoría de la decisión. El trabajo de Pascal y Fermat influyó en el trabajo de Leibniz sobre el cálculo infinitesimal, que a su vez proporcionó un mayor impulso para el análisis formal de la probabilidad y la aleatoriedad.

La primera sugerencia conocida para ver la aleatoriedad en términos de complejidad la hizo Leibniz en un oscuro documento del siglo XVII descubierto después de su muerte. Leibniz preguntó cómo se podía saber si un conjunto de puntos en una hoja de papel se seleccionaban al azar (por ejemplo, salpicando tinta) o no. Dado que para cualquier conjunto de puntos finitos siempre hay una ecuación matemática que puede describir los puntos (por ejemplo, mediante interpolación lagrangiana), la pregunta se centra en la forma en que los puntos se expresan matemáticamente. Leibniz consideraba que los puntos eran aleatorios si la función que los describía tenía que ser extremadamente compleja. Tres siglos después, AN Kolmogorov y Gregory Chaitin formalizaron el mismo concepto como aleatoriedad algorítmica como la longitud mínima de un programa de computadora necesaria para describir una cadena finita como aleatoria.

The Doctrine of Chances, el primer libro de texto sobre teoría de la probabilidad, se publicó en 1718 y el campo siguió creciendo a partir de entonces. El enfoque de la probabilidad de la teoría de la frecuencia fue desarrollado por primera vez por Robert Ellis y John Venn a fines del siglo XIX.

Mientras que la élite matemática estaba progresando en la comprensión de la aleatoriedad desde el siglo XVII hasta el XIX, el público en general siguió confiando en prácticas como la adivinación con la esperanza de domar el azar. Las fortunas se decían de muchas maneras tanto en Oriente (donde la adivinación se denominó más tarde como una adicción) como en Europa por parte de los gitanos y otros. Las prácticas inglesas, como la lectura de los huevos que se dejan caer en un vaso, se exportaron a las comunidades puritanas de América del Norte.

El término entropía, que ahora es un elemento clave en el estudio de la aleatoriedad, fue acuñado por Rudolf Clausius en 1865 mientras estudiaba los motores térmicos en el contexto de la segunda ley de la termodinámica. Clausius fue el primero en afirmar que "la entropía siempre aumenta".

Desde la época de Newton hasta alrededor de 1890, en general se creía que si se conoce el estado inicial de un sistema con gran precisión y si todas las fuerzas que actúan sobre el sistema se pueden formular con igual precisión, sería posible, en principio., para hacer predicciones del estado del universo durante un tiempo infinitamente largo. Los límites de tales predicciones en los sistemas físicos quedaron claros ya en 1893 cuando Henri Poincaré demostró que en el problema de los tres cuerpos en astronomía, pequeños cambios en el estado inicial podrían dar como resultado grandes cambios en las trayectorias durante la integración numérica de las ecuaciones.

Durante el siglo XIX, a medida que se formalizaba y se entendía mejor la teoría de la probabilidad, comenzó a cuestionarse la actitud hacia la "aleatoriedad como molestia". Goethe escribió:

El tejido del mundo se construye a partir de necesidades y azar; el intelecto de los hombres se coloca entre ambos y puede dominarlos; considera la necesidad y la razón de su existencia; sabe cómo se puede gestionar, controlar y utilizar la aleatoriedad.

Las palabras de Goethe resultaron proféticas cuando en el siglo XX se descubrieron los algoritmos aleatorios como herramientas poderosas. A fines del siglo XIX, el modelo de Newton de un universo mecánico se estaba desvaneciendo a medida que Maxwell y Boltzmann estudiaban la visión estadística de la colisión de moléculas en gases. La ecuación de Boltzmann S = k log e W (inscrita en su lápida) primero relacionó la entropía con los logaritmos.

Siglo 20

Durante el siglo XX, las cinco interpretaciones principales de la teoría de la probabilidad (p. ej., clásica, lógica, de frecuencia, de propensión y subjetiva) se entendieron mejor, se discutieron, compararon y contrastaron. En este siglo se desarrollaron un número importante de áreas de aplicación, desde las finanzas hasta la física. En 1900, Louis Bachelier aplicó el movimiento browniano para evaluar las opciones sobre acciones, lanzando efectivamente los campos de las matemáticas financieras y los procesos estocásticos.

Émile Borel fue uno de los primeros matemáticos en abordar formalmente la aleatoriedad en 1909 e introdujo los números normales. En 1919, Richard von Mises dio la primera definición de aleatoriedad algorítmica a través de la imposibilidad de un sistema de juego. Avanzó la teoría de la frecuencia de la aleatoriedad en términos de lo que llamó el colectivo, es decir, una secuencia aleatoria. Von Mises consideraba la aleatoriedad de un colectivo como una ley empírica, establecida por la experiencia. Relacionó el "desorden" o la aleatoriedad de un colectivo con la falta de éxito de los sistemas de juego intentados. Este enfoque lo llevó a sugerir una definición de aleatoriedad que luego fue refinada y matemáticamente rigurosa por Alonzo Church mediante el uso de funciones computables en 1940. Von Mises comparó el principio de laimposibilidad de un sistema de juego al principio de la conservación de la energía, una ley que no se puede demostrar, pero se ha verificado en repetidos experimentos.

Von Mises nunca formalizó totalmente sus reglas para la selección de subsecuencias, pero en su artículo de 1940 "Sobre el concepto de secuencia aleatoria", Alonzo Church sugirió que las funciones utilizadas para la configuración de lugares en el formalismo de von Mises fueran funciones computables en lugar de funciones arbitrarias. de los segmentos iniciales de la secuencia, apelando a la tesis de Church-Turing sobre la eficacia.

El advenimiento de la mecánica cuántica a principios del siglo XX y la formulación del principio de incertidumbre de Heisenberg en 1927 supusieron el fin de la mentalidad newtoniana entre los físicos con respecto a la determinación de la naturaleza. En mecánica cuántica, ni siquiera existe una manera de considerar todos los elementos observables en un sistema como variables aleatorias a la vez, ya que muchos observables no conmutan.

A principios de la década de 1940, el enfoque de probabilidad de la teoría de la frecuencia fue bien aceptado dentro del círculo de Viena, pero en la década de 1950, Karl Popper propuso la teoría de la propensión. Dado que el enfoque de frecuencia no puede tratar con "un solo lanzamiento" de una moneda, y solo puede abordar grandes conjuntos o colectivos, las probabilidades de un solo caso se trataron como propensiones o posibilidades. El concepto de propensión también fue impulsado por el deseo de manejar configuraciones de probabilidad de caso único en la mecánica cuántica, por ejemplo, la probabilidad de desintegración de un átomo específico en un momento específico. En términos más generales, el enfoque de frecuencia no puede tratar con la probabilidad de muerte de una persona específicadado que la muerte no puede repetirse varias veces para esa persona. Karl Popper se hizo eco del mismo sentimiento que Aristóteles al ver la aleatoriedad como subordinada al orden cuando escribió que "el concepto de azar no se opone al concepto de ley" en la naturaleza, siempre que se consideren las leyes del azar.

El desarrollo de la teoría de la información de Claude Shannon en 1948 dio lugar a la visión entrópica de la aleatoriedad. Desde este punto de vista, la aleatoriedad es lo opuesto al determinismo en un proceso estocástico. Por lo tanto, si un sistema estocástico tiene entropía cero, no tiene aleatoriedad y cualquier aumento en la entropía aumenta la aleatoriedad. La formulación de Shannon por defecto es la formulación de entropía del siglo XIX de Boltzmann en caso de que todas las probabilidades sean iguales. La entropía ahora se usa ampliamente en diversos campos de la ciencia, desde la termodinámica hasta la química cuántica.

Las martingalas para el estudio del azar y las estrategias de apuestas fueron introducidas por Paul Lévy en la década de 1930 y fueron formalizadas por Joseph L. Doob en la década de 1950. La aplicación de la hipótesis del paseo aleatorio en la teoría financiera fue propuesta por primera vez por Maurice Kendall en 1953. Más tarde fue promovida por Eugene Fama y Burton Malkiel.

Las cadenas aleatorias fueron estudiadas por primera vez en la década de 1960 por AN Kolmogorov (quien proporcionó la primera definición axiomática de la teoría de la probabilidad en 1933), Chaitin y Martin-Löf. La aleatoriedad algorítmica de una cadena se definió como el tamaño mínimo de un programa (por ejemplo, en bits) ejecutado en una computadora universal que produce la cadena. El número Omega de Chaitin relacionó más tarde la aleatoriedad y la probabilidad de detención de los programas.

En 1964, Benoît Mandelbrot sugirió que la mayoría de los modelos estadísticos se acercaban solo a una primera etapa de tratamiento del indeterminismo y que ignoraban muchos aspectos de la turbulencia del mundo real. En su 1997, definió siete estados de aleatoriedad que van desde "suave a salvaje", con la aleatoriedad tradicional en el extremo leve de la escala.

A pesar de los avances matemáticos, la confianza en otros métodos para lidiar con el azar, como la adivinación y la astrología, continuó en el siglo XX. Según los informes, el gobierno de Myanmar dio forma a la política económica del siglo XX basada en la adivinación y planeó el traslado de la capital del país según el consejo de los astrólogos. El jefe de gabinete de la Casa Blanca, Donald Regan, criticó la participación de la astróloga Joan Quigley en las decisiones tomadas durante la presidencia de Ronald Reagan en la década de 1980. Quigley afirma haber sido el astrólogo de la Casa Blanca durante siete años.

Durante el siglo XX, se entendieron mejor los límites en el manejo de la aleatoriedad. El ejemplo más conocido de límites tanto teóricos como operativos de la previsibilidad es el pronóstico del tiempo, simplemente porque los modelos se han utilizado en el campo desde la década de 1950. Las predicciones del tiempo y el clima son necesariamente inciertas. Las observaciones del tiempo y el clima son inciertas e incompletas, y los modelos en los que se alimentan los datos son inciertos. En 1961, Edward Lorenz notó que un cambio muy pequeño en los datos iniciales enviados a un programa de computadora para la simulación del clima podría resultar en un escenario climático completamente diferente. Esto más tarde se conoció como el efecto mariposa, a menudo parafraseado como la pregunta: " ¿El aleteo de una mariposa en Brasil provoca un tornado en Texas? ".Un ejemplo clave de límites prácticos serios en la previsibilidad es la geología, donde la capacidad de predecir terremotos, ya sea de forma individual o estadística, sigue siendo una perspectiva remota.

A fines de la década de 1970 y principios de la de 1980, los científicos informáticos comenzaron a darse cuenta de que la introducción deliberada de la aleatoriedad en los cálculos puede ser una herramienta eficaz para diseñar mejores algoritmos. En algunos casos, estos algoritmos aleatorios superan a los mejores métodos deterministas.