Historia de la teoría de probabilidades

Compartir Imprimir Citar

La probabilidad tiene un aspecto dual: por un lado, la verosimilitud de las hipótesis dada la evidencia de ellas y, por otro lado, el comportamiento de los procesos estocásticos, como el lanzamiento de dados o monedas. El estudio de los primeros es históricamente más antiguo en, por ejemplo, la ley de la evidencia, mientras que el tratamiento matemático de los dados se inició con los trabajos de Cardano, Pascal, Fermat y Christiaan Huygens entre los siglos XVI y XVII.

La probabilidad se distingue de las estadísticas; ver historia de las estadísticas. Mientras que las estadísticas se ocupan de los datos y las inferencias a partir de ellos, la probabilidad (estocástica) se ocupa de los procesos estocásticos (aleatorios) que se encuentran detrás de los datos o resultados.

Etimología

Probable y probabilidad y sus cognados en otros idiomas modernos se derivan del latín erudito medieval probabilis, derivado de Cicerón y generalmente aplicado a una opinión para significar plausible o generalmente aprobado. La forma probabilidad proviene del francés antiguo probabilite (siglo XIV) y directamente del latín probabilitatem (nominativo probabilitas) "credibilidad, probabilidad", de probabilis (ver probable). El sentido matemático del término es de 1718. En el siglo XVIII, el término casualidadtambién se usó en el sentido matemático de "probabilidad" (y la teoría de la probabilidad se llamó Doctrina de las Oportunidades). Esta palabra es en definitiva del latín cadentia, es decir, "una caída, un caso". El adjetivo inglés probablemente es de origen germánico, muy probablemente del nórdico antiguo likligr (el inglés antiguo tenía geliclic con el mismo sentido), que originalmente significaba "tener la apariencia de ser fuerte o capaz" "tener la apariencia o cualidades similares", con un significado de "probablemente" registrado a mediados del s. XV. El sustantivo derivado probabilidad tenía un significado de "similitud, semejanza", pero adquirió el significado de "probabilidad" a partir de mediados del siglo XV. El significado "

Orígenes

La ley de evidencia antigua y medieval desarrolló una clasificación de grados de prueba, credibilidad, presunciones y prueba a medias para lidiar con las incertidumbres de la evidencia en la corte.

En la época del Renacimiento, las apuestas se discutían en términos de probabilidades como "diez a uno" y las primas de seguros marítimos se estimaban en función de los riesgos intuitivos, pero no existía una teoría sobre cómo calcular tales probabilidades o primas.

Los métodos matemáticos de probabilidad surgieron en las investigaciones primero de Gerolamo Cardano en la década de 1560 (no publicadas hasta 100 años después), y luego en la correspondencia de Pierre de Fermat y Blaise Pascal (1654) sobre cuestiones tales como la división justa de la apuesta en un juego de azar interrumpido. Christiaan Huygens (1657) dio un tratamiento completo del tema.

De Games, Gods and Gambling ISBN 978-0-85264-171-2 de FN David:En la antigüedad, se jugaban juegos con astrágalo o hueso de astrágalo. La cerámica de la antigua Grecia fue evidencia para mostrar que había un círculo dibujado en el suelo y los astrágalos se arrojaron en este círculo, como si se jugara a las canicas. En Egipto, los excavadores de tumbas encontraron un juego al que llamaron "Sabuesos y chacales", que se parece mucho al juego moderno "Serpientes y escaleras". Parece que estas son las primeras etapas de la creación de dados.El primer juego de dados mencionado en la literatura de la era cristiana se llamó Hazard. Se juega con 2 o 3 dados. Se cree que fue traído a Europa por los caballeros que regresaban de las Cruzadas.Dante Alighieri (1265-1321) menciona este juego. Un comentarista de Dante reflexiona más sobre este juego: la idea era que con tres dados, el número más bajo que puedes obtener es tres, un as por cada dado. Lograr un cuatro se puede lograr con tres dados al tener un dos en un dado y ases en los otros dos dados.Cardano también pensó en la suma de tres dados. A simple vista hay el mismo número de combinaciones que suman 9 que las que suman 10. Para un 9:(621) (531) (522) (441) (432) (333) y para un 10: (631) (622) (541) (532) (442) (433). Sin embargo, hay más formas de obtener algunas de estas combinaciones que otras. Por ejemplo, si consideramos el orden de los resultados hay seis formas de obtener (621): (1,2,6), (1,6,2), (2,1,6), (2,6,1), (6,1,2), (6,2,1), pero solo hay una forma de obtener (333), donde el primer, segundo y tercer dado arrojan todos 3. Hay un total de 27 permutaciones que suman 10 pero solo 25 que suman 9. A partir de esto, Cardano descubrió que la probabilidad de sacar un 9 es menor que la de sacar un 10.).Además, Galileo escribió sobre el lanzamiento de dados en algún momento entre 1613 y 1623. Sin saberlo, considerando lo que es esencialmente el mismo problema que el de Cardano, Galileo había dicho que ciertos números tienen la capacidad de lanzarse porque hay más formas de crear ese número.

Siglo dieciocho

Ars Conjectandi de Jacob Bernoulli (póstumo, 1713) y The Doctrine of Chances (1718) de Abraham De Moivre pusieron la probabilidad sobre una sólida base matemática, mostrando cómo calcular una amplia gama de probabilidades complejas. Bernoulli probó una versión de la ley fundamental de los grandes números, que establece que en un gran número de ensayos, es probable que el promedio de los resultados esté muy cerca del valor esperado; por ejemplo, en 1000 lanzamientos de una moneda justa, es probable que haya cerca de 500 cabezas (y cuanto mayor sea el número de lanzamientos, más cercana a la mitad será la proporción).

Siglo xix

El poder de los métodos probabilísticos para lidiar con la incertidumbre quedó demostrado por la determinación de Gauss de la órbita de Ceres a partir de unas pocas observaciones. La teoría de errores utilizó el método de mínimos cuadrados para corregir observaciones propensas a errores, especialmente en astronomía, basándose en la suposición de una distribución normal de errores para determinar el valor verdadero más probable. En 1812, Laplace publicó su Théorie analytique des probabilités en la que consolidó y estableció muchos resultados fundamentales en probabilidad y estadística, como la función generadora de momentos, el método de los mínimos cuadrados, la probabilidad inductiva y la prueba de hipótesis.

Hacia fines del siglo XIX, un gran éxito de la explicación en términos de probabilidades fue la mecánica estadística de Ludwig Boltzmann y J. Willard Gibbs, que explicaba propiedades de los gases como la temperatura en términos de movimientos aleatorios de un gran número de partículas.

El campo de la historia de la probabilidad en sí fue establecido por la monumental A History of the Mathematical Theory of Probability from the Time of Pascal to that of Laplace (1865) de Isaac Todhunter.

Siglo veinte

La probabilidad y la estadística se conectaron estrechamente a través del trabajo sobre la prueba de hipótesis de RA Fisher y Jerzy Neyman, que ahora se aplica ampliamente en experimentos biológicos y psicológicos y en ensayos clínicos de drogas, así como en economía y en otros lugares. Una hipótesis, por ejemplo, que un fármaco suele ser eficaz, da lugar a una distribución de probabilidad que se observaría si la hipótesis es cierta. Si las observaciones concuerdan aproximadamente con la hipótesis, se confirma, si no, se rechaza la hipótesis.

La teoría de los procesos estocásticos se amplió a áreas como los procesos de Markov y el movimiento browniano, el movimiento aleatorio de partículas diminutas suspendidas en un fluido. Eso proporcionó un modelo para el estudio de las fluctuaciones aleatorias en los mercados bursátiles, lo que condujo al uso de modelos de probabilidad sofisticados en las finanzas matemáticas, incluidos éxitos como la fórmula de Black-Scholes ampliamente utilizada para la valoración de opciones.

El siglo XX también vio largas disputas sobre las interpretaciones de la probabilidad. A mediados de siglo dominaba el frecuentismo, que sostenía que probabilidad significa frecuencia relativa a largo plazo en un gran número de ensayos. A finales de siglo hubo cierto resurgimiento de la visión bayesiana, según la cual la noción fundamental de probabilidad es qué tan bien una proposición está respaldada por la evidencia de la misma.

Los axiomas de Kolmogorov (1933) facilitaron el tratamiento matemático de las probabilidades, especialmente cuando hay un número infinito de resultados posibles.