Significados de probabilidad

Ajustar Compartir Imprimir Citar

La palabra probabilidad se ha utilizado de diversas formas desde que se aplicó por primera vez al estudio matemático de los juegos de azar. ¿La probabilidad mide la tendencia real, física, de que ocurra algo, o es una medida de cuán fuertemente se cree que ocurrirá, o se basa en estos dos elementos? Al responder tales preguntas, los matemáticos interpretan los valores de probabilidad de la teoría de la probabilidad.

Hay dos amplias categorías de interpretaciones de probabilidad que pueden llamarse probabilidades "físicas" y "evidenciales". Las probabilidades físicas, que también se denominan probabilidades objetivas o de frecuencia, están asociadas con sistemas físicos aleatorios, como ruedas de ruleta, dados rodantes y átomos radiactivos. En tales sistemas, un tipo dado de evento (como un dado que arroja un seis) tiende a ocurrir a un ritmo persistente, o "frecuencia relativa", en una larga serie de ensayos. Las probabilidades físicas explican, o son invocadas para explicar, estas frecuencias estables. Los dos tipos principales de teoría de la probabilidad física son las explicaciones frecuentistas (como las de Venn, Reichenbach y von Mises) y las explicaciones de propensión (como las de Popper, Miller,

La probabilidad evidencial, también llamada probabilidad bayesiana, se puede asignar a cualquier declaración, incluso cuando no se trata de un proceso aleatorio, como una forma de representar su plausibilidad subjetiva, o el grado en que la declaración está respaldada por la evidencia disponible. En la mayoría de los casos, las probabilidades evidenciales se consideran grados de creencia, definidos en términos de disposiciones para apostar con ciertas probabilidades. Las cuatro principales interpretaciones evidenciales son la interpretación clásica (por ejemplo, la de Laplace), la interpretación subjetiva (de Finetti y Savage), la interpretación epistémica o inductiva (Ramsey, Cox) y la interpretación lógica (Keynes y Carnap).También hay interpretaciones probatorias de grupos que cubren la probabilidad, que a menudo se etiquetan como 'intersubjetivas' (propuestas por Gillies y Rowbottom).

Algunas interpretaciones de probabilidad están asociadas con enfoques de inferencia estadística, incluidas las teorías de estimación y prueba de hipótesis. La interpretación física, por ejemplo, es tomada por seguidores de los métodos estadísticos "frecuentistas", como Ronald Fisher, Jerzy Neyman y Egon Pearson. Los estadísticos de la escuela bayesiana opuesta generalmente aceptan la interpretación de frecuencia cuando tiene sentido (aunque no como una definición), pero hay menos acuerdo con respecto a las probabilidades físicas. Los bayesianos consideran que el cálculo de las probabilidades probatorias es válido y necesario en estadística. Este artículo, sin embargo, se centra en las interpretaciones de la probabilidad más que en las teorías de la inferencia estadística.

La terminología de este tema es bastante confusa, en parte porque las probabilidades se estudian en una variedad de campos académicos. La palabra "frecuentista" es especialmente engañosa. Para los filósofos se refiere a una teoría particular de la probabilidad física, que ha sido más o menos abandonada. Para los científicos, por otro lado, la "probabilidad frecuentista" es solo otro nombre para la probabilidad física (u objetiva). Quienes promueven la inferencia bayesiana ven las "estadísticas frecuentistas" como un enfoque de la inferencia estadística que se basa en la interpretación de frecuencia de la probabilidad, generalmente basándose en la ley de los grandes números y caracterizada por lo que se denomina 'Prueba de significancia de hipótesis nula' (NHST). También la palabra "objetivo", aplicada a la probabilidad, a veces significa exactamente lo que "físico"

Se acepta unánimemente que la estadística depende de alguna manera de la probabilidad. Pero, en cuanto a qué es la probabilidad y cómo se conecta con las estadísticas, rara vez ha habido un desacuerdo tan completo y una ruptura de la comunicación desde la Torre de Babel. Sin duda, gran parte del desacuerdo es meramente terminológico y desaparecería con un análisis suficientemente agudo.—  (Salvaje, 1954, pág. 2)

Filosofía

La filosofía de la probabilidad presenta problemas principalmente en materia de epistemología y la incómoda interfaz entre los conceptos matemáticos y el lenguaje ordinario tal como lo utilizan los no matemáticos. La teoría de la probabilidad es un campo de estudio establecido en matemáticas. Tiene su origen en la correspondencia que discutía las matemáticas de los juegos de azar entre Blaise Pascal y Pierre de Fermat en el siglo XVII, y Andrey Kolmogorov lo formalizó y convirtió en axiomático como una rama distinta de las matemáticas en el siglo XX. En forma axiomática, los enunciados matemáticos sobre la teoría de la probabilidad conllevan el mismo tipo de confianza epistemológica dentro de la filosofía de las matemáticas que comparten otros enunciados matemáticos.

El análisis matemático se originó en las observaciones del comportamiento de los equipos de juego, como las cartas y los dados, que están diseñados específicamente para introducir elementos aleatorios y ecualizados; en términos matemáticos, son sujetos de indiferencia. Esta no es la única forma en que se usan las declaraciones probabilísticas en el lenguaje humano común: cuando la gente dice que " probablemente llueva ".", por lo general no significan que el resultado de lluvia versus no lluvia es un factor aleatorio que las probabilidades actualmente favorecen; en cambio, tales afirmaciones quizás se entiendan mejor como calificando su expectativa de lluvia con un grado de confianza. Del mismo modo, cuando está escrito que "la explicación más probable" del nombre de Ludlow, Massachusetts "es que recibió su nombre de Roger Ludlow", lo que aquí se quiere decir no es que Roger Ludlow se ve favorecido por un factor aleatorio, sino que este es el más explicación plausible de la evidencia, que admite otras explicaciones menos probables.

Thomas Bayes intentó proporcionar una lógica que pudiera manejar diversos grados de confianza; como tal, la probabilidad bayesiana es un intento de reformular la representación de declaraciones probabilísticas como una expresión del grado de confianza con el que se sostienen las creencias que expresan.

Aunque la probabilidad inicialmente tenía motivaciones un tanto mundanas, su influencia y uso modernos están muy extendidos, desde la medicina basada en la evidencia, pasando por Six Sigma, hasta la prueba verificable probabilísticamente y el panorama de la teoría de cuerdas.

ClásicofrecuentistaSubjetivoPropensión
Hipótesis principalPrincipio de indiferenciaFrecuencia de ocurrenciagrado de creenciaGrado de conexión causal
Base conceptualSimetría hipotéticaDatos pasados ​​y clase de referenciaConocimiento e intuiciónEstado actual del sistema
Enfoque conceptualConjeturalEmpíricoSubjetivoMetafísico
Caso único posibleNo
PrecisoNoNo
ProblemasAmbigüedad en principio de indiferenciaDefinición circularProblema de la clase de referenciaConcepto en disputa

Definición clásica

El primer intento de rigor matemático en el campo de la probabilidad, defendido por Pierre-Simon Laplace, ahora se conoce como la definición clásica. Desarrollado a partir de estudios de juegos de azar (como tirar los dados), establece que la probabilidad se comparte por igual entre todos los resultados posibles, siempre que estos resultados se consideren igualmente probables. (3.1)

La teoría del azar consiste en reducir todos los sucesos de la misma especie a un cierto número de casos igualmente posibles, es decir, a aquellos sobre los que podemos estar igualmente indecisos acerca de su existencia, y en determinar el número de casos favorable al evento cuya probabilidad se busca. La razón de este número al de todos los casos posibles es la medida de esta probabilidad, que es así simplemente una fracción cuyo numerador es el número de casos favorables y cuyo denominador es el número de todos los casos posibles.—  Pierre-Simon Laplace, Un ensayo filosófico sobre probabilidades

Esto se puede representar matemáticamente de la siguiente manera: si un experimento aleatorio puede generar N resultados mutuamente excluyentes e igualmente probables y si N A de estos resultados resultan en la ocurrencia del evento A, la probabilidad de A está definida por{displaystyle P(A)={N_{A} sobre N}.}

Hay dos limitaciones claras a la definición clásica. En primer lugar, es aplicable solo a situaciones en las que solo hay un número 'finito' de resultados posibles. Pero algunos experimentos aleatorios importantes, como lanzar una moneda al aire hasta que salga cara, dan lugar a un conjunto infinito de resultados. Y en segundo lugar, requiere una determinación a priori de que todos los resultados posibles son igualmente probables sin caer en la trampa del razonamiento circular al confiar en la noción de probabilidad. (Al usar la terminología "podemos estar igualmente indecisos", Laplace asumió, por lo que se ha llamado el "principio de la razón insuficiente", que todos los resultados posibles son igualmente probables si no hay una razón conocida para suponer lo contrario, para lo cual hay sin justificación obvia).

Frecuentismo

Los frecuentistas postulan que la probabilidad de un evento es su frecuencia relativa en el tiempo,(3.4), es decir, su frecuencia relativa de ocurrencia después de repetir un proceso un gran número de veces en condiciones similares. Esto también se conoce como probabilidad aleatoria. Se supone que los eventos están gobernados por algunos fenómenos físicos aleatorios, que son fenómenos que son predecibles, en principio, con suficiente información (ver determinismo); o fenómenos que son esencialmente impredecibles. Los ejemplos del primer tipo incluyen lanzar dados o hacer girar una rueda de ruleta; un ejemplo del segundo tipo es la desintegración radiactiva. En el caso de lanzar una moneda al aire, los frecuentadores dicen que la probabilidad de obtener cara es 1/2, no porque haya dos resultados igualmente probables, sino porque series repetidas de un gran número de intentos demuestran que la frecuencia empírica converge en el límite 1 /2 a medida que el número de intentos tiende a infinito.

Si denotamos por textstyle n_{a}el número de ocurrencias de un evento { matemáticas {A}}en estilo de texto nlos ensayos, entonces si {displaystyle lim _{nto +infty} {n_{a} over n}=p}decimos que .

La visión frecuentista tiene sus propios problemas. Por supuesto, es imposible realizar una infinidad de repeticiones de un experimento aleatorio para determinar la probabilidad de un evento. Pero si solo se realiza un número finito de repeticiones del proceso, aparecerán diferentes frecuencias relativas en diferentes series de ensayos. Si estas frecuencias relativas van a definir la probabilidad, la probabilidad será ligeramente diferente cada vez que se mida. Pero la probabilidad real debería ser la misma cada vez. Si reconocemos el hecho de que solo podemos medir una probabilidad con algún error de medición adjunto, todavía nos metemos en problemas ya que el error de medición solo puede expresarse como una probabilidad, el mismo concepto que estamos tratando de definir. Esto hace que incluso la definición de frecuencia sea circular;

Subjetivismo

Los subjetivistas, también conocidos como bayesianos o seguidores de la probabilidad epistémica, otorgan a la noción de probabilidad un estatus subjetivo al considerarla como una medida del "grado de creencia" del individuo que evalúa la incertidumbre de una situación particular. La probabilidad epistémica o subjetiva a veces se llama credibilidad, en oposición al término casualidad.para una probabilidad de propensión. Algunos ejemplos de probabilidad epistémica son asignar una probabilidad a la proposición de que una ley física propuesta es verdadera o determinar qué tan probable es que un sospechoso haya cometido un delito, según la evidencia presentada. El uso de la probabilidad bayesiana plantea el debate filosófico sobre si puede aportar justificaciones válidas de la creencia. Los bayesianos señalan el trabajo de Ramsey (p. 182) y de Finetti (p. 103) como prueba de que las creencias subjetivas deben seguir las leyes de la probabilidad para ser coherentes. La evidencia pone en duda que los humanos tengan creencias coherentes. El uso de la probabilidad bayesiana implica especificar una probabilidad previa. Esto se puede obtener considerando si la probabilidad previa requerida es mayor o menor que una probabilidad de referencia.asociado con un modelo de urna o un experimento mental. El problema es que para un problema dado, se pueden aplicar múltiples experimentos mentales, y elegir uno es una cuestión de juicio: diferentes personas pueden asignar diferentes probabilidades previas, lo que se conoce como el problema de la clase de referencia. El "problema del amanecer" proporciona un ejemplo.

Propensión

Los teóricos de la propensión piensan en la probabilidad como una propensión, disposición o tendencia física de un tipo dado de situación física para producir un resultado de cierto tipo o para producir una frecuencia relativa a largo plazo de tal resultado. Este tipo de probabilidad objetiva a veces se llama 'casualidad'.

Las propensiones, o posibilidades, no son frecuencias relativas, sino causas supuestas de las frecuencias relativas estables observadas. Las propensiones se invocan para explicar por qué la repetición de cierto tipo de experimento generará determinados tipos de resultados a tasas persistentes, que se conocen como propensiones o posibilidades. Los frecuentistas no pueden adoptar este enfoque, ya que las frecuencias relativas no existen para lanzamientos únicos de una moneda, sino solo para grandes conjuntos o colectivos (ver "caso único posible" en la tabla anterior).Por el contrario, un propensitista puede utilizar la ley de los grandes números para explicar el comportamiento de las frecuencias a largo plazo. Esta ley, que es una consecuencia de los axiomas de probabilidad, dice que si (por ejemplo) una moneda se lanza repetidamente muchas veces, de tal manera que su probabilidad de caer cara es la misma en cada lanzamiento, y los resultados son probabilísticamente independiente, entonces la frecuencia relativa de caras será cercana a la probabilidad de caras en cada lanzamiento individual. Esta ley permite que las frecuencias estables a largo plazo sean una manifestación de un caso único invariante.probabilidades Además de explicar la aparición de frecuencias relativas estables, la idea de la propensión está motivada por el deseo de dar sentido a las atribuciones de probabilidad de caso único en la mecánica cuántica, como la probabilidad de desintegración de un átomo particular en un momento particular.

El principal desafío al que se enfrentan las teorías de la propensión es decir exactamente qué significa propensión. (Y luego, por supuesto, para mostrar que la propensión así definida tiene las propiedades requeridas). En la actualidad, desafortunadamente, ninguna de las explicaciones bien reconocidas de la propensión se acerca a este desafío.

Charles Sanders Peirce dio una teoría de la propensión a la probabilidad. Sin embargo, una teoría de la propensión posterior fue propuesta por el filósofo Karl Popper, que tenía sólo un ligero conocimiento de los escritos de C. S. Peirce. Popper señaló que el resultado de un experimento físico es producido por un cierto conjunto de "condiciones generadoras". Cuando repetimos un experimento, como dice el refrán, en realidad realizamos otro experimento con un conjunto (más o menos) similar de condiciones generadoras. Decir que un conjunto de condiciones generadoras tiene propensión p a producir el resultado E significa que esas condiciones exactas, si se repiten indefinidamente, producirían una secuencia de resultados en la que E ocurre con una frecuencia relativa límite p. Entonces, para Popper, un experimento determinista tendría una propensión de 0 o 1 para cada resultado, ya que esas condiciones generadoras tendrían el mismo resultado en cada prueba. En otras palabras, las propensiones no triviales (aquellas que difieren de 0 y 1) solo existen para experimentos genuinamente no deterministas.

Varios otros filósofos, incluidos David Miller y Donald A. Gillies, han propuesto teorías de propensión algo similares a las de Popper.

Otros teóricos de la propensión (p. ej., Ronald Giere) no definen explícitamente las propensiones en absoluto, sino que ven la propensión definida por el papel teórico que desempeña en la ciencia. Argumentaron, por ejemplo, que las magnitudes físicas como la carga eléctrica tampoco pueden definirse explícitamente en términos de cosas más básicas, sino solo en términos de lo que hacen (como atraer y repeler otras cargas eléctricas). De manera similar, la propensión es todo lo que cumple los diversos roles que desempeña la probabilidad física en la ciencia.

¿Qué papel juega la probabilidad física en la ciencia? ¿Cuáles son sus propiedades? Una propiedad central del azar es que, cuando se conoce, obliga a la creencia racional a tomar el mismo valor numérico. David Lewis llamó a esto el Principio Principal, (3.3 y 3.5) un término que los filósofos han adoptado en su mayoría. Por ejemplo, suponga que está seguro de que una moneda sesgada en particular tiene una propensión de 0,32 a caer cara cada vez que se lanza al aire. ¿Cuál es entonces el precio correcto para una apuesta que paga $1 si la moneda cae cara y nada en caso contrario? Según el Principio Principal, el precio justo es de 32 centavos.

Probabilidad lógica, epistémica e inductiva

Se reconoce ampliamente que el término "probabilidad" se usa a veces en contextos en los que no tiene nada que ver con la aleatoriedad física. Considere, por ejemplo, la afirmación de que la extinción de los dinosaurios probablemente fue causada por un gran meteorito que golpeó la tierra. Se ha interpretado que afirmaciones tales como "La hipótesis H es probablemente verdadera" significan que la evidencia empírica (actualmente disponible) (por ejemplo, E) apoya H en un alto grado. Este grado de apoyo de H por E se ha denominado probabilidad lógica de H dada E, o probabilidad epistémica de H dada E, o probabilidad inductiva de H dada E.

Las diferencias entre estas interpretaciones son bastante pequeñas y pueden parecer intrascendentes. Uno de los principales puntos de desacuerdo radica en la relación entre probabilidad y creencia. Las probabilidades lógicas se conciben (por ejemplo, en el Tratado de probabilidad de Keynes) como relaciones lógicas y objetivas entre proposiciones (u oraciones) y, por lo tanto, no dependen de ninguna manera de la creencia. Son grados de vinculación (parcial), o grados de consecuencia lógica, no grados de creencia. (Sin embargo, dictan grados apropiados de creencia, como se discute más adelante.) Frank P. Ramsey, por otro lado, se mostró escéptico acerca de la existencia de tales relaciones lógicas objetivas y argumentó que la probabilidad (evidencial) es "la lógica de creencia parcial". (pág. 157) En otras palabras,son grados de creencia racional, en lugar de ser relaciones lógicas que simplemente restringen los grados de creencia racional.

Otro punto de desacuerdo se refiere a la singularidad de la probabilidad probatoria, en relación con un estado dado de conocimiento. Rudolf Carnap sostuvo, por ejemplo, que los principios lógicos siempre determinan una probabilidad lógica única para cualquier declaración, en relación con cualquier cuerpo de evidencia. Ramsey, por el contrario, pensó que mientras que los grados de creencia están sujetos a algunas restricciones racionales (tales como, entre otros, los axiomas de probabilidad), estas restricciones generalmente no determinan un valor único. Las personas racionales, en otras palabras, pueden diferir un poco en sus grados de creencia, incluso si todos tienen la misma información.

Predicción

Una explicación alternativa de la probabilidad enfatiza el papel de la predicción: predecir observaciones futuras sobre la base de observaciones pasadas, no sobre parámetros no observables. En su forma moderna, se encuentra principalmente en la vena bayesiana. Esta era la función principal de la probabilidad antes del siglo XX, pero cayó en desgracia en comparación con el enfoque paramétrico, que modelaba los fenómenos como un sistema físico que se observaba con error, como en la mecánica celeste.

El enfoque predictivo moderno fue iniciado por Bruno de Finetti, con la idea central de la intercambiabilidad: que las observaciones futuras deberían comportarse como observaciones pasadas. Este punto de vista llamó la atención del mundo anglófono con la traducción de 1974 del libro de de Finetti, y desde entonces ha sido propuesto por estadísticos como Seymour Geisser.

Probabilidad axiomática

Las matemáticas de la probabilidad se pueden desarrollar sobre una base totalmente axiomática que es independiente de cualquier interpretación: consulte los artículos sobre teoría de la probabilidad y axiomas de probabilidad para un tratamiento detallado.