Interpretaciones de probabilidad

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

La palabra probabilidad se ha utilizado de diversas formas desde que se aplicó por primera vez al estudio matemático de los juegos de azar. ¿La probabilidad mide la tendencia real, física, de que ocurra algo, o es una medida de cuán fuertemente se cree que ocurrirá, o se basa en estos dos elementos? Al responder tales preguntas, los matemáticos interpretan los valores de probabilidad de la teoría de la probabilidad.

Hay dos amplias categorías de interpretaciones de probabilidad que se pueden llamar "físicas" y "evidencial" probabilidades Las probabilidades físicas, que también se denominan probabilidades objetivas o de frecuencia, están asociadas con sistemas físicos aleatorios, como ruedas de ruleta, dados rodantes y átomos radiactivos. En tales sistemas, un determinado tipo de evento (como un dado que arroja un seis) tiende a ocurrir a un ritmo persistente, o 'frecuencia relativa', en una larga serie de ensayos. Las probabilidades físicas explican, o son invocadas para explicar, estas frecuencias estables. Los dos tipos principales de teoría de la probabilidad física son las explicaciones frecuentistas (como las de Venn, Reichenbach y von Mises) y las de propensión (como las de Popper, Miller, Giere y Fetzer).

La probabilidad evidencial, también denominada probabilidad bayesiana, se puede asignar a cualquier declaración, incluso cuando no se trata de un proceso aleatorio, como una forma de representar su plausibilidad subjetiva, o el grado en que la declaración está respaldada por la evidencia disponible. En la mayoría de los casos, las probabilidades evidenciales se consideran grados de creencia, definidos en términos de disposiciones para apostar con ciertas probabilidades. Las cuatro principales interpretaciones evidenciales son la interpretación clásica (por ejemplo, la de Laplace), la interpretación subjetiva (de Finetti y Savage), la interpretación epistémica o inductiva (Ramsey, Cox) y la interpretación lógica (Keynes y Carnap). También hay interpretaciones probatorias de grupos que cubren la probabilidad, que a menudo se etiquetan como 'intersubjetivos' (propuesto por Gillies y Rowbottom).

Algunas interpretaciones de probabilidad están asociadas con enfoques de inferencia estadística, incluidas las teorías de estimación y prueba de hipótesis. La interpretación física, por ejemplo, la toman los seguidores de "frecuentista" métodos estadísticos, como Ronald Fisher, Jerzy Neyman y Egon Pearson. Los estadísticos de la escuela bayesiana opuesta generalmente aceptan la interpretación de frecuencia cuando tiene sentido (aunque no como una definición), pero hay menos acuerdo con respecto a las probabilidades físicas. Los bayesianos consideran que el cálculo de las probabilidades probatorias es válido y necesario en estadística. Este artículo, sin embargo, se centra en las interpretaciones de la probabilidad más que en las teorías de la inferencia estadística.

La terminología de este tema es bastante confusa, en parte porque las probabilidades se estudian en una variedad de campos académicos. La palabra "frecuentista" es especialmente complicado. Para los filósofos se refiere a una teoría particular de la probabilidad física, que ha sido más o menos abandonada. Para los científicos, por otro lado, la "probabilidad frecuentista" es solo otro nombre para la probabilidad física (u objetiva). Quienes promueven la inferencia bayesiana ven las "estadísticas frecuentistas" como un enfoque de la inferencia estadística que se basa en la interpretación de frecuencia de la probabilidad, generalmente basándose en la ley de los grandes números y caracterizada por lo que se denomina 'Prueba de significación de hipótesis nula' (NHST). También la palabra "objetivo", aplicada a la probabilidad, a veces significa exactamente lo que "físico" significa aquí, pero también se usa para las probabilidades evidenciales que están fijadas por restricciones racionales, como las probabilidades lógicas y epistémicas.

Es unánimemente acordado que las estadísticas dependen de alguna manera de la probabilidad. Pero, en cuanto a qué probabilidad es y cómo está conectado con las estadísticas, rara vez ha habido un desacuerdo completo y un colapso de la comunicación desde la Torre de Babel. Sin duda, gran parte del desacuerdo es meramente terminológico y desaparecería bajo un análisis suficientemente agudo.

(Salvaje, 1954, p 2)

Filosofía

La filosofía de la probabilidad presenta problemas principalmente en materia de epistemología y la incómoda interfaz entre los conceptos matemáticos y el lenguaje ordinario tal como lo utilizan los no matemáticos. La teoría de la probabilidad es un campo de estudio establecido en matemáticas. Tiene su origen en la correspondencia que discutía las matemáticas de los juegos de azar entre Blaise Pascal y Pierre de Fermat en el siglo XVII, y Andrey Kolmogorov lo formalizó y convirtió en axiomático como una rama distinta de las matemáticas en el siglo XX. En forma axiomática, los enunciados matemáticos sobre la teoría de la probabilidad conllevan el mismo tipo de confianza epistemológica dentro de la filosofía de las matemáticas que comparten otros enunciados matemáticos.

El análisis matemático se originó en las observaciones del comportamiento de los equipos de juego, como las cartas y los dados, que están diseñados específicamente para introducir elementos aleatorios y ecualizados; en términos matemáticos, son sujetos de indiferencia. Esta no es la única forma en que se usan las declaraciones probabilísticas en el lenguaje humano común: cuando las personas dicen que "probablemente lloverá", por lo general no quieren decir que el resultado de lluvia versus la no lluvia es un factor aleatorio que las probabilidades favorecen actualmente; en cambio, tales declaraciones quizás se entiendan mejor como calificando su expectativa de lluvia con un grado de confianza. Asimismo, cuando se escribe que "la explicación más probable" del nombre de Ludlow, Massachusetts "es que recibió su nombre de Roger Ludlow", lo que se quiere decir aquí no es que Roger Ludlow se vea favorecido por un factor aleatorio, sino que esta es la explicación más plausible de la evidencia, que admite otras explicaciones menos probables.

Thomas Bayes intentó proporcionar una lógica que pudiera manejar diversos grados de confianza; como tal, la probabilidad bayesiana es un intento de reformular la representación de declaraciones probabilísticas como una expresión del grado de confianza con el que se sostienen las creencias que expresan.

Aunque inicialmente la probabilidad tenía motivaciones un tanto mundanas, su influencia y uso modernos están muy extendidos, desde la medicina basada en la evidencia, pasando por Six Sigma, hasta la prueba comprobable probabilísticamente y el panorama de la teoría de cuerdas.

Un resumen de algunas interpretaciones de probabilidad
Clásico Frecuente Subjective Propensión
Hipótesis principal Principio de indiferenciaFrecuencia de ocurrenciaGrado de creenciasGrado de conexión causal
Base conceptual Simetría hipotéticaDatos pasados y clase de referenciaConocimiento e intuiciónEstado actual del sistema
Enfoque conceptual ConjeturaEmpiricalSubjectivemetafísica
Caso único posible Sí.NoSí.Sí.
Preciso Sí.NoNoSí.
Problemas Ambigüedad en principio de indiferenciaDefinición circularProblema de la clase de referenciaConcepto controvertido

Definición clásica

El primer intento de rigor matemático en el campo de la probabilidad, defendido por Pierre-Simon Laplace, ahora se conoce como la definición clásica. Desarrollado a partir de estudios de juegos de azar (como tirar los dados), establece que la probabilidad se comparte por igual entre todos los resultados posibles, siempre que estos resultados se consideren igualmente probables. (3.1)

La teoría de la oportunidad consiste en reducir todos los eventos del mismo tipo a cierto número de casos igualmente posibles, es decir, a tal como podemos estar igualmente indecisos respecto a su existencia, y en determinar el número de casos favorables al evento cuya probabilidad se busca. La relación de este número con la de todos los casos posibles es la medida de esta probabilidad, que es simplemente una fracción cuyo numerador es el número de casos favorables y cuyo denominador es el número de todos los casos posibles.

Pierre-Simon Laplace, un ensayo filosófico sobre probabilidades
La definición clásica de probabilidad funciona bien para situaciones con sólo un número finito de resultados igualmente similares.

Esto se puede representar matemáticamente de la siguiente manera: Si un experimento aleatorio puede generar N resultados mutuamente excluyentes e igualmente probables y si NA de estos resultados resultan en la ocurrencia del evento A, la probabilidad de A está definida por

P()A)=NAN.{displaystyle P(A)={N_{A} over N}

Hay dos limitaciones claras a la definición clásica. En primer lugar, es aplicable solo a situaciones en las que solo hay un 'finito' número de resultados posibles. Pero algunos experimentos aleatorios importantes, como lanzar una moneda al aire hasta que salga cara, dan lugar a un conjunto infinito de resultados. Y en segundo lugar, requiere una determinación a priori de que todos los resultados posibles son igualmente probables sin caer en la trampa del razonamiento circular al confiar en la noción de probabilidad. (Al usar la terminología 'podemos estar igualmente indecisos', Laplace asumió, por lo que se ha llamado el 'principio de razón insuficiente', que todos los resultados posibles son igualmente probables si no hay razón conocida para suponer lo contrario, para lo cual no existe una justificación obvia).

Frecuencialismo

Para los frecuentadores, la probabilidad del aterrizaje de bolas en cualquier bolsillo sólo se puede determinar mediante ensayos repetidos en los que el resultado observado converge a la probabilidad subyacente en el largo plazo.

Los frecuentistas postulan que la probabilidad de un evento es su frecuencia relativa en el tiempo, (3.4), es decir, su frecuencia relativa de ocurrencia después de repetir un proceso un gran número de veces en condiciones similares. Esto también se conoce como probabilidad aleatoria. Se supone que los eventos están gobernados por algunos fenómenos físicos aleatorios, que son fenómenos que son predecibles, en principio, con suficiente información (ver determinismo); o fenómenos que son esencialmente impredecibles. Los ejemplos del primer tipo incluyen lanzar dados o hacer girar una rueda de ruleta; un ejemplo del segundo tipo es la desintegración radiactiva. En el caso de lanzar una moneda al aire, los frecuentadores dicen que la probabilidad de obtener cara es 1/2, no porque haya dos resultados igualmente probables, sino porque series repetidas de un gran número de intentos demuestran que la frecuencia empírica converge en el límite 1 /2 a medida que el número de intentos tiende a infinito.

Si denotamos na{displaystyle textstyle n_{a} el número de casos de un evento A{displaystyle {fnMithcal}} dentro n{displaystyle textstyle n} los ensayos, entonces si limn→ → +JUEGO JUEGO nan=p{displaystyle lim _{nto +infty}{n_{a} # diremos que P()A)=p{displaystyle textstyle P({Mathcal {A}=p}.

La visión frecuentista tiene sus propios problemas. Por supuesto, es imposible realizar una infinidad de repeticiones de un experimento aleatorio para determinar la probabilidad de un evento. Pero si solo se realiza un número finito de repeticiones del proceso, aparecerán diferentes frecuencias relativas en diferentes series de ensayos. Si estas frecuencias relativas van a definir la probabilidad, la probabilidad será ligeramente diferente cada vez que se mida. Pero la probabilidad real debería ser la misma cada vez. Si reconocemos el hecho de que solo podemos medir una probabilidad con algún error de medición adjunto, todavía nos metemos en problemas ya que el error de medición solo puede expresarse como una probabilidad, el mismo concepto que estamos tratando de definir. Esto hace que incluso la definición de frecuencia sea circular; véase, por ejemplo, "¿Cuál es la probabilidad de un terremoto?"

Subjetivismo

Los subjetivistas, también conocidos como bayesianos o seguidores de la probabilidad epistémica, otorgan a la noción de probabilidad un estatus subjetivo al considerarla como una medida del 'grado de creencia' del individuo evaluando la incertidumbre de una situación particular. La probabilidad epistémica o subjetiva a veces se denomina credencia, en oposición al término oportunidad para una probabilidad de propensión. Algunos ejemplos de probabilidad epistémica son asignar una probabilidad a la proposición de que una ley física propuesta es verdadera o determinar qué tan probable es que un sospechoso haya cometido un delito, según la evidencia presentada. El uso de la probabilidad bayesiana plantea el debate filosófico sobre si puede aportar justificaciones válidas de la creencia. Los bayesianos señalan el trabajo de Ramsey (p. 182) y de Finetti (p. 103) como prueba de que las creencias subjetivas deben seguir las leyes de la probabilidad para ser coherentes. La evidencia pone en duda que los humanos tengan creencias coherentes. El uso de la probabilidad bayesiana implica especificar una probabilidad previa. Esto se puede obtener considerando si la probabilidad previa requerida es mayor o menor que una probabilidad de referencia asociada con un modelo de urna o un experimento mental. El problema es que para un problema dado, se pueden aplicar múltiples experimentos mentales, y elegir uno es una cuestión de juicio: diferentes personas pueden asignar diferentes probabilidades previas, lo que se conoce como el problema de la clase de referencia. El "problema del amanecer" proporciona un ejemplo.

Propensión

Los teóricos de la propensión piensan en la probabilidad como una propensión, disposición o tendencia física de un determinado tipo de situación física para producir un resultado de cierto tipo o para producir una frecuencia relativa a largo plazo de tal resultado. Este tipo de probabilidad objetiva a veces se llama 'casualidad'.

Las propensiones, o posibilidades, no son frecuencias relativas, sino causas supuestas de las frecuencias relativas estables observadas. Las propensiones se invocan para explicar por qué la repetición de cierto tipo de experimento generará determinados tipos de resultados a tasas persistentes, que se conocen como propensiones o posibilidades. Los frecuentistas no pueden adoptar este enfoque, ya que las frecuencias relativas no existen para lanzamientos únicos de una moneda, sino solo para grandes conjuntos o colectivos (ver "caso único posible" en la tabla anterior). Por el contrario, un propensitista puede utilizar la ley de los grandes números para explicar el comportamiento de las frecuencias a largo plazo. Esta ley, que es una consecuencia de los axiomas de probabilidad, dice que si (por ejemplo) una moneda se lanza repetidamente muchas veces, de tal manera que su probabilidad de caer cara es la misma en cada lanzamiento, y los resultados son probabilísticamente independiente, entonces la frecuencia relativa de caras será cercana a la probabilidad de caras en cada lanzamiento individual. Esta ley permite que las frecuencias estables a largo plazo sean una manifestación de probabilidades invariantes de caso único. Además de explicar la aparición de frecuencias relativas estables, la idea de la propensión está motivada por el deseo de dar sentido a las atribuciones de probabilidad de caso único en la mecánica cuántica, como la probabilidad de desintegración de un átomo particular en un momento particular.

El principal desafío al que se enfrentan las teorías de la propensión es decir exactamente qué significa propensión. (Y luego, por supuesto, mostrar que la propensión así definida tiene las propiedades requeridas.) En la actualidad, lamentablemente, ninguna de las explicaciones bien reconocidas de la propensión se acerca a este desafío.

Charles Sanders Peirce presentó una teoría de la propensión a la probabilidad. Una teoría de la propensión posterior fue propuesta por el filósofo Karl Popper, quien, sin embargo, solo tenía un ligero conocimiento de los escritos de C. S. Peirce. Popper señaló que el resultado de un experimento físico es producido por un cierto conjunto de "condiciones generadoras". Cuando repetimos un experimento, como dice el refrán, en realidad realizamos otro experimento con un conjunto (más o menos) similar de condiciones generadoras. Decir que un conjunto de condiciones generadoras tiene propensión p a producir el resultado E significa que esas condiciones exactas, si se repiten indefinidamente, producirían una secuencia de resultados en la que E ocurrió con una frecuencia relativa límite p. Entonces, para Popper, un experimento determinista tendría una propensión de 0 o 1 para cada resultado, ya que esas condiciones generadoras tendrían el mismo resultado en cada prueba. En otras palabras, las propensiones no triviales (aquellas que difieren de 0 y 1) solo existen para experimentos genuinamente no deterministas.

Otros filósofos, incluidos David Miller y Donald A. Gillies, han propuesto teorías de propensión algo similares a las de Popper.

Otros teóricos de la propensión (p. ej., Ronald Giere) no definen explícitamente las propensiones en absoluto, sino que ven la propensión definida por el papel teórico que desempeña en la ciencia. Argumentaron, por ejemplo, que las magnitudes físicas como la carga eléctrica tampoco pueden definirse explícitamente en términos de cosas más básicas, sino solo en términos de lo que hacen (como atraer y repeler otras cargas eléctricas). De manera similar, la propensión es todo lo que cumple los diversos roles que desempeña la probabilidad física en la ciencia.

¿Qué papel juega la probabilidad física en la ciencia? ¿Cuáles son sus propiedades? Una propiedad central del azar es que, cuando se conoce, obliga a la creencia racional a tomar el mismo valor numérico. David Lewis llamó a esto el principio principal, (3.3 y 3.5), un término que los filósofos han adoptado en su mayoría. Por ejemplo, suponga que está seguro de que una moneda sesgada en particular tiene una propensión de 0,32 a caer cara cada vez que se lanza al aire. ¿Cuál es entonces el precio correcto para una apuesta que paga $1 si la moneda cae cara y nada en caso contrario? Según el Principio Principal, el precio justo es de 32 centavos.

Probabilidad lógica, epistémica e inductiva

Es ampliamente reconocido que el término "probabilidad" a veces se usa en contextos donde no tiene nada que ver con la aleatoriedad física. Considere, por ejemplo, la afirmación de que la extinción de los dinosaurios fue probablemente causada por un gran meteorito que golpeó la tierra. Declaraciones como "La hipótesis H es probablemente cierta" han sido interpretados en el sentido de que la evidencia empírica (actualmente disponible) (E, digamos) apoya H en un alto grado. Este grado de apoyo de H por E se ha denominado probabilidad lógica de H dada E, o probabilidad epistémica de H dada E, o probabilidad inductiva de H dada E.

Las diferencias entre estas interpretaciones son bastante pequeñas y pueden parecer intrascendentes. Uno de los principales puntos de desacuerdo radica en la relación entre probabilidad y creencia. Las probabilidades lógicas se conciben (por ejemplo, en el Tratado de probabilidad de Keynes) como relaciones lógicas y objetivas entre proposiciones (u oraciones) y, por lo tanto, no dependen de ninguna manera de la creencia. Son grados de vinculación (parcial), o grados de consecuencia lógica, no grados de creencia. (Sin embargo, dictan grados adecuados de creencia, como se analiza más adelante). Frank P. Ramsey, por otro lado, se mostró escéptico sobre la existencia de tales relaciones lógicas objetivas y argumentó que la probabilidad (evidencial) es " la lógica de la creencia parcial". (p 157) En otras palabras, Ramsey sostuvo que las probabilidades epistémicas simplemente son grados de creencia racional, en lugar de ser relaciones lógicas que simplemente restringen grados de creencia racional.

Otro punto de desacuerdo se refiere a la singularidad de la probabilidad probatoria, en relación con un estado de conocimiento dado. Rudolf Carnap sostuvo, por ejemplo, que los principios lógicos siempre determinan una probabilidad lógica única para cualquier declaración, en relación con cualquier cuerpo de evidencia. Ramsey, por el contrario, pensó que mientras que los grados de creencia están sujetos a algunas restricciones racionales (tales como, entre otros, los axiomas de probabilidad), estas restricciones generalmente no determinan un valor único. Las personas racionales, en otras palabras, pueden diferir un poco en sus grados de creencia, incluso si todos tienen la misma información.

Predicción

Una explicación alternativa de la probabilidad enfatiza el papel de la predicción: predecir observaciones futuras sobre la base de observaciones pasadas, no sobre parámetros no observables. En su forma moderna, se encuentra principalmente en la vena bayesiana. Esta era la función principal de la probabilidad antes del siglo XX, pero cayó en desgracia en comparación con el enfoque paramétrico, que modelaba los fenómenos como un sistema físico que se observaba con error, como en la mecánica celeste.

El enfoque predictivo moderno fue iniciado por Bruno de Finetti, con la idea central de la intercambiabilidad: que las observaciones futuras deberían comportarse como observaciones pasadas. Este punto de vista llamó la atención del mundo anglófono con la traducción de 1974 del libro de De Finetti, y ha propuesto desde entonces por estadísticos como Seymour Geisser.

Probabilidad axiomática

Las matemáticas de probabilidad se pueden desarrollar sobre una base totalmente axiomática que es independiente de cualquier interpretación: consulte los artículos sobre teoría de probabilidad y axiomas de probabilidad para un tratamiento detallado.

Contenido relacionado

Conjunto parcialmente pedido

En matemáticas, especialmente en teoría del orden, un conjunto parcialmente ordenado formaliza y generaliza el concepto intuitivo de una ordenación...

Prueba original del teorema de completitud de Gödel

La prueba del teorema de completitud de Gödel dada por Kurt Gödel en su disertación doctoral de 1929 no es fácil de leer hoy en día; utiliza conceptos y...

Lista de ecuaciones en mecánica clásica

La mecánica clásica utiliza muchas ecuaciones, así como otros conceptos matemáticos, que relacionan varias cantidades físicas entre sí. Estos incluyen...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save