Probabilidad frecuentista
Probabilidad frecuentista o frecuentismo es una interpretación de la probabilidad; define la probabilidad de un evento como el límite de su frecuencia relativa en muchos ensayos (la probabilidad a largo plazo). Las probabilidades se pueden encontrar (en principio) mediante un proceso objetivo repetible (y, por lo tanto, idealmente carecen de opinión). Sin embargo, se ha cuestionado el uso continuado de métodos frecuentistas en la inferencia científica.
El desarrollo del relato frecuentista estuvo motivado por los problemas y paradojas del punto de vista previamente dominante, la interpretación clásica. En la interpretación clásica, la probabilidad se definía en términos del principio de indiferencia, basado en la simetría natural de un problema, así, p. ej. las probabilidades de los juegos de dados surgen de la simetría natural de 6 caras del cubo. Esta interpretación clásica tropezaba con cualquier problema estadístico que no tuviera una simetría natural para el razonamiento.
Definición
En la interpretación frecuentista, las probabilidades se discuten solo cuando se trata de experimentos aleatorios bien definidos. El conjunto de todos los posibles resultados de un experimento aleatorio se denomina espacio muestral del experimento. Un evento se define como un subconjunto particular del espacio muestral a considerar. Para cualquier evento dado, solo se puede cumplir una de dos posibilidades: ocurre o no ocurre. La frecuencia relativa de ocurrencia de un evento, observada en un número de repeticiones del experimento, es una medida de la probabilidad de ese evento. Esta es la concepción central de la probabilidad en la interpretación frecuentista.
Una afirmación del enfoque frecuentista es que, a medida que aumenta el número de intentos, el cambio en la frecuencia relativa disminuirá. Por lo tanto, uno puede ver una probabilidad como el valor límite de las correspondientes frecuencias relativas.
Alcance
La interpretación frecuentista es una aproximación filosófica a la definición y uso de probabilidades; es uno de varios enfoques de este tipo. No pretende captar todas las connotaciones del concepto 'probable' en el habla coloquial de las lenguas naturales.
Como interpretación, no está en conflicto con la axiomatización matemática de la teoría de la probabilidad; más bien, proporciona una guía sobre cómo aplicar la teoría matemática de la probabilidad a situaciones del mundo real. Ofrece una guía distinta en la construcción y diseño de experimentos prácticos, especialmente cuando se contrasta con la interpretación bayesiana. En cuanto a si esta guía es útil o es propensa a malas interpretaciones, ha sido fuente de controversia. Particularmente cuando se asume erróneamente que la interpretación frecuencial de la probabilidad es la única base posible para la inferencia frecuentista. Entonces, por ejemplo, una lista de malas interpretaciones del significado de los valores de p acompaña al artículo sobre los valores de p; Las controversias se detallan en el artículo sobre pruebas de hipótesis estadísticas. La paradoja de Jeffreys-Lindley muestra cómo diferentes interpretaciones, aplicadas al mismo conjunto de datos, pueden conducir a diferentes conclusiones sobre la 'significación estadística' de un resultado
Como señaló William Feller:
No hay lugar en nuestro sistema para especulaciones sobre la probabilidad de que el sol se levante mañana. Antes de hablar de ello, debemos estar de acuerdo en un modelo (idealizado) que presumiblemente funcionaría a lo largo de las líneas "de infinitamente muchos mundos uno es seleccionado al azar..." Se requiere poca imaginación para construir tal modelo, pero parece ininteresante y sin sentido.
El comentario de Feller fue una crítica a Pierre-Simon Laplace, quien publicó una solución al problema del amanecer usando una interpretación de probabilidad alternativa. A pesar del descargo de responsabilidad explícito e inmediato de Laplace en la fuente, basado en su experiencia en astronomía y probabilidad, han seguido dos siglos de críticas.
Historia
La visión frecuentista puede haber sido presagiada por Aristóteles, en Retórica, cuando escribió:
lo probable es lo que ocurre en su mayor parte
Poisson distinguió claramente entre probabilidades objetivas y subjetivas en 1837. Poco después, una serie de publicaciones casi simultáneas de Mill, Ellis ("Sobre los fundamentos de la teoría de las probabilidades" y "Remarks on the Principios fundamentales de la teoría de las probabilidades"), Cournot (Exposition de la théorie des chances et des probabilités) y Fries introdujeron la visión frecuentista. Venn proporcionó una exposición exhaustiva (La lógica del azar: un ensayo sobre los fundamentos y la provincia de la teoría de la probabilidad (ediciones publicadas en 1866, 1876, 1888)) dos décadas después. Estos fueron apoyados además por las publicaciones de Boole y Bertrand. A fines del siglo XIX, la interpretación frecuentista estaba bien establecida y quizás era dominante en las ciencias. La siguiente generación estableció las herramientas de la estadística inferencial clásica (pruebas de significación, pruebas de hipótesis e intervalos de confianza), todas ellas basadas en la probabilidad frecuentista.
Alternativamente, Jacob Bernoulli (también conocido como James o Jacques) entendió el concepto de probabilidad frecuentista y publicó una prueba crítica (la ley débil de los grandes números) póstumamente en 1713. También se le atribuye cierta apreciación de la probabilidad subjetiva (antes y sin el teorema de Bayes). Gauss y Laplace utilizaron la probabilidad frecuentista (y otras) en las derivaciones del método de los mínimos cuadrados un siglo después, una generación antes de Poisson. Laplace consideró las probabilidades de los testimonios, las tablas de mortalidad, los juicios de los tribunales, etc., que son candidatos poco probables para la probabilidad clásica. Desde este punto de vista, la contribución de Poisson fue su aguda crítica a la alternativa 'inversa'. (subjetiva, bayesiana) interpretación de probabilidad. Cualquier crítica de Gauss y Laplace fue silenciada e implícita. (Sus derivaciones posteriores no usaron probabilidad inversa).
Los principales contribuyentes de "clásico" las estadísticas a principios del siglo XX incluían a Fisher, Neyman y Pearson. Fisher contribuyó a la mayor parte de las estadísticas e hizo de las pruebas de significación el núcleo de la ciencia experimental, aunque criticó el concepto frecuentista de "muestreo repetido de la misma población" (Rubín, 2020); Neymar formuló intervalos de confianza y contribuyó en gran medida a la teoría del muestreo; Neyman y Pearson se emparejaron en la creación de pruebas de hipótesis. Todos valoraban la objetividad, por lo que la mejor interpretación de probabilidad de que disponían era la frecuentista. Todos sospechaban de la "probabilidad inversa" (la alternativa disponible) con probabilidades previas elegidas utilizando el principio de indiferencia. Fisher dijo: "... la teoría de la probabilidad inversa se basa en un error, [refiriéndose al teorema de Bayes] y debe rechazarse por completo". (de sus Métodos Estadísticos para Investigadores). Mientras que Neyman era un frecuentador puro, las opiniones de Fisher sobre la probabilidad eran únicas; Ambos tenían una visión matizada de la probabilidad. von Mises ofreció una combinación de soporte matemático y filosófico para el frecuentismo en la época.
Etimología
Según el Oxford English Dictionary, el término 'frecuentista' fue utilizado por primera vez por M. G. Kendall en 1949, en contraste con los bayesianos, a quienes llamó 'no frecuentistas'. El observó
- 3.... podemos distinguir ampliamente dos actitudes principales. Uno toma la probabilidad como 'un grado de creencia racional', o alguna idea similar...el segundo define la probabilidad en términos de frecuencias de ocurrencia de eventos, o por proporciones relativas en 'poblaciones' o 'colectivas'; (pág. 101)
- ...
- 12. Se podría pensar que las diferencias entre los frecuentados y los no-frecuentes (si puedo llamarlos así) se deben en gran medida a las diferencias de los dominios que pretenden cubrir. (pág. 104)
- ...
- Afirmo que esto no es así... La distinción esencial entre los frecuentados y los no-frecuentes es, creo, que el primero, en un esfuerzo por evitar cualquier cosa que favorezca asuntos de opinión, busca definir la probabilidad en términos de las propiedades objetivas de una población, real o hipotética, mientras que este último no lo hace. [emfasis en original]
"La teoría de frecuencia de la probabilidad" se utilizó una generación antes como título de capítulo en Keynes (1921).
La secuencia histórica: se introdujeron conceptos de probabilidad y se derivó gran parte de las matemáticas de probabilidad (antes del siglo XX), se desarrollaron métodos clásicos de inferencia estadística, se solidificaron los fundamentos matemáticos de la probabilidad y se introdujo la terminología actual (todo en el siglo XX).). Las fuentes históricas primarias en probabilidad y estadística no utilizaron la terminología actual de probabilidad clásica, subjetiva (bayesiana) y frecuentista.
Vistas alternativas
La teoría de la probabilidad es una rama de las matemáticas. Si bien sus raíces se remontan a siglos atrás, alcanzó su madurez con los axiomas de Andrey Kolmogorov en 1933. La teoría se centra en las operaciones válidas sobre valores de probabilidad más que en la asignación inicial de valores; las matemáticas son en gran medida independientes de cualquier interpretación de la probabilidad.
Las aplicaciones e interpretaciones de la probabilidad son consideradas por la filosofía, las ciencias y la estadística. Todos están interesados en la extracción de conocimiento a partir de observaciones: razonamiento inductivo. Hay una variedad de interpretaciones en competencia; Todos tienen problemas. La interpretación frecuentista resuelve las dificultades de la interpretación clásica, como cualquier problema en el que no se conozca la simetría natural de los resultados. No aborda otros temas, como el libro holandés.
- La probabilidad clásica asigna probabilidades basadas en la simetría idealizada física (dice, monedas, tarjetas). La definición clásica está en riesgo de circularidad; las probabilidades se definen asumiendo la igualdad de probabilidades. En ausencia de simetría, la utilidad de la definición es limitada.
- La probabilidad subjetiva (bayesiana) (una familia de interpretaciones competidoras) considera grados de creencia. Todas las interpretaciones prácticas de probabilidad "subjetiva" están tan limitadas a la racionalidad como para evitar la mayor subjetividad. La subjetividad real es repelente a algunas definiciones de ciencia que buscan resultados independientes del observador y analista. Otras aplicaciones del Bayesianismo en la ciencia (por ejemplo, el Bayesianismo lógico) abarcan la subjetividad inherente de muchos estudios y objetos científicos y utilizan el razonamiento bayesiano para colocar límites y contexto sobre la influencia de subjetividades en todo análisis. Las raíces históricas de este concepto se extendieron a tales aplicaciones no numéricas como evidencia legal.
- Propensity probability views probability as a causative phenomenon rather than a merely descriptive or subjective one.
Contenido relacionado
Anillo cociente
Ideal principal
Corrado Gini