Probabilidade frequentista
Probabilidade frequentista ou frequentismo é uma interpretação de probabilidade; ele define a probabilidade de um evento como o limite de sua frequência relativa em muitas tentativas (a probabilidade de longo prazo). As probabilidades podem ser encontradas (em princípio) por um processo objetivo repetível (e são, portanto, idealmente desprovidas de opinião). O uso continuado de métodos frequentistas em inferência científica, no entanto, tem sido questionado.
O desenvolvimento da abordagem frequentista foi motivado pelos problemas e paradoxos do ponto de vista anteriormente dominante, a interpretação clássica. Na interpretação clássica, a probabilidade era definida em termos do princípio da indiferença, com base na simetria natural de um problema, assim, por exemplo as probabilidades dos jogos de dados surgem da simetria natural de 6 lados do cubo. Essa interpretação clássica tropeçava em qualquer problema estatístico que não tivesse simetria natural para o raciocínio.
Definição
Na interpretação frequentista, as probabilidades são discutidas apenas quando se trata de experimentos aleatórios bem definidos. O conjunto de todos os resultados possíveis de um experimento aleatório é chamado de espaço amostral do experimento. Um evento é definido como um subconjunto particular do espaço amostral a ser considerado. Para qualquer evento, apenas uma das duas possibilidades pode ocorrer: ocorre ou não. A frequência relativa de ocorrência de um evento, observada em várias repetições do experimento, é uma medida da probabilidade desse evento. Esta é a concepção central de probabilidade na interpretação frequentista.
Uma alegação da abordagem frequentista é que, à medida que o número de tentativas aumenta, a mudança na frequência relativa diminui. Portanto, pode-se ver uma probabilidade como o valor limite das frequências relativas correspondentes.
Escopo
A interpretação frequentista é uma abordagem filosófica para a definição e uso de probabilidades; é uma das várias abordagens desse tipo. Ele não pretende capturar todas as conotações do conceito 'provável' na fala coloquial das línguas naturais.
Como interpretação, não está em conflito com a axiomatização matemática da teoria da probabilidade; em vez disso, fornece orientação sobre como aplicar a teoria matemática da probabilidade a situações do mundo real. Oferece orientação distinta na construção e projeto de experimentos práticos, especialmente quando contrastada com a interpretação bayesiana. Se esta orientação é útil ou passível de má interpretação, tem sido uma fonte de controvérsia. Particularmente quando a interpretação de frequência da probabilidade é erroneamente considerada a única base possível para a inferência frequentista. Assim, por exemplo, uma lista de más interpretações do significado dos valores-p acompanha o artigo sobre valores-p; as controvérsias são detalhadas no artigo sobre testes de hipóteses estatísticas. O paradoxo de Jeffreys-Lindley mostra como diferentes interpretações, aplicadas ao mesmo conjunto de dados, podem levar a diferentes conclusões sobre a 'significância estatística' de um resultado.
Como observou William Feller:
Não há lugar no nosso sistema para especulações sobre a probabilidade de o sol nascer amanhã. Antes de falar dele, devemos ter que concordar em um modelo (idealizado) que seria presumivelmente correr ao longo das linhas "de infinitamente muitos mundos um é selecionado ao acaso..." Pouco imaginação é necessária para construir tal modelo, mas parece desinteressante e sem sentido.
O comentário de Feller foi uma crítica a Pierre-Simon Laplace, que publicou uma solução para o problema do nascer do sol usando uma interpretação de probabilidade alternativa. Apesar do aviso explícito e imediato de Laplace na fonte, com base na experiência em astronomia, bem como na probabilidade, dois séculos de críticas se seguiram.
História
A visão frequentista pode ter sido prenunciada por Aristóteles, na Retórica, quando escreveu:
o provável é que o que na maioria das vezes acontece
Poisson distinguiu claramente entre probabilidades objetivas e subjetivas em 1837. Logo depois disso, uma enxurrada de publicações quase simultâneas de Mill, Ellis ("On the Foundations of the Theory of Probabilities" e "Remarks on the Princípios Fundamentais da Teoria das Probabilidades"), Cournot (Exposition de la théorie des chances et des probabilités) e Fries introduziram a visão frequentista. Venn forneceu uma exposição completa (The Logic of Chance: An Essay on the Foundations and Province of the Theory of Probability (edições publicadas em 1866, 1876, 1888)) duas décadas depois. Estes foram ainda apoiados pelas publicações de Boole e Bertrand. No final do século XIX, a interpretação frequentista estava bem estabelecida e talvez dominante nas ciências. A geração seguinte estabeleceu as ferramentas da estatística inferencial clássica (teste de significância, teste de hipótese e intervalos de confiança), tudo baseado na probabilidade frequentista.
Alternativamente, Jacob Bernoulli (também conhecido como James ou Jacques) entendeu o conceito de probabilidade frequentista e publicou uma prova crítica (a lei fraca dos grandes números) postumamente em 1713. Ele também é creditado com algum apreço pela probabilidade subjetiva (antes e sem o teorema de Bayes). Gauss e Laplace usaram a probabilidade frequentista (e outras) nas derivações do método dos mínimos quadrados um século depois, uma geração antes de Poisson. Laplace considerou as probabilidades de testemunhos, tabelas de mortalidade, julgamentos de tribunais, etc. que são candidatos improváveis para a probabilidade clássica. Nessa visão, a contribuição de Poisson foi sua crítica contundente à alternativa "inversa" (subjetiva, bayesiana) interpretação de probabilidade. Qualquer crítica de Gauss e Laplace foi muda e implícita. (Suas derivações posteriores não usaram probabilidade inversa.)
Principais colaboradores de "clássica" as estatísticas no início do século 20 incluíam Fisher, Neyman e Pearson. Fisher contribuiu para a maioria das estatísticas e fez dos testes de significância o núcleo da ciência experimental, embora criticasse o conceito frequentista de "amostragem repetida da mesma população" (Rubin, 2020); Neyman formulou intervalos de confiança e contribuiu fortemente para a teoria da amostragem; Neyman e Pearson se uniram na criação de testes de hipóteses. Todos valorizavam a objetividade, então a melhor interpretação de probabilidade disponível para eles era freqüentista. Todos suspeitavam da "probabilidade inversa" (a alternativa disponível) com probabilidades a priori escolhidas usando o princípio da indiferença. Fisher disse, "...a teoria da probabilidade inversa é baseada em um erro, [referindo-se ao teorema de Bayes] e deve ser totalmente rejeitada." (de seus métodos estatísticos para pesquisadores). Embora Neyman fosse um freqüentador puro, as visões de probabilidade de Fisher eram únicas; Ambos tinham uma visão diferenciada da probabilidade. von Mises ofereceu uma combinação de suporte matemático e filosófico para o frequentismo na época.
Etimologia
De acordo com o Oxford English Dictionary, o termo 'frequentista' foi usado pela primeira vez por M. G. Kendall em 1949, para contrastar com os bayesianos, a quem chamou de "não-frequentistas". Ele observou
- 3.... podemos amplamente distinguir duas atitudes principais. Um leva probabilidade como "um grau de crença racional", ou alguma ideia semelhante... o segundo define probabilidade em termos de frequências de ocorrência de eventos, ou por proporções relativas em "populações" ou "coletivos"; (p. 101)
- ...
- 12. Pode-se pensar que as diferenças entre os freqüentistas e os não-frequentistas (se eu puder chamá-los assim) são em grande parte devido às diferenças dos domínios que eles pretendem cobrir. (p. 104)
- ...
- Eu asseguro que isso não é assim... A distinção essencial entre os freqüentistas e os não-frequentistas é, penso eu, que o primeiro, em um esforço para evitar qualquer tipo de esforço de opinião, busca definir a probabilidade em termos das propriedades objetivas de uma população, real ou hipotética, ao passo que o último não. [enfase no original]
"A teoria da frequência da probabilidade" foi usado uma geração antes como um título de capítulo em Keynes (1921).
A sequência histórica: conceitos de probabilidade foram introduzidos e muito da matemática de probabilidade derivada (antes do século 20), métodos clássicos de inferência estatística foram desenvolvidos, os fundamentos matemáticos da probabilidade foram solidificados e a terminologia atual foi introduzida (tudo no século 20). As fontes históricas primárias em probabilidade e estatística não usam a terminologia atual de probabilidade clássica, subjetiva (Bayesiana) e frequentista.
Visões alternativas
A teoria da probabilidade é um ramo da matemática. Embora suas raízes cheguem a séculos no passado, ela atingiu a maturidade com os axiomas de Andrey Kolmogorov em 1933. A teoria se concentra nas operações válidas em valores de probabilidade, e não na atribuição inicial de valores; a matemática é amplamente independente de qualquer interpretação de probabilidade.
Aplicações e interpretações da probabilidade são consideradas pela filosofia, ciências e estatísticas. Todos estão interessados na extração de conhecimento a partir de observações – raciocínio indutivo. Há uma variedade de interpretações concorrentes; Todos têm problemas. A interpretação frequentista resolve as dificuldades com a interpretação clássica, como qualquer problema em que a simetria natural dos resultados não é conhecida. Não aborda outras questões, como o livro holandês.
- A probabilidade clássica atribui probabilidades baseadas na simetria idealizada física (dice, moedas, cartões). A definição clássica está em risco de circularidade; As probabilidades são definidas assumindo a igualdade de probabilidades. Na ausência de simetria a utilidade da definição é limitada.
- Probabilidade subjetiva (Bayesian) (uma família de interpretações concorrentes) considera graus de crença. Todas as interpretações de probabilidade "subjetivas" práticas são tão restritas à racionalidade como evitar a maior parte da subjetividade. A subjetividade real é repelente a algumas definições de ciência que se esforçam por resultados independentes do observador e analista. Outras aplicações do Bayesianismo na ciência (por exemplo, o Bayesianismo lógico) abrangem a subjetividade inerente de muitos estudos e objetos científicos e usam o raciocínio bayesiano para colocar limites e contexto sobre a influência das subjetividades em todas as análises. As raízes históricas deste conceito estenderam-se a tais aplicações não numéricas como evidência legal.
- A probabilidade de propensidade visualiza a probabilidade como fenômeno causativo em vez de um fenômeno puramente descritivo ou subjetivo.
Contenido relacionado
Assimptota
Teste de Kolmogorov-Smirnov
Número algébrico