Independência (teoria da probabilidade)

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Independência é uma noção fundamental na teoria das probabilidades, assim como na estatística e na teoria dos processos estocásticos. Dois eventos são independentes, estatisticamente independentes ou estocasticamente independentes se, falando informalmente, a ocorrência de um não afeta a probabilidade de ocorrência do evento. outro ou, equivalentemente, não afeta as probabilidades. Da mesma forma, duas variáveis aleatórias são independentes se a realização de uma não afeta a distribuição de probabilidade da outra.

Ao lidar com coleções de mais de dois eventos, duas noções de independência precisam ser distinguidas. Os eventos são chamados de independentes aos pares se quaisquer dois eventos na coleção forem independentes um do outro, enquanto independência mútua (ou independência coletiva) de eventos significa, informalmente falando, que cada event é independente de qualquer combinação de outros eventos na coleção. Existe uma noção semelhante para coleções de variáveis aleatórias. A independência mútua implica independência entre pares, mas não o contrário. Na literatura padrão da teoria das probabilidades, estatística e processos estocásticos, independência sem maiores qualificações geralmente se refere à independência mútua.

Definição

Para eventos

Dois eventos

Dois eventos e são independentes (muitas vezes escrito como ou , onde o último símbolo muitas vezes também é usado para a independência condicional) se e somente se sua probabilidade conjunta é igual ao produto de suas probabilidades:

(Eq.1)

indica que dois eventos independentes e têm elementos comuns em seu espaço de amostra para que eles não sejam mutuamente exclusivos (mutalmente exclusivo iff ). Por que isso define a independência é clara por reescrever com probabilidades condicionais como a probabilidade em que o evento ocorre desde que o evento tem ou se presume ter ocorrido:

e da mesma forma

Assim, a ocorrência de não afeta a probabilidade de e vice-versa. Em outras palavras, e são independentes um para o outro. Embora as expressões derivadas possam parecer mais intuitivas, elas não são a definição preferida, pois as probabilidades condicionais podem ser indefinidas se ou são 0. Além disso, a definição preferida deixa claro pela simetria que quando é independente de , é também independente de .

Probabilidades

Declarado em termos de probabilidades, dois eventos são independentes se e somente se a relação de probabilidades de e é a unidade (1). Analogamente com probabilidade, isso é equivalente às probabilidades condicionais sendo iguais às probabilidades incondicionais:

ou às probabilidades de um evento, dado o outro evento, sendo iguais às probabilidades do evento, dado o outro evento não ocorrer:

A razão de chances pode ser definida como

ou simetricamente para probabilidades de dados , e assim é 1 se e somente se os eventos são independentes.

Mais de dois eventos

Um conjunto finito de eventos é emparelhado independente se cada par de eventos é independente - isto é, se e somente se para todos os pares distintos de índices ,

(Eq.2)

Um conjunto finito de eventos é mutuamente independentes se cada evento é independente de qualquer interseção dos outros eventos - isto é, se e somente para cada e para cada índice k ,

(Eq.3)

Isso é chamado de regra de multiplicação para eventos independentes. Não é uma condição única que envolve apenas o produto de todas as probabilidades de todos os acontecimentos individuais; deve ser verdadeiro para todos os subconjuntos de eventos.

Para mais de dois eventos, um conjunto de eventos mutuamente independentes é (por definição) independente aos pares; mas o inverso não é necessariamente verdadeiro.

Log de probabilidade e conteúdo de informação

Declarado em termos de log de probabilidade, dois eventos são independentes se e somente se o log de probabilidade do evento conjunto for a soma do log de probabilidade dos eventos individuais:

Na teoria da informação, o log de probabilidade negativo é interpretado como conteúdo de informação e, portanto, dois eventos são independentes se e somente se o conteúdo de informação do evento combinado for igual à soma do conteúdo de informação dos eventos individuais:

Consulte Conteúdo informativo § Aditividade de eventos independentes para obter detalhes.

Para variáveis aleatórias com valores reais

Duas variáveis aleatórias

Duas variáveis aleatórias e são independentes se e somente se (iff) os elementos do sistema π gerados por eles são independentes; isto é, para cada e , os eventos e são eventos independentes (como definido acima em Eq.1). Isso é, e com funções de distribuição cumulativa e , são independentes sef a variável aleatória combinada tem uma função de distribuição cumulativa conjunta

(Eq.4)

ou equivalente, se as densidades de probabilidade e e a densidade de probabilidade conjunta existir,

Mais de duas variáveis aleatórias

Um conjunto finito de variáveis aleatórias é independente se e somente se cada par de variáveis aleatórias for independente. Mesmo que o conjunto de variáveis aleatórias seja emparelhado independente, não é necessariamente mutuamente independentes como definido a seguir.

Um conjunto finito de variáveis aleatórias o mutuamente independentes se e somente se para qualquer sequência de números , os eventos são eventos mutuamente independentes (como definido acima em Eq.3). Isto é equivalente à seguinte condição na função de distribuição cumulativa conjunta . Um conjunto finito de variáveis aleatórias é mutuamente independente se e somente se

(Eq.5)

Observe que não é necessário aqui exigir que a distribuição de probabilidade facilite para todos os possíveis - Elemento subconjuntos como no caso para eventos. Isso não é necessário porque por exemplo. implica .

A medida teoricamente inclinada pode preferir substituir eventos para eventos na definição acima, onde é qualquer conjunto Borel. Essa definição é exatamente equivalente ao acima quando os valores das variáveis aleatórias são números reais. Tem a vantagem de trabalhar também para variáveis aleatórias de valor complexo ou para variáveis aleatórias que tomam valores em qualquer espaço mensurável (que inclui espaços topológicos dotados por σ-algebras apropriadas).

Para vetores aleatórios com valores reais

Dois vetores aleatórios e são chamados independentes se

(Eq.6)

Onde? e denotar as funções de distribuição cumulativa de e e denota sua função de distribuição cumulativa conjunta. Independência de e é muitas vezes denotado por . Escrito no sentido componente, e são chamados independentes se

Para processos estocásticos

Para um processo estocástico

A definição de independência pode ser estendida de vetores aleatórios para um processo estocástico. Portanto, é necessário para um processo estocástico independente que as variáveis aleatórias obtidas por amostragem do processo em qualquer vezes são variáveis aleatórias independentes para qualquer .

Formalmente, um processo estocástico é chamado independente, se e somente se para todos e para todos

(Eq.7)

Onde? . A independência de um processo estocástico é uma propriedade dentro de um processo estocástico, não entre dois processos estocásticos.

Para dois processos estocásticos

A independência de dois processos estocásticos é uma propriedade entre dois processos estocásticos e que são definidos no mesmo espaço de probabilidade . Formalmente, dois processos estocásticos e é dito ser independente se para todos e para todos , os vetores aleatórios e são independentes, ou seja, se

(Eq.8)

σ-álgebras independentes

As definições acima (Eq.1 e Eq.2) são ambos generalizados pela seguinte definição de independência para σ-algebras. Vamos. ser um espaço de probabilidade e deixar e ser dois sub-σ-algebras de . e é dito ser independente se, sempre que e ,

Da mesma forma, uma família finita de σ-algebras , onde é um conjunto de índices, é dito ser independente se e somente se

e uma família infinita de σ-álgebras é considerada independente se todas as suas subfamílias finitas são independentes.

A nova definição relaciona-se diretamente com as anteriores:

  • Dois eventos são independentes (no sentido antigo) se e somente se as σ-algebras que geram são independentes (no novo sentido). A σ-algebra gerada por um evento é, por definição,
  • Duas variáveis aleatórias e definido por são independentes (no velho sentido) se e somente se as σ-algebras que geram são independentes (no novo sentido). A σ-algebra gerada por uma variável aleatória tomando valores em algum espaço mensurável consiste, por definição, de todos os subconjuntos de da forma , onde é qualquer subconjunto mensurável de .

Usando esta definição, é fácil mostrar que se e são variáveis aleatórias e é constante, então e são independentes, uma vez que a σ-algebra gerada por uma variável aleatória constante é a σ-algebra trivial . Probabilidade zero eventos não podem afetar a independência, então a independência também detém se é apenas Pr-quase seguramente constante.

Propriedades

Autoindependência

Observe que um evento é independente de si mesmo se e somente se

Assim, um evento é independente de si mesmo se e somente se ocorre quase certamente ou seu complemento ocorre quase certamente; este fato é útil para provar leis zero-um.

Expectativa e covariância

Se e são variáveis aleatórias estatisticamente independentes, então o operador de expectativa tem a propriedade

e a covariância é zero, como segue de

O inverso não é válido: se duas variáveis aleatórias têm uma covariância de 0, elas ainda podem não ser independentes.

Da mesma forma para dois processos estocásticos e : Se eles são independentes, então eles não estão relacionados com a decoração.

Função característica

Duas variáveis aleatórias e são independentes se e somente se a função característica do vetor aleatório satisfaz

Em particular, a função característica da sua soma é o produto das suas funções características marginais:

embora a implicação inversa não seja verdadeira. Variáveis aleatórias que satisfazem a última condição são chamadas subindependentes.

Exemplos

Jogando dados

O evento de obter um 6 na primeira vez que um dado é lançado e o evento de obter um 6 na segunda vez são independentes. Por outro lado, o evento de obter um 6 na primeira vez que um dado é lançado e o evento de a soma dos números vistos na primeira e na segunda tentativa ser 8 não são independentes.

Tirar cartas

Se duas cartas são retiradas com substituição de um baralho de cartas, o evento de tirar um cartão vermelho na primeira tentativa e o de tirar um cartão vermelho na segunda tentativa são independentes . Por outro lado, se duas cartas são retiradas sem de um baralho de cartas, o evento de tirar um cartão vermelho na primeira tentativa e o de tirar um cartão vermelho na segunda tentativa não são . independente, porque um baralho que teve uma carta vermelha removida tem proporcionalmente menos cartas vermelhas.

Independência mútua e em pares

Emparelhado independente, mas não mutuamente independente, eventos
Eventos mutualmente independentes

Considere os dois espaços de probabilidade mostrados. Em ambos os casos, e . As variáveis aleatórias no primeiro espaço são independentes em pares porque , e ; mas as três variáveis aleatórias não são mutuamente independentes. As variáveis aleatórias no segundo espaço são independentes e mutuamente independentes. Para ilustrar a diferença, considere condicionamento em dois eventos. No caso independente, embora qualquer evento seja independente de cada um dos outros dois individualmente, não é independente da interseção dos outros dois:

No caso mutuamente independente, entretanto,

Independência tripla, mas sem independência de pares

É possível criar um exemplo de três eventos em que

e ainda assim, dois dos três eventos não são independentes entre pares (e, portanto, o conjunto de eventos não é mutuamente independente). Este exemplo mostra que a independência mútua envolve requisitos sobre os produtos das probabilidades de todas as combinações de eventos, e não apenas dos eventos individuais como neste exemplo.

Independência condicional

Para eventos

Os eventos e são condicionalmente independentes dado um evento quando

.

Para variáveis aleatórias

Intuitivamente, duas variáveis aleatórias e são condicionalmente independentes dado se, uma vez é conhecido, o valor de não adiciona nenhuma informação adicional sobre . Por exemplo, duas medições e da mesma quantidade subjacente não são independentes, mas eles são condicionalmente independentes dado (a menos que os erros nas duas medidas estejam de alguma forma conectados).

A definição formal de independência condicional baseia-se na ideia de distribuições condicionais. Se , e são variáveis aleatórias discretas, então definimos e para ser condicionalmente independente dado se

para todos , e tal que . Por outro lado, se as variáveis aleatórias forem contínuas e tiverem uma função de densidade de probabilidade conjunta , então e são condicionalmente independentes dado se

para todos os números reais , e tal que .

Se discreto e são condicionalmente independentes dado , então

para qualquer , e com . Isto é, a distribuição condicional para dados e é o mesmo que o dado sozinho. Uma equação semelhante mantém para as funções de densidade de probabilidade condicional no caso contínuo.

A independência pode ser vista como um tipo especial de independência condicional, uma vez que a probabilidade pode ser vista como um tipo de probabilidade condicional na ausência de eventos.

Contenido relacionado

Conjetura

Na matemática, uma conjectura é uma conclusão ou uma proposição que é proferida em uma tentativa sem prova. Algumas conjecturas, como a hipótese de...

Campo (matemática)

Na matemática, um corpo é um conjunto no qual adição, subtração, multiplicação e divisão são definidas e se comportam como as operações...

Estatísticas demográficas

Estatísticas demográficas são medidas das características ou mudanças em uma população. Registros de nascimentos, óbitos, casamentos, imigração e...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save