Desigualdad de Boole
En la teoría de la probabilidad, la desigualdad de Boole, también conocida como límite de unión, dice que para cualquier conjunto finito o contable de eventos, la probabilidad de que al menos uno de los eventos suceda no es mayor que la suma de las probabilidades de los eventos individuales. Esta desigualdad proporciona un límite superior a la probabilidad de ocurrencia de al menos uno de un número contable de eventos en términos de las probabilidades individuales de los eventos. La desigualdad de Boole lleva el nombre de su descubridor George Boole.
Formalmente, para un conjunto numerable de eventos A 1, A 2, A 3,..., tenemos
En términos de teoría de la medida, la desigualdad de Boole se deriva del hecho de que una medida (y ciertamente cualquier medida de probabilidad) es σ -sub-aditiva.
Prueba
Prueba usando inducción
La desigualdad de Boole se puede probar para colecciones finitas de eventos usando el método de inducción.
Para el caso, se sigue que
Para el caso , tenemos
Como y debido a que la operación de unión es asociativa, tenemos
Ya que
por el primer axioma de probabilidad, tenemos
y por lo tanto
Prueba sin usar inducción
Para cualquier evento en nuestro espacio de probabilidad tenemos
Uno de los axiomas de un espacio de probabilidad es que si son subconjuntos disjuntos del espacio de probabilidad entonces
esto se llama aditividad contable.
si entonces
De hecho, a partir de los axiomas de una distribución de probabilidad,
Tenga en cuenta que los dos términos de la derecha no son negativos.
Ahora tenemos que modificar los conjuntos , para que se vuelvan disjuntos.
Entonces, si , entonces sabemos
Por lo tanto, podemos deducir la siguiente ecuación
Desigualdades de Bonferroni
La desigualdad de Boole se puede generalizar para encontrar límites superior e inferior en la probabilidad de uniones finitas de eventos. Estos límites se conocen como desigualdades de Bonferroni, en honor a Carlo Emilio Bonferroni; ver Bonferroni (1936).
Definir
y<img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/83b870c485ffd4b9b18dad05330c6367003b920e" alt="{displaystyle S_{2}:=sum_{1leq i
así como<img src="https://wikimedia.org/api/rest_v1/media/math/render/svg/aaa807693a92a4b629b107d83aefdd1d6c909572" alt="S_{k}:=sum_{1leq i_{1}<cdots
para todos los enteros k en {3,..., n }.
Entonces, para k impar en {1,..., n },
y para incluso k en {2,..., n },
La desigualdad de Boole es el caso inicial, k = 1. Cuando k = n, entonces se cumple la igualdad y la identidad resultante es el principio de inclusión-exclusión.
Ejemplo
Suponga que está estimando 5 parámetros basados en una muestra aleatoria y puede controlar cada parámetro por separado. Si desea que sus estimaciones de los cinco parámetros sean buenas con una probabilidad del 95 %, ¿cómo debe hacer con cada parámetro?
Obviamente, controlar cada parámetro bien con una probabilidad del 95 % no es suficiente porque "todos son buenos" es un subconjunto de cada evento "Estimar i es bueno". Podemos usar la Desigualdad de Boole para resolver este problema. Al encontrar el complemento del evento "todos los cincos son buenos", podemos cambiar esta pregunta a otra condición:
P(al menos una estimación es mala) = 0.05 ≤ P(A 1 es mala) + P(A 2 es mala) + P(A 3 es mala) + P(A 4 es mala) + P(A 5 es mala)
Una forma es hacer que cada uno de ellos sea igual a 0,05/5 = 0,01, es decir, 1%. En otras palabras, debe garantizar que cada estimación sea buena al 99 % (por ejemplo, mediante la construcción de un intervalo de confianza del 99 %) para asegurarse de que la estimación total sea buena con una probabilidad del 95 %. Esto se llama Método de Bonferroni de inferencia simultánea.
Contenido relacionado
William Sealy Gosset
Ley de Bradford
Regularidad estadística