Eventos colectivamente exhaustivos
En teoría y lógica de las probabilidades, un conjunto de eventos es conjunta o colectivamente exhaustivo si al menos uno de los eventos debe ocurrir. Por... (leer más)
La distribución de Cauchy, llamada así por Augustin Cauchy, es una distribución de probabilidad continua. También se conoce, especialmente entre los físicos, como distribución de Lorentz (después de Hendrik Lorentz), distribución de Cauchy-Lorentz, función de Lorentz (ian) o distribución de Breit-Wigner. La distribución de Cauchy es la distribución de la intersección x de un rayo que sale con un ángulo uniformemente distribuido. También es la distribución del cociente de dos variables aleatorias independientes normalmente distribuidas con media cero.
La distribución de Cauchy se usa a menudo en estadística como el ejemplo canónico de una distribución "patológica" ya que tanto su valor esperado como su varianza no están definidos (pero consulte § Explicación de momentos indefinidos a continuación). La distribución de Cauchy no tiene momentos finitos de orden mayor o igual a uno; sólo existen momentos absolutos fraccionarios. La distribución de Cauchy no tiene función generadora de momentos.
En matemáticas, está estrechamente relacionado con el núcleo de Poisson, que es la solución fundamental de la ecuación de Laplace en el semiplano superior.
Es una de las pocas distribuciones que es estable y tiene una función de densidad de probabilidad que se puede expresar analíticamente, las otras son la distribución normal y la distribución de Lévy.
Una función con la forma de la función de densidad de la distribución de Cauchy fue estudiada geométricamente por Fermat en 1659, y más tarde fue conocida como la bruja de Agnesi, después de que Agnesi la incluyera como ejemplo en su libro de texto de cálculo de 1748. A pesar de su nombre, el primer análisis explícito de las propiedades de la distribución de Cauchy fue publicado por el matemático francés Poisson en 1824, y Cauchy solo se asoció con él durante una controversia académica en 1853. Poisson señaló que si la media de las observaciones después de tal se tomó la distribución, el error mediono convergieron a ningún número finito. Como tal, el uso de Laplace del teorema del límite central con tal distribución fue inapropiado, ya que asumió una media y una varianza finitas. A pesar de esto, Poisson no le dio importancia al tema, a diferencia de Bienaymé, quien entablaría una larga disputa con Cauchy sobre el asunto.
La distribución de Cauchy tiene la función de densidad de probabilidad (PDF)
donde es el parámetro de ubicación, que especifica la ubicación del pico de la distribución, y es el parámetro de escala que especifica la mitad del ancho en la mitad del máximo (HWHM), alternativamente, es el ancho completo en la mitad del máximo (FWHM). también es igual a la mitad del rango intercuartílico y a veces se le llama error probable. Augustin-Louis Cauchy explotó una función de densidad de este tipo en 1827 con un parámetro de escala infinitesimal, definiendo lo que ahora se llamaría una función delta de Dirac.
El valor máximo o amplitud de la PDF de Cauchy es , ubicado en .
A veces es conveniente expresar la PDF en términos del parámetro complejo
El caso especial cuando y se denomina distribución de Cauchy estándar con la función de densidad de probabilidad
En física, a menudo se usa una función lorentziana de tres parámetros:
donde es la altura del pico. La función lorentziana de tres parámetros indicada no es, en general, una función de densidad de probabilidad, ya que no integra a 1, excepto en el caso especial donde
La función de distribución acumulada de la distribución de Cauchy es:
y la función cuantil (cdf inversa) de la distribución de Cauchy es
De ello se deduce que el primer y el tercer cuartil son , y por lo tanto el rango intercuartílico es .
Para la distribución estándar, la función de distribución acumulativa se simplifica a la función arcotangente :
La entropía de la distribución de Cauchy viene dada por:
La derivada de la función cuantil, la función de densidad cuantil, para la distribución de Cauchy es:
La entropía diferencial de una distribución se puede definir en términos de su densidad cuantil, específicamente:
La distribución de Cauchy es la distribución de probabilidad de máxima entropía para una variable aleatoria para la cual
o, alternativamente, para una variable aleatoria para la cual
En su forma estándar, es la distribución de probabilidad de máxima entropía para una variable aleatoria para la cual
La divergencia de Kullback-Leibler entre dos distribuciones de Cauchy tiene la siguiente fórmula simétrica de forma cerrada:
Cualquier f-divergencia entre dos distribuciones de Cauchy es simétrica y puede expresarse como una función de la divergencia chi-cuadrado. Están disponibles expresiones de forma cerrada para la variación total, la divergencia de Jensen-Shannon, la distancia de Hellinger, etc.
La distribución de Cauchy es un ejemplo de una distribución que no tiene media, varianza o momentos superiores definidos. Su moda y mediana están bien definidas y ambas son iguales a .
Cuando y son dos variables aleatorias independientes normalmente distribuidas con valor esperado 0 y varianza 1, entonces la relación tiene la distribución estándar de Cauchy.
Si es una matriz de covarianza semidefinida positiva con entradas diagonales estrictamente positivas, entonces para independiente e idénticamente distribuida y cualquier vector aleatorio independiente de y tal que y (que define una distribución categórica) se cumple que
Si son variables aleatorias independientes e idénticamente distribuidas, cada una con una distribución de Cauchy estándar, entonces la media muestral tiene la misma distribución de Cauchy estándar. Para ver que esto es cierto, calcule la función característica de la media muestral:
donde es la media muestral. Este ejemplo sirve para mostrar que la condición de varianza finita en el teorema del límite central no se puede descartar. También es un ejemplo de una versión más generalizada del teorema del límite central que es característico de todas las distribuciones estables, de las cuales la distribución de Cauchy es un caso especial.
La distribución de Cauchy es una distribución de probabilidad infinitamente divisible. También es una distribución estrictamente estable.
La distribución estándar de Cauchy coincide con la distribución t de Student con un grado de libertad.
Como todas las distribuciones estables, la familia de ubicación-escala a la que pertenece la distribución de Cauchy se cierra bajo transformaciones lineales con coeficientes reales. Además, la distribución de Cauchy se cierra bajo transformaciones fraccionarias lineales con coeficientes reales. A este respecto, véase también la parametrización de las distribuciones de Cauchy de McCullagh.
Denotemos una variable aleatoria distribuida de Cauchy. La función característica de la distribución de Cauchy viene dada por
que es solo la transformada de Fourier de la densidad de probabilidad. La densidad de probabilidad original se puede expresar en términos de la función característica, esencialmente mediante el uso de la transformada inversa de Fourier:
El momento n de una distribución es la derivada n de la función característica evaluada en. Obsérvese que la función característica no es derivable en el origen: esto corresponde a que la distribución de Cauchy no tiene momentos bien definidos superiores al momento cero.
En comparación con la distribución normal, la función de densidad de Cauchy tiene un pico más alto y colas más bajas. Un ejemplo se muestra en las dos figuras añadidas aquí.
La figura de la izquierda muestra la función de densidad de probabilidad de Cauchy ajustada a un histograma observado. El pico de la función es más alto que el pico del histograma, mientras que las colas son más bajas que las del histograma.La figura de la derecha muestra la función de densidad de probabilidad normal ajustada al mismo histograma observado. El pico de la función es más bajo que el pico del histograma.Esto ilustra la afirmación anterior.
Si una distribución de probabilidad tiene una función de densidad , entonces la media, si existe, está dada por
(1) |
Podemos evaluar esta integral impropia de dos lados calculando la suma de dos integrales impropias de un lado. Eso es,
(2) |
para un número real arbitrario .
Para que exista la integral (incluso como un valor infinito), al menos uno de los términos de esta suma debe ser finito, o ambos deben ser infinitos y tener el mismo signo. Pero en el caso de la distribución de Cauchy, ambos términos en esta suma (2) son infinitos y tienen signo opuesto. Por lo tanto, (1) no está definido y, por lo tanto, tampoco lo está la media.
Tenga en cuenta que el valor principal de Cauchy de la media de la distribución de Cauchy es
que es cero. Por otro lado, la integral relacionada
no es cero, como se puede ver al calcular la integral. Esto nuevamente muestra que la media (1) no puede existir.
Varios resultados de la teoría de la probabilidad sobre los valores esperados, como la ley fuerte de los grandes números, no se cumplen para la distribución de Cauchy.
Los momentos absolutos para están definidos. porque tenemos
La distribución de Cauchy no tiene momentos finitos de ningún orden. Algunos de los momentos brutos superiores existen y tienen un valor de infinito, por ejemplo, el segundo momento bruto:
Al reorganizar la fórmula, se puede ver que el segundo momento es esencialmente la integral infinita de una constante (aquí 1). Los momentos brutos de mayor potencia uniforme también se evaluarán hasta el infinito. Sin embargo, los momentos brutos de potencia impar no están definidos, lo que es claramente diferente de existir con el valor del infinito. Los momentos brutos de potencia impar no están definidos porque sus valores son esencialmente equivalentes aya que las dos mitades de la integral divergen y tienen signos opuestos. El primer momento en bruto es el medio, que, siendo impar, no existe. (Consulte también la discusión anterior sobre esto). Esto, a su vez, significa que todos los momentos centrales y los momentos estandarizados no están definidos, ya que todos se basan en la media. La varianza, que es el segundo momento central, tampoco existe (a pesar de que el segundo momento en bruto existe con el valor infinito).
Los resultados para los momentos superiores se derivan de la desigualdad de Hölder, que implica que los momentos superiores (o la mitad de los momentos) divergen si los inferiores lo hacen.
Considere la distribución truncada definida al restringir la distribución de Cauchy estándar al intervalo [−10, 10 ]. Tal distribución truncada tiene todos los momentos (y el teorema del límite central se aplica a las observaciones iid de ella); sin embargo, para casi todos los propósitos prácticos se comporta como una distribución de Cauchy.
Debido a que los parámetros de la distribución de Cauchy no se corresponden con una media y una varianza, intentar estimar los parámetros de la distribución de Cauchy utilizando una media muestral y una varianza muestral no tendrá éxito. Por ejemplo, si se toma una muestra iid de tamaño n de una distribución de Cauchy, se puede calcular la media de la muestra como:
Aunque los valores de la muestra se concentrarán alrededor del valor central , la media de la muestra se volverá cada vez más variable a medida que se tomen más observaciones, debido a la mayor probabilidad de encontrar puntos de muestra con un valor absoluto grande. De hecho, la distribución de la media muestral será igual a la distribución de las propias observaciones; es decir, la media muestral de una muestra grande no es mejor (o peor) un estimador que cualquier observación individual de la muestra. De manera similar, calcular la varianza de la muestra dará como resultado valores que crecen a medida que se toman más observaciones.
Por lo tanto, se necesitan medios más robustos para estimar el valor central y el parámetro de escala. Un método simple es tomar el valor de la mediana de la muestra como estimador de y la mitad del rango intercuartílico de la muestra como estimador de . Se han desarrollado otros métodos más precisos y robustos. Por ejemplo, la media truncada del 24% medio de las estadísticas de orden de la muestra produce una estimación que es más eficiente que usar la mediana de la muestra o la media de la muestra completa. Sin embargo, debido a las colas anchas de la distribución de Cauchy, la eficiencia del estimador disminuye si se usa más del 24% de la muestra.
La máxima verosimilitud también se puede utilizar para estimar los parámetros y . Sin embargo, esto tiende a ser complicado por el hecho de que requiere encontrar las raíces de un polinomio de alto grado, y puede haber múltiples raíces que representen máximos locales. Además, mientras que el estimador de máxima verosimilitud es asintóticamente eficiente, es relativamente ineficiente para muestras pequeñas. La función logarítmica de verosimilitud para la distribución de Cauchy para el tamaño de la muestra es:
Maximizar la función de verosimilitud logarítmica con respecto a y tomando la primera derivada produce el siguiente sistema de ecuaciones:
Tenga en cuenta que
es una función monótona y que la solución debe satisfacer
Resolver solo por requiere resolver un polinomio de grado , y resolver solo por requiere resolver un polinomio de grado . Por lo tanto, ya sea que se resuelva para un parámetro o para ambos parámetros simultáneamente, generalmente se requiere una solución numérica en una computadora. El beneficio de la estimación de máxima verosimilitud es la eficiencia asintótica; estimar usando la mediana de la muestra es solo un 81% tan asintóticamente eficiente como estimar por máxima verosimilitud. La media de la muestra truncada que utiliza las estadísticas del orden medio del 24% es aproximadamente un 88% tan asintóticamente eficiente como un estimador de la estimación de máxima verosimilitud.Cuando se usa el método de Newton para encontrar la solución para la estimación de máxima verosimilitud, las estadísticas de orden medio del 24% se pueden usar como una solución inicial para .
La forma se puede estimar utilizando la mediana de los valores absolutos, ya que para las variables de ubicación 0 de Cauchy , el parámetro de forma.
Se dice que un vector aleatorio tiene la distribución de Cauchy multivariante si cada combinación lineal de sus componentes tiene una distribución de Cauchy. Es decir, para cualquier vector constante , la variable aleatoria debe tener una distribución de Cauchy univariada. La función característica de una distribución de Cauchy multivariada viene dada por:
donde y son funciones reales con una función homogénea de grado uno y una función homogénea positiva de grado uno. Más formalmente:
para todos
Un ejemplo de una distribución de Cauchy bivariada puede ser dado por:
Tenga en cuenta que en este ejemplo, aunque la covarianza entre y es 0, y no son estadísticamente independientes.
También podemos escribir esta fórmula para variable compleja. Entonces la función de densidad de probabilidad del cauchy complejo es:
De manera análoga a la densidad univariante, la densidad de Cauchy multidimensional también se relaciona con la distribución de Student multivariante. Son equivalentes cuando el parámetro grados de libertad es igual a uno. La densidad de una dimensión Distribución de Student con un grado de libertad se convierte en:
Las propiedades y detalles de esta densidad se pueden obtener tomándola como un caso particular de la densidad de Student multivariada.
La distribución de Cauchy es la distribución estable del índice 1. La representación de Lévy-Khintchine de tal distribución estable de parámetros viene dada por:
dónde
y puede expresarse explícitamente. En el caso de la distribución de Cauchy, se tiene .
Esta última representación es consecuencia de la fórmula
En física nuclear y de partículas, el perfil de energía de una resonancia se describe mediante la distribución relativista de Breit-Wigner, mientras que la distribución de Cauchy es la distribución (no relativista) de Breit-Wigner.
En teoría y lógica de las probabilidades, un conjunto de eventos es conjunta o colectivamente exhaustivo si al menos uno de los eventos debe ocurrir. Por... (leer más)
En la teoría de la probabilidad, el complemento de cualquier evento A es el evento [no A ], es decir, el evento de que A no ocurre. El evento A y su... (leer más)
Velocidad supersónica es la velocidad de un objeto que supera la velocidad del sonido al nivel del mar, esta velocidad es de aproximadamente 343,2 m/s a... (leer más)