Autocorrelación
Autocorrelación, a veces conocida como correlación en serie en el caso de tiempo discreto, es la correlación de una señal con una copia retrasada de sí misma en función del retraso. Informalmente, es la similitud entre las observaciones de una variable aleatoria en función del tiempo que transcurre entre ellas. El análisis de la autocorrelación es una herramienta matemática para encontrar patrones repetitivos, como la presencia de una señal periódica oscurecida por el ruido, o identificar la frecuencia fundamental que falta en una señal implícita en sus frecuencias armónicas. A menudo se utiliza en el procesamiento de señales para analizar funciones o series de valores, como señales en el dominio del tiempo.
Diferentes campos de estudio definen la autocorrelación de manera diferente y no todas estas definiciones son equivalentes. En algunos campos, el término se usa indistintamente con autocovarianza.
Los procesos de raíz unitaria, los procesos estacionarios de tendencia, los procesos autorregresivos y los procesos de promedio móvil son formas específicas de procesos con autocorrelación.
Autocorrelación de procesos estocásticos
En las estadísticas, la autocorrelación de un proceso aleatorio real o complejo es la correlación de Pearson entre los valores del proceso en diferentes momentos, como una función de las dos veces o del tiempo. Vamos {}Xt}{displaystyle left{X_{t}right} ser un proceso al azar, y t{displaystyle t} ser cualquier punto en el tiempo (t{displaystyle t} puede ser un número entero para un proceso discreto o un número real para un proceso continuo). Entonces... Xt{displaystyle X_{t} es el valor (o realización) producido por una determinada ejecución del proceso a la vez t{displaystyle t}. Supongamos que el proceso tiene significado μ μ t{displaystyle mu _{t} y diferencia σ σ t2{displaystyle sigma _{2}} a la vez t{displaystyle t}, para cada t{displaystyle t}. Entonces la definición de la función de autocorrelación entre tiempos t1{displaystyle T_{1} y t2{displaystyle T_{2} es
RXX ()t1,t2)=E [Xt1X̄ ̄ t2]{displaystyle operatorname {R} _{XX}(t_{1},t_{2}=operatorname {E} left [X_{t_{1}{overline {X}_{t_{2}derecha] | ()Eq.1) |
Donde E{displaystyle operatorname {E} es el operador de valor esperado y la barra representa una conjugación compleja. Tenga en cuenta que la expectativa puede no estar bien definida.
Retraer el medio antes de la multiplicación produce el función de autocovariancia entre tiempos t1{displaystyle T_{1} y t2{displaystyle T_{2}:
KXX ()t1,t2)=E [()Xt1− − μ μ t1)()Xt2− − μ μ t2)̄ ̄ ]=E [Xt1X̄ ̄ t2]− − μ μ t1μ μ ̄ ̄ t2{displaystyle operatorname {K} _{XX}(t_{1},t_{2}=operatorname {E} left[(X_{t_{1}-mu] {fnMicrosoft Sans Serif}-mu} ¿Qué? {E} left[X_{t_{1}{overline {X}_{t_{2}right]-mu {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} } | ()Eq.2) |
Tenga en cuenta que esta expresión no está bien definida para todas las series de tiempo o procesos, porque la media puede no existir, o la varianza puede ser cero (para un proceso constante) o infinita (para procesos con distribución que carece de momentos de buen comportamiento, como ciertos tipos de leyes de potencia).
Definición de proceso estocástico estacionario de sentido amplio
Si {}Xt}{displaystyle left{X_{t}right} es un proceso estacionario de sentido amplio, entonces el medio μ μ {displaystyle mu } y la diferencia σ σ 2{displaystyle sigma ^{2} son independientes del tiempo, y más allá la función de autocovariancia depende sólo del lag entre t1{displaystyle T_{1} y t2{displaystyle T_{2}: la autocovariancia depende sólo de la distancia entre el par de valores pero no de su posición en el tiempo. Esto implica además que la autocovariancia y la autocorrelación se pueden expresar como una función del tiempo-lag, y que esta sería una función uniforme del lag τ τ =t2− − t1{displaystyle tau =t_{2}-t_{1}. Esto da las formas más familiares para el función de autocorrelación
RXX ()τ τ )=E [Xt+τ τ X̄ ̄ t]{displaystyle operatorname [R] _{XX}(tau)=operatorname {E} left[X_{t+tau] }{overline {X}_{t}right] | ()Eq.3) |
y la función de autocovarianza:
KXX ()τ τ )=E [()Xt+τ τ − − μ μ )()Xt− − μ μ )̄ ̄ ]=E [Xt+τ τ X̄ ̄ t]− − μ μ μ μ ̄ ̄ {displaystyle operatorname {K} _{XX}(tau)=operatorname {E} left[(X_{t+tau }-mu){overline {(X_{t}-mu)}right]=operatorname {E} left[X_{t+tau] }{overline {X}_{t}right]-mu {fnK} | ()Eq.4) |
En particular, tenga en cuenta que
Normalización
Es una práctica común en algunas disciplinas (por ejemplo, estadísticas y análisis de series temporales) normalizar la función de autocovarianza para obtener un coeficiente de correlación de Pearson dependiente del tiempo. Sin embargo, en otras disciplinas (p. ej., ingeniería), la normalización generalmente se descarta y los términos "autocorrelación" y "autocovarianza" se usan indistintamente.
La definición del coeficiente de autocorrelación de un proceso estocástico es
Si la función *** *** XX{displaystyle rho _{XX}} está bien definido, su valor debe estar en el rango [− − 1,1]{displaystyle [-1,1]}, con 1 indicando correlación perfecta y −1 indicando perfecta anticorrelación.
Para un proceso estacionario de sentido amplio (WSS), la definición es
La normalización es importante porque la interpretación de la autocorrelación como una correlación proporciona una medida sin escala de la fuerza de la dependencia estadística y porque la normalización tiene un efecto sobre las propiedades estadísticas de las autocorrelaciones estimadas.
Propiedades
Propiedad de simetría
El hecho de que la función de autocorrelación RXX{displaystyle operatorname {R} _{XX} es una función uniforme se puede decir como
Máxima en cero
(feminine)Para un proceso WSS:
Desigualdad de Cauchy-Schwarz
La desigualdad de Cauchy-Schwarz, desigualdad para procesos estocásticos:
Autocorrelación de ruido blanco
La autocorrelación de una señal de ruido blanco continuo tendrá un pico fuerte (representado por una función Dirac delta) en τ τ =0{displaystyle tau =0} y será exactamente 0{displaystyle 0} para todos los demás τ τ {displaystyle tau }.
Teorema de Wiener-Khinchin
The Wiener–Khinchin theorem relates the autocorrelation function RXX{displaystyle operatorname {R} _{XX} a la densidad espectral de potencia SXX{displaystyle S_{XX} a través de la transformación Fourier:
Para las funciones con valores reales, la función de autocorrelación simétrica tiene una transformada simétrica real, por lo que el teorema de Wiener-Khinchin se puede volver a expresar en términos de cosenos reales únicamente:
Autocorrelación de vectores aleatorios
El (potencialmente dependiente del tiempo) matriz de autocorrelación (también llamado segundo momento) de un vector aleatorio (potencialmente dependiente del tiempo) X=()X1,...... ,Xn)T{displaystyle mathbf {X} =(X_{1},ldotsX_{n}}{rm} {T}} es un n× × n{displaystyle ntimes n} matriz que contiene como elementos las autocorrelations de todos los pares de elementos del vector aleatorio X{displaystyle mathbf {X}. La matriz de autocorrelación se utiliza en varios algoritmos de procesamiento de señales digitales.
Para un vector aleatorio X=()X1,...... ,Xn)T{displaystyle mathbf {X} =(X_{1},ldotsX_{n}}{rm} {T}} que contiene elementos aleatorios cuyo valor esperado y diferencia existen, matriz de autocorrelación se define por
RXX≜ ≜ E [XXT]{displaystyle operatorname {R} {cHFF} {X} mathbf {X}triangleq \operatorname {E} left[mathbf {X} mathbf {X} ^{rm {T}right]} | ()Eq.5) |
Donde T{displaystyle {} {fnMicrosoft} {T}} denota la transposición y tiene dimensiones n× × n{displaystyle ntimes n}.
Escrito por componentes:
Si Z{displaystyle mathbf {Z} es un vector aleatorio complejo, la matriz de autocorrelación se define por
Aquí. H{displaystyle {} {fnMicrosoft} {H}} denota la transposición hermitiana.
Por ejemplo, si X=()X1,X2,X3)T{displaystyle mathbf {X} =left(X_{1},X_{2},X_{3}right)^{rm {T}} es un vector al azar, entonces RXX{displaystyle operatorname {R} {cHFF} {X} mathbf {X} es un 3× × 3{displaystyle 3times 3} matriz ()i,j){displaystyle (i,j)}- la entrada es E [XiXj]{displaystyle operatorname {E} [X_{i}X_{j}}.
Propiedades de la matriz de autocorrelación
- La matriz de autocorrelación es una matriz hermitiana para vectores aleatorios complejos y una matriz simétrica para vectores aleatorios reales.
- La matriz de autocorrelación es una matriz semidefinida positiva, es decir. aTRXX a≥ ≥ 0para todosa▪ ▪ Rn{displaystyle mathbf {a} {T}fnK} {R} _{mthbf {X} mathbf {X}mathbf {a} geq 0quad {text{for all }mathbf {a} in mathbb {R} ^{n} para un vector aleatorio real, y respectivamente aHRZZ a≥ ≥ 0para todosa▪ ▪ Cn{displaystyle mathbf {a} [H] {R} {fn} {fnK} {fnK} {f} {f} {f} {f}} geq 0quad {text{for all }mathbf {a} in mathbb {C} ^{n} en caso de un vector aleatorio complejo.
- Todos los eigenvalues de la matriz de autocorrelación son reales y no negativos.
- El matriz de autocovariancia está relacionado con la matriz de autocorrelación como sigue:Respetuosamente para vectores aleatorios complejos:KXX=E [()X− − E [X])()X− − E [X])T]=RXX− − E [X]E [X]T{displaystyle operatorname {K} {X} mathbf {X}= [E] [Mathbf {X} -operatorname {E} [mathbf {X}] [X] -operatorname {E} [mathbf {X}] {R} {cHFF} {X} mathbf {X} [Mathbf {X]fnMitbf] {X}KZZ=E [()Z− − E [Z])()Z− − E [Z])H]=RZZ− − E [Z]E [Z]H{displaystyle operatorname {K} _{mathbf {Z} mathbf {Z}= [Mathbf {Z} - 'operatorname {E} [Z] - 'operatorname {E} [mathbf {Z}] {R} _{mathbf {Z} mathbf {Z}-fncipiente [Mathbf {Z]fnMitbf] {Z}
Autocorrelación de señales deterministas
En el procesamiento de señales, la definición anterior se usa a menudo sin la normalización, es decir, sin restar la media y dividir por la varianza. Cuando la función de autocorrelación se normaliza mediante la media y la varianza, a veces se denomina coeficiente de autocorrelación o función de autocovarianza.
Correlación automática de señal de tiempo continuo
Dada la señal f()t){displaystyle f(t)}, la autocorrelación continua Rff()τ τ ){displaystyle R_{ff}(tau)} se define más a menudo como la continua cruz-correlación integral de f()t){displaystyle f(t)} en sí mismo, en regazo τ τ {displaystyle tau }.
Rff()τ τ )=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()t+τ τ )f()t)̄ ̄ dt=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()t)f()t− − τ τ )̄ ̄ dt{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {f} {f} {f} {f}}f}f}f}f} {f} {f} {f} {f} {f}f}f} {f}f} {f}f}f} {f}f}f}f}f}}}}f}f}f}f}f}f}f}}}}}f} {f} {f}f}f}f}f}f}f}f}f}f}}f}f}f}f}}f}f}}f}f}f}f}f}f}f}f}}}}f}}}}}f}}}}f}f}}f}}}} | ()Eq.6) |
Donde f()t)̄ ̄ {displaystyle {f(t)}}} representa el complejo conjugado de f()t){displaystyle f(t)}. Tenga en cuenta que el parámetro t{displaystyle t} en la integral es una variable dúmmy y sólo es necesario para calcular la integral. No tiene significado específico.
Correlación automática de señal en tiempo discreto
La autocorrelación discreta R{displaystyle R. a la vuelta l l {displaystyle ell } para una señal de tiempo discreto Sí.()n){displaystyle y(n)} es
RSí.Sí.()l l )=.. n▪ ▪ ZSí.()n)Sí.()n− − l l )̄ ̄ {displaystyle R_{yy}(ell)=sum _{nin Z}y(n),{overline {y(n-ell)}}} | ()Eq.7) |
Las definiciones anteriores funcionan para señales que son integrables al cuadrado o sumables al cuadrado, es decir, de energía finita. Señales que "duran para siempre" se tratan en cambio como procesos aleatorios, en cuyo caso se necesitan diferentes definiciones, basadas en los valores esperados. Para procesos aleatorios estacionarios de sentido amplio, las autocorrelaciones se definen como
Para procesos que no son estacionarios, estos también serán funciones de t{displaystyle t}, o n{displaystyle n}.
Para procesos que también son ergódicos, la expectativa puede ser reemplazada por el límite de un promedio de tiempo. La autocorrelación de un proceso ergódico a veces se define como o se equipara a
Estas definiciones tienen la ventaja de que brindan resultados de un solo parámetro sensibles y bien definidos para funciones periódicas, incluso cuando esas funciones no son el resultado de procesos ergódicos estacionarios.
Alternativamente, las señales que duran para siempre pueden tratarse mediante un análisis de función de autocorrelación de tiempo corto, utilizando integrales de tiempo finito. (Consulte la transformada de Fourier a corto plazo para conocer un proceso relacionado).
Definición de señales periódicas
Si f{displaystyle f} es una función periódica continua del período T{displaystyle T}, la integración de − − JUEGO JUEGO {displaystyle -infty } a JUEGO JUEGO {displaystyle infty } es reemplazado por integración en cualquier intervalo [t0,t0+T]{displaystyle [t_{0},t_{0}+T] de longitud T{displaystyle T}:
que es equivalente a
Propiedades
A continuación, describiremos las propiedades de las autocorrelaciones unidimensionales únicamente, ya que la mayoría de las propiedades se transfieren fácilmente del caso unidimensional a los casos multidimensionales. Estas propiedades son válidas para procesos estacionarios de sentido amplio.
- Una propiedad fundamental de la autocorrelación es la simetría, Rff()τ τ )=Rff()− − τ τ ){displaystyle R_{ff}(tau)=R_{ff}(-tau)}, que es fácil de probar de la definición. En el caso continuo,
- la autocorrelación es una función uniforme Rff()− − τ τ )=Rff()τ τ ){displaystyle R_{ff}(-tau)=R_{ff}(tau)} cuando f{displaystyle f} es una función real, y
- la autocorrelación es una función Hermitiana Rff()− − τ τ )=RffAlternativa Alternativa ()τ τ ){displaystyle R_{ff}(-tau)=R_{ff} {}(tau)} cuando f{displaystyle f} es una función compleja.
- La función de autocorrelación continua alcanza su pico en el origen, donde toma un valor real, es decir, para cualquier demora τ τ {displaystyle tau }, SilencioRff()τ τ )Silencio≤ ≤ Rff()0){fnMicrosoft Sans Serif}. Esto es consecuencia de la desigualdad de reorganización. El mismo resultado se mantiene en el caso discreto.
- La autocorrelación de una función periódica es, en sí misma, periódica con el mismo período.
- La autocorrelación de la suma de dos funciones completamente no relacionadas (la cruza-correlación es cero para todos) τ τ {displaystyle tau }) es la suma de las autocorraciones de cada función por separado.
- Puesto que la autocorrelación es un tipo específico de la cruza-correlación, mantiene todas las propiedades de la cruza-correlación.
- Usando el símbolo Alternativa Alternativa {displaystyle *} para representar la convolución y g− − 1{displaystyle G_{-1} es una función que manipula la función f{displaystyle f} y se define como g− − 1()f)()t)=f()− − t){displaystyle g_{-1}(f)=f(-t)}, la definición para Rff()τ τ ){displaystyle R_{ff}(tau)} puede ser escrito como:Rff()τ τ )=()fAlternativa Alternativa g− − 1()f̄ ̄ ))()τ τ ){displaystyle R_{ff}(tau)=(f*g_{-1}({overline {f})(tau)}
Autocorrelación multidimensional
La autocorrelación multidimensional se define de manera similar. Por ejemplo, en tres dimensiones, la autocorrelación de una señal discreta sumable al cuadrado sería
Cuando los valores medios se restan de las señales antes de calcular una función de autocorrelación, la función resultante suele denominarse función de autocovarianza.
Cómputo eficiente
Para los datos expresados como una secuencia discreta, es frecuentemente necesario calcular la autocorrelación con alta eficiencia computacional. Un método de fuerza bruta basado en la definición de procesamiento de señales Rxx()j)=.. nxnx̄ ̄ n− − j{displaystyle R_{xx}(j)=sum ¿Por qué? {x}_{n-j} se puede utilizar cuando el tamaño de la señal es pequeño. Por ejemplo, para calcular la autocorrelación de la secuencia de señal real x=()2,3,− − 1){displaystyle x=(2,3,-1)} (i.e. x0=2,x1=3,x2=− − 1{displaystyle x_{0}=2,x_{1}=3,x_{2}=-1}, y xi=0{displaystyle x_{i}=0} para todos los demás valores i) a mano, reconocemos primero que la definición que se acaba de dar es la misma que la multiplicación "usual", pero con los cambios correctos, donde cada adición vertical da la autocorrelación para valores de lag particulares:
Así la secuencia de autocorrelación requerida es Rxx=()− − 2,3,14,3,− − 2){displaystyle R_{xx}=(-2,3,14,3,-2)}, donde Rxx()0)=14,{displaystyle R_{xx}(0)=14,} Rxx()− − 1)=Rxx()1)=3,{displaystyle R_{xx}(-1)=R_{xx}(1)=3,} y Rxx()− − 2)=Rxx()2)=− − 2,{displaystyle R_{xx}(-2)=R_{xx}(2)=-2,} la autocorrelación para otros valores de lag siendo cero. En este cálculo no realizamos la operación de carga durante adición como es habitual en la multiplicación normal. Tenga en cuenta que podemos reducir el número de operaciones requeridas explotando la simetría inherente de la autocorrelación. Si la señal es periódica, es decir. x=()...... ,2,3,− − 1,2,3,− − 1,...... ),{displaystyle x=(ldots2,3,-1,2,3,-1,ldots),} entonces obtenemos una autocorrelación circular (similar a la convolución circular) donde las colas izquierda y derecha de la secuencia de autocorrelación anterior se superponen y dan Rxx=()...... ,14,1,1,14,1,1,...... ){displaystyle R_{xx}=(ldots14,1,14,1,1,ldots)} que tiene el mismo período que la secuencia de señal x.{displaystyle x.} El procedimiento se puede considerar como una aplicación de la propiedad convolution de Z-transform de una señal discreta.
Si bien el algoritmo de fuerza bruta es de orden n2, existen varios algoritmos eficientes que pueden calcular la autocorrelación en orden n log(n). Por ejemplo, el teorema de Wiener-Khinchin permite calcular la autocorrelación de los datos sin procesar X(t) con dos rápidos Fourier transforma (FFT):
donde IFFT denota la transformada rápida de Fourier inversa. El asterisco denota conjugado complejo.
Alternativamente, se puede realizar una correlación múltiple de τ mediante el cálculo de fuerza bruta para τ valores, y luego agrupar progresivamente los X(t) datos con una densidad logarítmica para calcular valores más altos, lo que resulta en la misma eficiencia de n log(n), pero con menores requisitos de memoria.
Estimación
Para un proceso discreto con significado conocido y varianza para el cual observamos n{displaystyle n} Observaciones {}X1,X2,...... ,Xn}{displaystyle {X_{1},,x_{2},,ldots,X_{n}}}, una estimación del coeficiente de autocorrelación se puede obtener como
para cualquier entero positivo <math alttext="{displaystyle kk.n{displaystyle k maden}<img alt="k. Cuando la verdadera significa μ μ {displaystyle mu } y diferencia σ σ 2{displaystyle sigma ^{2} son conocidos, esta estimación es imparciales. Si el verdadero medio y la varianza del proceso no son conocidos hay varias posibilidades:
- Si μ μ {displaystyle mu } y σ σ 2{displaystyle sigma ^{2} son reemplazados por las fórmulas estándar para la media muestra y la varianza de muestra, entonces esto es una estimación parcial.
- Una estimación basada en periodogramas reemplaza n− − k{displaystyle No. en la fórmula anterior con n{displaystyle n}. Esta estimación siempre es parcial; sin embargo, por lo general tiene un menor error medio cuadrado.
- Otras posibilidades se derivan de tratar las dos partes de los datos {}X1,X2,...... ,Xn− − k}{displaystyle {X_{1},,x_{2},,ldots,X_{n-k}}} y {}Xk+1,Xk+2,...... ,Xn}{displaystyle {X_{k+1},,X_{k+2},,ldots,X_{n}}} por separado y calculando diferencias de muestra separadas para su uso en la definición de la estimación.
La ventaja de las estimaciones del último tipo es que el conjunto de autocorraciones estimadas, como función de k{displaystyle k}, entonces forma una función que es una autocorrelación válida en el sentido de que es posible definir un proceso teórico que tiene exactamente esa autocorrelación. Otras estimaciones pueden sufrir el problema de que, si se utilizan para calcular la diferencia de una combinación lineal de la X{displaystyle X}Es, la diferencia calculada puede resultar negativa.
Análisis de regresión
En el análisis de regresión que usa datos de series de tiempo, la autocorrelación en una variable de interés generalmente se modela con un modelo autorregresivo (AR), un modelo de promedio móvil (MA), su combinación como un modelo de promedio móvil autorregresivo (ARMA), o una extensión de este último llamado modelo de promedio móvil integrado autorregresivo (ARIMA). Con múltiples series de datos interrelacionadas, se utiliza la autorregresión vectorial (VAR) o sus extensiones.
En los mínimos cuadrados ordinarios (OLS), la idoneidad de la especificación de un modelo puede comprobarse en parte estableciendo si existe una autocorrelación de los residuos de la regresión. La autocorrelación problemática de los errores, que en sí mismos no se observan, generalmente se puede detectar porque produce autocorrelación en los residuos observables. (Los errores también se conocen como "términos de error" en econometría). La autocorrelación de los errores viola la suposición de mínimos cuadrados ordinarios de que los términos de error no están correlacionados, lo que significa que el teorema de Gauss Markov no se aplica y que los estimadores MCO ya no son los mejores estimadores lineales imparciales (AZUL). Si bien no sesga las estimaciones del coeficiente OLS, los errores estándar tienden a subestimarse (y las puntuaciones t se sobrestiman) cuando las autocorrelaciones de los errores con retrasos bajos son positivas.
La prueba tradicional para la presencia de la autocorrelación de primer orden es la estadística de Durbin-Watson o, si las variables explicativas incluyen una variable dependiente afilada, la estadística de Durbin h. El Durbin-Watson se puede mapear linealmente sin embargo a la correlación Pearson entre valores y sus lags. Una prueba más flexible, que cubre la autocorrelación de órdenes superiores y aplicable si los regresores incluyen o no retrasos de la variable dependiente, es la prueba Breusch-Godfrey. Esto implica una regresión auxiliar, en la que los residuos obtenidos de la estimación del modelo de interés se registren en (a) los regentes originales y (b) k lags of the residuals, where 'k' is the order of the test. La versión más simple de la estadística de prueba de esta regresión auxiliar es TR2, donde T es el tamaño de la muestra y R2 es el coeficiente de determinación. Bajo la hipótesis nula de no autocorrelación, esta estadística es asintótica distribuidas χ χ 2{displaystyle chi ^{2} con k grados de libertad.
Las respuestas a la autocorrelación distinta de cero incluyen mínimos cuadrados generalizados y el estimador Newey-West HAC (heteroscedasticidad y autocorrelación consistente).
En la estimación de un modelo promedio en movimiento (MA), la función de autocorrelación se utiliza para determinar el número adecuado de términos de error etiquetados a incluir. Esto se basa en el hecho de que para un proceso de orden MA q, tenemos R()τ τ )ل ل 0{displaystyle R(tau)neq 0}, para τ τ =0,1,...... ,q{displaystyle tau =0,1,ldotsq}, y R()τ τ )=0{displaystyle R(tau)=0}, para q}" xmlns="http://www.w3.org/1998/Math/MathML">τ τ ■q{displaystyle tau >q}q}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/5854152d5c5f77112d870942e86482b8a417df0a" style="vertical-align: -0.671ex; width:5.37ex; height:2.176ex;"/>.
Aplicaciones
- El análisis de autocorrelación se utiliza fuertemente en la espectroscopia de correlación de fluorescencia para proporcionar información cuantitativa sobre la difusión molecular y las reacciones químicas.
- Otra aplicación de la autocorrelación es la medición de espectros ópticos y la medición de pulsos de luz de muy corta duración producidos por láser, ambos utilizando autocorreladores ópticos.
- La autocorrelación se utiliza para analizar datos dinámicos de dispersión de luz, lo que permite determinar las distribuciones del tamaño de las partículas de partículas de tamaño nanométrico o de las células suspendidas en un fluido. Un láser que brilla en la mezcla produce un patrón de espectro que resulta del movimiento de las partículas. La autocorrelación de la señal se puede analizar en términos de la difusión de las partículas. A partir de esto, sabiendo la viscosidad del fluido, se pueden calcular los tamaños de las partículas.
- Utilizado en el sistema GPS para corregir el retraso de propagación, o el cambio de tiempo, entre el punto de tiempo en la transmisión de la señal de portador en los satélites, y el punto de tiempo en el receptor en el suelo. Esto lo hace el receptor generando una señal de réplica del código C/A de 1.023 bits (Coarse/Acquisición) y generando líneas de chips de código [-1,1] en paquetes de diez a la vez, o 10,230 chips (1,023 × 10), cambiando ligeramente a medida que avanza para adaptarse al cambio de doppler en la señal de código entrante, hasta la señal de réplica del receptor y la señal de satélite.
- La intensidad de dispersión de rayos X de pequeño ángulo de un sistema nanoestructurado es la transformación Fourier de la función de autocorrelación espacial de la densidad de electrones.
- En ciencias superficiales y microscopía de sonda de escaneo, la autocorrelación se utiliza para establecer un vínculo entre morfología superficial y características funcionales.
- En la óptica, las autocorraciones normalizadas y las intercorrecciones dan el grado de coherencia de un campo electromagnético.
- En el procesamiento de señales, la autocorrelación puede dar información sobre eventos repetidos como ritmos musicales (por ejemplo, para determinar tempo) o frecuencias pulsar, aunque no puede decir la posición en el tiempo del ritmo. También se puede utilizar para estimar el tono musical.
- En la grabación de música, la autocorrelación se utiliza como algoritmo de detección de lanzamientos antes del procesamiento vocal, como efecto de distorsión o para eliminar errores y imprecisiones no deseados.
- La autocorrelación en el espacio en lugar del tiempo, a través de la función Patterson, es utilizada por los diffractionists de rayos X para ayudar a recuperar la "Información de fase más amplia" en posiciones de átomos no disponibles solo a través de la difusión.
- En las estadísticas, la autocorrelación espacial entre los lugares de muestra también ayuda a una estimación de incertidumbres de valor promedio al muestreo de una población heterogénea.
- El algoritmo SEQUEST para analizar espectros de masa hace uso de la autocorrelación en conjunto con la cruza-correlación para marcar la similitud de un espectro observado a un espectro idealizado que representa un péptido.
- En la astrofísica, la autocorrelación se utiliza para estudiar y caracterizar la distribución espacial de galaxias en el universo y en observaciones de longitud de onda de binarios de rayos X de baja masa.
- En los datos del panel, la autocorrelación espacial se refiere a la correlación de una variable con sí misma a través del espacio.
- En análisis de los datos de la cadena Markov Monte Carlo, la autocorrelación debe tenerse en cuenta para la correcta determinación del error.
- En geociencias (específicamente en geofísica) se puede utilizar para calcular un atributo sísmico de autocorrelación, de una encuesta sísmica 3D del metro.
- En el ultrasonido médico se utiliza la autocorrelación para visualizar el flujo sanguíneo.
- En la elección de cartera intertemporal, la presencia o ausencia de autocorrelación en la tasa de rendimiento de un activo puede afectar a la parte óptima de la cartera a mantener en ese activo.
- La autocorrelación se ha utilizado para medir con precisión la frecuencia del sistema de energía en los relés numéricos.
Dependencia serial
La dependencia serial está estrechamente ligada a la noción de autocorrelación, pero representa un concepto distinto (ver Correlación y dependencia). En particular, es posible tener dependencia serial pero no correlación (lineal). Sin embargo, en algunos campos, los dos términos se utilizan como sinónimos.
Una serie de tiempo de una variable aleatoria tiene dependencia de serie si el valor en algún momento t{displaystyle t} en la serie depende estadísticamente del valor en otro momento s{displaystyle s}. Una serie es serialmente independiente si no hay dependencia entre ningún par.
Si una serie de tiempo {}Xt}{displaystyle left{X_{t}right} es estacionaria, luego dependencia estadística entre el par ()Xt,Xs){displaystyle (X_{t},X_{s})} implicaría que hay dependencia estadística entre todos los pares de valores en el mismo lag τ τ =s− − t{displaystyle tau =s-t}.
Contenido relacionado
Medir el espacio
Grafito
Enrico Fermi