Correlación cruzada

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Covariancia y correlación
Comparación visual de convolución, cruza-correlación y autocorrelación. Para las operaciones relacionadas con la función f, y asumir la altura de f es 1.0, el valor del resultado en 5 puntos diferentes se indica por el área sombreada debajo de cada punto. Además, la simetría vertical de f es la razón fAlternativa Alternativa g{displaystyle f*g} y f⋆ ⋆ g{displaystyle fstar g} son idénticos en este ejemplo.

En el procesamiento de señales, la correlación cruzada es una medida de similitud de dos series en función del desplazamiento de una con respecto a la otra. Esto también se conoce como producto escalable o producto interno deslizante. Se utiliza comúnmente para buscar una señal larga para una característica conocida más corta. Tiene aplicaciones en reconocimiento de patrones, análisis de partículas individuales, tomografía electrónica, promedios, criptoanálisis y neurofisiología. La correlación cruzada es de naturaleza similar a la convolución de dos funciones. En una autocorrelación, que es la correlación cruzada de una señal consigo misma, siempre habrá un pico con un retraso de cero y su tamaño será la energía de la señal.

En probabilidad y estadísticas, el término cross-correlations se refiere a las correlaciones entre las entradas de dos vectores aleatorios X{displaystyle mathbf {X} y Y{displaystyle mathbf}, mientras que correlaciones de un vector aleatorio X{displaystyle mathbf {X} son las correlaciones entre las entradas X{displaystyle mathbf {X} en sí mismo, los que forman la matriz de correlación X{displaystyle mathbf {X}. Si cada uno de X{displaystyle mathbf {X} y Y{displaystyle mathbf} es una variable aleatoria escalar que se realiza repetidamente en una serie de tiempo, luego las correlaciones de las diversas instancias temporales de X{displaystyle mathbf {X} son conocidos como autocorrelations de X{displaystyle mathbf {X}, y las Cruz-correlaciones de X{displaystyle mathbf {X} con Y{displaystyle mathbf} a través del tiempo son intercorrecciones temporales. En probabilidad y estadística, la definición de correlación siempre incluye un factor estandarizador de tal manera que las correlaciones tienen valores entre −1 y +1.

Si X{displaystyle X} y Y{displaystyle Sí. son dos variables aleatorias independientes con funciones de densidad de probabilidad f{displaystyle f} y g{displaystyle g}, respectivamente, entonces la densidad de probabilidad de la diferencia Y− − X{displaystyle Y-X} se da formalmente por la cruza-correlación (en el sentido del procesamiento de la señal) f⋆ ⋆ g{displaystyle fstar g}; sin embargo, esta terminología no se utiliza en probabilidad y estadísticas. En contraste, la convolución fAlternativa Alternativa g{displaystyle f*g} (equivalente a la cruz-correlación de f()t){displaystyle f(t)} y g()− − t){displaystyle g(-t)}) da la función de densidad de probabilidad de la suma X+Y{displaystyle X+Y..

Correlación cruzada de señales deterministas

Para funciones continuas f{displaystyle f} y g{displaystyle g}, la cruz-correlación se define como:

()f⋆ ⋆ g)()τ τ ) ≜ ≜ ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()t)̄ ̄ g()t+τ τ )dt{displaystyle (fstar g)(tau)\triangleq int _{-infty }^{infty }{overline {f(t)}g(t+tau),dt}
()f⋆ ⋆ g)()τ τ ) ≜ ≜ ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()t− − τ τ )̄ ̄ g()t)dt{displaystyle (fstar g)(tau)\triangleqint _{-infty }{infty }{overline {f(t-tau)}g(t),dt} {cHFF}
f()t)̄ ̄ {displaystyle {f(t)}}}f()t){displaystyle f(t)}τ τ {displaystyle tau }desplazamientoLag.f{displaystyle f}g{displaystyle g}τ τ {displaystyle tau }f{displaystyle f}t{displaystyle t}g{displaystyle g}t+τ τ {displaystyle t+tau }g{displaystyle g}lagf{displaystyle f}τ τ {displaystyle tau }

Si f{displaystyle f} y g{displaystyle g} ambas funciones periódicas continuas del período T{displaystyle T}, la integración de − − JUEGO JUEGO {displaystyle -infty a JUEGO JUEGO {displaystyle infty } es reemplazado por integración en cualquier intervalo [t0,t0+T]{displaystyle [t_{0},t_{0} de longitud T{displaystyle T}:

()f⋆ ⋆ g)()τ τ ) ≜ ≜ ∫ ∫ t0t0+Tf()t)̄ ̄ g()t+τ τ )dt{displaystyle (fstar g)(tau) triangleq int {fnK}g(t+tau),dt}
()f⋆ ⋆ g)()τ τ ) ≜ ≜ ∫ ∫ t0t0+Tf()t− − τ τ )̄ ̄ g()t)dt{displaystyle (fstar g)(tau) triangleq int {fnK}}g(t),dt}
()f⋆ ⋆ g)[n] ≜ ≜ . . m=− − JUEGO JUEGO JUEGO JUEGO f[m]̄ ̄ g[m+n]{displaystyle (fstar g)[n] triangleq sum _{m=-infty }{infty }{overline {f[m]}g[m+n]}
()f⋆ ⋆ g)[n] ≜ ≜ . . m=− − JUEGO JUEGO JUEGO JUEGO f[m− − n]̄ ̄ g[m]{displaystyle (fstar g)[n]\triangleq sum _{m=-infty }{infty }{overline {f[m-n]}g[m]}
f,g▪ ▪ CN{displaystyle f,gin mathbb {C}
()f⋆ ⋆ g)[n] ≜ ≜ . . m=0N− − 1f[m]̄ ̄ g[()m+n)mod N]{displaystyle (fstar g)[n]\triangleq sum _{m=0}{N-1}{overline {f[m]}g[m+n]_{text{mod}~N}}}}}}} {cH00}}
()f⋆ ⋆ g)[n] ≜ ≜ . . m=0N− − 1f[()m− − n)mod N]̄ ̄ g[m]{displaystyle (fstar g)[n] triangleq sum _{m=0}{N-1}{overline {f[m-n]_{text{mod}~N}}g[m]}
f▪ ▪ CN{displaystyle fin mathbb {C}g▪ ▪ CM{displaystyle gin mathbb {C}
()f⋆ ⋆ g)[n] ≜ ≜ . . m=0N− − 1f[m]̄ ̄ Kg[()m+n)mod N]{displaystyle (fstar g)[n]triangleq sum _{m=0}{N-1}{overline {f[m]}K_{g}[m+n]_{text{mod}}~N}}}}}} {c]
Kg=[k()g,T0()g)),k()g,T1()g)),... ... ,k()g,TN− − 1()g))]{displaystyle K_{g}=[k(g,T_{0}(g)),k(g,T_{1}(g)),dotsk(g,T_{N-1}(g)]k()⋅ ⋅ ,⋅ ⋅ ):: CM× × CM→ → R{displaystyle k(cdotcdot)colon mathbb {C} {M}times mathbb {C}to mathbb {R}Ti()⋅ ⋅ ):: CM→ → CM{displaystyle T_{i}(cdot)colon mathbb {C} {M}to mathbb {C}

Específicamente, Ti()⋅ ⋅ ){displaystyle T_{i}(cdot)} puede ser la traducción circular transformación, transformación de rotación o transformación de escala, etc. Lacorrelación cruzada del núcleo se extiende desde el espacio lineal hasta el espacio del núcleo. La cruza-correlación es equivariante a la traducción; el núcleo cruza-correlación es equivariante a cualquier afine transforma, incluyendo traducción, rotación, y escala, etc.

Explicación

Como ejemplo, considere dos funciones de valor real f{displaystyle f} y g{displaystyle g} difiere sólo por un cambio desconocido a lo largo del eje x. Uno puede usar la Cruz-correlación para encontrar cuánto g{displaystyle g} debe ser desplazado a lo largo del eje x para que sea idéntico a f{displaystyle f}. La fórmula esencialmente desliza la g{displaystyle g} función a lo largo del eje x, calculando la parte integral de su producto en cada posición. Cuando las funciones coinciden, el valor ()f⋆ ⋆ g){displaystyle (fstar g)} se maximiza. Esto se debe a que cuando los picos (zonas positivas) están alineados, hacen una gran contribución a la integral. Del mismo modo, cuando los troughs (zonas negativas) se alinean, también hacen una contribución positiva a la integral porque el producto de dos números negativos es positivo.

Animación de cómo se calcula la puntuación cruzada. El gráfico izquierdo muestra una función verde G que es cambiada de fase relativa a la función F por un desplazamiento de tiempo de τ. El gráfico medio muestra la función F y la G rota por fase representada conjuntamente como curva lisajosa. Integrando F multiplicado por el G desplazado produce el gráfico derecho, lacorrelación cruzada a través de todos los valores de τ.

Con funciones de valor complejo f{displaystyle f} y g{displaystyle g}, tomar el conjugado de f{displaystyle f} asegura que los picos alineados (o los troughes alineados) con componentes imaginarios contribuirán positivamente a la integral.

En econometría, la correlación cruzada rezagada a veces se denomina autocorrelación cruzada.

Propiedades

  • El cruce de funciones f()t){displaystyle f(t)} y g()t){displaystyle g(t)} es equivalente a la convolución (denotado por Alternativa Alternativa {displaystyle *}) de f()− − t)̄ ̄ {displaystyle {f}}}} y g()t){displaystyle g(t)}. Es decir:
    [f()t)⋆ ⋆ g()t)]()t)=[f()− − t)̄ ̄ Alternativa Alternativa g()t)]()t).{displaystyle [f(t)star g(t)](t)=[{overline {f(-t)}*g(t)](t).}
  • [f()t)⋆ ⋆ g()t)]()t)=[g()t)̄ ̄ ⋆ ⋆ f()t)̄ ̄ ]()− − t).{displaystyle [f(t)star g(t)](t)=[{overline {g(t)}star {overline {f(t)}](-t).}
  • Si f{displaystyle f} es una función hermitiana, entonces f⋆ ⋆ g=fAlternativa Alternativa g.{displaystyle fstar g=f*g.}
  • Si ambos f{displaystyle f} y g{displaystyle g} son Hermitian, entonces f⋆ ⋆ g=g⋆ ⋆ f{displaystyle fstar g=gstar f}.
  • ()f⋆ ⋆ g)⋆ ⋆ ()f⋆ ⋆ g)=()f⋆ ⋆ f)⋆ ⋆ ()g⋆ ⋆ g){displaystyle left(fstar gright)star left(fstar gright)=left(fstar fright)star left(gstar gright)}.
  • Analogous al teorema de la convolución, el satisfio de la cruz-correlación
    F{}f⋆ ⋆ g}=F{}f}̄ ̄ ⋅ ⋅ F{}g},{displaystyle {máthcal {cHFF}cHFF}fff} {fnh}cdot} {fnMitcal {fnMitcal {fnMicrosoft Sans Serif}
    Donde F{displaystyle {fnMithcal}} denota la transformación de Fourier, y un f̄ ̄ {displaystyle {f}} de nuevo indica el complejo conjugado de f{displaystyle f}, desde F{}f()− − t)̄ ̄ }=F{}f()t)}̄ ̄ {fnMicrosoft Sans {fnh}} {fnh}}}}} {fnh}}}}}}}} {f}}}}} {f}}}}}}}}}} {f}}}}}} {f}}}} {f}}}}}}}}}}} {. Junto con algoritmos de transformación rápida Fourier, esta propiedad es a menudo explotada para la eficiente computación numérica de las intercorrecciones (ver lacorrelación circular).
  • Lacorrelación cruzada está relacionada con la densidad espectral (ver el teorema de Wiener–Khinchin).
  • La cruz-correlación de una convolución de f{displaystyle f} y h{displaystyle h} con una función g{displaystyle g} es la convolución de la cruz-correlación de g{displaystyle g} y f{displaystyle f} con el núcleo h{displaystyle h}:
    g⋆ ⋆ ()fAlternativa Alternativa h)=()g⋆ ⋆ f)Alternativa Alternativa h{displaystyle gstar left(f*hright)=left(gstar fright)*h}.

Correlación cruzada de vectores aleatorios

Definición

Para vectores aleatorios X=()X1,... ... ,Xm){displaystyle mathbf {X} =(X_{1},ldotsX_{m}} y Y=()Y1,... ... ,Yn){displaystyle mathbf {Y} =(Y_{1},ldotsY_{n}}, cada uno que contiene elementos aleatorios cuyo valor esperado y diferencia existen, el matriz de puntuación cruzada de X{displaystyle mathbf {X} y Y{displaystyle mathbf} se define por

RXY≜ ≜ E⁡ ⁡ [XY]{displaystyle operatorname {R} _{mathbf {X} mathbf {Y}triangleq \operatorname {E} left[mathbf {X} mathbf {Y}right]}
m× × n{displaystyle mtimes n}
RXY=[E⁡ ⁡ [X1Y1]E⁡ ⁡ [X1Y2]⋯ ⋯ E⁡ ⁡ [X1Yn]E⁡ ⁡ [X2Y1]E⁡ ⁡ [X2Y2]⋯ ⋯ E⁡ ⁡ [X2Yn]⋮ ⋮ ⋮ ⋮ ⋱ ⋱ ⋮ ⋮ E⁡ ⁡ [XmY1]E⁡ ⁡ [XmY2]⋯ ⋯ E⁡ ⁡ [XmYn]]{displaystyle operatorname {R} {cHFF} {X} mathbf {Y}={begin{bmatrix}operatorname {E} [X_{1}Y_{1}] {E} [X_{1}Y_{2}] {E} [X_{1}Y_{n}\\\\\\\fnMicrosoft Sans Serif} [E] [X_{2}Y_{1}] {E} [X_{2}Y_{2}] {E} [X_{2}Y_{n}]\\\\\vdots > 'ddots >\\\\\\\\\\fnMicrosoft Sans {E} [X_{m}Y_{1}] {E} [X_{m}Y_{2}] {E} [X_{m}Y_{n}end{bmatrix}}
X{displaystyle mathbf {X}Y{displaystyle mathbf}E{displaystyle operatorname {E}

Ejemplo

Por ejemplo, si X=()X1,X2,X3){displaystyle mathbf {X} =left(X_{1},X_{2},X_{3}right)} y Y=()Y1,Y2){displaystyle mathbf {Y} =left(Y_{1},Y_{2}right)} son vectores aleatorios, entonces RXY{displaystyle operatorname {R} {cHFF} {X} mathbf {Y} es un 3× × 2{displaystyle 3times 2} matriz ()i,j){displaystyle (i,j)}- la entrada es E⁡ ⁡ [XiYj]{displaystyle operatorname {E} [X_{i}Y_{j}}.

Definición para vectores aleatorios complejos

Si Z=()Z1,... ... ,Zm){displaystyle mathbf {Z} =(Z_{1},ldots Z_{m} y W=()W1,... ... ,Wn){displaystyle mathbf {W} =(W_{1},ldotsW_{n}} son vectores aleatorios complejos, cada uno que contiene variables aleatorias cuyo valor esperado y la varianza existen, la matriz de puntuación cruzada de Z{displaystyle mathbf {Z} y W{displaystyle mathbf} se define por

RZW≜ ≜ E⁡ ⁡ [ZWH]{displaystyle operatorname {R} _{mathbf {Z} mathbf {W}triangleq \operatorname {E} [mathbf {Z} mathbf {W} {} {rm {H}}}} {}} {}} {} {}}} {}} {\\\\\cH}}}}}
H{displaystyle {} {fnMicrosoft} {H}}

Correlación cruzada de procesos estocásticos

En el análisis de series temporales y las estadísticas, la correlación cruzada de un par de procesos aleatorios es la correlación entre los valores de los procesos en diferentes momentos, como función de las dos veces. Vamos. ()Xt,Yt){displaystyle (X_{t},Y_{t}} ser un par de procesos al azar, y t{displaystyle t} ser cualquier punto en el tiempo (t{displaystyle t} puede ser un número entero para un proceso discreto o un número real para un proceso continuo). Entonces... Xt{displaystyle X_{t} es el valor (o realización) producido por una determinada ejecución del proceso a la vez t{displaystyle t}.

Función de correlación cruzada

Supongamos que el proceso tiene medios μ μ X()t){displaystyle mu _{X}(t)} y μ μ Y()t){displaystyle mu _{Y}(t)} y diferencias σ σ X2()t){displaystyle sigma _{X}{2}(t)} y σ σ Y2()t){displaystyle sigma _{Y}{2}(t)} a la vez t{displaystyle t}, para cada t{displaystyle t}. Entonces la definición de la cruz-correlación entre tiempos t1{displaystyle T_{1} y t2{displaystyle T_{2} es

RXY⁡ ⁡ ()t1,t2)≜ ≜ E⁡ ⁡ [Xt1Yt2̄ ̄ ]{displaystyle operatorname {R} _{XY}(t_{1},t_{2})triangleq \operatorname {E} left [X_{t_{1}{overline {Y_{t_{2}}} {}}}}} {}}} {}}}} {}}}}} {}}}}}} {}}}}}}} {}}}}} {}}}}} {}}}}}} {}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}} {}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}
E{displaystyle operatorname {E}

Función de covarianza cruzada

Retraer la media antes de la multiplicación produce la covariancia cruzada entre los tiempos t1{displaystyle T_{1} y t2{displaystyle T_{2}:

KXY⁡ ⁡ ()t1,t2)≜ ≜ E⁡ ⁡ [()Xt1− − μ μ X()t1))()Yt2− − μ μ Y()t2))̄ ̄ ]{displaystyle operatorname {K} _{XY}(t_{1},t_{2})triangleq \operatorname {E} left[left(X_{t_{1}}-mu _{X}(t_{1})right){overline {(Y_{t_{2}-mu] - Sí.

Definición de proceso estocástico estacionario de sentido amplio

Vamos. ()Xt,Yt){displaystyle (X_{t},Y_{t}} representan un par de procesos estocásticos que son solidarios. A continuación, la función de covariancia cruzada y la función de puntuación cruzada se dan como sigue.

Función de articulación cruzada

RXY⁡ ⁡ ()τ τ )≜ ≜ E⁡ ⁡ [XtYt+τ τ ̄ ̄ ]{displaystyle operatorname {R} _{XY}(tau)triangleq operadorname {E} left [X_{t} {overline {Y_{t+tau }right]}
RXY⁡ ⁡ ()τ τ )=E⁡ ⁡ [Xt− − τ τ Yt̄ ̄ ]{displaystyle operatorname [R] _{XY}(tau)=operatorname {E} left[X_{t-tau Está bien.

Función de covarianza cruzada

KXY⁡ ⁡ ()τ τ )≜ ≜ E⁡ ⁡ [()Xt− − μ μ X)()Yt+τ τ − − μ μ Y)̄ ̄ ]{displaystyle operatorname {K} _{XY}(tau)triangleq operadorname {E} left[left(X_{t}-mu ¿Por qué?
KXY⁡ ⁡ ()τ τ )=E⁡ ⁡ [()Xt− − τ τ − − μ μ X)()Yt− − μ μ Y)̄ ̄ ]{displaystyle operatorname [K] _{XY}(tau)=operatorname {E} left[left(X_{t-tau }-mu _{X}right){overline {left(Y_{t}-mu _{Y}right)}right]}
μ μ X{displaystyle mu _{X}}σ σ X{displaystyle sigma _{X}()Xt){displaystyle (X_{t})}()Yt){displaystyle (Y_{t})}E⁡ ⁡ [ ]{displaystyle operatorname {E}t{displaystyle t}()Xt,Yt){displaystyle (X_{t},Y_{t}}conjuntamente

La correlación cruzada de un par de procesos estocásticos estacionarios de sentido amplio conjunto se puede estimar promediando el producto de las muestras medidas de un proceso y las muestras medidas del otro (y sus cambios de tiempo). Las muestras incluidas en el promedio pueden ser un subconjunto arbitrario de todas las muestras en la señal (por ejemplo, muestras dentro de una ventana de tiempo finita o un submuestreo de una de las señales). Para una gran cantidad de muestras, el promedio converge a la verdadera correlación cruzada.

Normalización

Es práctica común en algunas disciplinas (por ejemplo, estadísticas y análisis de series temporales) para normalizar la función de la correlación cruzada para obtener un coeficiente de correlación de Pearson dependiente del tiempo. Sin embargo, en otras disciplinas (por ejemplo, ingeniería) la normalización generalmente se deja caer y los términos "correlación cruzada" y "covariancia cruzada" se utilizan indistintamente.

La definición de correlación cruzada normalizada de un proceso estocástico es

*** *** XX()t1,t2)=KXX⁡ ⁡ ()t1,t2)σ σ X()t1)σ σ X()t2)=E⁡ ⁡ [()Xt1− − μ μ t1)()Xt2− − μ μ t2)̄ ̄ ]σ σ X()t1)σ σ X()t2){displaystyle rho _{XX}(t_{1},t_{2}={ frac {fnMimbre de operador {K} _{XX}(t_{1},t_{2}{sigma ### {X}(t_{1}sigma {fnK} {fnMicroc {fnMicrosoft} left[left] (X_{t_{1}-mu {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}}} {sigma} - Sí.
*** *** XX{displaystyle rho _{XX}}[− − 1,1]{displaystyle [-1,1]}

Para los procesos estocásticos estacionarios de sentido amplio, la definición es

*** *** XY()τ τ )=KXY⁡ ⁡ ()τ τ )σ σ Xσ σ Y=E⁡ ⁡ [()Xt− − μ μ X)()Yt+τ τ − − μ μ Y)̄ ̄ ]σ σ Xσ σ Y{displaystyle rho _{XY}(tau)={frac {operatorname {K} _{XY} {sigma} _{X}sigma ¿Qué? (X_{t}-mu ¿Por qué? _{X}sigma ♪♪

Propiedades

Propiedad de simetría

Para procesos estocásticos estacionarios de sentido amplio conjunto, la función de correlación cruzada tiene la siguiente propiedad de simetría:

RXY⁡ ⁡ ()t1,t2)=RYX⁡ ⁡ ()t2,t1)̄ ̄ {displaystyle operatorname [R] _{XY}(t_{1},t_{2})={overline {operatorname [R] _{YX} (t_{2},t_{1}}}
RXY⁡ ⁡ ()τ τ )=RYX⁡ ⁡ ()− − τ τ )̄ ̄ {displaystyle operatorname {R} _{XY}(tau)={overline {operatorname {R} {YX} {}}}

Análisis de demoras

Las correlaciones cruzadas son útiles para determinar el retardo de tiempo entre dos señales, por ejemplo, para determinar los retardos de tiempo para la propagación de señales acústicas a través de un conjunto de micrófonos. Después de calcular la correlación cruzada entre las dos señales, el máximo (o mínimo si las señales están correlacionadas negativamente) de la función de correlación cruzada indica el momento en el que las señales están mejor alineadas; es decir, el retardo de tiempo entre las dos señales está determinado por el argumento del máximo, o arg max de la correlación cruzada, como en

τ τ delaSí.=argmaxt▪ ▪ R()()f⋆ ⋆ g)()t)){displaystyle tau _{mathrm {delay}={underset {tin mathbb {R} {fnuncio {arg,max}}(fstar g)(t)}}

Cero-correlación normalizada (ZNCC)

Para aplicaciones de procesamiento de imágenes en las que el brillo de la imagen y la plantilla puede variar debido a las condiciones de iluminación y exposición, las imágenes se pueden normalizar por primera vez. Esto se hace normalmente en cada paso restando el medio y dividiendo por la desviación estándar. Es decir, la decoración cruzada de una plantilla t()x,Sí.){displaystyle t(x,y)} con una subimage f()x,Sí.){displaystyle f(x,y)} es


1n. . x,Sí.1σ σ fσ σ t()f()x,Sí.)− − μ μ f)()t()x,Sí.)− − μ μ t){displaystyle {frac {1}{n}}sum _{x,y}{frac {1}{sigma _{f}sigma _{t}}}left(f(x,y)-mu _{f}right)left(t(t(x,y)-mu _{t}right)}


Donde n{displaystyle n} es el número de píxeles en t()x,Sí.){displaystyle t(x,y)} y f()x,Sí.){displaystyle f(x,y)}, μ μ f{displaystyle mu _{f} es el promedio de f{displaystyle f} y σ σ f{displaystyle sigma _{f} es la desviación estándar de f{displaystyle f}.

En términos de análisis funcional, esto puede considerarse como el producto escalar de dos vectores normalizados. Es decir, si

F()x,Sí.)=f()x,Sí.)− − μ μ f{displaystyle F(x,y)=f(x,y)-mu _{f}
T()x,Sí.)=t()x,Sí.)− − μ μ t{displaystyle T(x,y)=t(x,y)-mu _{t}
.F. . F. . ,T. . T. . .{displaystyle leftlangle {frac {F}{fffnh00}} {frac} {T} {fnTfnhfnh}rangle }} {T} {fnh}fnh}fn}rangle }}}}rangle}
. . ⋅ ⋅ ,⋅ ⋅ . . {displaystyle langle cdotcdot rangle }. . ⋅ ⋅ . . {displaystylefncdotfn}[− − 1,1]{displaystyle [-1,1]}

Así, si f{displaystyle f} y t{displaystyle t} son matrices reales, su normalizado cruce-correlación igual a la cosina del ángulo entre los vectores de la unidad F{displaystyle F} y T{displaystyle T}, siendo así 1{displaystyle 1} si F{displaystyle F} iguales T{displaystyle T} multiplicado por un escalar positivo.

La correlación normalizada es uno de los métodos utilizados para la combinación de plantillas, un proceso utilizado para encontrar casos de patrón o objeto dentro de una imagen. También es la versión 2-dimensional del coeficiente de correlación de productos-momento Pearson.

Correlación cruzada normalizada (NCC)

NCC es similar a ZNCC con la única diferencia de no restar el valor medio local de intensidades:

1n. . x,Sí.1σ σ fσ σ tf()x,Sí.)t()x,Sí.){displaystyle {frac {1}{n}}sum _{x,y}{frac {1}{sigma _{f}sigma _{t}}}}}f(x,y)t(x,y)}

Sistemas no lineales

Se debe tener precaución al utilizar correlación cruzada para sistemas no lineales. En determinadas circunstancias, que dependen de las propiedades de la entrada, la correlación cruzada entre la entrada y la salida de un sistema con dinámica no lineal puede ser completamente ciega a ciertos efectos no lineales. Este problema surge porque algunos momentos cuadráticos pueden ser iguales a cero y esto puede sugerir incorrectamente que hay poca "correlación" (en el sentido de dependencia estadística) entre dos señales, cuando en realidad las dos señales están fuertemente relacionadas por dinámica no lineal.

Contenido relacionado

Método de Horner

En matemáticas e informática, el método de Horner es un algoritmo para la evaluación de polinomios. Aunque lleva el nombre de William George Horner, este...

Matriz de adyacencia

En teoría de grafos e informática, una matriz de adyacencia es una matriz cuadrada utilizada para representar un gráfico finito. Los elementos de la matriz...

Iteración

Iteración es la repetición de un proceso para generar una secuencia de resultados. Cada repetición del proceso es una sola iteración, y el resultado de...

Lógica de primer orden

Lógica de primer orden: también conocida como lógica de predicados, lógica cuantificacional y cálculo de predicados de primer orden—es una colección...

Funciones de suelo y techo

En matemáticas e informática, la función de suelo es la función que toma como entrada un número real x</span>, y da como resultado el mayor entero menor...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save