Predicción lineal
La predicción lineal es una operación matemática en la que los valores futuros de una señal de tiempo discreto se estiman como una función lineal de muestras anteriores.
En el procesamiento de señales digitales, la predicción lineal a menudo se denomina codificación predictiva lineal (LPC) y, por lo tanto, puede verse como un subconjunto de la teoría de filtros. En el análisis de sistemas, un subcampo de las matemáticas, la predicción lineal puede verse como parte del modelado u optimización matemáticos.
El modelo de predicción
La representación más común es
- x^ ^ ()n)=.. i=1paix()n− − i){displaystyle {widehat {x}(n)=sum ¿Qué?
Donde x^ ^ ()n){displaystyle {widehat {x}(n)} es el valor de señal predicho, x()n− − i){displaystyle x(n-i)} los valores observados anteriores, con p≤ ≤ n{displaystyle pleq n}, y ai{displaystyle A_{i} los coeficientes predictores. El error generado por esta estimación es
- e()n)=x()n)− − x^ ^ ()n){displaystyle e(n)=x(n)-{widehat {x}(n),}
Donde x()n){displaystyle x(n)} es el verdadero valor de señal.
Estas ecuaciones son válidas para todo tipo de predicción lineal (unidimensional). Las diferencias se encuentran en la forma en que los coeficientes predictores ai{displaystyle A_{i} son elegidos.
Para señales multidimensionales, la métrica de error a menudo se define como
- e()n)=.. x()n)− − x^ ^ ()n).. {displaystyle e(n)=fnsex(n)-{widehat {x}(n)fnsefnse,}
Donde .. ⋅ ⋅ .. {displaystylefncdotfn} es una norma vectorial adecuada. Predicciones como x^ ^ ()n){displaystyle {widehat {x}(n)} son utilizados rutinariamente dentro de los filtros Kalman y suavizadores para estimar los valores de señal actuales y pasados, respectivamente.
Estimación de los parámetros
La opción más común en la optimización de parámetros ai{displaystyle A_{i} es el criterio cuadrado de la raíz media que también se llama el criterio de autocorrelación. En este método minimizamos el valor esperado del error cuadrado E[e2()n)]{displaystyle E[e^{2}(n)}, que produce la ecuación
- .. i=1paiR()j− − i)=R()j),{displaystyle sum _{i=1}{p}a_{i}R(j-i)=R(j),}
para 1 ≤ j ≤ p, donde R es la autocorrelación de la señal xn, definido como
- R()i)=E{}x()n)x()n− − i)}{displaystyle R(i)=E{x(n)x(n-i)},},
y E es el valor esperado. En el caso multidimensional esto corresponde a minimizar la norma L2.
Las ecuaciones anteriores se denominan ecuaciones normales o ecuaciones de Yule-Walker. En forma matricial, las ecuaciones se pueden escribir de manera equivalente como
- RA=r{displaystyle mathbf {RA} =mathbf {r}
donde la matriz de autocorrelación R{displaystyle mathbf {R} es un simétrico, p× × p{displaystyle ptimes p} Matriz de toeplitz con elementos <math alttext="{displaystyle r_{ij}=R(i-j),0leq i,j rij=R()i− − j),0≤ ≤ i,j.p{displaystyle r_{ij}=R(i-j),0leq i,j interpretadop}
Otro enfoque, más general, es minimizar la suma de los cuadrados de los errores definidos en el formulario
- e()n)=x()n)− − x^ ^ ()n)=x()n)− − .. i=1paix()n− − i)=− − .. i=0paix()n− − i){displaystyle e(n)=x(n)-{widehat {x}(n)=x(n)-sum ##{i=1} {p}a_{i}x(n-i)=-sum ¿Qué?
donde el problema de la optimización busca ai{displaystyle A_{i} debe limitarse ahora a0=− − 1{displaystyle A_{0}=-1}.
Por otro lado, si el error de predicción cuadrático medio se restringe a la unidad y la ecuación del error de predicción se incluye encima de las ecuaciones normales, el conjunto aumentado de ecuaciones se obtiene como
- RA=[1,0,...,0]T{displaystyle \mathbf {RA} =[1,0,0]^{mathrm {T}}
donde el índice i{displaystyle i} rangos de 0 a 0 p{displaystyle p}, y R{displaystyle mathbf {R} es un ()p+1)× × ()p+1){displaystyle (p+1)times (p+1)} matriz.
La especificación de los parámetros del predictor lineal es un tema amplio y se han propuesto muchos otros enfoques. De hecho, el método de autocorrelación es el más común y se utiliza, por ejemplo, para la codificación de voz en el estándar GSM.
Solución de la ecuación de matriz RA=r{displaystyle mathbf {RA} =mathbf {r} es computacionalmente un proceso relativamente caro. La eliminación Gaussiana para la inversión de matriz es probablemente la solución más antigua pero este enfoque no utiliza eficientemente la simetría R{displaystyle mathbf {R}. Un algoritmo más rápido es la recursión Levinson propuesta por Norman Levinson en 1947, que calcula recursivamente la solución. En particular, las ecuaciones de autocorrelación anteriores pueden ser más eficientemente resueltas por el algoritmo de Durbin.
En 1986, Philippe Delsarte y Y.V. Genin propusieron una mejora a este algoritmo llamado la repetición dividida Levinson, que requiere aproximadamente la mitad del número de multiplicaciones y divisiones. Utiliza una propiedad simétrica especial de vectores de parámetro en niveles posteriores de recursión. Es decir, cálculos para el predictor óptimo que contiene p{displaystyle p} términos hacen uso de cálculos similares para el predictor óptimo que contiene p− − 1{displaystyle p-1} términos.
Otra forma de identificar los parámetros del modelo es calcular de forma iterativa estimaciones de estado mediante filtros de Kalman y obtener estimaciones de máxima verosimilitud dentro de algoritmos de maximización de expectativas.
Para valores igualmente espaciados, una interpolación polinomio es una combinación lineal de los valores conocidos. Si se estima que la señal de tiempo discreta obedece un polinomio de grado p− − 1,{displaystyle p-1,} entonces los coeficientes predictores ai{displaystyle A_{i} son dados por la fila correspondiente del triángulo de coeficientes de transformación binomial. Esta estimación podría ser adecuada para una señal que varia lentamente con bajo ruido. Las predicciones para los primeros pocos valores de p{displaystyle p} son
- p=1:x^ ^ ()n)=1x()n− − 1)p=2:x^ ^ ()n)=2x()n− − 1)− − 1x()n− − 2)p=3:x^ ^ ()n)=3x()n− − 1)− − 3x()n− − 2)+1x()n− − 3)p=4:x^ ^ ()n)=4x()n− − 1)− − 6x()n− − 2)+4x()n− − 3)− − 1x()n− − 4){4fn1}n1x(n-2)p=3]pfn1}p=3}p=3}(n)p=3}(n)n1x(n2)n1x(n2)n1x(n2)n1n1n1n1n1n1n1n1n1}n1n1n1n1n1n1n1n1n1n1n1}n1n1n1n1n1n1n1n1n1n1n1n1n1n1n1n1n1n1n1n1n1}n1n1n1n1n1n1}n1n1n1n1}n1n1}n1n1}n1n1n1n1n
Contenido relacionado
Métrica
Esteban Smale
Alain Cones