Sistema lineal invariante en el tiempo

En el análisis de sistemas, entre otros campos de estudio, un sistema lineal invariante en el tiempo (LTI) es un sistema que produce una salida señal de cualquier señal de entrada sujeta a las limitaciones de linealidad e invariancia en el tiempo; Estos términos se definen brevemente a continuación. Estas propiedades se aplican (exacta o aproximadamente) a muchos sistemas físicos importantes, en cuyo caso la respuesta y(t) de el sistema a una entrada arbitraria x(t) se puede encontrar directamente usando convolución: y(t) = (x ∗ h)(t) donde h(t) se llama respuesta al impulso del sistema y ∗ representa convolución (no confundirse con multiplicación). Es más, existen métodos sistemáticos para resolver cualquier sistema de este tipo (determinando h(t)), mientras que los sistemas que no cumplen ambas propiedades son generalmente más difíciles (o imposibles) de resolver analíticamente. Un buen ejemplo de un sistema LTI es cualquier circuito eléctrico que consta de resistencias, condensadores, inductores y amplificadores lineales.
La teoría de sistemas lineales invariantes en el tiempo también se utiliza en el procesamiento de imágenes, donde los sistemas tienen dimensiones espaciales en lugar de, o además de, una dimensión temporal. Estos sistemas pueden denominarse invariantes de traducción lineal para darle a la terminología el alcance más general. En el caso de sistemas genéricos de tiempo discreto (es decir, muestreados), invariante de desplazamiento lineal es el término correspondiente. La teoría de sistemas LTI es un área de las matemáticas aplicadas que tiene aplicaciones directas en el análisis y diseño de circuitos eléctricos, procesamiento de señales y diseño de filtros, teoría de control, ingeniería mecánica, procesamiento de imágenes, diseño de instrumentos de medición de muchos tipos, espectroscopia de RMN y muchos otros. áreas técnicas donde se presentan sistemas de ecuaciones diferenciales ordinarias.
Descripción general
Las propiedades definitorias de cualquier sistema LTI son la linealidad y la invariancia temporal.
- Linearity significa que la relación entre la entrada x()t){displaystyle x(t)} y la producción Sí.()t){displaystyle y(t)}, ambos siendo considerados como funciones, es un mapeo lineal: Si a{displaystyle a} es una constante entonces la salida del sistema a ax()t){displaystyle ax(t)} es aSí.()t){displaystyle ay(t)}; si x.()t){displaystyle x'(t)} es otra aportación con la salida del sistema Sí..()t){displaystyle y'(t)} entonces la salida del sistema a x()t)+x.()t){displaystyle x(t)+x'(t)} es Sí.()t)+Sí..()t){displaystyle y(t)+y'(t)}, esta solicitud para todas las opciones a{displaystyle a}, x()t){displaystyle x(t)}, x.()t){displaystyle x'(t)}. Esta última condición se conoce a menudo como el principio de la superposición.
- Invariancia temporal significa que si aplicamos una entrada al sistema ahora o T segundos a partir de ahora, la salida será idéntica excepto por un retraso de tiempo T segundos. Es decir, si la salida debido a la entrada x()t){displaystyle x(t)} es Sí.()t){displaystyle y(t)}, luego la salida debido a la entrada x()t− − T){displaystyle x(t-T)} es Sí.()t− − T){displaystyle y(t-T)}. Por lo tanto, el sistema es tiempo invariable porque la salida no depende del tiempo en particular que se aplique la entrada.
El resultado fundamental en la teoría del sistema LTI es que cualquier sistema LTI puede caracterizarse completamente por una sola función llamada respuesta del sistema. La producción del sistema Sí.()t){displaystyle y(t)} es simplemente la evolución de la entrada al sistema x()t){displaystyle x(t)} con la respuesta de impulso del sistema h()t){displaystyle h(t)}. Esto se llama un sistema de tiempo continuo. Del mismo modo, un sistema lineal de tiempo discreto (o, más generalmente, "invariante") se define como uno que opera en tiempo discreto: Sí.i=xiAlternativa Alternativa hi{displaystyle Y... Donde Sí., x, y h son secuencias y la convolución, en tiempo discreto, utiliza una summación discreta más que una integral.

Los sistemas LTI también se pueden caracterizar en el dominio de la frecuencia por la función de transferencia del sistema, que es la transformada de Laplace de la respuesta al impulso del sistema (o transformada Z en el caso de sistemas de tiempo discreto). Como resultado de las propiedades de estas transformadas, la salida del sistema en el dominio de la frecuencia es el producto de la función de transferencia y la transformada de la entrada. En otras palabras, la convolución en el dominio del tiempo es equivalente a la multiplicación en el dominio de la frecuencia.
Para todos los sistemas LTI, las funciones eigenfunctions y las funciones básicas de los transformados son exponenciales complejos. Esto es, si la entrada a un sistema es la forma de onda compleja Asest{displaystyle A_{s}e^{st} para alguna amplitud compleja As{displaystyle A_{s} y frecuencia compleja s{displaystyle s}, la salida será un tiempo constante complejo la entrada, digamos Bsest{displaystyle B_{s}e^{st} para una nueva amplitud compleja Bs{displaystyle B.. La relación Bs/As{displaystyle B_{s}/A_{s} es la función de transferencia a frecuencia s{displaystyle s}.
Puesto que los sinusoides son una suma de exponenciales complejos con frecuencias complejas conjugadas, si la entrada al sistema es un sinusoide, entonces la salida del sistema también será un sinusoide, tal vez con una amplitud diferente y una fase diferente, pero siempre con la misma frecuencia al llegar al estado estable. Los sistemas LTI no pueden producir componentes de frecuencia que no están en la entrada.
La teoría de sistemas LTI es buena para describir muchos sistemas importantes. La mayoría de los sistemas LTI se consideran "fáciles" de implementar. analizar, al menos en comparación con el caso variable en el tiempo y/o no lineal. Cualquier sistema que pueda modelarse como una ecuación diferencial lineal con coeficientes constantes es un sistema LTI. Ejemplos de tales sistemas son los circuitos eléctricos formados por resistencias, inductores y condensadores (circuitos RLC). Los sistemas ideales resorte-masa-amortiguador también son sistemas LTI y son matemáticamente equivalentes a los circuitos RLC.
La mayoría de los conceptos de sistemas LTI son similares entre los casos de tiempo continuo y de tiempo discreto (invariante de desplazamiento lineal). En el procesamiento de imágenes, la variable tiempo se reemplaza con dos variables espaciales, y la noción de invariancia temporal se reemplaza por invariancia de desplazamiento bidimensional. Al analizar bancos de filtros y sistemas MIMO, suele resultar útil considerar vectores de señales.
Un sistema lineal que no es invariante en el tiempo se puede resolver utilizando otros enfoques, como el método de la función de Green.
Sistemas de tiempo continuo
Impulso respuesta y convolución
El comportamiento de un sistema lineal, de tiempo continuo e invariante en el tiempo con señal de entrada x(t) y señal de salida y( t) se describe mediante la integral de convolución:
Sí.()t)=()xAlternativa Alternativa h)()t){displaystyle y(t)=(x*h)(t)} =def∫ ∫ − − JUEGO JUEGO JUEGO JUEGO x()t− − τ τ )⋅ ⋅ h()τ τ )dτ τ {displaystyle mathrel {fnhm} {} {f}} {f}} {f}}} int limits _{-infty }{infty }x(t-tau)cdot h(tau),mathrm {d} tau } =∫ ∫ − − JUEGO JUEGO JUEGO JUEGO x()τ τ )⋅ ⋅ h()t− − τ τ )dτ τ ,{displaystyle =int limits _{-infty }{infty }x(tau)cdot h(t-tau),mathrm {d} tau} (utilizando la conmutación)
Donde h()t){textstyle h(t)} es la respuesta del sistema a un impulso: x()τ τ )=δ δ ()τ τ ){textstyle x(tau)=delta (tau)}. Sí.()t){textstyle y(t)} es por lo tanto proporcional a un promedio ponderado de la función de entrada x()τ τ ){textstyle x(tau)}. La función de ponderación es h()− − τ τ ){textstyle h(-tau)}, simplemente desplazado por la cantidad t{textstyle t}. As t{textstyle t} cambios, la función de ponderación enfatiza diferentes partes de la función de entrada. Cuando h()τ τ ){textstyle h(tau)} es cero para todos los negativos τ τ {textstyle tau }, Sí.()t){textstyle y(t)} depende sólo de los valores x{textstyle x} antes del tiempo t{textstyle t}, y se dice que el sistema es causal.
Para entender por qué la convolución produce la salida de un sistema LTI, deja la notación {}x()u− − τ τ ); u}{textstyle {x(u-tau);u} representar la función x()u− − τ τ ){textstyle x(u-tau)} con variable u{textstyle u} y constantes τ τ {textstyle tau }. Y deja que la notación más corta {}x}{textstyle {x}} Representación {}x()u); u}{textstyle {x(u);u}. Luego un sistema de tiempo continuo transforma una función de entrada, {}x},{textstyle {x},} en una función de salida, {}Sí.}{textstyle {y}}. Y en general, cada valor de la salida puede depender de cada valor de la entrada. Este concepto está representado por:
Para un sistema lineal, O{textstyle O} debe satisfacer Eq.1:
- Ot{}∫ ∫ − − JUEGO JUEGO JUEGO JUEGO cτ τ xτ τ ()u)dτ τ ; u}=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO cτ τ Sí.τ τ ()t)⏟ ⏟ Ot{}xτ τ }dτ τ .{displaystyle O_{t}left{int limits _{-infty } {infty }c_{tau } x_{tau }(u),mathrm {d}tau; uright=intlimits _{-infty} {infty} {t} {t} {t} {t} {t} {ccccccccc}cccccccccccccccccH00}cccccccccccccH00ccccccH00cccccH00cH00cH00}cH00cccH00}ccH00}cccH ¿Qué? }},mathrm {d} tau.}
()Eq.2)
Y el requisito de invariancia temporal es:
- Ot{}x()u− − τ τ ); u}=Sí.()t− − τ τ )=defOt− − τ τ {}x}.{displaystyle {begin{aligned}O_{t}{x(u-tau);\\\\\\\\\\\\\\\\\\\\\\cH009\\fnMicrosoft Sans Serif}}\\\\\\\\\\\\\cH3nMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMinMin {text{def}{=}} {f}} {f}} {f}} {f}} {f}}}}} {f}}}}}} {f}}}}} {f}}}} {f}}}}}} {f}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ O_{t-tau }{x},end{aligned}
()Eq.3)
En esta notación, podemos escribir la respuesta de impulso como h()t)=defOt{}δ δ ()u); u}.{textstyle h(t)mathrel {text{def}{=} O_{t}{delta (u);u}
Del mismo modo:
h()t− − τ τ ){displaystyle h(t-tau)} =defOt− − τ τ {}δ δ ()u); u}{displaystyle mathrel {fnstackrel {text{def}{=}} {f}} {f}} {f}} {f}} {f}}}}} {f}}}}}} {f}}}}} {f}}}} {f}}}}}} {f}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ Oh, uh... =Ot{}δ δ ()u− − τ τ ); u}.{displaystyle =O_{t}ddelta (u-tau);u} (usando) Eq.3)
Sustituyendo este resultado en la integral de convolución:
que tiene la forma del lado derecho de Eq.2 para el caso cτ τ =x()τ τ ){textstyle c_{tau }=x(tau)} y xτ τ ()u)=δ δ ()u− − τ τ ).{textstyle x_{tau }(u)=delta (u-tau). }
LaEc.2 permite entonces esta continuación:
En resumen, la función de entrada, {}x}{textstyle {x}}, puede ser representado por un continuo de funciones de impulso rotas por el tiempo, combinado "de forma lineal", como se muestra en Eq.1. La propiedad linealidad del sistema permite que la respuesta del sistema esté representada por el continuo correspondiente del impulso respuestas, combinado de la misma manera. Y la propiedad de la invariancia del tiempo permite que esa combinación sea representada por la convolución integral.
Las operaciones matemáticas anteriores tienen una simulación gráfica simple.
Exponenciales como funciones propias
Una función propia es una función para la cual la salida del operador es una versión escalada de la misma función. Eso es,
Las funciones exponenciales Aest{displaystyle Ae^{st}, donde A,s▪ ▪ C{displaystyle A,sin mathbb {C}, son funciones eigenias de un operador lineal, invariante de tiempo. Una prueba simple ilustra este concepto. Supongamos que la entrada es x()t)=Aest{displaystyle x(t)=Ae^{st}. La salida del sistema con respuesta de impulso h()t){displaystyle h(t)} entonces
donde el escalar
Así que la respuesta del sistema es una versión escalada de la entrada. En particular, para cualquier A,s▪ ▪ C{displaystyle A,sin mathbb {C}, la salida del sistema es el producto de la entrada Aest{displaystyle Ae^{st} y la constante H()s){displaystyle H(s)}. Por lo tanto, Aest{displaystyle Ae^{st} es una función eigena de un sistema LTI, y el eigenvalue correspondiente es H()s){displaystyle H(s)}.
Prueba directa
También es posible derivar directamente exponenciales complejas como funciones propias de sistemas LTI.
Vamos. v()t)=ei⋅ ⋅ t{displaystyle v(t)=e^{iomega t} algo complejo exponencial y va()t)=ei⋅ ⋅ ()t+a){displaystyle v_{a}(t)=e^{iomega (t+a)} una versión cambiada de tiempo.
H[va]()t)=ei⋅ ⋅ aH[v]()t){displaystyle H[v_{a}(t)=e^{iomega a}H[v](t)} por linearidad con respecto a la constante ei⋅ ⋅ a{displaystyle e^{iomega a}.
H[va]()t)=H[v]()t+a){displaystyle H[v_{a}(t)=H[v](t+a)} por invariancia temporal H{displaystyle H..
Así que... H[v]()t+a)=ei⋅ ⋅ aH[v]()t){displaystyle H[v](t+a)=e^{iomega a}H[v](t)}. Ajuste t=0{displaystyle t=0} y renombramos que tenemos:
Transformadas de Fourier y Laplace
La propiedad de función propia de los exponenciales es muy útil tanto para el análisis como para el conocimiento de los sistemas LTI. La transformada de Laplace unilateral
La transformada de Laplace se utiliza normalmente en el contexto de señales unilaterales, es decir, señales que son cero para todos los valores de t menores que algún valor. Por lo general, esta "hora de inicio" se establece en cero, por conveniencia y sin pérdida de generalidad, con la transformada integral tomada de cero al infinito (la transformada que se muestra arriba con el límite inferior de integración del infinito negativo se conoce formalmente como transformada de Laplace bilateral).
La transformada de Fourier se utiliza para analizar sistemas que procesan señales de extensión infinita, como las sinusoides moduladas, aunque no se puede aplicar directamente a señales de entrada y salida que no son integrables al cuadrado. La transformada de Laplace en realidad funciona directamente para estas señales si son cero antes de un tiempo de inicio, incluso si no son integrables al cuadrado, para sistemas estables. La transformada de Fourier se aplica a menudo a espectros de señales infinitas mediante el teorema de Wiener-Khinchin incluso cuando no existen transformadas de Fourier de las señales.
Debido a la propiedad de convolución de ambas transformadas, la convolución que da la salida del sistema se puede transformar en una multiplicación en el dominio de la transformación, dadas las señales para las cuales existen las transformadas.
Se puede utilizar la respuesta del sistema directamente para determinar cómo un sistema maneja cualquier componente de frecuencia particular con esa transformada de Laplace. Si evaluamos la respuesta del sistema (transformada de Laplace de la respuesta al impulso) en una frecuencia compleja s = jω, donde ω = 2πf, obtenemos |H(s) | que es la ganancia del sistema para la frecuencia f. El cambio de fase relativo entre la salida y la entrada para ese componente de frecuencia también viene dado por arg(H(s)).
Ejemplos
- Un simple ejemplo de un operador LTI es el derivado.
- ddt()c1x1()t)+c2x2()t))=c1x1.()t)+c2x2.()t){displaystyle {frac {mathrm {d}{mathrm {d}}left(c_{1}x_{1}(t)+c_{2}x_{2}(t)right=c_{1}x't)+c_{2}(t)} (es decir, es lineal)
- ddtx()t− − τ τ )=x.()t− − τ τ ){displaystyle {frac {mathrm}{mathrm {} t}x(t-tau)=x'(t-tau)} (es decir, es invariante el tiempo)
Cuando se toma la transformación Laplace del derivado, se transforma en una simple multiplicación por la variable Laplace s.
Que el derivado tiene una transformación tan simple Laplace explica en parte la utilidad de la transformación.L{}ddtx()t)}=sX()s){displaystyle {mathcal {}left{frac {mathrm {d}{mathrm {d} t}x(t)right}=sX(s)} - Otro simple operador de LTI es un operador de promedio
Por la linealidad de la integración,A{}x()t)}=def∫ ∫ t− − at+ax()λ λ )dλ λ .{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrom {fnMicrosoft {fnMicrosoft {f}}}f}}f}fnMicros}fnMicrosoftfnMicrosoft {fnMicrosoft {fnMicros}f}fnMicrosoft}fnMicrosoft}f}fnMicrosoft {f}f}fnMicrosoft {f}f}fnMicrosoftfnMicrosoft {fnMicrosoft {fnMicrosoft {f}fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}fnMiEs lineal. Además, porqueA{}c1x1()t)+c2x2()t)}=∫ ∫ t− − at+a()c1x1()λ λ )+c2x2()λ λ ))dλ λ =c1∫ ∫ t− − at+ax1()λ λ )dλ λ +c2∫ ∫ t− − at+ax2()λ λ )dλ λ =c1A{}x1()t)}+c2A{}x2()t)},{displaystyle {begin{aligned}{mathcal {A}{1}x_{1}(t)+c_{2}x_{2}(t)} ¿Por qué? \c=c_{1}int ¿Por qué? +c_{2}int ¿Por qué? {fnMitcal} {A}{x_{1}(t)}+c_{2}{mathcal {A}{x_{2}(t)},end{aligned}}es tiempo invariable. De hecho, A{displaystyle {fnMithcal}} puede ser escrito como una convolución con la función boxcar ▪ ▪ ()t){displaystyle Pi (t)}. Eso es,A{}x()t− − τ τ )}=∫ ∫ t− − at+ax()λ λ − − τ τ )dλ λ =∫ ∫ ()t− − τ τ )− − a()t− − τ τ )+ax(). . )d. . =A{}x}()t− − τ τ ),{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnunci}fn}fnMicrosoft Sans Serif}donde la función boxcarA{}x()t)}=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO ▪ ▪ ()λ λ − − t2a)x()λ λ )dλ λ ,{fnMicrosoft Sans {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnK}}f}fnMicrosoft}fnMicrosoft {fnMicrosoft}}}}}}f}}}f}f}f}f}f}f}f}fnKf}fnKf}f}f}fnKfnKfnKf}fnKf}fnKfnKfnKfnKfnKfnKfnKf}fnKfnKfnKfnKfnKfnKfnMicrob}fnKf}fnKf}f}fnMi ¿Por qué? - ¿Qué?<math alttext="{displaystyle Pi (t)mathrel {stackrel {text{def}}{=}} {begin{cases}1&{text{if }}|t|{frac {1}{2}}.end{cases}}}" display="block" xmlns="http://www.w3.org/1998/Math/MathML">▪ ▪ ()t)=def{}1si SilenciotSilencioc)12,0si SilenciotSilencio■12.{displaystyle Pi (t)mathrel {text{def}{=} {begin{cases}1 {text{if} . {1}{2}, - No.<img alt="{displaystyle Pi (t)mathrel {stackrel {text{def}}{=}} {begin{cases}1&{text{if }}|t|{frac {1}{2}}.end{cases}}}" aria-hidden="true" class="mwe-math-fallback-image-display mw-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/57b66c3840465f877c14bc3aec3efc2ec01f3f65" style="vertical-align: -3.171ex; width:23.415ex; height:7.509ex;"/>
Propiedades importantes del sistema
Algunas de las propiedades más importantes de un sistema son la causalidad y la estabilidad. La causalidad es una necesidad para un sistema físico cuya variable independiente es el tiempo, sin embargo esta restricción no está presente en otros casos como el procesamiento de imágenes.
Causalidad
Un sistema es causal si la producción depende sólo de entradas presentes y pasadas, pero no de entradas futuras. Una condición necesaria y suficiente para la causalidad es
Donde h()t){displaystyle h(t)} es la respuesta del impulso. No es posible en general determinar la causalidad de la transformación de dos lados. Sin embargo, cuando se trabaja en el dominio del tiempo uno utiliza normalmente la transformación de un lado Laplace que requiere causalidad.
Estabilidad
Un sistema es estable con entradas acotadas y salidas acotadas (estable BIBO) si, para cada entrada acotada, la salida es finita. Matemáticamente, si cada entrada que satisface
conduce a un resultado satisfactorio
(es decir, un valor absoluto máximo finito x()t){displaystyle x(t)} implica un valor máximo absoluto finito Sí.()t){displaystyle y(t)}), entonces el sistema es estable. Una condición necesaria y suficiente es que h()t){displaystyle h(t)}, la respuesta del impulso, está en L1 (tiene un L finito1 norma:
En el dominio de frecuencia, la región de convergencia debe contener el eje imaginario s=j⋅ ⋅ {displaystyle s=jomega }.
Como ejemplo, el filtro ideal de baja velocidad con respuesta de impulso igual a una función sinc no es estable BIBO, porque la función sinc no tiene un L finito1 norma. Por lo tanto, para alguna entrada encuadernada, la salida del filtro ideal de paso bajo está sin límites. En particular, si la entrada es cero para <math alttext="{displaystyle ttc)0{displaystyle t won0}<img alt="{displaystyle t e igual a un sinusoide en la frecuencia de corte para 0}" xmlns="http://www.w3.org/1998/Math/MathML">t■0{displaystyle t fiel0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/29a2960e88369263fe3cfe00ccbfeb83daee212a" style="vertical-align: -0.338ex; width:5.101ex; height:2.176ex;"/>, entonces la salida será sin límites para todos los tiempos que no sean los cruces cero.
Deducir la solución de ecuaciones diferenciales lineales invariantes en el tiempo
Se da un sistema lineal explícito de ecuaciones diferenciales en la forma:
- dx()t)dt=Ax()t)+bu()t),x()t=0)=x0{fnMicroc {dx(t)}=A,x(t)+b,u(t),,x(t=0)=x_{0}end{aligned}}
con el vector del estado x()t)▪ ▪ Rn{displaystyle x(t)in mathbb {R}, la matriz del sistema A▪ ▪ Rn× × n{displaystyle Ain mathbb {R} {ntimes n}, la entrada u()t)▪ ▪ R{displaystyle u(t)in mathbb {R}, el vector de entrada b▪ ▪ Rn{displaystyle bin mathbb {R} {fn} y la condición inicial x0▪ ▪ Rn{displaystyle x_{0}in mathbb {R} {fn}. La solución consiste en una parte homogénea y particular.
Solución homogénea
La ecuación diferencial homogénea se obtiene estableciendo la entrada igual a cero.
- dx()t)dt=Ax()t),x()t=0)=x0{displaystyle {begin{aligned}{frac {dx(t)}=A,x(t),,x(t=0)=x_{0}end{aligned}}}
Esta solución ahora se puede describir utilizando una representación de la serie Taylor:
- x()t)=φ φ ()t)x0=()E+φ φ 1t+φ φ 2t2+...+φ φ ntn+...)x0{displaystyle {begin{aligned}x(t)=phi (t)x_{0}=(E+phi _{1}t+phi ################################################################################################################################################################################################################################################################ ¿Por qué?
Donde E{displaystyle E} es la matriz de unidad. Sustituyendo esta solución en la ecuación anterior, se obtiene:
- ddt()φ φ ()t)x0)=Aφ φ ()t)x0()φ φ 1+2φ φ 2t+...+nφ φ ntn− − 1+...)x0=()A+Aφ φ 1t+Aφ φ 2t2+...+Aφ φ ntn+...)x0{displaystyle {begin{aligned}{frac {d} {fi (t)x_{0}) {fncip {f}fnciped} {f} {f} {fnMicrosoft} {fnMicrosoft} {f}f}fnMicrosoft}f}fnMicrosoft}f},f}f}f}fnMiscf}fnMiscfnMiscfnMiscfnMiscccfnMis,fnMis,fnKfnKfnMis,fnKfnMinMis,fnMis,fnMis,fnMientras,fnMis,fnK,fnMis,fnMinMientras,fnK,fnMinMinMinMinMinMientras,fnMi ################################################################################################################################################################################################################################################################ ################################################################################################################################################################################################################################################################ ################################################################################################################################################################################################################################################################ ¿Qué? Aphi ¿Por qué?
Ahora las matrices desconocidas φ φ n{displaystyle phi _{n} se puede determinar comparando coeficientes:
- φ φ 1=Aφ φ 2=12Aφ φ 1=12!A2φ φ 3=13Aφ φ 2=13!A3...φ φ n=1n!An.{displaystyle {begin{aligned}phi} ################################################################################################################################################################################################################################################################ ################################################################################################################################################################################################################################################################ {1}{2}}A^{2}\\fnMicrosoft Sans Serif} ################################################################################################################################################################################################################################################################ {1}{3}A,phi _{2}={frac {1}{3}}A^{3}\\\fnfnfn} {fn} {fn}fn}\fn}fn}fnfn}fnfn}fnfn}fnfnfnfnh00fnKfnKfnK\fnKfnhnKfnK\fnfnKfnKfnKcH00fnKfnK\cH00fnKcH00cH00cH00fnKfn}\\\\\\\fnKfn}fn}\fn}fnfnK\fnh00\fnfn}\\\fnh00\cH00\\fnKfn}\fnK {1} {n}}A^{n}.
La siguiente notación se utiliza comúnmente para la matriz fundamental φ φ n{displaystyle phi _{n}:
- φ φ ()t)=eAt=E+At+12!A2t2+13!A3t3+...+1n!Antn+...{displaystyle {begin{aligned}phi (t)=e^{At}=E+At+{frac} {1}{2}}A^{2}t^{2}+{frac {1}{3}}A^{3}t^{3}+{frac {1} {n}}A^{n}t {n}+...end{aligned}
Solución particular
Sumas u()t)ل ل 0{displaystyle u(t)neq 0} y x0=0{displaystyle x_{0}=0}, sigue:
- ddtx()t)=Ax()t)+bu()t){displaystyle {begin{aligned}{dt}x(t)=A,x(t)+b,u(t)end{aligned}}
La solución particular se obtiene en la forma:
- xp()t)=φ φ ()t). . ()t)=eAt. . ()t),{displaystyle {begin{aligned}x_{p}(t)=phi (t)xi (t)=e^{At}xi (t),end{aligned}}
Donde . . ()t){displaystyle xi (t)} es un vector de función desconocido . . ()0)=0{displaystyle xi (0)=0}. De las dos ecuaciones anteriores sigue:
- ddtxp()t)=Axp()t)+bu()t). . ()t)ddtφ φ ()t)+φ φ ()t)ddt. . ()t)=Axp()t)+bu()t)Aφ φ ()t). . ()t)+φ φ ()t)ddt. . ()t)=Axp()t)+bu()t)Axp()t)+φ φ ()t)ddt. . ()t)=Axp()t)+bu()t){displaystyle {begin{aligned}{frac} {fnMicrosoft Sans Serif}
Así . . ()t){displaystyle xi (t)} puede determinarse:
- ddt. . ()t)=φ φ − − 1()t)bu()t){displaystyle {begin{aligned}{dt}xi (t)=phi ^{-1}(t)bu(t)\end{aligned}}
Se obtiene por integración utilizando las propiedades de la matriz fundamental:
- φ φ ()t). . ()t)=φ φ ()t)∫ ∫ 0tφ φ − − 1()τ τ )bu()τ τ )dτ τ xp()t)=∫ ∫ 0tφ φ ()t− − τ τ )bu()τ τ )dτ τ xp()t)=∫ ∫ 0teA()t− − τ τ )bu()τ τ )dτ τ {displaystyle {begin{aligned}phi (t)xi (t) Sentido=fi (t)int _{0}^{t}phi ^{-1}(tau)dtau \x_{p}(t) ########### #####################################################################################################################################################################################################################################################
Así, finalmente obtenemos la solución de una ecuación diferencial lineal de tiempo-invariante:
- x()t)=eAtx0+∫ ∫ 0teA()t− − τ τ )bu()τ τ )dτ τ {displaystyle {begin{aligned}x(t)=e^{At}x_{0}+int _{0}{t}e^{A(t-tau)}bu(tau)dtau \end{aligned}}}}}}}}}} {f}}}
Sistemas de tiempo discreto
Casi todo en los sistemas de tiempo continuo tiene su contraparte en los sistemas de tiempo discreto.
Sistemas de tiempo discreto a partir de sistemas de tiempo continuo
En muchos contextos, un sistema de tiempo discreto (DT) es en realidad parte de un sistema de tiempo continuo (CT) más grande. Por ejemplo, un sistema de grabación digital toma un sonido analógico, lo digitaliza, posiblemente procesa las señales digitales y reproduce un sonido analógico para que la gente lo escuche.
En sistemas prácticos, las señales DT obtenidas suelen ser versiones de muestras uniformes de señales de TC. Si x()t){displaystyle x(t)} es una señal CT, entonces el circuito de muestreo utilizado antes de un convertidor analógico-digital lo transformará a una señal DT:
Impulso respuesta y convolución
Vamos. {}x[m− − k]; m}{displaystyle {x[m-k]; m} representar la secuencia {}x[m− − k]; para todos los valores enteros de m}.{displaystyle {x[m-k];{text{ for all integer values of }m}}
Y deja que la notación más corta {}x}{displaystyle {x}} Representación {}x[m]; m}.{displaystyle {x[m]; m}
Un sistema discreto transforma una secuencia de entrada, {}x}{displaystyle {x}} en una secuencia de salida, {}Sí.}.{displaystyle {y}} En general, cada elemento de la salida puede depender de cada elemento de la entrada. Representando al operador de transformación O{displaystyle O.Podemos escribir:
Note que a menos que la transformación misma cambie n, la secuencia de salida es sólo constante, y el sistema es ininteresante. (Así el subscripto, n) En un sistema típico, Sí.[ndepende más fuertemente de los elementos x cuyos índices están cerca n.
Para el caso especial de la función Kronecker delta, x[m]=δ δ [m],{displaystyle x[m]=delta [m],} la secuencia de salida es respuesta de impulso:
Para un sistema lineal, O{displaystyle O. debe satisfacer:
- On{}. . k=− − JUEGO JUEGO JUEGO JUEGO ck⋅ ⋅ xk[m]; m}=. . k=− − JUEGO JUEGO JUEGO JUEGO ck⋅ ⋅ On{}xk}.{displaystyle O_{n}left{sum - ¿Qué? [m]; ################################################################################################################################################################################################################################################################ }c_{k}cdot O_{n}{x_{k}}
()Eq.4)
Y el requisito de invariancia temporal es:
- On{}x[m− − k]; m}=Sí.[n− − k]=defOn− − k{}x}.{displaystyle {begin{aligned}O_{n}{x[m-k]; ################################################################################################################################################################################################################################################################ Y [n-k]\\cH00 {fnK} {f}} {fnK}}} O_{n-k}{x}
()Eq.5)
En tal sistema, la respuesta del impulso, {}h}{displaystyle {h}}, caracteriza el sistema completamente. Es decir, para cualquier secuencia de entrada, la secuencia de salida se puede calcular en términos de la entrada y la respuesta del impulso. Para ver cómo se hace, considere la identidad:
expresa {}x}{displaystyle {x}} en términos de una suma de funciones delta ponderadas.
Por lo tanto:
donde hemos invocado Eq.4 para el caso ck=x[k]{displaystyle c_{k}=x[k] y xk[m]=δ δ [m− − k]{displaystyle x_{k}[m]=delta [m-k].
Y debido a Eq.5, podemos escribir:
Por lo tanto:
Sí.[n]{displaystyle y[n]} =. . k=− − JUEGO JUEGO JUEGO JUEGO x[k]⋅ ⋅ h[n− − k]{displaystyle =sum _{k=-infty =. . k=− − JUEGO JUEGO JUEGO JUEGO x[n− − k]⋅ ⋅ h[k],{displaystyle =sum _{k=-infty }{infty }x[n-k]cdot h[k],} (comunicación)
que es la fórmula de la convolución discreta familiar. El operador On{displaystyle O... por lo tanto se puede interpretar como proporcional a un promedio ponderado de la función x[k]. La función de ponderación es h[--k], simplemente cambio por cantidad n. As n cambios, la función de ponderación enfatiza diferentes partes de la función de entrada. Equivalentemente, la respuesta del sistema a un impulso n=0 es una copia inversa "tiempo" de la función de ponderación injertada. Cuando h[kEs cero para todos los negativos k, se dice que el sistema es causal.
Exponentials as eigenfunctions
Una función propia es una función para la cual la salida del operador es la misma función, escalada por alguna constante. En símbolos,
Donde f es la función eigen y λ λ {displaystyle lambda } es el eigenvalue, una constante.
Las funciones exponenciales zn=esTn{displaystyle z^{n}=e^{s Tn}, donde n▪ ▪ Z{displaystyle nin mathbb {Z}, son funciones eigenias de un operador lineal, invariante de tiempo. T▪ ▪ R{displaystyle Tin mathbb {R} es el intervalo de muestreo, y z=esT, z,s▪ ▪ C{displaystyle z=e^{sT}, z,sin mathbb {C}. Una prueba simple ilustra este concepto.
Supongamos que la entrada es x[n]=zn{displaystyle x[n]=z^{n}. La salida del sistema con respuesta de impulso h[n]{displaystyle h[n]} entonces
que equivale a lo siguiente por la propiedad conmutativa de la convolución
Así que... zn{displaystyle z^{n} es una función eigena de un sistema LTI porque la respuesta del sistema es la misma que los tiempos de entrada la constante H()z){displaystyle H(z)}.
Z y transformados de Fourier discretos
La propiedad de función propia de los exponenciales es muy útil tanto para el análisis como para el conocimiento de los sistemas LTI. La transformada Z
es exactamente la manera de obtener los eigenvalues de la respuesta del impulso. De particular interés son los sinusoides puros; es decir, exponenciales de la forma ej⋅ ⋅ n{displaystyle e^{jomega No., donde ⋅ ⋅ ▪ ▪ R{displaystyle omega in mathbb {R}. Estos también se pueden escribir como zn{displaystyle z^{n} con z=ej⋅ ⋅ {displaystyle z=e^{jomega }. La discreta transformación Fourier (DTFT) H()ej⋅ ⋅ )=F{}h[n]}{displaystyle H(e^{jomega }={mathcal {F}{h[n]} da los eigenvalues de los sinusoides puros. Ambos H()z){displaystyle H(z)} y H()ej⋅ ⋅ ){displaystyle H(e^{jomega }} son llamados función del sistema, respuesta del sistemao función de transferencia.
Al igual que la transformación de un lado Laplace, la transformación Z se utiliza generalmente en el contexto de señales de un lado, es decir, señales que son cero para t observado0. La serie Fourier transforma Fourier discretamente se puede utilizar para analizar las señales periódicas.
Debido a la propiedad de convolución de ambas transformadas, la convolución que da la salida del sistema se puede transformar en una multiplicación en el dominio de transformación. Eso es,
Al igual que la función de transferencia de la transformada de Laplace en el análisis de sistemas en tiempo continuo, la transformada Z facilita el análisis de sistemas y la obtención de información sobre su comportamiento.
Ejemplos
- Un simple ejemplo de un operador LTI es el operador de retraso D{}x[n]}=defx[n− − 1]{displaystyle D{x[n]}mathrel {text{def}{=} x[n-1].
- D()c1⋅ ⋅ x1[n]+c2⋅ ⋅ x2[n])=c1⋅ ⋅ x1[n− − 1]+c2⋅ ⋅ x2[n− − 1]=c1⋅ ⋅ Dx1[n]+c2⋅ ⋅ Dx2[n]{2}cdot[n-1]cdot}{2} {2}cdot x_{2}cdot x_{2}[n]right)=c_{1}cdot x_{1}[n-1]+c_{2}cdot x_{2}[n-1]=c_{1}cdot (es decir, es lineal)
- D{}x[n− − m]}=x[n− − m− − 1]=x[()n− − 1)− − m]=D{}x}[n− − m]{displaystyle D{x[n-m]}=x[n-m-1]=x[n-1)-m]=D{x}[n-m] (es decir, es invariante el tiempo)
La transformación Z del operador de retraso es una simple multiplicación por z−1. Eso es,
Z{}Dx[n]}=z− − 1X()z).{displaystyle {mathcal {Z}left{Dx[n]right}=z^{-1}X(z).} - Otro simple operador LTI es el operador de promediación
Por la linealidad de las sumas,A{}x[n]}=def. . k=n− − an+ax[k].{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnK} {f}} {fnK}}} sum _{k=n-a} {n+a}x[k].}y así es lineal. Porque...A{}c1x1[n]+c2x2[n]}=. . k=n− − an+a()c1x1[k]+c2x2[k])=c1. . k=n− − an+ax1[k]+c2. . k=n− − an+ax2[k]=c1A{}x1[n]}+c2A{}x2[n]},{displaystyle {begin{aligned}{mathcal {}left{1}x_{1}[n]+c_{2}x_{2}[n]right=sum - ¿Por qué? ¿Por qué? ¿Por qué? {fnh} {fn]} {fnh} {fnh}} {fnh}m}m} {fn} {fn}fn}fn}fn}fnfnfn}fnfnfnfnfnK}también es invariante el tiempo.A{}x[n− − m]}=. . k=n− − an+ax[k− − m]=. . k.=()n− − m)− − a()n− − m)+ax[k.]=A{}x}[n− − m],{displaystyle {begin{aligned}{mathcal {}left{x[n-m]right} âTMa=sum ################################################################################################################################################################################################################################################################ ¿Por qué?
Propiedades importantes del sistema
Las características de entrada-salida del sistema LTI discreto-time se describen completamente por su respuesta de impulso h[n]{displaystyle h[n]}. Dos de las propiedades más importantes de un sistema son la causalidad y la estabilidad. Los sistemas no-causal (en el tiempo) pueden definirse y analizarse como anteriores, pero no pueden realizarse en tiempo real. También se pueden analizar y construir sistemas inestables, pero sólo son útiles como parte de un sistema mayor cuya función general de transferencia es estable.
Causalidad
Un sistema LTI de tiempo discreto es causal si el valor actual de la salida depende únicamente del valor actual y de los valores pasados de la entrada. Una condición necesaria y suficiente para la causalidad es
Estabilidad
Un sistema es entrada acotada, salida acotada estable (BIBO estable) si, para cada entrada acotada, la salida es finita. Matemáticamente, si
implica que
(es decir, si la entrada atada implica la salida atada, en el sentido de que los valores absolutos máximos x[n]{displaystyle x[n]} y Sí.[n]{displaystyle y[n]} son finitos), entonces el sistema es estable. Una condición necesaria y suficiente es que h[n]{displaystyle h[n]}, la respuesta del impulso, satisfios
En el dominio de frecuencia, la región de convergencia debe contener el círculo de unidad (es decir, el locus que satisface SilenciozSilencio=1{displaystyle Silencioso para complejos z).
Contenido relacionado
Conjunto vacío
Precisión y exactitud
Historia de la lógica