Operación de matriz generalización de la exponentiación de números de escalar
En matemáticas, la matriz exponencial es una función matriz en matrices cuadradas análogas a la función exponencial ordinaria. Se utiliza para resolver sistemas de ecuaciones diferenciales lineales. En la teoría de los grupos de Lie, la matriz exponencial da el mapa exponencial entre una matriz Álgebra Lie y el grupo correspondiente Lie.
Vamos. X ser un n×n matriz real o compleja. El exponencial de X, denotado por eX o exp(X), es el n×n matriz dada por la serie de potencia
eX=. . k=0JUEGO JUEGO 1k!Xk{displaystyle E^{X}=sum _{infty ¡No!

Donde X0{displaystyle X^{0}
se define como la matriz de identidad I{displaystyle I}
con las mismas dimensiones X{displaystyle X}
. La serie siempre converge, así que el exponencial de X está bien definido.
Equivalentemente,
eX=limk→ → JUEGO JUEGO ()I+Xk)k{displaystyle e^{X}=lim _{krightarrow infty }left(I+{frac {X}{k}}right)^{k}}

In×nCuando X es un n× n matriz diagonal entonces exp(X) será un n ×n matriz diagonal con cada elemento diagonal igual al exponencial ordinario aplicado al elemento diagonal correspondiente de X.
Propiedades
Propiedades elementales
Sean X y Y n×n matrices complejas y dejemos que a y b sean números complejos arbitrarios. Denotamos la matriz de identidad n×n por I y la matriz cero por 0. La matriz exponencial satisface las siguientes propiedades.
Comenzamos con las propiedades que son consecuencias inmediatas de la definición como una serie de energía:
- e0 = I
- exp(XT) = X)T, donde XT denota la transposición de X.
- exp(XAlternativa) = X)Alternativa, donde XAlternativa denota la transposición conyugal de X.
- Si Y es invertible entonces eYXY−1 = Sí.XY−1.
El siguiente resultado clave es este:
- Si XY=YX{displaystyle XY=YX}
entonces eXeY=eX+Y{displaystyle e^{X}e}=e^{X+Y}
.
La prueba de esta identidad es la misma que el argumento estándar de la serie de energía para la identidad correspondiente para el exponencial de números reales. Es decir, mientras X{displaystyle X}
y Y{displaystyle Sí.
coma, no importa el argumento si X{displaystyle X}
y Y{displaystyle Sí.
son números o matrices. Es importante señalar que esta identidad normalmente no sostiene si X{displaystyle X}
y Y{displaystyle Sí.
no se comunique (ver la desigualdad Golden-Thompson abajo).
Las consecuencias de la identidad anterior son las siguientes:
- eaXebX = e()a + b)X
- eXe−X = I
Utilizando los resultados anteriores, podemos verificar fácilmente las siguientes afirmaciones. Si X es simétrico entonces eX</i también es simétrico, y si X es simétrico sesgado entonces eX es ortogonal. Si X es hermitiano entonces eX</i también es hermitiano, y si X es sesgado-hermitiano entonces eX es unitario.
Finalmente, una transformada de Laplace de matrices exponenciales equivale al resolutivo,
∫ ∫ 0JUEGO JUEGO e− − tsetXdt=()sI− − X)− − 1{displaystyle int _{0}{infty }e^{-ts}e^{tX},dt=(sI-X)^{-1}

sSistemas de ecuaciones diferenciales lineales
Una de las razones de la importancia de la matriz exponencial es que puede usarse para resolver sistemas de ecuaciones diferenciales ordinarias lineales. la solución de
ddtSí.()t)=ASí.()t),Sí.()0)=Sí.0,{displaystyle {frac {d}y(t)=Ay(t),quad y(0)=y_{0}

ASí.()t)=eAtSí.0.{displaystyle y(t)=e^{ - Sí.

La matriz exponencial también se puede utilizar para resolver la ecuación no homogénea
ddtSí.()t)=ASí.()t)+z()t),Sí.()0)=Sí.0.{displaystyle {frac {d}y(t)=Ay(t)+z(t),quad y(0)=y_{0}

No existe una solución cerrada para ecuaciones diferenciales de la forma
ddtSí.()t)=A()t)Sí.()t),Sí.()0)=Sí.0,{displaystyle {frac {d}y(t)=A(t),y(t),quad y(0)=y_{0}

AEl determinante de la matriz exponencial
Según la fórmula de Jacobi, para cualquier matriz cuadrada compleja se cumple la siguiente identidad de traza:
Det()eA)=etr ()A) .{displaystyle det left(e^{A}right)=e^{operatorname {tr} (A)}~}
Además de proporcionar una herramienta computacional, esta fórmula demuestra que una matriz exponencial es siempre una matriz invertible. Esto se debe al hecho de que el lado derecho de la ecuación anterior es siempre no cero, y así det(eA), lo que implica que eA Debe ser invertible.
En el caso del valor real, la fórmula también muestra el mapa
exp:: Mn()R)→ → GL()n,R){displaystyle exp colon M_{n}(mathbb {R})to mathrm {GL} (n,mathbb {R})}

Matrices simétricas reales
La matriz exponencial de una matriz simétrica real es definida positiva. Vamos. S{displaystyle S.
ser un n×n matriz simétrica real x▪ ▪ Rn{displaystyle xin mathbb {R} {fn}
un vector de columna. Utilizando las propiedades elementales de la matriz exponencial y de matrices simétricas, tenemos:
xTeSx=xTeS/2eS/2x=xT()eS/2)TeS/2x=()eS/2x)TeS/2x=. . eS/2x. . 2≥ ≥ 0.{displaystyle x^{T}e^{S}x=x^{T}e^{S/2}e^{S/2}x=x^{T}(e^{S/2})} {T}e^{S/2}x=(e^{S/2}x} {T}e^{S/2}x=l} Vert e^{S/2}xr Vert ^{2}geq 0.}

Desde eS/2{displaystyle e^{S/2}
es invertible, la igualdad sólo es válida x=0{displaystyle x=0}
, y tenemos 0}" xmlns="http://www.w3.org/1998/Math/MathML">xTeSx■0{displaystyle x^{T}e^{S}x}0}
0}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert skin-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/451368a951ef0f175e91b645c43b815f66245f73" style="vertical-align: -0.338ex; width:10.685ex; height:2.676ex;"/> para todos los no cero x{displaystyle x}
. Por lo tanto eS{displaystyle e^{S}
es positivo.
El exponencial de las sumas
Para cualquier número real (escalares) x y y sabemos que la función exponencial satisface ex+y = ex ey. Lo mismo ocurre con las matrices conmutadoras. Si las matrices X y Y conmutar (lo que significa que XY = YX), entonces,
eX+Y=eXeY.{displaystyle E^{X+Y}=e^{X}e^{Y}

Sin embargo, para matrices que no conmutan la igualdad anterior no necesariamente se cumple.
La fórmula del producto Lie
Incluso si X y Y no conmutas, el exponencial eX + Y se puede calcular mediante la fórmula del producto de Lie
eX+Y=limk→ → JUEGO JUEGO ()e1kXe1kY)k.{displaystyle e^{X+Y}=lim _{kto infty }left(e^{frac {1}{}X}e^{frac} Sí.

Usar una k finita grande para aproximar lo anterior es la base de la expansión de Suzuki-Trotter, a menudo utilizada en la evolución numérica del tiempo. .
La fórmula Baker-Campbell-Hausdorff
En la otra dirección, si X y Y son matrices suficientemente pequeñas (pero no necesariamente conmutantes), tenemos
eXeY=eZ,{displaystyle ¿Qué?

ZXYZ=X+Y+12[X,Y]+112[X,[X,Y]]− − 112[Y,[X,Y]]+⋯ ⋯ ,{displaystyle Z=X+Y+{frac {1}{2} {X,Y]+{frac {1}{X,[X,Y]]-{frac {1}{12} [Y,[X,Y]]+cdots}
![{displaystyle Z=X+Y+{frac {1}{2}}[X,Y]+{frac {1}{12}}[X,[X,Y]]-{frac {1}{12}}[Y,[X,Y]]+cdots}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5ebd57eb47ed56f6d8111bbd7dc460e0242019b4)
XYXYZ = X + YDesigualdades para exponenciales de matrices hermitianas
Para las matrices hermitianas existe un teorema notable relacionado con la traza de las matrices exponenciales.
Si A y B son matrices hermitianas, entonces
tr exp ()A+B)≤ ≤ tr [exp ()A)exp ()B)].{displaystyle operatorname {tr} exp(A+B)leq operatorname {tr} left[exp(A)exp(B)right].}
![{displaystyle operatorname {tr} exp(A+B)leq operatorname {tr} left[exp(A)exp(B)right].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a67f5a9c156589dcc0627529aeb987b7ab57ff77)
No hay ningún requisito de conmutatividad. Hay contraejemplos que muestran que la desigualdad de Golden-Thompson no se puede extender a tres matrices y, en cualquier caso, tr(exp(A)exp( No se garantiza que B)exp(C)) sea real para A hermitiano. , B, C. Sin embargo, Lieb demostró que se puede generalizar a tres matrices si modificamos la expresión de la siguiente manera
tr exp ()A+B+C)≤ ≤ ∫ ∫ 0JUEGO JUEGO dttr [eA()e− − B+t)− − 1eC()e− − B+t)− − 1].{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrom {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f}f}}fnMicroscH0}f}}fnMicroscH0}fnMicrosoft SanscH0} {fnMicroscH0}}fnMicroscH0}f}}}fnMicrosoft_B}f}fnun}}fnMientras erascH0} {fnun}b}fnMientras erasiguotroscH0}fnMinMientras erascH0} {fnKf}cH0}b}fnMien
![{displaystyle operatorname {tr} exp(A+B+C)leq int _{0}^{infty }mathrm {d} t,operatorname {tr} left[e^{A}left(e^{-B}+tright)^{-1}e^{C}left(e^{-B}+tright)^{-1}right].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e8395467e8b32cac1f2fd5634a920770cb7eca5e)
El mapa exponencial
La exponencial de una matriz es siempre una matriz invertible. La matriz inversa de eX viene dada por e-X. Esto es análogo al hecho de que la exponencial de un número complejo siempre es distinta de cero. La matriz exponencial nos da entonces un mapa
exp:: Mn()C)→ → GL()n,C){displaystyle exp colon M_{n}(mathbb {C})to mathrm {GL} (n,mathbb {C})}

nnnnnCRPara dos matrices cualesquiera X y Y,
.eX+Y− − eX.≤ ≤ . . Y. . e. . X. . e. . Y. . ,{displaystyle leftfnegocia^{X+Y}-e^{X}derechaderechaestudioleq 'Principalmente', '

donde ‖ · ‖ denota una norma matricial arbitraria. De ello se deduce que el mapa exponencial es continuo y Lipschitz continuo en subconjuntos compactos de Mn( C).
El mapa
t↦ ↦ etX,t▪ ▪ R{displaystyle tmapsto e^{t X},qquad tin mathbb {R}

t = 0De hecho, esto da un subgrupo de un parámetro del grupo lineal general ya que
etXesX=e()t+s)X.{displaystyle e^{tX}e^{sX}=e^{(t+s)X}

El derivado de esta curva (o vector tangente) en un punto t es dado por
ddtetX=XetX=etXX.{displaystyle {frac}e^{tX}=Xe^{tX}=e^{tX}X.}  | | ()1) |
La derivada en t = 0 es solo la matriz X, es decir, que X genera este subgrupo de un parámetro.
De manera más general, para un exponente genérico dependiente de t, X(t),
ddteX()t)=∫ ∫ 01eα α X()t)dX()t)dte()1− − α α )X()t)dα α .{displaystyle {frac {dt}e^{X(t)}=int ### {0}{1}e^{alpha X(t)}{frac {dX(t)} {}e^{(1-alpha)X(t)},dalpha ~.}
Tomando la expresión anterior eX(t) fuera del signo integral y expandiendo el integrando con la ayuda del lema de Hadamard se puede obtener la siguiente expresión útil para la derivada del exponente matricial,
()ddteX()t))e− − X()t)=ddtX()t)+12![X()t),ddtX()t)]+13![X()t),[X()t),ddtX()t)]]+⋯ ⋯ {displaystyle left {frac}e^{X(t)}right)e^{-X(t)}={frac {d} {dt}X(t)+{2}}left[X(t),{dt}X(t)}X(t)right]+{frac {1}}}}left[X(t),left[X(t),{frac {d} {dt} {c}c}}c}c}c]
![{displaystyle left({frac {d}{dt}}e^{X(t)}right)e^{-X(t)}={frac {d}{dt}}X(t)+{frac {1}{2!}}left[X(t),{frac {d}{dt}}X(t)right]+{frac {1}{3!}}left[X(t),left[X(t),{frac {d}{dt}}X(t)right]right]+cdots }](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c74b020fc5a663d2e643610b3dc6a5d3e9ee0c8)
Los coeficientes en la expresión anterior son diferentes de lo que aparece en el exponencial. Para una forma cerrada, vea el derivado del mapa exponencial.
Derivadas direccionales restringidas a matrices hermitianas
Vamos. X{displaystyle X}
ser un n× × n{displaystyle ntimes n}
Matriz hermitiana con eigenvalues distintos. Vamos. X=Ediag()▪ ▪ )EAlternativa Alternativa {displaystyle X=E{textrm {}(Lambda)E^{*}
ser su eigen-decomposición donde E{displaystyle E}
es una matriz unitaria cuyas columnas son los eigenvectores de X{displaystyle X}
, EAlternativa Alternativa {displaystyle E^{*}
es su transpose conyugal, y ▪ ▪ =()λ λ 1,... ... ,λ λ n){displaystyle Lambda =left(lambda) ¿Por qué?
el vector de eigenvalues correspondientes. Entonces, para cualquier n× × n{displaystyle ntimes n}
Matriz ermitiana V{displaystyle V}
, el derivado direccional de exp:X→ → eX{displaystyle exp:Xto e^{X}
a X{displaystyle X}
en la dirección V{displaystyle V}
es
Dexp ()X)[V]≜ ≜ limε ε → → 01ε ε ()eX+ε ε V− − eX)=E()G⊙ ⊙ V̄ ̄ )EAlternativa Alternativa {displaystyle Dexp(X)[V]triangleq lim _{epsilon to 0}{epsilon }left(displaystyle) e^{X+epsilon E^{*}
![{displaystyle Dexp(X)[V]triangleq lim _{epsilon to 0}{frac {1}{epsilon }}left(displaystyle e^{X+epsilon V}-e^{X}right)=E(Godot {bar {V}})E^{*}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/720434d760d91904b61a54c17630773a2adee785)
V̄ ̄ =EAlternativa Alternativa VE{displaystyle {bar}=E^{*}VE}
⊙ ⊙ {displaystyle odot }
1≤ ≤ i,j≤ ≤ n{displaystyle 1leq i,jleq n}
G{displaystyle G.
Gi,j={}eλ λ i− − eλ λ jλ λ i− − λ λ j si iل ل j,eλ λ i de otra manera.{displaystyle G_{i,j}=left{begin{aligned} {fnMicrosoft} - ¿Qué? {fnK} {fnMicrosoft Sans Serif} ¿Por qué?

n× × n{displaystyle ntimes n}
U{displaystyle U}
U{displaystyle U}
V{displaystyle V}
D2exp ()X)[U,V]≜ ≜ limε ε u→ → 0limε ε v→ → 014ε ε uε ε v()eX+ε ε uU+ε ε vV− − eX− − ε ε uU+ε ε vV− − eX+ε ε uU− − ε ε vV+eX− − ε ε uU− − ε ε vV)=EF()U,V)EAlternativa Alternativa {displaystyle D^{2}exp(X)[U,V]triangleq lim _{epsilon _{u}a 0}lim _{epsilon _{v}to 0}{4epsilon _{u}epsilon - ¿Qué? e^{X+epsilon ¿Qué? ¿Qué? ¿Qué? ¿Qué? ¿Qué? ¿Qué? ¿Qué? - Sí.
![{displaystyle D^{2}exp(X)[U,V]triangleq lim _{epsilon _{u}to 0}lim _{epsilon _{v}to 0}{frac {1}{4epsilon _{u}epsilon _{v}}}left(displaystyle e^{X+epsilon _{u}U+epsilon _{v}V}-e^{X-epsilon _{u}U+epsilon _{v}V}-e^{X+epsilon _{u}U-epsilon _{v}V}+e^{X-epsilon _{u}U-epsilon _{v}V}right)=EF(U,V)E^{*}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/60283f8a1d7b8a53fd09a079916761b54b40d524)
F{displaystyle F}
1≤ ≤ i,j≤ ≤ n{displaystyle 1leq i,jleq n}
F()U,V)i,j=. . k=1nφ φ i,j,k()Ū ̄ ikV̄ ̄ jkAlternativa Alternativa +V̄ ̄ ikŪ ̄ jkAlternativa Alternativa ){displaystyle F(U,V)_{i,j}=sum ################################################################################################################################################################################################################################################################ {fnMicrosoft Sans Serif} {fnh} {fnK} {fn}} {fnK}} {fn}}} {fn}} {fn}} {fn}}}} {fn}}} {fnfn}}}} {\fn}}}}\\fnfn}}\\\f}}}}}}}}}\\\\\\\\\\\\fn}}}}}}}\\\\\\fn}}}}}}}}}\\\\\\\\fn}}}}}}}}}}}}}}}}}}}}}}\\\\\\\\\\\\\fn}}}}}}}}}}}}}}}}}}}}}}}} {V}_{ik}{bar} {fnMicrosoft Sans Serif}

φ φ i,j,k={}Gik− − Gjkλ λ i− − λ λ j si iل ل j,Gii− − Gikλ λ i− − λ λ k si i=j y kل ل i,Gii2 si i=j=k.{displaystyle phi ##{i,j,k}=left{begin{aligned} {G_{ik}-G_{jk}{lambda ################################################################################################################################################################################################################################################################ {G_{ii}-G_{ik}{lambda {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {\fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}}} {\fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}}}}}}}}}\fnMientras me siento que no lo siento mucho.

Calcular la matriz exponencial
Encontrar métodos confiables y precisos para calcular la matriz exponencial es difícil, y este sigue siendo un tema de considerable investigación actual en matemáticas y análisis numérico. Matlab, GNU Octave, R y SciPy utilizan la aproximante Padé. En esta sección, analizamos métodos que son aplicables en principio a cualquier matriz y que pueden llevarse a cabo explícitamente para matrices pequeñas. Las secciones siguientes describen métodos adecuados para la evaluación numérica en matrices grandes.
Caso de diagnóstico
Si una matriz es diagonal:
A=[a10⋯ ⋯ 00a2⋯ ⋯ 0⋮ ⋮ ⋮ ⋮ ⋱ ⋱ ⋮ ⋮ 00⋯ ⋯ an],{displaystyle A={begin{bmatrix}a_{1} >cdots >vdots > 'ddots &vdots \vdots \0 concdots ¿Qué?

eA=[ea10⋯ ⋯ 00ea2⋯ ⋯ 0⋮ ⋮ ⋮ ⋮ ⋱ ⋱ ⋮ ⋮ 00⋯ ⋯ ean].{displaystyle e^{A}={begin{bmatrix}e^{a_{1} {0 Pulsandocdots "0 riñedos" ¿Qué?

Este resultado también permite exponenciar matrices diagonalizables. Si
A = UDU−1
y D es diagonal, entonces
eA = UeDU−1.
La aplicación de la fórmula de Sylvester produce el mismo resultado. (Para ver esto, tenga en cuenta que la suma y multiplicación, por lo tanto también la exponenciación, de matrices diagonales es equivalente a la suma y multiplicación por elementos, y por lo tanto a la exponenciación; en particular, la exponenciación "unidimensional" se siente como elemento -sabio para el caso diagonal.)
Ejemplo: Diagonalizable
Por ejemplo, la matriz
A=[1411]{displaystyle A={begin{bmatrix}1 ventaja411end{bmatrix}}

[− − 2211][− − 1003][− − 2211]− − 1.{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {begin{bmatrix}{begin{bmatrix}-1 limit0} 3end{bmatrix}}{begin{bmatrix}21}1}\end{bmatrix}}}}{-1}}}}}}}} {

Así,
eA=[− − 2211]e[− − 1003][− − 2211]− − 1=[− − 2211][1e00e3][− − 2211]− − 1=[e4+12ee4− − 1ee4− − 14ee4+12e].{displaystyle {fn} {fn} {fn} {fn}} {fn}} {fn}}}}} {begin{bmatrix}-1}}end{bmatrix}{1} {bginmginbginbgin211}{bn0} {b}{2}} {b} {b}}}}b}b} {b}b}b}b}}b}b}b}}b}b}b}b}b}b}}b}b}}b}}bb}b} {m} {b} {m} {m} {beginb}b}b}b}b}m} {b} {b}b}b}b}b}b}b}b}b}}b}b} {1}{e} {0}\end{bmatrix}{begin{bmatrix}-2 implica2111\end{bmatrix}} {begin{bmatrix}{begin{bmatrix}{fractrix} {f}f}fncip}}{f}} {f}}}f} {f}f} {f}f}f}f}f}f}}}}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}}f}fn {4}+1}{2e} {frac} {fnMicroc}\fnMicroc} {fnK} {fnMicroc} {e^{4}+1}\end{bmatrix}}

Caso nilpotente
Una matriz N es nilpotente si Nq = 0 para algún número entero q. En este caso, la matriz exponencial eN se puede calcular directamente a partir de la expansión en serie. , ya que la serie termina después de un número finito de términos:
eN=I+N+12N2+16N3+⋯ ⋯ +1()q− − 1)!Nq− − 1 .{displaystyle E^{N}=I+N+{frac {1}{2}N^{2}+{frac} {1} {6}N^{3}+cdots +{frac {1}{(q-1)}}} No.

Dado que la serie tiene un número finito de pasos, es un polinomio matricial, que se puede calcular de manera eficiente.
Caso general
Usando la descomposición Jordan-Chevalley
Por la descomposición Jordan–Chevalley, cualquier n× × n{displaystyle ntimes n}
matriz X con entradas complejas se puede expresar como
X=A+N{displaystyle X=A+N}

- A es diagonalizable
- N es nilpotent
- A comunicaciones con N
Esto significa que podemos calcular el exponencial de X reduciendo a los dos casos anteriores:
eX=eA+N=eAeN.{displaystyle e^{X}=e^{A+N}=e^{A}e^{N}

Nota que necesitamos la conmutación de A y N para el último paso al trabajo.
Usando la forma canónica de Jordania
Un método estrechamente relacionado es, si el campo está cerrado algebraicamente, para trabajar con la forma Jordania de X. Supongamos que X = PJP−1 Donde J es la forma Jordania de X. Entonces...
eX=PeJP− − 1.{displaystyle E^{X}=Pe^{J}P^{-1}

Además, desde
J=Ja1()λ λ 1)⊕ ⊕ Ja2()λ λ 2)⊕ ⊕ ⋯ ⋯ ⊕ ⊕ Jan()λ λ n),eJ=exp ()Ja1()λ λ 1)⊕ ⊕ Ja2()λ λ 2)⊕ ⊕ ⋯ ⋯ ⊕ ⊕ Jan()λ λ n))=exp ()Ja1()λ λ 1))⊕ ⊕ exp ()Ja2()λ λ 2))⊕ ⊕ ⋯ ⋯ ⊕ ⊕ exp ()Jan()λ λ n)).{displaystyle {begin{aligned}J limit=J_{a_{1}(lambda _{1})oplus J_{a_{2}}(lambda _{2})oplus cdots oplus J_{a_{n}(lambda _{n}),\e^{J} limit=exp {big (}J_{a_{1}}(lambda _{1})oplus J_{2}(lambda _{2})oplus cdots oplus {bign} {bign} {fn}} {fn}} {bign}} {big} {fn} {fn}} {big}} {bign}} {big}}}}ombda} {big} {big} {big}}}} {big}}}} {big}}}}} {big}}}}}}big} {bigbig}}}}}}}}}} {big} {big} {big} {big}big}}}}}}}big}}}}}}}}}}}}}}}}}}}}}}} {big}}} {big}}}}}}}}}}}}}}}} {p] {big} {big} {big} {big}} {big}}}}}

Por lo tanto, sólo necesitamos saber cómo calcular la matriz exponencial de un bloque de Jordan. Pero cada bloque de Jordan tiene la forma
Ja()λ λ )=λ λ I+N⇒ ⇒ eJa()λ λ )=eλ λ I+N=eλ λ eN.{displaystyle {begin{aligned} limitadaJ_{a}(lambda) I+N\\Rightarrow &e^{J_{a}(lambda)} limit=e^{lambda I+N}=e^{lambda }e^{N}

donde N es una matriz nilpotente especial. La matriz exponencial de J viene dada por
eJ=eλ λ 1eNa1⊕ ⊕ eλ λ 2eNa2⊕ ⊕ ⋯ ⋯ ⊕ ⊕ eλ λ neNan{displaystyle e^{J}=e^{lambda - ¿Qué? e^{lambda {2}e^{N_{a_{2}}oplus cdots oplus e^{lambda ¿Qué?

Caso de proyección
Si P es una matriz de proyección (es decir, es idempotente: P2 = P), su matriz exponencial es:
eP = I +e −1)P.
Al derivar esto mediante la expansión de la función exponencial, cada potencia de P se reduce a P que se convierte en factor común de la suma:
eP=. . k=0JUEGO JUEGO Pkk!=I+(). . k=1JUEGO JUEGO 1k!)P=I+()e− − 1)P .{displaystyle e^{P}=sum _{k=0}{infty }{frac {f}{k}}}=I+left(sum) ¿Por qué?

Caso de rotación
Para una rotación simple en la que los vectores unitarios perpendiculares a y b especifica un plano, la matriz de rotación R se puede expresar en términos de una función exponencial similar que involucra un generador G y ángulo θ.
G=baT− − abTP=− − G2=aaT+bbTP2=PPG=G=GP ,{fnMicrosoft {fnMicrosoft} {fnMicrosoft} {fnMicrosoft {f}-mathbf {ab} } {mthsf {T}} {cHFF} {cH00}=m}=mathbf {cH00}cH00}cH00}cH00}cH00}cH00}}}}}cH00}}cH00}}cH00}}}}cH00}cH00}cH00}cH00}cH00}cH00}cH00}}}cH00}}}cH00}}}}}}}}cH00}cH00}cH00}cH00cH00cH00}}cH00}}}}cH00}cH00}}cH00}cH00cH00}}cH00} {T}\\P^{2} {fnMicrosoft Sans Serif}}

R()Silencio Silencio )=eGSilencio Silencio =I+Gpecado ()Silencio Silencio )+G2()1− − # ()Silencio Silencio ))=I− − P+P# ()Silencio Silencio )+Gpecado ()Silencio Silencio ) .{displaystyle {begin{aligned}Rleft(theta right)=e^{Gtheta } limit=I+Gsin(theta)+G^{2}(1-cos(theta))\ {theta]}\\\fnMicrosoft]\\fnMicrosoft]

La fórmula para el exponencial resulta de reducir las potencias de G en la expansión de la serie e identificar los respectivos coeficientes de la serie de G2 y G con −cos(θ) y sin(θ) respectivamente. La segunda expresión aquí para eGθ es la misma que la expresión para R(θ) en el artículo que contiene la derivación del generador, R( θ) = eGθ.
En dos dimensiones, si a=[10]{displaystyle a=left {begin{smallmatrix}1end{smallmatrix}}right]
y b=[01]{displaystyle b=left[{begin{smallmatrix}01end{smallmatrix}right]
Entonces G=[0− − 110]{displaystyle G=left[{begin{smallmatrix}0iéndose-11⁄2 seguido {smallmatrix}right]
, G2=[− − 100− − 1]{displaystyle G^{2}=left[{begin{smallmatrix}-1 Pulso0 3end{smallmatrix}right]
, y
R()Silencio Silencio )=[# ()Silencio Silencio )− − pecado ()Silencio Silencio )pecado ()Silencio Silencio )# ()Silencio Silencio )]=I# ()Silencio Silencio )+Gpecado ()Silencio Silencio ){displaystyle R(theta)={begin{bmatrix}cos(theta) recur-sin(theta)\sin(theta) limitcos(theta)end{bmatrix}=Icos(theta)+Gsin(theta)}}

La matriz P = −G2 proyecta un vector sobre el ab-plane y la rotación solo afecta a esta parte del vector. Un ejemplo que ilustra esto es una rotación de 30° = π/6 en el plano abarcado por a y b,
a=[100]b=15[012]{begin {fn} {fn} {fn} {fn}fn}\0\0\0\\\\\\\m}} {fn} {fn}}} {fn}}}}} {mcH022cH0}cH0cH0}}}}}}}}}} {b}cH00} {cH0cH0cH0}cH}cH}cH0cH0cH0cH0cH0cH}}cH0}}cH0cH0cH}}cH0cH}cH0cH0cH0cH0b}cH0cH0cH0cH0ccH0cH}cH0cH}}cH0

G=15[0− − 1− − 2100200]P=− − G2=15[500012024]P[123]=15[5816]=a+85bR()π π 6)=110[53− − 5− − 2558+3− − 4+2325− − 4+232+43]{0} {0} {0} {0} {2} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0}}} {0} {0} {0}} {0} {0}}}} {0}} {0}} {b}}}} {b}}} {b}}}}}}}}}}}}}}}}}}} {b}}}}} {b} {b} {b} {b} {b} {c}}}}}}}}} {c}}} {b}}}} {b} {b} {b}}}}}}}} {b} {b}}}}}}}} {1}{5} {begin{bmatrix}58\16end{bmatrix}=mathbf {a} +{frac {8}{sqrt {5}} 'Mathbf {b} 'R'left({frac {pi {}{6}derecho)} {frac}{10}{begin{bmatrix}5{sqrt {3} {fn} {fn} {fn} {fn}} {fn}} {fn} {fn}} {fn}} {fn}}}} {fn}}}} {fn}}}} {fnf}}}}}} {fn}}}}}}}} {5}\\\fnMicrosoft} {5}} ################################################################################################################################################################################################################################################################ {5}}}\\fn}\fn}}\\\\\\\end{bmatrix}}\\end{aligned}}}}}}\\fn}}}}}\\\fn}}}}}}}}}}}}}}}}}}}}}}}}\\

Vamos. N = I - P, entonces N2 = N y sus productos P y G son cero. Esto nos permitirá evaluar poderes de R.
R()π π 6)=N+P32+G12R()π π 6)2=N+P12+G32R()π π 6)3=N+GR()π π 6)6=N− − PR()π π 6)12=N+P=I{displaystyle {begin{aligned}Rleft({frac {pi} {6}derecha) {cHFF} {3}{2}+G{frac} {1}{2}\\rleft({frac {fnMic {fnMicroc} {fn} {f}fn} {fn}}fn}fn}fn}\fn}\\\\\\\\fn\fnfn}\\\\fn\\\\\fnfn}\\\fn}\fnfn}\\fn}\\\\\fn\\\\fnfn}\\\\fn\\fn}\\\\\\fn\\fn\\fnfn}fn}fn}\\\\\\\fn}\\cH ### {6}derecha]##################################################################################################################################################################################################################################################### {1}{2}+G{frac} {cHFF} {fn} {fn}\\fnh}\\fnfn}\\\\fn} {fn}\fn}}\\\fn}\\\fn}\\\\\\\fn\\fn}\\\\\fn}\\\fn}\\\\\\fn}}\\\\\\cH3}\\\\fn}}\\\\\\\\\\\fn}\\\\\\\\\\\fn}\\fn}\\\fn}\\\\\\\\\\\\ ### {6}derecha]##################################################################################################################################################################################################################################################### {fnMicrosoft Sans Serif} {fnMicroc {fnMicroc} ################################################################################################################################################################################################################################################################

Evaluación de la serie Laurent
En virtud del teorema de Cayley-Hamilton, la matriz exponencial se puede expresar como un polinomio de orden n−1.
Si P y Qt son polinomios distintos de cero en una variable, tales que P(A) = 0, y si la función meromórfica
f()z)=etz− − Qt()z)P()z){displaystyle f(z)={frac {e^{tz}-Q_{t}{P(z)}}}

etA=Qt()A).{displaystyle e^{tA}=Q_{t}(A).}

P()z)zATal polinomio Qt()z) se puede encontrar como sigue: vea la fórmula de Sylvester. Letting a ser una raíz de P, Qa,t()z) se resuelve del producto de P por la parte principal de la serie Laurent f a a: Es proporcional al covariante Frobenius relevante. Entonces la suma St de la Qa,t, donde a corre sobre todas las raíces P, se puede tomar como un Qt. Todo el otro Qt se obtendrá añadiendo un múltiple de P a St()z). En particular, St()z), el polinomio Lagrange-Sylvester, es el único Qt cuyo grado es inferior al de P.
Ejemplo: Considere el caso de una matriz arbitraria de 2×2,
A:=[abcd].{displaystyle A:={begin{bmatrix}a golpebc implicadend{bmatrix}}

La matriz exponencial etA, en virtud del teorema de Cayley-Hamilton, debe ser de la forma
etA=s0()t)I+s1()t)A.{displaystyle e^{tA}=s_{0}(t),I+s_{1}(t),A}

(Para cualquier número complejo z y cualquier C- álgebra B, denotamos de nuevo z el producto de z por la unidad de B)
Vamos. α y β ser las raíces del polinomio característico A,
P()z)=z2− − ()a+d) z+ad− − bc=()z− − α α )()z− − β β ) .{displaystyle P(z)=z^{2}-(a+d) z+ad-bc=(z-alpha)(z-beta)~.}

Entonces tenemos
St()z)=eα α tz− − β β α α − − β β +eβ β tz− − α α β β − − α α ,{displaystyle S_{t}(z)=e^{alpha t}{frac {z-beta }{alpha -beta }+e^{beta t}{frac {z-alpha ♫ {beta - 'alpha'

s0()t)=α α eβ β t− − β β eα α tα α − − β β ,s1()t)=eα α t− − eβ β tα α − − β β {displaystyle {begin{aligned}s_{0}(t) limit={frac {alpha ,e^{beta t}-beta ,e^{alpha }{alpha -beta {fnMicrosoft Sans} {fnMicroc {fnK}} {beta t} {beta t} {beta}}}} {beta}}}}}}} {fnunció}}

si α ≠ β; mientras que, si α = β,
St()z)=eα α t()1+t()z− − α α )) ,{displaystyle S_{t}(z)=e^{alpha t}(1+t(z-alpha)~,}

así
s0()t)=()1− − α α t)eα α t,s1()t)=teα α t .{displaystyle {begin{aligned}s_{0}(t) sensible=(1-alpha ,t),e^{alpha t}, implicas_{1}(t) limit=t,e^{alpha }

Definición
s↑ ↑ α α +β β 2=tr A2 ,q↑ ↑ α α − − β β 2=± ± − − Det()A− − sI),{displaystyle {begin{aligned}s sensibleequiv {fnMicroc {fnMicroc} +beta {fnK}={fracfnMicrosoft {fnMicrosoft Sans Serif} A}{2}~~ {fnMicroc {alpha -beta }{2}=pm {sqrt {-det left(A-sIright)}},end{aligned}}}

tenemos
s0()t)=est()cosh ()qt)− − specado ()qt)q),s1()t)=estpecado ()qt)q,{fncipes {fnciped}s_{0}(t) limit=e^{st}left(cosh(qt)-s{frac {sinh(qt)}{q}}right), limitadas_{1}(t)} {f} {f} {f}} {f}} {f}}f}}}} {f}f}}}}}}f}} {f}}}f}}}}}}f}} {f} {f}}}}}f}}}}}}}}}}f}f}}}}f} {f} {f}} {f} {f}}}}}}}}} {f}}}}}}}}}}}f}f}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}f}}}}}}}}}

donde sin(qt)/q es 0 si t = 0, y t si q = 0.
Así,
etA=est()()cosh ()qt)− − specado ()qt)q) I +pecado ()qt)qA) .{displaystyle e^{tA}=e^{st}left(left(cosh(qt)-s{frac {sinh(qt)}{q}right)~I~+{frac {sinh(qt)}Aright)~}~}
Así, como se indicó anteriormente, la matriz A se ha descompuesto en la suma de dos piezas que se conmutan entre sí, la pieza trazable y la pieza sin rastro,
A=sI+()A− − sI) ,{displaystyle A=sI+(A-sI)~, }

la matriz exponencial reduce a un producto simple de los exponenciales de las dos piezas respectivas. Esta es una fórmula a menudo utilizada en la física, ya que equivale a la fórmula analógica de Euler para las matrices de la columna Pauli, es decir, rotaciones de la representación de la dobleta del grupo SU(2).
El polinomio St también se puede dar la siguiente caracterización "interpolación". Define et()z) etz, y n ↑ deg P. Entonces... St()z) es el grado único c) n polinomio que satisfice St()k)()a) et()k)()a) siempre k es menos que la multiplicidad de a como raíz de P. Suponemos, como obviamente podemos, que P es el polinomio mínimo de A. Asumimos además que A es una matriz diagonal. En particular, las raíces de P son simples, y la caracterización "interpolación" indica que St es dado por la fórmula de interpolación Lagrange, por lo que es el Lagrange Sylvester polinomial.
En el otro extremo, si P =z - a)nEntonces
St=eat . . k=0n− − 1 tkk! ()z− − a)k .{displaystyle S_{t}=e^{at}sum _{k=0}{n-1} {fnMicroc {fnMicrosoft Sans Serif}}fnMicroc {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicroc {fnMicroc {f} {fnMicrosoft Sans Serif}}}}}}f}}f}f}}f}f}f}f}f}f}fnMicrocH0fnMicrocH0}f}fnMicrocH0}fnMicrocH0}fnMicroc {fnMicrocfnMicroc {fnMicroc {f} {fnMicroc {fnMicroc {fnMicroc {fnMicroc {fnMicroc {fnMicroc {fnMicroc {fnMicroc {fnMi (z-a)

El caso más simple no cubierto por las observaciones anteriores es cuando P=()z− − a)2()z− − b){displaystyle P=(z-a)^{2},(z-b)}
con a ل b, que rinde
St=eat z− − ba− − b ()1+()t+1b− − a)()z− − a))+ebt ()z− − a)2()b− − a)2.{displaystyle ¿Qué?

Evaluación mediante implementación de la fórmula de Sylvester
Un cálculo práctico y rápido de lo anterior se reduce a los siguientes pasos rápidos. Recuerde lo anterior que una matriz n×n exp(tA) equivale a una combinación lineal de la primera n−1 potencias de A por el teorema de Cayley-Hamilton. Para matrices diagonalizables, como se ilustra arriba, p.e. en el caso de 2×2, la fórmula de Sylvester produce exp(tA) = Bα exp(tα) + Bβ exp(tβ), donde Bs son las covariantes de Frobenius de A .
Sin embargo, es más fácil resolver estas B directamente, evaluando esta expresión y su primera derivada en t = 0, en términos de A y I, para encontrar la misma respuesta que la anterior.
Pero este sencillo procedimiento también funciona para matrices defectuosas, en una generalización debida a Buchheim. Esto se ilustra aquí para un ejemplo de 4×4 de una matriz que no es diagonalizable y la Bs no son matrices de proyección.
Considere
A=[11000110001− − 18001212] ,{displaystyle A={begin{bmatrix}1 tendrían una relación0 diez1 tendrían una relación0 diez, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres, tres

λ1 = 3/4λ2 = 1Considere el exponencial de cada eigenvalue multiplicado por t, exp(λit). Multiply each exponentiated eigenvalue by the corresponding undetermined coefficient matriz Bi. Si los eigenvalues tienen una multiplicidad algebraica mayor que 1, entonces repetir el proceso, pero ahora multiplicado por un factor extra de t para cada repetición, para asegurar la independencia lineal.
(Si un eigenvalue tuviera una multiplicidad de tres, entonces habría tres términos: Bi1eλ λ it, Bi2teλ λ it, Bi3t2eλ λ it{displaystyle B_{i_{1}e^{lambda ¿Qué? - ¿Qué? ¿Qué?
. Por el contrario, cuando todos los eigenvalues son distintos, Bs son sólo los covariantes Frobenius, y resolver para ellos como abajo sólo equivale a la inversión de la matriz Vandermonde de estos 4 eigenvalues.)
Sum all such terms, here four such,
eAt=B11eλ λ 1t+B12teλ λ 1t+B21eλ λ 2t+B22teλ λ 2t,eAt=B11e34t+B12te34t+B21e1t+B22te1t .{displaystyle {begin{aligned}e^{At}duc=B_{1_}e^{lambda ¿Qué? ## {1}t}+B_{2_{1}e^{lambda ¿Qué? ¿Qué? {3} {4}t}t}+B_{1_{2}te^{{frac} {3} {4}t}t}+B_{2_{1}e^{1t}+B_{2_{2}te^{1t}~.end{aligned}}

Resolver todas las matrices desconocidas B en términos de las tres primeras potencias de A y la identidad, se necesitan cuatro ecuaciones, la anterior proporciona una en t = 0. Además, diferenciarlo con respecto a t,
AeAt=34B11e34t+()34t+1)B12e34t+1B21e1t+()1t+1)B22e1t ,{displaystyle Ae^{ At}={frac {3} {4}}B_{1_{1}e^{{frac {3}{4}t}+left({frac {frac} {f} {f} {f} {f}} {f} {f} {f} {f} {f}} {f}}} {f}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f} {f}} {pp}}}}}}}}}}}}}}}}}}}}}}}}} {ppppppppppppppppppppppppppppppppp}}}}}}}}}}}}}}}}} {3}{4}t+1right)B_{1_{2}e^{frac} {3}{4}t}t}+1B_{2_{1}e^{1t}+left(1t+1right)B_{2_{2}e^{1t}~}

y otra vez,
A2eAt=()34)2B11e34t+()()34)2t+()34+1⋅ ⋅ 34))B12e34t+B21e1t+()12t+()1+1⋅ ⋅ 1))B22e1t=()34)2B11e34t+()()34)2t+32)B12e34t+B21et+()t+2)B22et ,{displaystyle {begin{aligned}A^{2}e^{At} limit=left({frac} {3}{4}right)}{2}B_{1_{1}e^{frac {3}{4}t}t}+left(left({frac} {3}{4}right)}{2}t+left({frac {3}{4}+1cdot {frac} Bueno... {3}{4}t}t}+B_{2_{1}}e^{1t}+left(1^{2}t+(1+1cdot 1)right)B_{2_{2}e^{1t}\\cc} {4}{4}{4}{4}{4}{4}{4}{4} {} {} {} {} {}}}}{4}{4}}}}}{4}}}}}{4} {} {} {} {}}}} {} {}}} {}}}{4} {}}}} {}}}}}}}}}}}} {}}}}} {} {} {} {} {}}}} {} {} {} {}}}}}} {}}}}}}} {}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}} {3}{4}right)} {2}t+{frac {3}{2}right)B_{1_{2}e^{frac {frac}{frac}{f} {fnK} {fnK} {f}} {fn0} {fn0} {fnMicroc}}}f}}}}}}}}}}}}}}}f}}}}}f}}}f}f}}}}f}f}f}f}f}f}fnun}}f}f}f}f}f}f}f}f}fnun}fnun}fnun}fnun}f}fnun}fnun}f}fnun}fnun}fnunfnun}fnun}fnun}fnun}fnun} {3}{4}t}t}+B_{2_{1}e^{t}+left(t+2right)B_{2_{2}e^{t}~,end{aligned}}}

y una vez más,
A3eAt=()34)3B11e34t+()()34)3t+()()34)2+()32)⋅ ⋅ 34))B12e34t+B21e1t+()13t+()1+2)⋅ ⋅ 1)B22e1t=()34)3B11e34t+()()34)3t+2716)B12e34t+B21et+()t+3⋅ ⋅ 1)B22et .{displaystyle {begin{aligned}A^{3}e^{At} limit=left({frac} {3}{4}}derecha)} {3}cccfn}t}t}+left(left({fracfrac {fnMic}t}t}+left(left(left) {3}{4}right)}{3}t+left(left({frac {3}{4}}right)^{2}+left({frac {3}{2}right)cdot {frac {3}{4}}right)right)B_{1_{2}}e^{fracfrac}{4}{4}{4}{4}{4}{4}}{4}{4}{4}{4}}{4}}}{4}}}{4}}{4}{4}}}}}}}{4}}}}}}}}}{4}}}}}{4}{4}{4}{4}}{4}{4}}}}}{4}{4}{4}}}{4}{4}}}}}}}}}}{4}}}{4}}}}}}}}}}}{4}}}}}}}}}}}} {3}{4}t}+B_{2_{1}e^{1t}+left(1^{3}t+(1+2)cdot 1right) ¿Por qué? {3}{4}right)}{3}t!+{frac {27}right)B_{1_{2}e^{frac} {3}{4}t}!+B_{2_{1}e^{t}!+left(t+3cdot 1right)B_{2_{2}e^{t}~end{aligned}}

(En el caso general, es necesario tomar n−1 derivadas).
Estableciendo t = 0 en estas cuatro ecuaciones, las cuatro matrices de coeficientes Bs ahora se pueden resolver,
I=B11+B21A=34B11+B12+B21+B22A2=()34)2B11+32B12+B21+2B22A3=()34)3B11+2716B12+B21+3B22 ,{displaystyle {begin{aligned}I ventaja=B_{1_{1_}+B_{2_{1}\A limit={frac} {3}{4}}B_{1_{1}}+B_{1_{2}+B_{2_{1}}+B_{2_{2}\A^{2} {3}{4}right)}{2}B_{1_{1}+{frac {3}{2}}B_{1_{2}}+B_{2_{1}+2B_{2_{2}\A^{3} {3} {=left({frac} {fc} {fnK}} {c}} {c}} {c}}}}}}}}}}} {c}}} {c}}}}}}}}}}}}}}} {c}}}}}}}}} {c}}}}}}}}}}}} {c_}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}\\\\\\\\\\\\\\\\\c}}}}}}}}}}}}}}}}}}}}}}}}}} {3}{4}right)}{3}B_{1_{1}+{frac {27}{16}B_{1_{2}+B_{2_{1}+3B_{2_{2}~}~,end{aligned}}}

al rendimiento
B11=128A3− − 366A2+288A− − 80IB12=16A3− − 44A2+40A− − 12IB21=− − 128A3+366A2− − 288A+80IB22=16A3− − 40A2+33A− − 9I .{2} {2} {2}=0}___________} {3}_________________} {2} {3}________________________________

Sustitución con el valor A rendimientos de las matrices de coeficiente
B11=[0048− − 1600− − 8200100001]B12=[004− − 200− − 1120014− − 180012− − 14]B21=[10− − 4816018− − 200000000]B22=[018− − 2000000000000]{displaystyle {begin{aligned}B_{1_{1} {={begin{bmatrix}0 limitada048 tendría 16}0 tarde 8 doble2 rest0 implica0 implica0}0 tarde {0}}B_{1_{2}}}}} {0}{0}{0}{0}{0} {1}{2} limitada0 {frac {1}{4}} {frac} {1}{8} limitada0{frac {1}{2}} {frac} {0}{0} {0} {0} {0} {0} {0}} {0}} {0} {0} {0}} {0} {0} {0}} {0}} {0} {0} {0} {0} {0} {0}} {0} {0}} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0}} {0} {0}}} {0} {0} {0} {0}} {0} {0} {0} {0} {0}}}} {0} {0}}} {0} {0} {0}}} {0} {0} {0} {0}}} {0}} {0} {0} {0}} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0}}}}}}}}}}}}}}}}}}}}}}

así que la respuesta final es
etA=[ettet()8t− − 48)et+()4t+48)e34t()16− − 2t)et+()− − 2t− − 16)e34t0et8et+()− − t− − 8)e34t− − 2et+t+42e34t00t+44e34t− − t8e34t00t2e34t− − t− − 44e34t .]{displaystyle e^{tA}={begin{bmatrix}e^{t} limiteleft(8t-48right)e^{t}!+left(4t+48right)e^{frac {3}{4}t}t} âTMa âTMa âTMa âTMa{t}{t}{t}{t}{t}i}i}c}{t}c}{y}}}}}{t}{t}{t}{t}c}}{t}{y}}{y}}c}c}c}{y}}}}}}}}}}}}{y}}}}}}}c}}{y}}}}}}}}}}{y}}}c}c}}}}}c}}}}}}}}}}}}}}}}}}}{y}}}}}}}c}c}{y}}}}}}}}} {3}{4} t} dieze^{t} {t}!+left(-t-8right)e^{frac} {3}{4}t} {} {t}{t}{}{}{} {} {} {f}}t}t} {c}}t}t} {} {} {}}} {}} {} {} {}} {}} {}} {} {}}} {}} {}}}}} {}}}}} {}} {}}}}} {}}}}}}}}} {}}}}}} {}}}} {}}}}}} {}}}}} {} {}}}}} {} {}}}} {}}}}}}} {}}}}} {}} {}}}}}}}}}}}} {}}}}}}} {} {} {}} {} {}}}}}} {} {}}}}}}}}} {}}}}}} {}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}} {fnK} {fnMicroc} {3}{4}t} {t+4}{4}e^{{frac {3}{4}t {frac} {f}t} {f}t} {f}t} {f} {f}t} {f} {f}t} {f} {f} {f}t} {f} {f}t} {f} {f} {f}}f}f}f}}f}f}f}f}f}f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}} {} {fn}e^ {fnMicroc} {3}{4}t} {fn} {fnK}t} {f}t} {f}}t} {f} {f} {f} {f} {f}} {f}}} {f}}} {f}} {f} {f}} {f} {f}}} {f}f}}}}}}}}}} {f}}}}}} {f}}}}}}}}}}}} {f}}} {f}}}}}}}} {f}}}}}} {f}}}}} {f}}}}}}}}} {f}}}}}}}}}}}} {f}}}}}}}} {f} {f} {f}}}}f}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {T-4} {4}}e^{frac {3} {4}t}~} {end{bmatrix}}}}}} {f}}} {f} {f}} {f}}}}}}}}} {f}} {f} {f}} {f}}}} {f}}} {f}}}}}}}}}}}} {f}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}} {f}}}}} {f}}}} {f}}}}}}}}}}}}}} {f}}}}}}}}}} {f}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}

El procedimiento es mucho más corto que el algoritmo de Putzer a veces utilizado en tales casos.
Ilustraciones
Supongamos que queremos calcular el exponencial de
B=[21176− − 5− − 1− − 64416].{displaystyle B={begin{bmatrix}21 tendría17 implica65 próximo 64 prófugo4 próxima16end{bmatrix}}

Su forma Jordania es
J=P− − 1BP=[40001610016],{displaystyle J=P^{-1}BP={begin{bmatrix}4 tendría0 puntos 0 rest16 implica1 implica0 ago16end{bmatrix}}}}

PP=[− − 1425414− − 2− − 14040].{displaystyle P={begin{bmatrix}-{frac {1}{4}} {4}} {4}} {4}}} {2}} {2}} {2} {f} {f} {f}} {f}}}}}} {1}{4} âTMa âTMa âTMa} âTMa âTMa âTMa âTMa âTMa}

Vamos a calcular primero exp(J). Tenemos
J=J1()4)⊕ ⊕ J2()16){displaystyle J=J_{1}(4)oplus J_{2}(16)}

El exponencial de una matriz 1×1 es sólo el exponencial de la única entrada de la matriz, por lo que exp(J14) = [e4]. El exponencial de J2(16) se puede calcular por la fórmula e(λ)I + N) = eλ eN mencionado anteriormente; este rendimiento
exp ()[161016])=e16exp ()[0100])==e16()[1001]+[0100]+12![0000]+⋯ ⋯ )=[e16e160e16].{} {} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {} {fnMicrosoft} {fnMicrosoft Sans Serif}} {}}}} {} {}}}}fnMientrosigualquiere}}}fnMisigualquiere}fnMinMientrosigually]
![{displaystyle {begin{aligned}&exp left({begin{bmatrix}16&1\0&16end{bmatrix}}right)=e^{16}exp left({begin{bmatrix}0&1\0&0end{bmatrix}}right)=\[6pt]{}={}&e^{16}left({begin{bmatrix}1&0\0&1end{bmatrix}}+{begin{bmatrix}0&1\0&0end{bmatrix}}+{1 over 2!}{begin{bmatrix}0&0\0&0end{bmatrix}}+cdots {}right)={begin{bmatrix}e^{16}&e^{16}\0&e^{16}end{bmatrix}}.end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/645acc0496a216b8b6bd59c4f7bc8ba0023e82d4)
Por lo tanto, el exponencial de la matriz original B es
exp ()B)=Pexp ()J)P− − 1=P[e4000e16e1600e16]P− − 1=14[13e16− − e413e16− − 5e42e16− − 2e4− − 9e16+e4− − 9e16+5e4− − 2e16+2e416e1616e164e16].{4} {4} {4}} {4}} {4}}}} {4}}}} {4}}}} {4}}}} {}}}} {4}}}} {4}}}} {4}}}} {4}}}}}}} {4}}}}}}} {4}}}}}}}}}} {}}}}}}}}}}}}}} {}}}}}}}}}}} {}}}}}}}}}}}}}} {
![{displaystyle {begin{aligned}exp(B)&=Pexp(J)P^{-1}=P{begin{bmatrix}e^{4}&0&0\0&e^{16}&e^{16}\0&0&e^{16}end{bmatrix}}P^{-1}\[6pt]&={1 over 4}{begin{bmatrix}13e^{16}-e^{4}&13e^{16}-5e^{4}&2e^{16}-2e^{4}\-9e^{16}+e^{4}&-9e^{16}+5e^{4}&-2e^{16}+2e^{4}\16e^{16}&16e^{16}&4e^{16}end{bmatrix}}.end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bf04ed9a5767fa06004d8c32cb391df66373de5b)
Aplicaciones
Ecuaciones diferenciales lineales
La matriz exponencial tiene aplicaciones a sistemas de ecuaciones diferenciales lineales. (Ver también la ecuación diferencial de matriz.) Recordar de antes en este artículo que un homogénea ecuación diferencial de la forma
Sí..=ASí.{displaystyle mathbf {y} 'Amathbf {y}

eAt Sí.(0)Si consideramos el vector
Sí.()t)=[Sí.1()t)⋮ ⋮ Sí.n()t)] ,{displaystyle mathbf {y} (t)={begin{bmatrix}y_{1}(t)\\vdots \y_{n}(t)end{bmatrix}~}~}}

inhomogeneousSí..()t)=ASí.()t)+b()t).{displaystyle mathbf {y} '(t)=Amathbf {y} (t)+mathbf {b} (t).}

e−Ate− − AtSí..− − e− − AtASí.=e− − Atb⇒ ⇒ e− − AtSí..− − Ae− − AtSí.=e− − Atb⇒ ⇒ ddt()e− − AtSí.)=e− − Atb .{fnMicrosoft} {fnMicrosoft}

El segundo paso es posible debido a que, si AB = BAEntonces eAtB = BeAt. Entonces, calculando eAt conduce a la solución al sistema, simplemente integrando el tercer paso con respecto a t.
Una solución a esto se puede obtener mediante la integración y multiplicación por eAt{displaystyle e^{textbf {}t} t}
para eliminar al exponente en el LHS. Note eso mientras eAt{displaystyle e^{textbf {}t} t}
es una matriz, dado que es una matriz exponencial, podemos decir que eAte− − At=I{displaystyle e^{textbf {}t}e^{-{textbf {A}t}=I}
. En otras palabras, exp At=exp ()− − At)− − 1{displaystyle exp {textbf {}t}=fn} {fnK}} {fn}}} {fn}} {fn}}} {fn} {fn}}} {fn}}}} {fn}}}}} {fn}}}}}
.
Ejemplo (homogéneo)
Considerar el sistema
x.=2x− − Sí.+zSí..=3Sí.− − 1zz.=2x+Sí.+3z .{displaystyle {begin{matrix}x' tarde= tarde2xiéndose-y creciendo+zy' consecutivo= limitada3y limitada-1z\z 'conclusión2x-contigo+3zend{matrix}~.}

La matriz defectuosa asociada es
A=[2− − 1103− − 1213] .{displaystyle A={begin{bmatrix}2 ventaja-1 1 implica3 simultáneamente-12 limitada1 3end{bmatrix}~.}

La matriz exponencial es
etA=12[e2t()1+e2t− − 2t)− − 2te2te2t()− − 1+e2t)− − e2t()− − 1+e2t− − 2t)2()t+1)e2t− − e2t()− − 1+e2t)e2t()− − 1+e2t+2t)2te2te2t()1+e2t)] ,{displaystyle e^{tA}={frac} {2}{2t}{2t}{2t} {2t} {2t} {2t}{2t}{2t} {2t} {2t} {2t}left(-1+e^{2t}right)-e^{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2t}{2 (-1+e^{2t}+2tright) ventaja2te^{2t} {2t}left(1+e^{2t}right)end{bmatrix}~}

para que la solución general del sistema homogéneo sea
[xSí.z]=x()0)2[e2t()1+e2t− − 2t)− − e2t()− − 1+e2t− − 2t)e2t()− − 1+e2t+2t)]+Sí.()0)2[− − 2te2t2()t+1)e2t2te2t]+z()0)2[e2t()− − 1+e2t)− − e2t()− − 1+e2t)e2t()1+e2t)] ,{2} {2t} {2t} {2t}cH0}

sumas
2x=x()0)e2t()1+e2t− − 2t)+Sí.()0)()− − 2te2t)+z()0)e2t()− − 1+e2t)2Sí.=x()0)()− − e2t)()− − 1+e2t− − 2t)+Sí.()0)2()t+1)e2t+z()0)()− − e2t)()− − 1+e2t)2z=x()0)e2t()− − 1+e2t+2t)+Sí.()0)2te2t+z()0)e2t()1+e2t) .{2 t} {2t}i)2ti1i1i1i1i1}cH00i1cH00cH0}cH003cH0}cH0} (-1+e^{2t}+2tright)+y(0)2te^{2t}+z(0)e^{2t}left(1+e^{2t}right)~.end{aligned}}}
![{displaystyle {begin{aligned}2x&=x(0)e^{2t}left(1+e^{2t}-2tright)+y(0)left(-2te^{2t}right)+z(0)e^{2t}left(-1+e^{2t}right)\[2pt]2y&=x(0)left(-e^{2t}right)left(-1+e^{2t}-2tright)+y(0)2(t+1)e^{2t}+z(0)left(-e^{2t}right)left(-1+e^{2t}right)\[2pt]2z&=x(0)e^{2t}left(-1+e^{2t}+2tright)+y(0)2te^{2t}+z(0)e^{2t}left(1+e^{2t}right)~.end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c37743b1b3b11a50a71b628fede06041391b9c98)
Ejemplo (inhomogéneo)
Considere ahora el sistema inhomogéneo
x.=2x− − Sí.+z+e2tSí..=3Sí.− − zz.=2x+Sí.+3z+e2t .{displaystyle {begin{matrix}x' tendrían que haber tenido dos veces más de dos veces más de dos veces más de dos veces más tarde\\\\\\\\\\\\\\\\\y'a1}m2t}}~}~}}}

Otra vez.
A=[2− − 1103− − 1213] ,{displaystyle A=left[{begin{array}{rrr}2 limit1 limit3 limit12 limit1 {array}right]}
![{displaystyle A=left[{begin{array}{rrr}2&-1&1\0&3&-1\2&1&3end{array}}right]~,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f5a866884769332fa1a366783b9a1d1955f7dc05)
y
b=e2t[101].{displaystyle mathbf {b} =e^{2t} {begin{bmatrix}11end{bmatrix}}

Desde antes, ya tenemos la solución general a la ecuación homogénea. Dado que la suma de las soluciones homogéneas y particulares dan la solución general al problema inhomogéneo, ahora sólo necesitamos encontrar la solución particular.
Tenemos, para arriba,
Sí.p=etA∫ ∫ 0te()− − u)A[e2u0e2u]du+etAc=etA∫ ∫ 0t[2eu− − 2ue2u− − 2ue2u0− − 2eu+2()u+1)e2u2()u+1)e2u02ue2u2ue2u2eu][e2u0e2u]du+etAc=etA∫ ∫ 0t[e2u()2eu− − 2ue2u)e2u()− − 2eu+2()1+u)e2u)2e3u+2ue4u]du+etAc=etA[− − 124e3t()3et()4t− − 1)− − 16)124e3t()3et()4t+4)− − 16)124e3t()3et()4t− − 1)− − 16)]+[2et− − 2te2t− − 2te2t0− − 2et+2()t+1)e2t2()t+1)e2t02te2t2te2t2et][c1c2c3] ,{displaystyle {begin{aligned}mathbf {y} {}{p}=e^{tA}int {0} {}e^{2u}end{bmatrix}e^{2u}e^{2u}end{bmatrix},du+e^{tA}mathbf {c}[6pt] {0} {0} {0} {0} {0} {0} {0} {0} {0} {0}} {0} {0} {0} {0}} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0} {0}}} {0} {0} {0}=0}} {0} {0}} {0} {0}}}}}}}}}}}}}}}}}}}}}}}} {0}}}}} {0}}}} {0} {0}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {0} {}}}}}}}}}}}}}}}}}}}}}}}}}} {i} {2}{2} {2} {0}
![{displaystyle {begin{aligned}mathbf {y} _{p}&=e^{tA}int _{0}^{t}e^{(-u)A}{begin{bmatrix}e^{2u}\0\e^{2u}end{bmatrix}},du+e^{tA}mathbf {c} \[6pt]&=e^{tA}int _{0}^{t}{begin{bmatrix}2e^{u}-2ue^{2u}&-2ue^{2u}&0\-2e^{u}+2(u+1)e^{2u}&2(u+1)e^{2u}&0\2ue^{2u}&2ue^{2u}&2e^{u}end{bmatrix}}{begin{bmatrix}e^{2u}\0\e^{2u}end{bmatrix}},du+e^{tA}mathbf {c} \[6pt]&=e^{tA}int _{0}^{t}{begin{bmatrix}e^{2u}left(2e^{u}-2ue^{2u}right)\e^{2u}left(-2e^{u}+2(1+u)e^{2u}right)\2e^{3u}+2ue^{4u}end{bmatrix}},du+e^{tA}mathbf {c} \[6pt]&=e^{tA}{begin{bmatrix}-{1 over 24}e^{3t}left(3e^{t}(4t-1)-16right)\{1 over 24}e^{3t}left(3e^{t}(4t+4)-16right)\{1 over 24}e^{3t}left(3e^{t}(4t-1)-16right)end{bmatrix}}+{begin{bmatrix}2e^{t}-2te^{2t}&-2te^{2t}&0\-2e^{t}+2(t+1)e^{2t}&2(t+1)e^{2t}&0\2te^{2t}&2te^{2t}&2e^{t}end{bmatrix}}{begin{bmatrix}c_{1}\c_{2}\c_{3}end{bmatrix}}~,end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8ef0cccdaf2d5b0fe9d53a321c37fdde8f71b782)
cSí.pGeneralización inhomogénea de casos: variación de parámetros
Para el caso inhomogéneo, podemos utilizar factores de integración (un método similar a la variación de parámetros). Buscamos una solución particular de la forma Sí.p()t) = exp(tA) z()t),
Sí.p.()t)=()etA).z()t)+etAz.()t)=AetAz()t)+etAz.()t)=ASí.p()t)+etAz.()t) .{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {f} {f} {f} {f}}} {f}f} {f} {f} {f} {f}} {f}f}f} {f}f}f}f}f}f}f}f}f}}f}f}f}f}f}f}f}f}f}f}f} {cH00}f}cH00}f}f}f}f}f}f}f}f}f}f}f}f}}f}cH00cH00}cH00}cH00cH00}cH00}cH00}cH00}cH00}cH00}cH00}}}cH00}
![{displaystyle {begin{aligned}mathbf {y} _{p}'(t)&=left(e^{tA}right)'mathbf {z} (t)+e^{tA}mathbf {z} '(t)\[6pt]&=Ae^{tA}mathbf {z} (t)+e^{tA}mathbf {z} '(t)\[6pt]&=Amathbf {y} _{p}(t)+e^{tA}mathbf {z} '(t)~.end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1870f9bb07a06edb36c925a5612cc28d61d36722)
Para Sí.p para ser una solución,
etAz.()t)=b()t)z.()t)=()etA)− − 1b()t)z()t)=∫ ∫ 0te− − uAb()u)du+c .{fnMicrosoft Sans Serif} {f} {f} {f} {f} {f} {f} {f} {cH00}f}f}cH00}cH0}cH00}cH00}cH00}cH00}cH00}cH00}cH0}cH00}cH0}cH0}cH00}cH00cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00cH00}cH00}cH00}cH00}cH00}cH00}cH0cH00}cH00}cH00}c - Bien.
![{displaystyle {begin{aligned}e^{tA}mathbf {z} '(t)&=mathbf {b} (t)\[6pt]mathbf {z} '(t)&=left(e^{tA}right)^{-1}mathbf {b} (t)\[6pt]mathbf {z} (t)&=int _{0}^{t}e^{-uA}mathbf {b} (u),du+mathbf {c} ~.end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8517346e558b122ce5039cdeb54006e7e0e7eb18)
Así,
Sí.p()t)=etA∫ ∫ 0te− − uAb()u)du+etAc=∫ ∫ 0te()t− − u)Ab()u)du+etAc ,{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {f} {f} {c}ccH00}ccH0}cH00}cH00}cH00}ccH0}cccH00cH0}cH0} {cH0}cH0}cH0}cH0}ccH00cH00}cH00}cH00cH00cH00}cH00}cH00cH00}cH00cH00}cH00}cH00}cH00}cH00cH00}cH00}cH00}cH00cH00cH00cH00}cH00}cH00}cH00cH00}cH00cH00cH00}ccH00

cMás precisamente, considere la ecuación
Y.− − A Y=F()t){displaystyle Y'-A Y=F(t)}

con la condición inicial Y()t0) Y0, donde
- A es un n por n matriz compleja,
- F es una función continua de algún intervalo abierto I a Cn,
- t0{displaystyle T_{0}
es un punto I, y - Y0{displaystyle Y...
es un vector de Cn.
Izquierda-multiplying the above displayed equality by e−t-A rendimientos
Y()t)=e()t− − t0)A Y0+∫ ∫ t0te()t− − x)A F()x) dx .{displaystyle Y(t)=e^{(t-t_{0}A} Y_{0}+int _{t_{0}}} {t}e^{(t-x)A} F(x) dx~.}

Afirmamos que la solución a la ecuación
P()d/dt) Sí.=f()t){displaystyle P(d/dt) y=f(t)}

con las condiciones iniciales Sí.()k)()t0)=Sí.k{displaystyle y^{(k)}(t_{0})=y_{k}
para 0 ≤ k c) n es
Sí.()t)=. . k=0n− − 1 Sí.k sk()t− − t0)+∫ ∫ t0tsn− − 1()t− − x) f()x) dx ,{displaystyle y(t)=sum ¿Qué? Y... ¿Por qué?

donde la notación es la siguiente:
- P▪ ▪ C[X]{displaystyle Pin mathbb {C} [X]
es un polinomio monico de grado n ■ 0, - f es una función de valor compleja continua definida en algún intervalo abierto I,
- t0{displaystyle T_{0}
es un punto I, - Sí.k{displaystyle y_{k}
es un número complejo, y
sk()t) es el coeficiente de Xk{displaystyle X^{k}
en el polinomio denotado St▪ ▪ C[X]{displaystyle S_{t}in mathbb [X]
in Subsection Evaluation by Laurent series above.
Para justificar esta afirmación, transformamos nuestra orden n ecuación escalar en un orden una ecuación vectorial por la reducción habitual a un sistema de primer orden. Nuestra ecuación vectorial toma la forma
dYdt− − A Y=F()t),Y()t0)=Y0,{fnMicroc {fnMicroc}d Y}

APEn el caso n = 2 obtenemos la siguiente declaración. La solución
Sí..− − ()α α +β β ) Sí..+α α β β Sí.=f()t),Sí.()t0)=Sí.0,Sí..()t0)=Sí.1{displaystyle y''-(alpha +beta) y'+alpha ,beta y=f(t),quad y(t_{0})=y_{0},quad y'(t_{0})=y_{1}}}}}

es
Sí.()t)=Sí.0 s0()t− − t0)+Sí.1 s1()t− − t0)+∫ ∫ t0ts1()t− − x)f()x) dx,{displaystyle y(t)=y_{0}(t-t_{0})+y_{1} S_{1}(t-t_{0})+int ¿Qué?

donde las funciones s0 y s1 son como en Subsección Evaluación de la serie Laurent arriba.
exponenciales de matriz-matrix
La matriz exponencial de otra matriz (matrix-matrix exponencial), se define como
XY=elog ()X)⋅ ⋅ Y{displaystyle X^{Y}=e^{log(X)cdot Sí.

YX=eY⋅ ⋅ log ()X){displaystyle ^{Y}!X=e^{Ycdot log(X)}

n×nXn×nYPara los exponenciales matriciales hay una distinción entre el exponencial izquierdo YX y el exponencial derecho XY, porque el operador de multiplicación de matriz a matriz no es conmutativo. Además,
- Si X es normal y no lineal, entonces XY y YX tienen el mismo conjunto de eigenvalues.
- Si X es normal y no lineal, Y es normal, y XY = YXEntonces XY = YX.
- Si X es normal y no lineal, y X, Y, Z comuníquese entre sí, entonces XY+Z = XY·XZ y Y+ZX = YX·ZX.
Más resultados...