Matriz de adyuvante

ImprimirCitar
Para una matriz cuadrada, la transposición de la matriz cofactorial

En álgebra lineal, el adyuvante o adjunto clásico de una matriz cuadrada A es la transpuesta de su matriz cofactor y se denota por adj(A). Ocasionalmente también se conoce como matriz adjunta, o "adjunto", aunque este último término hoy normalmente se refiere a un concepto diferente, el operador adjunto que para una matriz es la transpuesta conjugada.

El producto de una matriz con su conjugada da una matriz diagonal (las entradas que no están en la diagonal principal son cero) cuyas entradas diagonales son el determinante de la matriz original:

Aadj⁡ ⁡ ()A)=Det()A)I,{displaystyle mathbf {A} operatorname {adj} (mathbf {A})=det(mathbf {A})mathbf {I}

donde I es la matriz identidad del mismo tamaño que A. En consecuencia, el inverso multiplicativo de una matriz invertible se puede encontrar dividiendo su adjunto por su determinante.

Definición

El adyuvante de A es la transpuesta de la matriz de cofactores C de A,

adj⁡ ⁡ ()A)=CT.{displaystyle operatorname {adj} (mathbf {A})=mathbf {C} ^{mathsf {T}}

Con más detalle, suponga que R es un anillo conmutativo unitario y A es una matriz n × n con entradas de R. El (i, j)-menor de A, denotado Mij, es el determinante de la matriz (n − 1) × (n − 1) que resulta de eliminar la fila i y la columna j de A. La matriz de cofactores de A es n × n matriz C cuya (i, j) la entrada es el (i, j) cofactor de A, que es el (i, j)-veces menores un factor de signo:

C=()()− − 1)i+jMij)1≤ ≤ i,j≤ ≤ n.{displaystyle mathbf {C} =left(-1)^{i+j}mathbf {M} _{ij}right)_{1leq i,jleq n}

El adjunto de A es la transpuesta de C, es decir, la matriz n × n cuya (i, j) la entrada es (j, i) cofactor de A,

adj⁡ ⁡ ()A)=CT=()()− − 1)i+jMji)1≤ ≤ i,j≤ ≤ n.{displaystyle operatorname {adj} (mathbf {A})=mathbf {C} {fnMitsf}=left(-1){i+j}mathbf {M} _{ji}right)_{1leq i,jleq n}

Consecuencia importante

El adjunto se define de modo que el producto de A con su adjunto produzca una matriz diagonal cuyas entradas diagonales son el determinante det(A). Eso es,

Aadj⁡ ⁡ ()A)=adj⁡ ⁡ ()A)A=Det()A)I,{displaystyle mathbf {A} operatorname {adj} (mathbf {A})=operatorname {adj} (mathbf {A})mathbf {A} =det(mathbf {A})mathbf {I}

donde I es n × n matriz de identidad. Esto es una consecuencia de la expansión de Laplace del determinante.

La fórmula anterior implica uno de los resultados fundamentales del álgebra matricial, que A es invertible si y solo si det(A) es un elemento invertible de R. Cuando esto se cumple, la ecuación anterior produce

adj⁡ ⁡ ()A)=Det()A)A− − 1,A− − 1=Det()A)− − 1adj⁡ ⁡ ()A).{displaystyle {begin{aligned}operatorname {adj} (mathbf {A}) limit=det(mathbf {A})mathbf {A} ^{-1},\Mathbf {A} ^{-1} {=det(mathbf {A})}operatorname {adj} (mathbf {A}).end{aligned}}}

Ejemplos

1 × 1 matriz genérica

Puesto que el determinante de una matriz de 0 x 0 es 1, el adjugado de cualquier matriz 1 × 1 (escalar complejo) es I=[1]{displaystyle mathbf {I} {begin{bmatrix}1end{bmatrix}}}. Observe que Aadj⁡ ⁡ ()A)=AI=()DetA)I.{displaystyle mathbf {A} operatorname {adj} (mathbf {A})=mathbf {A} mathbf {I} =(det mathbf {A})mathbf {I}.}

2 × 2 matriz genérica

El conjugado de la matriz 2 × 2

A=[abcd]{displaystyle mathbf {A} ={begin{bmatrix}a palb\c convictdend{bmatrix}}}

es

adj⁡ ⁡ ()A)=[d− − b− − ca].{displaystyle operatorname {adj} (mathbf {A})={begin{bmatrix}d limit-b\c Pulaend{bmatrix}}}

Por cálculo directo,

Aadj⁡ ⁡ ()A)=[ad− − bc00ad− − bc]=()DetA)I.{displaystyle mathbf {A} operatorname {adj} (mathbf {A})={begin{bmatrix}ad-bc Pul0} Pulsad-bcend{bmatrix}=(det mathbf {A})mathbf {I}

En este caso, también es cierto que det(adj(A)) = det(A) y por lo tanto adj(adj (A)) = A.

3 × 3 matriz genérica

Considere una matriz de 3 × 3

A=[a11a12a13a21a22a23a31a32a33].{displaystyle mathbf {A} ={begin{bmatrix}a_{11} limita_{12} limita_{13}a_{21} limita_{22} {23}a_{31} {32} {33}end{bmatrix}}}}}}}}}} {

Su matriz de cofactores es

C=[+Silencioa22a23a32a33Silencio− − Silencioa21a23a31a33Silencio+Silencioa21a22a31a32Silencio− − Silencioa12a13a32a33Silencio+Silencioa11a13a31a33Silencio− − Silencioa11a12a31a32Silencio+Silencioa12a13a22a23Silencio− − Silencioa11a13a21a23Silencio+Silencioa11a12a21a22Silencio],{displaystyle mathbf {fnK} {cH00} {cH00} {cH00} {cH} {cH} {cH}} {cH}} {cH}} {cH}} {cH} {cH} {cH}} {cH}} {cH}}cH00}} {c}}} {cH}}}}}} {c}cH}}}}}cH}cH}}}}cccccH}cccH} {cccccccccccccccccccccccH00} {ccH00}ccccccccH00} {cH00}}}cc}}}cc}}}}}}}}}

dónde

SilencioaimainajmajnSilencio=Det[aimainajmajn].{displaystyle {begin{vmatrix}a_{im} {in}a_{jm} limita_{jn}end{vmatrix}=det {begin{bmatrix}a_{im} {in}a_{jm} {jn}end{bmatrix}}}}

Su conjugado es la transpuesta de su matriz cofactor,

adj⁡ ⁡ ()A)=CT=[+Silencioa22a23a32a33Silencio− − Silencioa12a13a32a33Silencio+Silencioa12a13a22a23Silencio− − Silencioa21a23a31a33Silencio+Silencioa11a13a31a33Silencio− − Silencioa11a13a21a23Silencio+Silencioa21a22a31a32Silencio− − Silencioa11a12a31a32Silencio+Silencioa11a12a21a22Silencio].{displaystyle operatorname {adj} (mathbf {A})=mathbf {C} ^{mathsf {fnMicrosoft} {fnK} {fnMicrosoft} {fnMicrosoft} {f} {cH}} {fnMicrosoft}} {fnMicrosoft} {fnK} {f} {f}} {fnK}} {cH}} {f}f}}} {f}}}}}}f}} {f} {f}f}}f}f}f} {f}f}f}f} {f} {f}f} {f}f}f}f}f}f}f}}}}f}f}f}f}f}f}}f}f}}}f}f}f}f}f}f}f}f}f}f}}f}f}}f}f}f}}f}}

3 × 3 matriz numérica

Como ejemplo específico, tenemos

adj[− − 32− − 5− − 10− − 23− − 41]=[− − 818− − 4− − 512− − 14− − 62].{displaystyle operatorname {adj} !{begin{bmatrix}-3 implica2 implica-5\-1 implica0 simultáneamente-23 implica-4 implica1end{bmatrix}}={begin{bmatrix}-8 implica18 simultáneamente-4\5 simultáneamente12 simultáneamente-14 segundos-62end{bmatrix}}}

Es fácil comprobar que el adjunto es el inverso del determinante, −6.

El −1 en la segunda fila, tercera columna del adjunto se calculó de la siguiente manera. La entrada (2,3) del conjugado es el cofactor (3,2) de A. Este cofactor se calcula utilizando la submatriz obtenida al eliminar la tercera fila y la segunda columna de la matriz original A,

[− − 3− − 5− − 1− − 2].{displaystyle {begin{bmatrix}-3 ventaja-5\1⁄2end{bmatrix}}

El cofactor (3,2) es un signo multiplicado por el determinante de esta submatriz:

()− − 1)3+2Det[− − 3− − 5− − 1− − 2]=− − ()− − 3⋅ ⋅ − − 2− − − − 5⋅ ⋅ − − 1)=− − 1,{displaystyle (-1)^{3+2}operatorname {det}{begin{bmatrix}-3 ventaja-5\-1 implica-2end{bmatrix}=-(-3cdot -2--5cdot -1)=-1,}

y esta es la entrada (2,3) del adjunto.

Propiedades

Para cualquier matriz n × n A, los cálculos elementales muestran que los adyuvantes tienen las siguientes propiedades:

  • adj⁡ ⁡ ()I)=I{displaystyle operatorname {adj} (mathbf {I})=mathbf {I}, donde I{displaystyle mathbf {I} es la matriz de identidad.
  • adj⁡ ⁡ ()0)=0{displaystyle operatorname {adj} (mathbf {0})=mathbf {0}, donde 0{displaystyle mathbf {0} es la matriz cero, excepto que si n=1{displaystyle n=1} entonces adj⁡ ⁡ ()0)=I{displaystyle operatorname {adj} (mathbf {0}=mathbf {I}.
  • adj⁡ ⁡ ()cA)=cn− − 1adj⁡ ⁡ ()A){displaystyle operatorname {adj} (cmathbf {A})=c^{n-1}operatorname {adj} (mathbf {A})} para cualquier escalar c.
  • adj⁡ ⁡ ()AT)=adj⁡ ⁡ ()A)T{displaystyle operatorname {adj} (mathbf {A} {mathsf {T})=operatorname {adj} (mathbf {A})}{mathsf {T}}}}.
  • Det()adj⁡ ⁡ ()A))=()DetA)n− − 1{displaystyle det(operatorname {adj} (mathbf {A})=(det mathbf {A})^{n-1}.
  • Si A es invertible, entonces adj⁡ ⁡ ()A)=()DetA)A− − 1{displaystyle operatorname {adj} (mathbf {A})=(det mathbf {A})mathbf {A} {fn}. De ahí que:
    • adj(A) es invertible con inverso (Det A)−1A.
    • adj(A−1) = adj(A)−1.
  • adj(A) es el polinomio de entrada en A. En particular, sobre los números reales o complejos, el adyugue es una función suave de las entradas de A.

Sobre los números complejos,

  • adj⁡ ⁡ ()Ā ̄ )=adj⁡ ⁡ ()A)̄ ̄ {displaystyle operatorname {adj} ({overline {mathbf [A}]={overline {fnMitbf {}}}}}}, donde el bar denota conjugación compleja.
  • adj⁡ ⁡ ()AAlternativa Alternativa )=adj⁡ ⁡ ()A)Alternativa Alternativa {displaystyle operatorname {adj} (mathbf {A} ^{*}=operatorname {adj} (mathbf {A})^{*}, donde el asterisco denota transposición conyugal.

Suponga que B es otro n × n matriz. Entonces

adj⁡ ⁡ ()AB)=adj⁡ ⁡ ()B)adj⁡ ⁡ ()A).{displaystyle operatorname {adj} (mathbf {AB})=operatorname {adj} (mathbf {B})operatorname {adj} (mathbf {A}). }

Esto se puede demostrar de tres maneras. Una forma, válida para cualquier anillo conmutativo, es un cálculo directo utilizando la fórmula de Cauchy-Binet. La segunda forma, válida para los números reales o complejos, es observar primero que para las matrices invertibles A y B,

adj⁡ ⁡ ()B)adj⁡ ⁡ ()A)=()DetB)B− − 1()DetA)A− − 1=()DetAB)()AB)− − 1=adj⁡ ⁡ ()AB).{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {f} {f} {f}} {f}} {f}} {f} {f}f} {f}f} {f}f} {f}f} {cH0}b}f}f} {f} {f}f}f}f}f}f}f}f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f} }

Debido a que cada matriz no invertible es el límite de las matrices invertibles, la continuidad del adjunto implica que la fórmula sigue siendo verdadera cuando uno de A o B no es invertible.

Un corolario de la fórmula anterior es que, para cualquier número entero no negativo k,

adj⁡ ⁡ ()Ak)=adj⁡ ⁡ ()A)k.{displaystyle operatorname {adj} (mathbf {A} ^{k})=operatorname {adj} (mathbf {A})^{k}.}

Si A es invertible, entonces la fórmula anterior también es válida para k.

Desde la identidad

()A+B)adj⁡ ⁡ ()A+B)B=Det()A+B)B=Badj⁡ ⁡ ()A+B)()A+B),{displaystyle (mathbf {A} +mathbf {B})operatorname {adj} (mathbf {A} +mathbf {B})mathbf {B} =det(mathbf) {A} +mathbf {B})mathbf {B} =mathbf {B} operatorname {adj} (mathbf {A} +mathbf {B})(mathbf {A} +mathbf {B}),}

deducimos

Aadj⁡ ⁡ ()A+B)B=Badj⁡ ⁡ ()A+B)A.{displaystyle mathbf {A} operatorname {adj} (mathbf {A} +mathbf {B})mathbf {B} =mathbf {B} operatorname {adj} (mathbf {A} +mathbf {B})mathbf {A}.}

Supongamos que A viaja con B. Multiplicando la identidad AB = BA a la izquierda y a la derecha por adj(A) demuestra que

Det()A)adj⁡ ⁡ ()A)B=Det()A)Badj⁡ ⁡ ()A).{displaystyle det(mathbf {A})operatorname {adj} (mathbf {A})mathbf {B} =det(mathbf {A})mathbf {B} operatorname {adj} (mathbf {A}). }

Si A es invertible, esto implica que adj(A) también se desplaza con B. Sobre los números reales o complejos, la continuidad implica que adj(A) conmuta con B incluso cuando A no es invertible.

Finalmente, hay una prueba más general que la segunda prueba, que solo requiere que una matriz n × n tenga entradas sobre un campo con al menos 2n + 1 elementos (por ejemplo, una matriz de 5 × 5 sobre los enteros módulo 11). det(A+tI) es un polinomio en t con grado como máximo n, por lo que tiene como máximo n raíces. Tenga en cuenta que la entrada ij ésima de adj((A+tI)(B)) es un polinomio de orden máximo n, y lo mismo para adj(A+tI) adj(B). Estos dos polinomios en la entrada ij ésima concuerdan en al menos n + 1 puntos, ya que tenemos al menos n + 1 elementos del campo donde A+tI es invertible, y hemos probado la identidad para matrices invertibles. Los polinomios de grado n que concuerdan en n + 1 puntos deben ser idénticos (réstalos uno del otro y tienes n + 1 raíces para un polinomio de grado a lo sumo n – una contradicción a menos que su diferencia sea idénticamente cero). Como los dos polinomios son idénticos, toman el mismo valor para cada valor de t. Por lo tanto, toman el mismo valor cuando t = 0.

Usando las propiedades anteriores y otros cálculos elementales, es sencillo mostrar que si A tiene una de las siguientes propiedades, entonces adj A también:

  • triangular superior,
  • triangular inferior,
  • Diagonal,
  • Ortogonal,
  • Unitario,
  • Simétrico,
  • Hermitian,
  • Skew-symmetric,
  • Skew-Hermitian,
  • Normal.

Si A es invertible, entonces, como se indicó anteriormente, existe una fórmula para adj(A) en términos del determinante y el inverso de A. Cuando A no es invertible, el adjunto satisface fórmulas diferentes pero estrechamente relacionadas.

  • Si rk(An − 2, entonces adj(A) 0.
  • Si rk(A) n − 1, entonces rk(adj)A) = 1. (Algunos menores no son cero, así que adj(A) no es cero y por lo tanto tiene rango al menos uno; la identidad adj(A)A = 0 implica que la dimensión del espacio nulo adj(A) al menos n− 1, por lo que su rango es en la mayoría de uno.) De ello se desprende que adj(A) αxyT, donde α es un cuero cabelludo x y Sí. son vectores tales que Ax = 0 y ATSí. = 0.

Sustitución de columnas y regla de Cramer

Divide A en vectores de columnas:

A=[a1⋯ ⋯ an].{displaystyle mathbf {A} ={begin{bmatrix}mathbf {a} _{1}cdots > mathbf {a} ¿Qué?

Sea b un vector columna de tamaño n. Repare 1 ≤ in y considere la matriz formada al reemplazar la columna i de A por b:

()A← ← ib)=def[a1⋯ ⋯ ai− − 1bai+1⋯ ⋯ an].{displaystyle (mathbf {} {i} {i}}mathbf {b}) {fnMicrosoft} {fnK}}fn}fnh}\fnh} {begin{bmatrix}mathbf {a} _{1} limitcdots &mathbf {a} _{i-1} limitmathbf {b} > mathbf {a} _{i+1} limitcdots > mathbf {a} ¿Qué?

Laplace expande el determinante de esta matriz a lo largo de la columna i. El resultado es la entrada i del producto adj(A) b. La recopilación de estos determinantes para los diferentes posibles i produce una igualdad de vectores de columna

()Det()A← ← ib))i=1n=adj⁡ ⁡ ()A)b.{displaystyle left(det(mathbf {A} {i} {i} {leftarrow }mathbf {b})right)_{i=1} {n}=operatorname {adj} (mathbf {A})mathbf {b}}

Esta fórmula tiene la siguiente consecuencia concreta. Considere el sistema lineal de ecuaciones

Ax=b.{displaystyle mathbf {A} mathbf {x} =mathbf {b}

Suponga que A no es singular. Multiplicando este sistema a la izquierda por adj(A) y dividiendo por los rendimientos determinantes

x=adj⁡ ⁡ ()A)bDetA.{displaystyle mathbf {x} ={frac {operatorname {adj} (mathbf {A})mathbf {b}} {det mathbf {A}}}.

Aplicando la fórmula anterior a esta situación se obtiene la regla de Cramer,

xi=Det()A← ← ib)DetA,{displaystyle {fnh} {fnh}mátbf {} {fnh}}mhbf {}} {fn}}} {fn} {fn}} {fn}}}}} {fnMitbf {}}}}}}}} {fnMitbf {}}}}}}

donde xi es el estilo iésima entrada de x.

Polinomio característico

Sea el polinomio característico de A

p()s)=Det()sI− − A)=.. i=0npisi▪ ▪ R[s].{displaystyle p(s)=det(smathbf {I} -mathbf {A})=sum ¿Qué? R[s].

La primera diferencia dividida de p es un polinomio simétrico de grado n − 1,

<math alttext="{displaystyle Delta p(s,t)={frac {p(s)-p(t)}{s-t}}=sum _{0leq j+kΔ Δ p()s,t)=p()s)− − p()t)s− − t=.. 0≤ ≤ j+k.npj+k+1sjtk▪ ▪ R[s,t].{displaystyle Delta p(s,t)={frac {p(s)-p(t)}{s-t}=sum _{0leq J+k se llevó a cabo R[s,t].<img alt="{displaystyle Delta p(s,t)={frac {p(s)-p(t)}{s-t}}=sum _{0leq j+k

Multiplica sIA por su adjunto. Dado que p(A) = 0 por el teorema de Cayley-Hamilton, algunas manipulaciones elementales revelar

adj⁡ ⁡ ()sI− − A)=Δ Δ p()sI,A).{displaystyle operatorname {adj} (smathbf {I} -mathbf {A})=Delta p(smathbf {I}mathbf {A}).}

En particular, el resolvente de A se define como

R()z;A)=()zI− − A)− − 1,{displaystyle R(z;mathbf {A})=(zmathbf {I} -mathbf {A})^{-1}

y por la fórmula anterior, esto es igual a

R()z;A)=Δ Δ p()zI,A)p()z).{displaystyle R(z;mathbf {A})={frac {Delta p(zmathbf {I}mathbf {A} {p(z)}}}}

Fórmula de Jacobi

El adjunto también aparece en la fórmula de Jacobi para la derivada del determinante. Si A(t) es continuamente diferenciable, entonces

d()DetA)dt()t)=tr⁡ ⁡ ()adj⁡ ⁡ ()A()t))A.()t)).{displaystyle {frac {d(det mathbf {A}} {dt}=operatorname {tr} left(operatorname {adj} (mathbf {A} (t))mathbf {A} '(t)right). }

Se sigue que la derivada total del determinante es la transpuesta del adjunto:

d()DetA)A0=adj⁡ ⁡ ()A0)T.{displaystyle d(det mathbf {A}_{mathbf [A} _{0}=operatorname {adj} (mathbf {A})^{mathsf {T}}

Fórmula de Cayley-Hamilton

Sea pA(t) el polinomio característico de A. El teorema de Cayley-Hamilton establece que

pA()A)=0.{displaystyle p_{mathbf}(mathbf {A})=mathbf {0}

Separando el término constante y multiplicando la ecuación por adj(A) da una expresión para el adjunto que depende solo de A y los coeficientes de pA (t). Estos coeficientes se pueden representar explícitamente en términos de trazas de potencias de A utilizando polinomios de Bell exponenciales completos. La fórmula resultante es

adj⁡ ⁡ ()A)=.. s=0n− − 1As.. k1,k2,...... ,kn− − 1∏ ∏ l l =1n− − 1()− − 1)kl l +1l l kl l kl l !tr⁡ ⁡ ()Al l )kl l ,{displaystyle operatorname {adj} (mathbf {A})=sum ¿Qué? ¿Por qué? - ¿Qué? }k_{ell ¡Oh!

donde n es la dimensión de A, y la suma se toma sobre s y todas las secuencias de kl ≥ 0 satisfaciendo la ecuación diofántica lineal

s+.. l l =1n− − 1l l kl l =n− − 1.{displaystyle s+sum _{ell =1} {n-1}ell K_{ell }=n-1.}

Para el caso de 2 × 2, esto da

adj⁡ ⁡ ()A)=I2()tr⁡ ⁡ A)− − A.{displaystyle operatorname {adj} (mathbf {A})=mathbf {I} _{2}(operatorname {tr} mathbf {A})-mathbf {A}.

Para el caso de 3 × 3, esto da

adj⁡ ⁡ ()A)=12I3()()tr⁡ ⁡ A)2− − tr⁡ ⁡ A2)− − A()tr⁡ ⁡ A)+A2.{displaystyle operatorname {adj} (mathbf {A}={frac {1}{2}mathbf {I} _{3}!left(operatorname {tr} mathbf {A})^{2}-operatorname {tr} mathbf {A} {2}right)-mathbf {A} (operatorname {tr} mathbf {A})+mathbf {A} {A} {2} {} {}} {}}} {}}}}} {}}}}}}}}}}}}}} {}}}} {}}}}} {}}}}c}c}cc}cccccccccccccccccccccccccccccccccccccccccccccccccc

Para el caso de 4 × 4, esto da

adj⁡ ⁡ ()A)=16I4()()tr⁡ ⁡ A)3− − 3tr⁡ ⁡ Atr⁡ ⁡ A2+2tr⁡ ⁡ A3)− − 12A()()tr⁡ ⁡ A)2− − tr⁡ ⁡ A2)+A2()tr⁡ ⁡ A)− − A3.{displaystyle operatorname {adj} (mathbf {A}={frac {1}{6}mathbf {I} _{4}!left(operatorname {tr} mathbf {A})^{3}-3operatorname {tr} mathbf {A} operatorname {tr} mathbf [A] ^{2}+2operatorname {tr} mathbf {A} ^{3}right)-{1} {2}mathbf {A} !left(operatorname {tr} mathbf {A})^{2}-operatorname {tr} mathbf [A} ^{2}right)+mathbf {A} ^{2}(operatorname {tr} mathbf {A})-mathbf {A} ^{3}

La misma fórmula se sigue directamente del paso final del algoritmo Faddeev–LeVerrier, que determina de manera eficiente el polinomio característico de A.

Relación con álgebras exteriores

El adjunto se puede ver en términos abstractos usando álgebras exteriores. Sea V un espacio vectorial n-dimensional. El producto exterior define un emparejamiento bilineal

V× × ∧ ∧ n− − 1V→ → ∧ ∧ nV.{displaystyle Vtimes wedge ^{n-1}Vto wedge ^{n}V.}

Resumen, ∧ ∧ nV{displaystyle wedge ^{n}V} es isomorfo a R, y bajo tal isomorfismo el producto exterior es un emparejamiento perfecto. Por lo tanto, produce un isomorfismo

φ φ :: V→.. Hom⁡ ⁡ ()∧ ∧ n− − 1V,∧ ∧ nV).{displaystyle phi colon V {xrightarrow {cong}}operatorname {Hom} (wedge ^{n-1}V,wedge ^{n}V).}

Explícitamente, este emparejamiento envía vV a φ φ v{displaystyle phi _{mathbf {v}}, donde

φ φ v()α α )=v∧ ∧ α α .{displaystyle phi _{mathbf {v}(alpha)=mathbf {v} wedge alpha.}

Supongamos que T: VV es una transformación lineal. Retroceso por la (n − 1)st potencia exterior de T induce un morfismo de Hom espacios. El adyuvante de T es el compuesto

V→φ φ Hom⁡ ⁡ ()∧ ∧ n− − 1V,∧ ∧ nV)→()∧ ∧ n− − 1T)Alternativa Alternativa Hom⁡ ⁡ ()∧ ∧ n− − 1V,∧ ∧ nV)→φ φ − − 1V.{displaystyle V {xrightarrow {fn}fn}\fnfn1}V,wedge ^{n}V)\ {xrightarrow {wedge ^{n-1}T)}\\\\\\\fnK}\\\\fn1}V}\\\\\\\\cH009\\\\cH009\\cH00cH00cH00cH00cH00cH00cH009cH00cH00cH00cH00cH009cH009\\cH009cH00\\cH00cH00cH00cH00cH00cH00cH009cH00cH00cH009cH00cH00cH00cH00 {xrightarrow {phi ^{-1}} V.}

Si V = Rn está dotado de su base canónica e1,..., en, y si la matriz de T en esta base A, entonces el abyecto de T es el adicto de A. Para ver por qué, dar ∧ ∧ n− − 1Rn{displaystyle wedge ^{n-1}mathbf {R} {fn} base

{}e1∧ ∧ ⋯ ⋯ ∧ ∧ e^ ^ k∧ ∧ ⋯ ⋯ ∧ ∧ en}k=1n.{displaystyle {mathbf {e} {fnMicrosoft Sans Serif} }_{k}wedge dots wedge mathbf {e} ¿Qué?

Fijar un vector de base ei de Rn. La imagen de ei menores φ φ {displaystyle phi } es determinado por donde envía vectores de base:

φ φ ei()e1∧ ∧ ⋯ ⋯ ∧ ∧ e^ ^ k∧ ∧ ⋯ ⋯ ∧ ∧ en)={}()− − 1)i− − 1e1∧ ∧ ⋯ ⋯ ∧ ∧ en,sik=i,0De lo contrario.{displaystyle phi _{mathbf {e} {i}(mathbf {e} _{1}wedge dots wedge {hat {mathbf {e} }_{k}wedge dots wedge mathbf {e} _{n}={begin{cases}(-1)^{i-1}mathbf {e} _{1}wedge dots wedge mathbf {e} ¿Qué? ¿Qué?

Sobre la base de vectores, la (n − 1)st potencia exterior de T es

e1∧ ∧ ⋯ ⋯ ∧ ∧ e^ ^ j∧ ∧ ⋯ ⋯ ∧ ∧ en↦ ↦ .. k=1n()DetAjk)e1∧ ∧ ⋯ ⋯ ∧ ∧ e^ ^ k∧ ∧ ⋯ ⋯ ∧ ∧ en.{displaystyle mathbf {e} _{1}wedge dots wedge {hat {mathbf {e} }_{j}wedge dots wedge mathbf {e} _{n}mapsto sum _{k=1}det A_{jk})mathbf {e} _{1}wedge dots wedge {hat {hat {mathbf {e} }_{k}wedge dots wedge mathbf {e} _{n}

Cada uno de estos términos mapas a cero bajo φ φ ei{displaystyle phi _{mathbf {e} ¿Qué? excepto el k = i termino. Por lo tanto, la retirada de φ φ ei{displaystyle phi _{mathbf {e} ¿Qué? es la transformación lineal para la cual

e1∧ ∧ ⋯ ⋯ ∧ ∧ e^ ^ j∧ ∧ ⋯ ⋯ ∧ ∧ en↦ ↦ ()− − 1)i− − 1()DetAji)e1∧ ∧ ⋯ ⋯ ∧ ∧ en,{displaystyle mathbf {e} _{1}wedge dots wedge {hat {mathbf {e} }_{j}wedge dots wedge mathbf {e} _{n}mapsto (-1)^{i-1}(det A_{ji})mathbf {e} _{1}wedge dots wedge mathbf {e} _{n}

es decir, es igual

.. j=1n()− − 1)i+j()DetAji)φ φ ej.{displaystyle sum _{j=1}{n}(-1)^{i+j}(det A_{ji})phi _{mathbf {e} _{j}}}

Aplicando el inverso de φ φ {displaystyle phi } muestra que el ajeno de T es la transformación lineal para la cual

ei↦ ↦ .. j=1n()− − 1)i+j()DetAji)ej.{displaystyle mathbf {e} _{i}mapsto sum _{j=1}^{n}(-1)^{i+j}(det A_{ji})mathbf {e} _{j}.}

En consecuencia, su representación matricial es el adjunto de A.

Si V está dotado de un producto interno y una forma de volumen, entonces el mapa φ se puede descomponer aún más. En este caso, φ puede entenderse como la combinación del operador estrella de Hodge y la dualización. Específicamente, si ω es la forma de volumen, entonces, junto con el producto interno, determina un isomorfismo

⋅ ⋅ Alternativa Alternativa :: ∧ ∧ nV→ → R.{displaystyle omega ^{vee }colon wedge ^{n} Vto mathbf {R}.}

Esto induce un isomorfismo

Hom⁡ ⁡ ()∧ ∧ n− − 1Rn,∧ ∧ nRn).. ∧ ∧ n− − 1()Rn)Alternativa Alternativa .{displaystyle operatorname {Hom} (wedge ^{n-1}mathbf {R} ^{n},wedge ^{n}mathbf {R} {n})cong wedge ^{n-1}(mathbf {R} } {n} {n} {n} {n}}}}} {n}}}}}}}}}\\\n} {n}n}n}n}n}n}n}n}n}n}n}n}n}n}n}n}n}\n}n}n}n}n}n}nn}n}\n}\\n}\\n}n}n}nnnnn}\\\n}n}n}\nnnnnn}nnn

Un vector v en Rn corresponde al funcional lineal

()α α ↦ ↦ ⋅ ⋅ Alternativa Alternativa ()v∧ ∧ α α ))▪ ▪ ∧ ∧ n− − 1()Rn)Alternativa Alternativa .{displaystyle (alpha mapsto omega ^{vee }(mathbf {v} wedge alpha)in wedge ^{n-1}(mathbf {R})^{vee }.}

Según la definición del operador estrella de Hodge, este funcional lineal es dual a *v. Es decir, ω∘ φ es igual a v ↦ *v.

Adyuvantes superiores

Vamos A ser un n×n matriz y fijación r ≥ 0. El ra mayor abyecto de A es un ()nr)× × ()nr){fnMicrosoft} ¡Tiempos! {benom {n}}} matriz, denotada adjrA, cuyas entradas son indexadas por tamaño r subsets I y J de {1,... m}. Vamos Ic y Jc denota los complementos de I y J, respectivamente. También deja AIc,Jc{displaystyle mathbf {fnMicrosoft Sans Serif} denota la submatrix A conteniendo esas filas y columnas cuyos índices están en Ic y Jc, respectivamente. Entonces el ()I, J) entrada adjr A es

()− − 1)σ σ ()I)+σ σ ()J)DetAJc,Ic,{displaystyle (-1)^{sigma (I)+sigma (J)}det mathbf ¿Qué?

donde σ(I) y σ(J) son la suma de los elementos de I y J, respectivamente.

Las propiedades básicas de los adyuvantes superiores incluyen:

  • adj0()A) = detA.
  • adj1()A) = adjA.
  • adjn()A) = 1.
  • adjr()BA) = adjr()A) adjr()B).
  • adjr⁡ ⁡ ()A)Cr()A)=Cr()A)adjr⁡ ⁡ ()A)=()DetA)I()nr){displaystyle operatorname {adj} _{r}(mathbf {A})C_{r}(mathbf {A})=C_{r}(mathbf {A})operatorname {adj} _{r}(mathbf {A})=(det mathbf {A})I_{binom} {binom})I_\\\\\f} {n} {r}}, donde Cr()A) denota los rmatriz de compuestos.

Los adjugados superiores pueden definirse en términos algebraicos abstractos de una manera similar al adyugado habitual, sustituyendo ∧ ∧ rV{displaystyle wedge ^{r}V} y ∧ ∧ n− − rV{displaystyle wedge ^{n-r}V} para V{displaystyle V} y ∧ ∧ n− − 1V{displaystyle wedge ^{n-1}V}, respectivamente.

Adyuvantes iterados

Tomando iterativamente el adjunto de una matriz invertible A k veces se obtiene

adj⁡ ⁡ ⋯ ⋯ adj⏞ ⏞ k()A)=Det()A)()n− − 1)k− − ()− − 1)knA()− − 1)k,{displaystyle overbrace {fnh} dotsm operatorname {adj} } ^{k}(mathbf {A})=det(mathbf {A})^{frac {(n-1)^{k}- {k}} {}{n}}}}mthbff {A} ^{(-1)^{k}},}
Det()adj⁡ ⁡ ⋯ ⋯ adj⏞ ⏞ k()A))=Det()A)()n− − 1)k.{displaystyle det(overbrace {operatorname {adj} dotsm operatorname {adj} ^{k}(mathbf {A})=det(mathbf {A})^{(n-1)^{k}}}}

Por ejemplo,

adj⁡ ⁡ ()adj⁡ ⁡ ()A))=Det()A)n− − 2A.{displaystyle operatorname {adj} (operatorname {adj} (mathbf {A})=det(mathbf {A})^{n-2}mathbf {A}
Det()adj⁡ ⁡ ()adj⁡ ⁡ ()A)))=Det()A)()n− − 1)2.{displaystyle det(operatorname {adj} (operatorname {adj} (mathbf {A})=det(mathbf {A})^{(n-1)^{2}}.}

Contenido relacionado

Sobreajuste

En modelado matemático, sobreajuste es &#034;la producción de un análisis que se corresponde demasiado cerca o exactamente con un conjunto particular de...

Juego matematico

Un juego matemático es un juego cuyas reglas, estrategias y resultados están definidos por parámetros matemáticos claros. A menudo, estos juegos tienen...

Límite

Límite o Límites pueden referirse...
Más resultados...
Tamaño del texto:
Editar