Matriz invertible

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Matriz que tiene un inverso multiplicador

En álgebra lineal, un n-by-n matriz cuadrada A se llama invertible (también no singular, no degenerado o (raramente usado) regular), si existe un n-by-n matriz cuadrada B tal que

AB=BA=In,{displaystyle mathbf {AB} =mathbf {BA}

donde In denota el estilo n-by-n matriz identidad y la multiplicación utilizada es ordinaria multiplicación de matrices. Si este es el caso, entonces la matriz B está determinada únicamente por A, y se llama el inverso (multiplicativo) de A, denotado por A−1. La inversión de matrices es el proceso de encontrar la matriz B que satisface la ecuación anterior para una matriz invertible dada A.

Una matriz cuadrada que no es invertible se llama singular o degenerada. Una matriz cuadrada con entradas en un campo es singular si y solo si su determinante es cero. Las matrices singulares son raras en el sentido de que si las entradas de una matriz cuadrada se seleccionan aleatoriamente de cualquier región acotada en la recta numérica o en el plano complejo, la probabilidad de que la matriz sea singular es 0, es decir, será "casi nunca" ser singular. Matrices no cuadradas (m-by-n para las que mn) no tienen inversa. Sin embargo, en algunos casos dicha matriz puede tener una inversa a la izquierda oa la derecha. Si A es m-by-n y el rango de A es igual a n (nm), entonces A tiene un inverso a la izquierda, un n- por-m matriz B tal que BA = In. Si A tiene rango m (mn), entonces tiene un inverso derecho, un n-by-m matriz B tal que AB = yom.

Si bien el caso más común es el de matrices sobre números reales o complejos, todas estas definiciones se pueden dar para matrices sobre cualquier anillo. Sin embargo, en el caso de que el anillo sea conmutativo, la condición para que una matriz cuadrada sea invertible es que su determinante sea invertible en el anillo, lo que en general es un requisito más estricto que ser distinto de cero. Para un anillo no conmutativo, el determinante habitual no está definido. Las condiciones para la existencia de inverso a la izquierda o inverso a la derecha son más complicadas, ya que no existe una noción de rango sobre los anillos.

El conjunto de matrices invertibles n × n junto con la operación de multiplicación de matrices (y las entradas del anillo R) forman un grupo, el grupo lineal general de grado n, indicado como GLn(R).

Propiedades

El teorema de la matriz invertible

Vamos A ser un cuadrado n-por-n matriz sobre un campo K (por ejemplo, el campo R{displaystyle mathbb {R} de números reales). Las siguientes declaraciones son equivalentes (es decir, todas son verdaderas o falsas para cualquier matriz dada):

  • La matriz A tiene un inverso izquierdo bajo la multiplicación de matriz (es decir, existe un B tales que BA = I)
  • La matriz A tiene un inverso derecho bajo la multiplicación de matriz (es decir, existe un C tales que AC = I).
  • A es invertible, es decir, tiene un inverso bajo la multiplicación de la matriz (es decir, existe un B tales que AB = In = BA).
  • La cartografía de transformación lineal x a Ax tiene un inverso izquierdo bajo la composición de la función.
  • La cartografía de transformación lineal x a Ax tiene un derecho inverso bajo la composición de la función.
  • La cartografía de transformación lineal x a Ax es invertible, es decir, tiene una composición inversa bajo función.
  • A es la fila-equivalente al n-por-n matriz de identidad In.
  • A es columna-equivalente al n-por-n matriz de identidad In.
  • A tiene n Posiciones clave.
  • A tiene rango completo: rango A = n.
  • A tiene núcleo trivial: ker(A♪♪0}.
  • La cartografía de transformación lineal x a Ax es subjetivo; es decir, la ecuación Ax = b tiene al menos una solución para cada b dentro Kn.
  • La cartografía de transformación lineal x a Ax es inyectable; es decir, la ecuación Ax = b tiene a la mayoría una solución para cada b dentro Kn.
  • La cartografía de transformación lineal x a Ax es bijetivo; es decir, la ecuación Ax = b tiene exactamente una solución para cada b dentro Kn.
  • Las columnas de A son linealmente independientes.
  • Las filas de A son linealmente independientes.
  • Las columnas de A lapso Kn.
  • Las filas de A lapso Kn.
  • Las columnas de A forma una base de Kn.
  • Las filas de A forma una base de Kn.
  • El determinante A no es cero: Det A ل 0. (En general, una matriz cuadrada sobre un anillo conmutativo es invertible si y sólo si su determinante es una unidad en ese anillo).
  • El número 0 no es un eigenvalue de A. (Más generalmente, un número λ λ {displaystyle lambda } es un eigenvalue de A si la matriz A− − λ λ I{displaystyle mathbf {A} -lambda mathbf {I} es singular, donde I es la matriz de identidad.)
  • La transposición AT es una matriz invertible.
  • La matriz A se puede expresar como un producto finito de matrices elementales.

Otras propiedades

Además, las siguientes propiedades son válidas para una matriz invertible A:

  • ()A− − 1)− − 1=A{displaystyle (mathbf {A} {-1}=mathbf {A}
  • ()kA)− − 1=k− − 1A− − 1{displaystyle (kmathbf {A}=k^{-1}mathbf {A} {fn} for nonzero scalar k
  • ()Ax)+=x+A− − 1{displaystyle (mathbf {Ax}=mathbf {x} ^{+}mathbf {A} {fn} si A tiene columnas ortonormales, donde + denota el Moore-Penrose inverso y x es un vector
  • ()AT)− − 1=()A− − 1)T{displaystyle (mathbf {A} {mathrm {T})}{-1}=(mathbf {A} ^{-1})}{mathrm {T}}}}
  • Para cualquier invertido n-por-n matrices A y B, ()AB)− − 1=B− − 1A− − 1.{displaystyle (mathbf {AB}=mathbf {B} {fnMicrosoft} {A} ^{-1} Más generalmente, si A1,...... ,Ak{displaystyle mathbf {A} _{1},dotsmathbf {fnK} son invertibles n-por-n matrices, entonces ()A1A2⋯ ⋯ Ak− − 1Ak)− − 1=Ak− − 1Ak− − 1− − 1⋯ ⋯ A2− − 1A1− − 1.{displaystyle (mathbf {A} _{1}Mathbf {A} _{2}cdots mathbf {A} {k-1}mathbf {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {A} _{k-1} {-1}cdots mathbf {fnMicrosoft} {A} _{1} {-1}
  • DetA− − 1=()DetA)− − 1.{displaystyle det mathbf {A} ^{-1}=(det mathbf {A})^{-1}

Las filas de la matriz inversa V de una matriz U son ortonormales a las columnas de U (y viceversa intercambiando filas para columnas). Para ver esto, supongamos que UV = VU = I donde las filas de V son denotados como viT{displaystyle v_{i}{mathrm {T} y las columnas de U como uj{displaystyle u_{j} para 1≤ ≤ i,j≤ ≤ n.{displaystyle 1leq i,jleq n.} Entonces claramente, el producto interior de Euclidea de cada dos viTuj=δ δ i,j.{displaystyle v_{i}{mathrm {T}u_{j}=delta _{i, J} Esta propiedad también puede ser útil para construir el inverso de una matriz cuadrada en algunos casos, donde un conjunto de vectores ortogonales (pero no necesariamente vectores ortonormales) a las columnas de U son conocidos. En cuyo caso, se puede aplicar el proceso iterativo Gram-Schmidt a este conjunto inicial para determinar las filas del inverso V.

Una matriz que es su propia inversa (es decir, una matriz A tal que A = A−1 y, en consecuencia, A2 = I), se denomina matriz involutiva.

En relación con su adjunto

El adjunto de una matriz A puede usarse para encontrar la inversa de A de la siguiente manera:

Si A es una matriz invertible, entonces

A− − 1=1Det()A)adj⁡ ⁡ ()A).{displaystyle mathbf [A} ^{-1}={frac {1}{det(mathbf {A}}operatorname {adj} (mathbf {A}). }

En relación con la matriz de identidad

De la asociatividad de la multiplicación de matrices se sigue que si

AB=I{displaystyle mathbf {AB} =mathbf {I}

para matrices de cuadrado finito A y B, luego también

BA=I{displaystyle mathbf {BA} =mathbf {I}

Densidad

Sobre el campo de números reales, el conjunto de singulares n-por-n matrices, consideradas como un subconjunto Rn× × n,{displaystyle mathbb {R} {ntimes n} es un conjunto nulo, es decir, tiene la medida Lebesgue cero. Esto es cierto porque las matrices singulares son las raíces de la función determinante. Esta es una función continua porque es un polinomio en las entradas de la matriz. Así en el lenguaje de la teoría de la medida, casi todo n-por-n Las matrices son invertibles.

Además, n-by-n son un conjunto abierto denso en el espacio topológico de todas las n-by-n matrices. De manera equivalente, el conjunto de matrices singulares está cerrado y en ninguna parte densa en el espacio de n-by-n matrices.

Sin embargo, en la práctica, uno puede encontrar matrices no invertibles. Y en los cálculos numéricos, las matrices que son invertibles, pero cercanas a una matriz no invertible, aún pueden ser problemáticas; se dice que tales matrices están mal condicionadas.

Ejemplos

Un ejemplo con rango de n − 1 es una matriz no invertible

A=()2424).{displaystyle mathbf {A} ={begin{pmatrix}2 limit42 simultáneamente4end{pmatrix}}}

Podemos ver que el rango de esta matriz de 2 por 2 es 1, que es n − 1 ≠ n, por lo que no es invertible.

Considere la siguiente matriz de 2 por 2:

B=()− − 1321− − 1).{displaystyle mathbf {B} ={begin{pmatrix}-1 {3} {2}1}1}1}1}1}1}1}1}1}

La matriz B{displaystyle mathbf {B} es invertible. Para comprobar esto, se puede calcular que DetB=− − 12{textstyle det mathbf {B} =-{frac {1}{2}}}, que no es cero.

Como ejemplo de una matriz no invertible o singular, considere la matriz

C=()− − 13223− − 1).{displaystyle mathbf {C} ={begin{pmatrix}-1 {3}{2}\\\\\fnMicroc {2} {3} {fnMicrosoft Sans Serif}}

El determinante C{displaystyle mathbf {C} es 0, que es una condición necesaria y suficiente para que una matriz no sea invertible.

Métodos de inversión de matrices

Eliminación gaussiana

La eliminación gaussiana es una forma útil y sencilla de calcular la inversa de una matriz. Para calcular una matriz inversa con este método, primero se crea una matriz aumentada, siendo el lado izquierdo la matriz a invertir y el lado derecho la matriz identidad. Luego, se utiliza la eliminación gaussiana para convertir el lado izquierdo en la matriz identidad, lo que hace que el lado derecho se convierta en el inverso de la matriz de entrada.

Por ejemplo, tome la siguiente matriz: A=()− − 1321− − 1).{displaystyle mathbf {A} ={begin{pmatrix}-1 {3} {2}1}1}1}1}1}1}1}1}1}

El primer paso para calcular su inverso es crear la matriz aumentada ()− − 132101− − 101).{displaystyle left({begin{array}{cc vidascc}-1 {3}{2} {0}}derecha). }

Llame a la primera fila de esta matriz R1{displaystyle R_{1} y la segunda fila R2{displaystyle R_{2}. Luego, añadir la fila 1 a la fila 2 ()R1+R2→ → R2).{displaystyle (R_{1}+R_{2}to R_{2}} Este rendimiento ()− − 1321001211).{displaystyle left({begin{array}{cc vidascc}-1 {3}{2} {1} {0}{0} {2} {1} {0} {0} {0} {0}}}} {2}} {2}} {2}} {2}}}} {2}}}}}} {2}}}}}}}} {2}}}}}}}}} {2}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {3}}}}}}} {3}}}}}}}}}}}}}} {3}}}}}}}} {3}}}}}}}}}}}}}}} { }

Siguiente, substracción 2, multiplicada por 3, de la fila 1 ()R1− − 3R2→ → R1),{displaystyle (R_{1}-3,R_{2}to R_{1})} que rinde ()− − 10− − 2− − 301211).{displaystyle left({begin{cc sometidacc}1end{array}}derecho)} {} {mccH00} {ccHFF} {cH00}}}derecho). }

Finalmente, multiplicar la fila 1 por −1 ()− − R1→ → R1){displaystyle (-R_{1}to R_{1}} y fila 2 por 2 ()2R2→ → R2).{displaystyle (2,R_{2}to R_{2}). } Esto produce la matriz de identidad en el lado izquierdo y la matriz inversa a la derecha:()10230122).{displaystyle left({begin{array}{cc vidascc}1⁄2 limit3 limit1 limit2end{array}right).}

Así, A− − 1=()2322).{displaystyle mathbf {A} {begin{pmatrix}2 ventaja322end{pmatrix}}}

La razón por la que funciona es que el proceso de eliminación gausiana se puede ver como una secuencia de aplicación de la multiplicación de matriz izquierda mediante operaciones de fila elemental utilizando matrices elementales (En{displaystyle mathbf {E} _{n}), como EnEn− − 1⋯ ⋯ E2E1A=I.{displaystyle mathbf {E} {n}mathbf {E} _{n-1}cdots mathbf {E} {2}mathbf {E} {A} =mathbf {I}

Aplicar lamultiplicación correcta utilizando A− − 1,{displaystyle mathbf {A} ^{-1} nosotros EnEn− − 1⋯ ⋯ E2E1I=IA− − 1.{displaystyle mathbf {E} {n}mathbf {E} _{n-1}cdots mathbf {E} {2}mathbf {E} {I} =mathbf {I} mathbf {A} {-1} Y el lado derecho IA− − 1=A− − 1,{displaystyle mathbf {I} mathbf {A} {fn}=mathbf {A} ^{-1},} que es el inverso que queremos.

Para obtener EnEn− − 1⋯ ⋯ E2E1I,{displaystyle mathbf {E} {n}mathbf {E} _{n-1}cdots mathbf {E} {2}mathbf {E} {fn}fnMitbf} creamos la matriz augumentada combinando A con I y aplicación de la eliminación gaissa. Las dos partes se transformarán usando la misma secuencia de operaciones de fila elemental. Cuando la parte izquierda se convierte I, la parte derecha aplicado la misma secuencia de operación de la fila primaria se convertirá en A−1.

Método de Newton

Puede ser conveniente una generalización del método de Newton como se usa para un algoritmo inverso multiplicativo, si es conveniente encontrar una semilla inicial adecuada:

Xk+1=2Xk− − XkAXk.{displaystyle X_{k+1}=2X_{k}-X_{k}

Victor Pan y John Reif han realizado un trabajo que incluye formas de generar una semilla inicial. La revista Byte resumió uno de sus enfoques.

El método de Newton es particularmente útil cuando se trata de familias de matrices relacionadas que se comportan bastante como la secuencia fabricada para la homotopía anterior: a veces, un buen punto de partida para refinar una aproximación para la nueva inversa puede ser la inversa ya obtenida de una matriz anterior que casi coincide con la matriz actual, por ejemplo, el par de secuencias de matrices inversas utilizadas para obtener raíces cuadradas de matrices mediante la iteración Denman-Beavers; esto puede necesitar más de un paso de la iteración en cada nueva matriz, si no están lo suficientemente cerca como para que solo uno sea suficiente. El método de Newton también es útil para "retocar" correcciones al algoritmo de Gauss-Jordan que ha sido contaminado por pequeños errores debido a la aritmética informática imperfecta.

Método de Cayley-Hamilton

El teorema de Cayley–Hamilton permite que el inverso de A se exprese en términos de det(A), trazas y poderes de A:

A− − 1=1Det()A).. s=0n− − 1As.. k1,k2,...... ,kn− − 1∏ ∏ l=1n− − 1()− − 1)kl+1lklkl!tr⁡ ⁡ ()Al)kl,{displaystyle mathbf {fnK} {fnMicroc} {fnMitbf {}}}sum}} ¿Qué? ¿Por qué? ¿Por qué? {fnMicrosoft Sans Serif}

Donde n es la dimensión de A, y tr(A) es el trazo de la matriz A dada por la suma de la diagonal principal. La suma se hace cargo s y los conjuntos de todos kl≥ ≥ 0{displaystyle k_{l}gq 0} satisfacción de la ecuación lineal de Diofantina

s+.. l=1n− − 1lkl=n− − 1.{displaystyle s+sum _{l=1} {n-1}lk_{l}=n-1.}

La fórmula puede ser reescrita en términos de polinomios completos de Bell de argumentos tl=− − ()l− − 1)!tr⁡ ⁡ ()Al){displaystyle t_{l}=-(l-1)operatorname {tr} left(A^{l}right)} como

A− − 1=1Det()A).. s=1nAs− − 1()− − 1)n− − 1()n− − s)!Bn− − s()t1,t2,...... ,tn− − s).{displaystyle mathbf {fnK} {fnMicroc} {fnMitbf {}}}sum}} ¿Qué? [A} ^{s-1}{frac {(-1)^{n-1} {n-s)}}B_{n-s}(t_{1},t_{2},ldotst_{n-s}).}

Descomposición propia

Si la matriz A puede descomponerse automáticamente y ninguno de sus valores propios es cero, entonces A es invertible y su inversa viene dada por

A− − 1=Q▪ ▪ − − 1Q− − 1,{displaystyle mathbf {A} ^{-1}=mathbf {Q} mathbf {Lambda ♪♪♪ {Q} ^{-1},}

Donde Q es el cuadrado ()N × N) matriz ila columna es el eigenvector qi{displaystyle q_{i} de A, y es la matriz diagonal cuyas entradas diagonales son los eigenvalues correspondientes, es decir, ▪ ▪ ii=λ λ i.{displaystyle Lambda # {ii}=lambda _{i} Si A es simétrico, Q está garantizada a ser una matriz ortogonal, por lo tanto Q− − 1=QT.{displaystyle mathbf [Q] ^{-1}=mathbf {Q} ^{mathrm {T} Además, porque es una matriz diagonal, su inverso es fácil de calcular:

[▪ ▪ − − 1]ii=1λ λ i.{displaystyle left[] Lambda. {1}{lambda - Sí.

Descomposición de Cholesky

Si la matriz A es definida positiva, entonces su inversa se puede obtener como

A− − 1=()LAlternativa Alternativa )− − 1L− − 1,{displaystyle mathbf [A} ^{-1}=left(mathbf {L}right)^{-1}mathbf {L} ^{-1},}

donde L es la descomposición triangular inferior de Cholesky de A, y L* denota la transposición conjugada de L.

Solución analítica

Escribir la transpuesta de la matriz de cofactores, conocida como matriz adjunta, también puede ser una forma eficiente de calcular la inversa de matrices pequeñas, pero este método recursivo es ineficiente para matrices grandes. Para determinar la inversa, calculamos una matriz de cofactores:

A− − 1=1SilencioASilencioCT=1SilencioASilencio()C11C21⋯ ⋯ Cn1C12C22⋯ ⋯ Cn2⋮ ⋮ ⋮ ⋮ ⋱ ⋱ ⋮ ⋮ C1nC2n⋯ ⋯ Cnn){displaystyle mathbf {A} ^{-1}={1 over {begin{vmatrix}mathbf {A} end{vmatrix}mathbf {C} {T}={1 over {begin{vmatrix}mathbf {A}end{vmatrix}}{begin{pmatrix}mathbf {C}{11} {C} _{21} pobrescdots {C} _{n1}\\\\\fnMicrosoft} {C} {C} {C} {C} _{22} pobrescdots {C} _{n2}\\\vdots > 'ddots > \mathbf {C}{1n} {C} _{2n} distantescdots {C}

para que

()A− − 1)ij=1SilencioASilencio()CT)ij=1SilencioASilencio()Cji){displaystyle left(mathbf {A} ^{-1}right)_{ij}={1 over {begin{vmatrix}mathbf {A} end{vmatrix}}left(mathbf) {C} {T}right)_{1begin{vmatrix}mathbf {A}end{vmatrix}}left(mathbf) {C} _{ji}right)}

donde |A> es el determinante de A, C es la matriz de cofactores, y CT representa la matriz transpuesta.

Inversión de matrices 2 × 2

La ecuación del cofactor enumerada anteriormente produce el siguiente resultado para matrices 2 × 2. La inversión de estas matrices se puede hacer de la siguiente manera:

A− − 1=[abcd]− − 1=1DetA[d− − b− − ca]=1ad− − bc[d− − b− − ca].{displaystyle mathbf {f} {begin{bmatrix}a Pulsando\\c\\\\cH00}}} {f}={-1}={frac} {1}{det mathbf {A}}} {begin{bmatrix},,,d limit!!cccc,a\\end{bmatrix}}={frac {1}{ad-bc} {begin{bmatrix},,,,d pulsa!!-b\-c Pulse,a\\\\\\\\\\fnMicrosoft}}

Esto es posible porque 1/(adbc) es el recíproco del determinante de la matriz en pregunta, y la misma estrategia podría usarse para otros tamaños de matriz.

El método de Cayley-Hamilton da

A− − 1=1DetA[()tr⁡ ⁡ A)I− − A].{displaystyle mathbf {A} ^{-1}={frac {1}{det mathbf {A}left[left(operatorname {tr} mathbf {A} right)mathbf {I} -mathbf {A} right].}

Inversión de matrices 3 × 3

Una inversión de matriz 3 × 3 computacionalmente eficiente viene dada por

A− − 1=[abcdefghi]− − 1=1Det()A)[ABCDEFGHI]T=1Det()A)[ADGBEHCFI]################################################################################################################################################################################################################################################################

(donde el escalar A no debe confundirse con la matriz A).

Si el determinante es distinto de cero, la matriz es invertible, con las entradas de la matriz intermedia en el lado derecho de arriba dadas por

A=()ei− − fh),D=− − ()bi− − ch),G=()bf− − ce),B=− − ()di− − fg),E=()ai− − cg),H=− − ()af− − cd),C=()dh− − eg),F=− − ()ah− − bg),I=()ae− − bd).{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f}} {f} {f}} {f}}} {c}}} {cH}} {c} {cc}}ccc}}ccc}ccH}cccH}}cccccc}ccccccH}}ccccccccH}cccH}ccH}cccH}cH}ccccH}cH}cH}cH}cccccH}cH3cccccH}cH}}cH}ccH}cccH}ccH}}cccH

El determinante de A se puede calcular aplicando la regla de Sarrus de la siguiente manera:

Det()A)=aA+bB+cC.{displaystyle det(mathbf {A})=aA+bB+cC}

La descomposición de Cayley-Hamilton da

A− − 1=1Det()A)()12[()tr⁡ ⁡ A)2− − tr⁡ ⁡ ()A2)]I− − Atr⁡ ⁡ A+A2).{displaystyle mathbf {f} {f} {f} {f} {f} {f}} {f}} {f} {f}} {f} {f} {f}f} {f}f} {f}f} {f} {f}f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f} {f}f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f} {f}f}f}f}f}f}f}f}f} {f}f}f}f}f}f}f}f} {f}f} }

El general 3 × 3 inverso se puede expresar concisamente en términos del producto cruzado y el triple producto. Si una matriz A=[x0x1x2]{displaystyle mathbf {A} ={begin{bmatrix}mathbf {x} _{0} {mathbf {x} _{1}mathbf {x} _{2}end{bmatrix}} (consistiendo en tres vectores de columna, x0{displaystyle mathbf {x} ¿Qué?, x1{displaystyle mathbf {x} ¿Qué?, y x2{displaystyle mathbf {x} ¿Qué?) es invertible, su inverso es dado por

A− − 1=1Det()A)[()x1× × x2)T()x2× × x0)T()x0× × x1)T].{displaystyle mathbf {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f}}f}f} {f}f} {f}f} {f}f} {f}f} {f}f}f}f}f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f} {f} {f} {f}f}f}f}f}}f}f}f}}f} {f} {f}f}f}}m}f}f} {f}f}f} {f}f}f}f}f}f}f}f}f}f}f}}f}f} {fnMicrosoft Sans Serif}

El determinante de A, det(A), es igual al triple producto de x0, x1 y x2: el volumen del paralelepípedo formado por las filas o columnas:

Det()A)=x0⋅ ⋅ ()x1× × x2).{displaystyle det(mathbf {A})=mathbf {x} _{0}cdot (mathbf {x} _{1}times mathbf {x} _{2}).}

La corrección de la fórmula se puede comprobar mediante el uso de propiedades cross- y triple-producto y notando que para grupos, los inversos izquierdo y derecho siempre coinciden. Intuitivamente, debido a los productos de la cruz, cada fila de A–1 es ortogonal a la no-correspondiente dos columnas de A (causando los términos fuera de la diagonal I=A− − 1A{displaystyle mathbf {I} =mathbf {A} {fnMitbf {A} ser cero). Dividiendo por

Det()A)=x0⋅ ⋅ ()x1× × x2){displaystyle det(mathbf {A})=mathbf {x} ¿Por qué?

provoca las entradas diagonales de I = A−1A para ser unidad. Por ejemplo, la primera diagonal es:

1=1x0⋅ ⋅ ()x1× × x2)x0⋅ ⋅ ()x1× × x2).{displaystyle 1={frac}{mathbf {x_{0} cdot (mathbf {x} _{1}times mathbf {x} _{2}}}mathbf {x_{0} cdot (mathbf {x} _{1}times mathbf {x} _{2}).}

Inversión de matrices 4 × 4

Al aumentar la dimensión, las expresiones para el inverso de A se complican. Para n = 4, el método Cayley-Hamilton conduce a una expresión que aún es tratable:

A− − 1=1Det()A)()16[()tr⁡ ⁡ A)3− − 3tr⁡ ⁡ Atr⁡ ⁡ ()A2)+2tr⁡ ⁡ ()A3)]I− − 12A[()tr⁡ ⁡ A)2− − tr⁡ ⁡ ()A2)]+A2tr⁡ ⁡ A− − A3).{displaystyle mathbf {A} ^{-1}={frac {1}{det(mathbf {A})}left({frac {1}{6}}}left[(operatorname {tr} mathbf {A})^{3}-3operatorname {tr}mathbf {A}operatorname {mathrname {trname {f} {f} {f} {f} {f} {f}} {f}} {f}} {f} {f} {f} {f} {f}} {f} {f} {f}f}}f}f}f}f}f}f}f}f} {f} {f}f}f}f}f}f}f}f}f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f}f} {f}f}f}f}f} {f}f}f}f}f}f}f}f}f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f }

Inversión en bloque

Las matrices también se pueden invertir en bloques usando la siguiente fórmula de inversión analítica:

[ABCD]− − 1=[A− − 1+A− − 1B()D− − CA− − 1B)− − 1CA− − 1− − A− − 1B()D− − CA− − 1B)− − 1− − ()D− − CA− − 1B)− − 1CA− − 1()D− − CA− − 1B)− − 1],{displaystyle {begin{bmatrix}mathbf {A} > mathbf {B}\\mathbf {C} end{bmatrix}}{-1}={begin{bmatrix}mathbf {A} {fn}+mathbf {A} {fnMitbf {B} left(mathbf - Mathbf {CA}mathbf {B}derecho)}mathbf {CA} {cHFF} {A} {fnMitbf {B} left(mathbf {fnMicrosoft Sans Serif}

()1)

donde A, B, C y D son subbloques de matriz de tamaño arbitrario. (A debe ser un cuadrado para que pueda invertirse. Además, A y DCA−1B debe ser no singular.) Esta estrategia es particularmente ventajosa si A es diagonal y DCA−1B (el complemento de Schur de A) es una matriz pequeña, ya que son las únicas matrices que requieren inversión.

Esta técnica fue reinventada varias veces y se debe a Hans Boltz (1923), quien la utilizó para la inversión de matrices geodésicas, y Tadeusz Banachiewicz (1937), quien la generalizó y demostró su corrección.

El teorema de la nulidad dice que la nulidad de A es igual a la nulidad del subbloque en la parte inferior derecha de la matriz inversa, y que la nulidad de B es igual a la nulidad del subbloque en la parte superior derecha de la matriz inversa.

El procedimiento de inversión que condujo a la Ecuación (1) realizó operaciones de bloque de matriz que operaron en C y D primero. En cambio, si A y B se operan primero, y siempre D y ABD −1C no son singulares, el resultado es

[ABCD]− − 1=[()A− − BD− − 1C)− − 1− − ()A− − BD− − 1C)− − 1BD− − 1− − D− − 1C()A− − BD− − 1C)− − 1D− − 1+D− − 1C()A− − BD− − 1C)− − 1BD− − 1].{displaystyle {begin{bmatrix}mathbf {A} &mathbf {B} {\\\cH00}mcH0} {cH00}} {\cH00}= {begin{bmatrix}left(mathbf)} {cH0} {cH0} {cH0}cH0}cH00}cH0}cH0}cH0}cH0}cH0}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH9}cH0}cH0}cH0}cH0}cH0}cH0}cH00}cH00}cH0}cH00}cH00}cH00}cH00}cH00}cH0}cH00}cH00}cH00}c {A} -mathbf {BD} ^{-1}mathbf {C}right)^{-1} limit-left(mathbf {A} -mathbf {BD} ^{-1}mathbf {C}right)}{-1}mathbf {BD} 'Mathbf {D}Mathbf {C} left(mathbf {A} -mathbf {BD} ^{-1}mathbf {C}right)^{-1} limitquad mathbf [D] ^{-1}+mathbf {fnMicrosoft} {C} left(mathbf Mathbf {C} right)^{-1}mathbf {BD} ^{-1}end{bmatrix}}}

()2)

Igualar las ecuaciones (1) y (2) conduce a

()A− − BD− − 1C)− − 1=A− − 1+A− − 1B()D− − CA− − 1B)− − 1CA− − 1()A− − BD− − 1C)− − 1BD− − 1=A− − 1B()D− − CA− − 1B)− − 1D− − 1C()A− − BD− − 1C)− − 1=()D− − CA− − 1B)− − 1CA− − 1D− − 1+D− − 1C()A− − BD− − 1C)− − 1BD− − 1=()D− − CA− − 1B)− − 1{displaystyle {begin{aligned}left(mathbf Mathbf {C} right)}{-1} {A} {fn}+mathbf {A} {fnMitbf {B} left(mathbf - Mathbf {CA}mathbf {B}derecha}mathbf {B}mathbf {CA}\i}\left(mathbf {A} -mathbf {BD} ^{-1}mathbf {C} right)^{-1}mathbf {BD} {A} {fnMitbf {B} left(mathbf Mathbf {B} right)^{-1}\Mathbf {fnMicrosoft} {C} left(mathbf Mathbf {C} right)^{-1}=left(mathbf {D} -mathbf {CA} ^{-1}mathbf {B}right)^{-1}mathbf {CA} {fnMicrosoft} {C} left(mathbf {A} -mathbf {BD}mathbf {C}right)^{-1}mathbf {BD} ^{-1}=left(mathbf {D} -mathbf {CA} ^{-1}mathbf {B}right)^{-1}end{aligned}}}

()3)

donde la Ecuación (3) es la identidad de la matriz de Woodbury, que es equivalente al teorema del inverso binomial.

Si A y D son ambos invertibles, entonces las dos matrices inversas de bloques anteriores se pueden combinar para proporcionar la factorización simple

[ABCD]− − 1=[()A− − BD− − 1C)− − 100()D− − CA− − 1B)− − 1][I− − BD− − 1− − CA− − 1I].{displaystyle {begin{bmatrix}mathbf {A} &mathbf {B} {\\\cH00}mcH0} {cH00}} {\cH00}= {begin{bmatrix}left(mathbf)} {cH0} {cH0} {cH0}cH0}cH00}cH0}cH0}cH0}cH0}cH0}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH9}cH0}cH0}cH0}cH0}cH0}cH0}cH00}cH00}cH0}cH00}cH00}cH00}cH00}cH00}cH0}cH00}cH00}cH00}c - Mathbf {D} ^{-1}mathbf {C}right)}{-1} {0}\Mathbf {0} >mathbf {0} > } {C} mathbf {A} ^{-1}mathbf {B} right)}end{bmatrix}{begin{bmatrix}mathbf {I} ' Mathbf {B} mathbf {D} {C} mathbf {A} } {-1} {I} end{bmatrix}}}

()2)

Por la identidad de Weinstein-Aronszajn, una de las dos matrices en la matriz de bloques diagonales es invertible exactamente cuando la otra lo es.

Dado que una inversión por bloques de una matriz n × n requiere la inversión de dos matrices de tamaño medio y 6 multiplicaciones entre dos matrices de tamaño medio, se puede demostrar que un algoritmo divide y vencerás que usa inversión por bloques para invertir una matriz se ejecuta con la misma complejidad de tiempo que el algoritmo de multiplicación de matrices que se usa internamente. La investigación sobre la complejidad de la multiplicación de matrices muestra que existen algoritmos de multiplicación de matrices con una complejidad de O(n2,3727) operaciones, mientras que el límite inferior mejor probado es Ω(n2 log n).

Esta fórmula se simplifica significativamente cuando la matriz de bloques superior derecha B es la matriz cero. Esta formulación es útil cuando las matrices A y D tienen fórmulas inversas simples (o pseudo inversas en el caso de que los bloques no sean todos cuadrados. En este caso especial, la fórmula de inversión de la matriz de bloques establecida con toda la generalidad anterior se convierte en

[A0CD]− − 1=[A− − 10− − D− − 1CA− − 1D− − 1].{displaystyle {begin{bmatrix}mathbf # Mathbf {0} # {C} {fnMicrosoft Sans Serif} {begin{bmatrix}mathbf {A} } {-1} {0} 'Mathbf {fnMicrosoft} {CA} {fnMicrosoft Sans Serif}}

Por la serie de Neumann

Si una matriz A tiene la propiedad de que

limn→ → JUEGO JUEGO ()I− − A)n=0{displaystyle lim _{nto infty }(mathbf {I} -mathbf {A} {n}=0}

entonces A no es singular y su inversa puede expresarse mediante una serie de Neumann:

A− − 1=.. n=0JUEGO JUEGO ()I− − A)n.{displaystyle mathbf [A} ^{-1}=sum _{n=0} {infty }(mathbf {I} -mathbf {A})}

Al truncar la suma se obtiene un resultado "aproximado" inversa que puede ser útil como preacondicionador. Tenga en cuenta que una serie truncada se puede acelerar exponencialmente al observar que la serie de Neumann es una suma geométrica. Como tal, satisface

.. n=02L− − 1()I− − A)n=∏ ∏ l=0L− − 1()I+()I− − A)2l){displaystyle sum _{n=0}{2^{L}-1}(mathbf {I} -mathbf {A})^{n}=prod ¿Por qué?.

Por lo tanto, solo se necesitan 2L − 2 multiplicaciones de matrices para calcular 2 L términos de la suma.

Más generalmente, si A está "cerca" la matriz invertible X en el sentido de que

limn→ → JUEGO JUEGO ()I− − X− − 1A)n=0orlimn→ → JUEGO JUEGO ()I− − AX− − 1)n=0{displaystyle lim _{nto infty }left(mathbf - Mathbf {A} right)^{n}=0mathbf - Mathbf [X] ^{-1}derecha]

entonces A no es singular y su inversa es

A− − 1=.. n=0JUEGO JUEGO ()X− − 1()X− − A))nX− − 1.{displaystyle mathbf [A] ^{-1}=sum ¿Por qué? {X} -mathbf {A})derecha] {X} ^{-1}~}

Si también es el caso de que AX tiene el rango 1, entonces esto se simplifica a

A− − 1=X− − 1− − X− − 1()A− − X)X− − 11+tr⁡ ⁡ ()X− − 1()A− − X)).{displaystyle mathbf {A} {fn}=mathbf {X} {X} {A} -mathbf {X})mathbf {X}{-1}{1+operatorname {tr} left(mathbf [X] ^{-1} {mathbf {A}mathbf {X}}}}}~}}

Aproximación P-ádica

Si A es una matriz con entradas enteras o racionales y buscamos una solución en racionales de precisión arbitraria, entonces un método de aproximación p-ádico converge a una solución exacta en O(n4 log2 n) , asumiendo que se usa la multiplicación de matrices estándar O(n3). El método se basa en resolver n sistemas lineales mediante el método de Dixon de p-adic aproximación (cada uno en O(n3 log2 n)) y está disponible como tal en software especializado en operaciones matriciales de precisión arbitraria, por ejemplo, en IML.

Método de vectores de base recíproca

Dado un n × n matriz cuadrada X=[xij]{displaystyle mathbf {X} =left [x^{ij}right], 1≤ ≤ i,j≤ ≤ n{displaystyle 1leq i,jleq n}, con n filas interpretadas como n vectores xi=xijej{displaystyle mathbf {x} ¿Qué? (Einstein summation asumido) donde el ej{displaystyle mathbf {e} _{j} son una base ortonormal estándar del espacio euclidiano Rn{displaystyle mathbb {R} {} {}} {fn}} ()ei=ei,ei⋅ ⋅ ej=δ δ ij{displaystyle mathbf {e} ¿Qué? ¿Por qué?), luego utilizando el álgebra Clifford (o álgebra geométrica) computamos los vectores de columna recíproco (a veces llamado dual)

xi=xjiej=()− − 1)i− − 1()x1∧ ∧ ⋯ ⋯ ∧ ∧ ())i∧ ∧ ⋯ ⋯ ∧ ∧ xn)⋅ ⋅ ()x1∧ ∧ x2∧ ∧ ⋯ ⋯ ∧ ∧ xn)− − 1{displaystyle mathbf {x} {fn} {fn} {cH00}cH00}cH00} {cH00}}cdots edge ()_{i}e}cdots wedge {cdots wedge {x} {x} {cn} {cdot} {2}cdot {ci}

como las columnas de la matriz inversa X− − 1=[xji].{displaystyle mathbf {X} ^{-1}= [x_{ji}]. Tenga en cuenta que, el lugar "())i{displaystyle ()_{i}}" indica que "xi{displaystyle mathbf {x} _{i}"se retira de ese lugar en la expresión anterior para xi{displaystyle mathbf {x}. Entonces tenemos XX− − 1=[xi⋅ ⋅ xj]=[δ δ ij]=In{displaystyle mathbf {X} mathbf {X} ^{-1}=left [mathbf {x} _{i}cdot mathbf {x} ^{j}right]=left[delta _{i}{j}right]=mathbf {fn}, donde δ δ ij{displaystyle delta _{i} {j}} es el Kronecker delta. También tenemos X− − 1X=[()ei⋅ ⋅ xk)()ej⋅ ⋅ xk)]=[ei⋅ ⋅ ej]=[δ δ ij]=In{displaystyle mathbf {X} ^{-1}mathbf {X} =cdot mathbf {x} âTMa âTMa âTMacdot mathbf {x} âTMa âTMa âTMa âTMa âTMa âTMa âTMacdot mathbf âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa {fn}, según sea necesario. Si los vectores xi{displaystyle mathbf {x} _{i} no son linealmente independientes, entonces ()x1∧ ∧ x2∧ ∧ ⋯ ⋯ ∧ ∧ xn)=0{displaystyle (mathbf {x} _{1}wedge mathbf {x} _{2}wedge cdots wedge mathbf {x} _{n})=0} y la matriz X{displaystyle mathbf {X} no es invertible (no tiene inverso).

Derivada de la matriz inversa

Supongamos que la matriz invertible A depende de un parámetro t. Entonces la derivada de la inversa de A con respecto a t viene dada por

dA− − 1dt=− − A− − 1dAdtA− − 1.{displaystyle {frac {mathrm} mathbf {A} {fn} {fnK} {}} {fn}} {fn}} {fn} {fn}}} {fn}}}}} {fnK}}}}} {fn}}}}} {}}}}} {m}}}}} {m}}}}} {}}}}}}} {}}}}}}}}}}}}}}} {m} {m}}}}}}}}}}} {m}}}}}}} {m}}}}}}}}}}} {m}}}}}}}}}}}}}}}}} {m} {m}} {m}}}}}} {m}}}}}} {m}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} t}=-Mathbf {fn} {fn} {fnK} {fn}} {fn} {fn}} {m} {}}} {fn}}} {fn}}} {fn}}} {fn}}}} {m}} {f}}}}}} {fn}}}} {m}}}}} {m}}}}}}}}}}}} {m}}mm}}}}}}}}}}}}}}}} {m} {mmmmmmmm} {f}}}}}}}}}}}m}} {mmmmmmmmmmmmmmm}mm}}}}}}} {mm}m}mmm}mmm}m}m}m} {m}m}m} Matt.

Para derivar la expresión anterior para el derivado del inverso A, se puede diferenciar la definición de la matriz inversa A− − 1A=I{displaystyle mathbf {A} {fnMitbf {A} = 'mathbf {I} y luego resolver para el inverso de A:

d()A− − 1A)dt=dA− − 1dtA+A− − 1dAdt=dIdt=0.{displaystyle {frac {mathrm} {mathbf {f}mathbf {}}{m} {}} {m}} {}}} {m}}} {m}}} {m}}}} {m} {}}}} {m}}}}} {m}}}}}}}}}} {m}}}}}} {m} {m}}}}}}}} {m} {m}}}} {m}}}}}}}}}}}}}}} {m}} {m}}}}}}}}}} {m}}}}}}}}}}}}}}} {m} {m} {m}}}} {m}}}}}}}}}} {m}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {m}}} #={frac {mathrm {d}mathbf {A} {fn} {fnK} {}} {fn}} {fn}} {fn} {fn}}} {fn}}}}} {fnK}}}}} {fn}}}}} {}}}}} {m}}}}} {m}}}}} {}}}}}}} {}}}}}}}}}}}}}}} {m} {m}}}}}}}}}}} {m}}}}}}} {m}}}}}}}}}}} {m}}}}}}}}}}}}}}}}} {m} {m}} {m}}}}}} {m}}}}}} {m}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} # Mathbf {A} +mathbf {A}{-1}{frac {mathrm {d}mathbf {A} {}{mathrm {d}} {} {}} {} {}} {}} {} {}}}} {}}}} {}}}} {}}} {}}}} {}}}}} {}}}}} {}}}}}} {}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}} {}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}} {Mathb}} {Mathb} {m}}}} {m}}}}}} {m}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}} {fnK} {fnK} {fnK}} {fn} {fn}}} {m}} {}}} {fn}} No.

Subtracting A− − 1dAdt{displaystyle mathbf {f} {m} {m} {m} {m} {} {m} {}} {m}} {}} {}}}} {m}}} {m}}}} {m}}} {}}}}} {m}}}}} {m}}} {m}}}}}} {}}}}}}} { } de ambos lados de lo anterior y multiplicando a la derecha por A− − 1{displaystyle mathbf {A} {fn} da la expresión correcta para el derivado del inverso:

dA− − 1dt=− − A− − 1dAdtA− − 1.{displaystyle {frac {mathrm} mathbf {A} {fn} {fnK} {}} {fn}} {fn}} {fn} {fn}}} {fn}}}}} {fnK}}}}} {fn}}}}} {}}}}} {m}}}}} {m}}}}} {}}}}}}} {}}}}}}}}}}}}}}} {m} {m}}}}}}}}}}} {m}}}}}}} {m}}}}}}}}}}} {m}}}}}}}}}}}}}}}}} {m} {m}} {m}}}}}} {m}}}}}} {m}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} t}=-Mathbf {fn} {fn} {fnK} {fn}} {fn} {fn}} {m} {}}} {fn}}} {fn}}} {fn}}} {fn}}}} {m}} {f}}}}}} {fn}}}} {m}}}}} {m}}}}}}}}}}}} {m}}mm}}}}}}}}}}}}}}}} {m} {mmmmmmmm} {f}}}}}}}}}}}m}} {mmmmmmmmmmmmmmm}mm}}}}}}} {mm}m}mmm}mmm}m}m}m} {m}m}m} Matt.

Del mismo modo, si ε ε {displaystyle varepsilon } es un pequeño número entonces

()A+ε ε X)− − 1=A− − 1− − ε ε A− − 1XA− − 1+O()ε ε 2).{displaystyle left(mathbf {A} +varepsilon mathbf {X} right)^{-1}=mathbf {A} ^{-1}-varepsilon Mathbf {X} mathbf {A} ^{-1}+{mathcal {O}(varepsilon ^{2}),}

Más generalmente, si

df()A)dt=.. igi()A)dAdthi()A),{displaystyle {frac {mathrm {d} f(mathbf {A}{mathrm {d} {fnMicroc {fn} {fn} {fn} {fn} {fn} {} {} {m} {}} {m} {}h}h} {} {i} {fn} {fn}}} {fn}}} {f}}} {fn}}}} {f} {f}}}}}}}}}} {f}}}} {s}}}}}}} {s}}}}} {f} {s}}}}}}}} {p}}}}}}}}}}}}}}}}}}}}}}}}}}}\\\\\\\\\\\\\\\\p}h}h}h}h} {p}h}h}h}h} {s}h}h}h}h}h}h} {m}h}

entonces,

f()A+ε ε X)=f()A)+ε ε .. igi()A)Xhi()A)+O()ε ε 2).{displaystyle f(mathbf {A} +varepsilon mathbf {X})=f(mathbf {A})+varepsilon sum _{i}g_{i}(mathbf {A})mathbf {X} h_{i}(mathbf {A})+{mathcal {O}left(varepsilon). }

Dado un entero positivo n{displaystyle n},

dAndt=.. i=1nAi− − 1dAdtAn− − i,dA− − ndt=− − .. i=1nA− − idAdtA− − ()n+1− − i).{displaystyle {begin{aligned}{frac {mathrm {d} mathbf {fn} {fn} {fn}} {fn}} {fn}} {fn}} {fn}} {fn}}}} {fn}}}}} {fn}}}}}}} {}}}}}} {}}}}}}} {}}}}}} {}}}}}}}}} {}}}}} {}}}}}}}}}}}}} {}}}}}}}}}}}} {}}}}}}}}}} {}}}}}}}}}} {}}}}}}}}}}}}}}} {}}}}}}}}} {}}}}}} {}}}}}}}}}}}}} {}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Qué? {fn} {fn} {fnK} {fn}} {fn} {fn}} {m}} {}}}} {m} {}}}} {fn}} {fn}}}} {m} {}}}}} {m}}}} {m}}}}}} {m}}}}} {m}}}}}}} {m}}}} {m}} {m} {m}} {m} {s}}}}} {m} {m}}}}} {m}}}}}}}}}} {m}}}}}}} {m}} {mm} {m}} {m}}}}}} {mm}}}}}} {m} {f} {m}}}}}}}} {m}}}}}}}}}}}}}}}}}}}} - ¿Qué? {fn} {fn} {fn} {fn}} {fn}} {fn}} {fn}} {fn}}}}} {fn}}} {fn}}} {fn}}}}}}} {fn} {}}}}}}} {}}}}} {}}}}}}}}}}}}}}} {}}}}}}}}}} {m}}}} {}}}}}}}}}}}} {}}}}}}}}} {}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}} {}}}}}} {}}}}}}}}}}}}} {}}}}}}}} {}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}} {m}}}} ¿Qué? {fn} {fn} {fnK} {fn}} {fn} {fn}} {m}} {}}} {fn}} {fn}}} {fn}}} {fn}}}} {m}}} {}}}}} {m}}}}} {m}}}}}} {m}}}}}} {m}}}}}} {mm} {m} {m}} {m} {s}}}}}}}}}} {m} {m} {m}}}}}}}}} {m}}}}}} {m}} {mm} {m}} {m}}}}} {mm}}}}}}}}}}}}}}}}}}}m}}}m}}}}}}}}}}}}}}}}}}m}}} ♪♪ {fn}}

Por lo tanto,

()A+ε ε X)n=An+ε ε .. i=1nAi− − 1XAn− − i+O()ε ε 2),()A+ε ε X)− − n=A− − n− − ε ε .. i=1nA− − iXA− − ()n+1− − i)+O()ε ε 2).{displaystyle {begin{aligned}(mathbf {A} +varepsilon mathbf {X} {n} [A] ^{n}+varepsilon sum ¿Qué? {A} {i-1}mathbf {X} mathbf {A} ^{n-i}+{mathcal {O}left(varepsilon ^{2}right),(mathbf {A} +varepsilon mathbf {X}}{-n} {=mathbf {A} ^{-n}-varepsilon sum _{i=1} {n}mathbf {A} {fnMicrosoft} {X} mathbf {A} ^{-(n+1-i)}+{mathcal {O}left(varepsilon ^{2}right)end{aligned}}}}

Inversa generalizada

(feminine)

Algunas de las propiedades de las matrices inversas son compartidas por inversas generalizadas (por ejemplo, la inversa de Moore-Penrose), que se pueden definir para cualquier m-por-n matriz.

Aplicaciones

Para la mayoría de las aplicaciones prácticas, no es necesario invertir una matriz para resolver un sistema de ecuaciones lineales; sin embargo, para una solución única, es necesario que la matriz involucrada sea invertible.

Las técnicas de descomposición como la descomposición LU son mucho más rápidas que la inversión y también se han desarrollado varios algoritmos rápidos para clases especiales de sistemas lineales.

Regresión/mínimos cuadrados

Aunque no es necesario un inverso explícito para estimar el vector de incógnitas, es la forma más fácil de estimar su precisión, que se encuentra en la diagonal de una matriz inversa (la matriz de covarianza posterior del vector de incógnitas). Sin embargo, en muchos casos se conocen algoritmos más rápidos para calcular solo las entradas diagonales de una matriz inversa.

Matrices inversas en simulaciones en tiempo real

La inversión de matriz juega un papel importante en los gráficos por computadora, particularmente en la representación de gráficos 3D y las simulaciones 3D. Los ejemplos incluyen proyección de rayos de pantalla a mundo, transformaciones de objetos de mundo a subespacio a mundo y simulaciones físicas.

Matriz inversa en comunicación inalámbrica MIMO

La inversión de matriz también juega un papel importante en la tecnología MIMO (Multiple-Input, Multiple-Output) en las comunicaciones inalámbricas. El sistema MIMO consta de N antenas de transmisión y M de recepción. Las señales únicas, que ocupan la misma banda de frecuencia, se envían a través de antenas de transmisión N y se reciben a través de antenas de recepción M. La señal que llega a cada antena receptora será una combinación lineal de las N señales transmitidas formando una matriz de transmisión N × M H. Es crucial que la matriz H sea invertible para que el receptor pueda descifrar la información transmitida.

Contenido relacionado

Anillo polinomial

En matemáticas, especialmente en el campo del álgebra, un anillo polinomial o álgebra polinómica es un anillo formado a partir del conjunto de polinomios...

Notación de flecha encadenada de Conway

Notación de flecha encadenada con Conway, creado por el matemático John Horton Conway, es un medio de expresar ciertos números extremadamente grandes. Es...

Relación de aspecto (aeronáutica)

En aeronáutica, la relación de aspecto de un ala es la relación entre su envergadura y su cuerda media. Es igual al cuadrado de la envergadura dividido por...
Más resultados...
Tamaño del texto: