Descomposición de matrices

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Representación de una matriz como producto

En la disciplina matemática del álgebra lineal, una descomposición de matrices o factorización de matrices es una factorización de una matriz en un producto de matrices. Hay muchas descomposiciones de matrices diferentes; cada uno encuentra uso entre una clase particular de problemas.

Ejemplo

En el análisis numérico, se utilizan diferentes descomposiciones para implementar algoritmos matriciales eficientes.

Por ejemplo, cuando se resuelve un sistema de ecuaciones lineales Ax=b{displaystyle Amathbf {x} =mathbf {b}, la matriz A se puede descomponer a través de la descomposición LU. La descomposición LU factoriza una matriz en una matriz triangular inferior L y una matriz triangular superior U. Los sistemas L()Ux)=b{displaystyle L(Umathbf {x}=mathbf {b} y Ux=L− − 1b{displaystyle Umathbf {x} requieren menos adiciones y multiplicaciones para resolver, en comparación con el sistema original Ax=b{displaystyle Amathbf {x} =mathbf {b}, aunque uno podría requerir significativamente más dígitos en aritmética inexacta como punto flotante.

Del mismo modo, la descomposición QR expresa A como QR con Q una matriz ortogonal y R una matriz triangular superior matriz. El sistema Q(Rx) = b se resuelve mediante Rx = QTb = c, y el sistema Rx = c se resuelve mediante 'sustitución hacia atrás'. El número de sumas y multiplicaciones requeridas es aproximadamente el doble que con el solucionador LU, pero no se requieren más dígitos en la aritmética inexacta porque la descomposición QR es numéricamente estable.

Descomposiciones relacionadas con la resolución de sistemas de ecuaciones lineales

Descomposición LU

  • Tradicionalmente aplicable a: matriz cuadrada A, aunque las matrices rectangulares pueden ser aplicables.
  • Decomposición: A=LU{displaystyle A=LU, donde L es triangular inferior y U es triangular superior
  • Relacionados: la descomposición LDU A=LDU{displaystyle A=LDU, donde L es triangular inferior con los de la diagonal, U es triangular superior con los en la diagonal, y D es una matriz diagonal.
  • Relacionados: la descomposición LUP PA=LU{displaystyle PA=LU}, donde L es triangular inferior, U es triangular superior, y P es una matriz de permutación.
  • Existencia: Existe una descomposición LUP para cualquier matriz cuadrada A. Cuando P es una matriz de identidad, la descomposición LUP reduce a la descomposición LU.
  • Comentarios: Las descomposiciones LUP y LU son útiles para resolver un n-por-n sistema de ecuaciones lineales Ax=b{displaystyle Amathbf {x} =mathbf {b}. Estas descomposiciones resumen el proceso de eliminación gausiana en forma de matriz. Matriz P representa cualquier intercambio de filas realizado en el proceso de eliminación gausiana. Si la eliminación gaussiana produce la forma de echelon de fila sin requerir ningún cambio de fila, entonces P=I, así que existe una descomposición LU.

Reducción de LU

Descomposición de bloque LU

Factorización de rango

  • Aplicable a: m-por-n matriz A de rango r
  • Decomposición: A=CF{displaystyle A=CF} Donde C es un m-por-r matriz de columna completa y F es un r-por-n matriz de fila completa
  • Comentario: La factorización de rango se puede utilizar para calcular el seudoinverso de Moore-Penrose A, que se puede aplicar para obtener todas las soluciones del sistema lineal Ax=b{displaystyle Amathbf {x} =mathbf {b}.

Descomposición de Cholesky

  • Aplicable a: cuadrado, hermitiano, matriz definida positiva A{displaystyle A}
  • Decomposición: A=UAlternativa Alternativa U{displaystyle A=U^{*}U}, donde U{displaystyle U} es triangular superior con entradas diagonales positivas reales
  • Comentario: si la matriz A{displaystyle A} es Hermitian y positivo semi-definido, entonces tiene una descomposición de la forma A=UAlternativa Alternativa U{displaystyle A=U^{*}U} si las entradas diagonales de U{displaystyle U} se permiten cero
  • Unicidad: para matrices definidas positivas La descomposición Cholesky es única. Sin embargo, no es único en el caso semi-definido positivo.
  • Comentario: A{displaystyle A} es real y simétrico, U{displaystyle U} tiene todos los elementos reales
  • Comentario: Una alternativa es la descomposición LDL, que puede evitar extraer raíces cuadradas.

Descomposición QR

  • Aplicable a: m-por-n matriz A con columnas linealmente independientes
  • Decomposición: A=QR{displaystyle A=QR} Donde Q{displaystyle Q} es una matriz unitaria de tamaño m-por-m, y R{displaystyle R. es una matriz triangular superior de tamaño m-por-n
  • Unicidad: En general no es única, sino si A{displaystyle A} es de rango completo, entonces existe un solo R{displaystyle R. que tiene todos los elementos diagonales positivos. Si A{displaystyle A} es cuadrado, también Q{displaystyle Q} es único.
  • Comentario: La descomposición QR proporciona una manera eficaz de resolver el sistema de ecuaciones Ax=b{displaystyle Amathbf {x} =mathbf {b}. El hecho de que Q{displaystyle Q} es ortogonal significa que QTQ=I{displaystyle Q^{mathrm {T}Q=I}Así que Ax=b{displaystyle Amathbf {x} =mathbf {b} equivale a Rx=QTb{displaystyle ¿Qué?, que es muy fácil de resolver desde R{displaystyle R. es triangular.

Factorización RRQR

Descomposición interpolativa

Descomposiciones basadas en valores propios y conceptos relacionados

Descomposición propia

  • También se llama descomposición espectral.
  • Aplicable a: matriz cuadrada A con eigenvectores linealmente independientes (no necesariamente eigenvalues distintos).
  • Decomposición: A=VDV− − 1{displaystyle A=VDV^{-1}, donde D es una matriz diagonal formada de los eigenvalues A, y las columnas de V son los eigenvectores correspondientes A.
  • Existencia: Una n-por-n matriz A siempre n (complejo) eigenvalues, que se pueden ordenar (en más de una manera) para formar un n-por-n matriz diagonal D y una matriz correspondiente de columnas no cero V que satisface la ecuación eigenvalue AV=VD{displaystyle AV=VD}. V{displaystyle V} es invertible si y sólo si el n eigenvectores son linealmente independientes (es decir, cada eigenvalue tiene multiplicidad geométrica igual a su multiplicidad algebraica). Una condición suficiente (pero no necesaria) para que esto suceda es que todos los eigenvalues son diferentes (en este caso la multiplicidad geométrica y algebraica son iguales a 1)
  • Comentario: Siempre se puede normalizar los eigenvectores para tener la longitud uno (ver la definición de la ecuación de eigenvalue)
  • Comentario: Cada matriz normal A (es decir, matriz para la cual AAAlternativa Alternativa =AAlternativa Alternativa A{displaystyle AA^{*}=A^{*}A}, donde AAlternativa Alternativa {displaystyle A^{*} es una transposición conyugal) puede ser eigendecomposed. Para una matriz normal A (y sólo para una matriz normal), los eigenvectores también se pueden hacer ortonormales (VVAlternativa Alternativa =I{displaystyle VV^{*}=I}) y la eigendecomposición lee como A=VDVAlternativa Alternativa {displaystyle A=VDV^{*}. En particular, todas las matrices unitarias, hermitianas o hermitianas (en el caso real, todas ortogonales, simétricas o simétricas de cerdas, respectivamente) son normales y por lo tanto poseen esta propiedad.
  • Comentario: Para cualquier matriz simétrica real A, la eigendecomposición siempre existe y puede ser escrito como A=VDVT{displaystyle A=VDV^{mathsf {T}, donde ambos D y V son de valor real.
  • Comentario: La eigendecomposición es útil para entender la solución de un sistema de ecuaciones diferenciales lineales o ecuaciones de diferencia lineal. Por ejemplo, la ecuación de la diferencia xt+1=Axt{displaystyle x_{t+1}=Ax_{t} a partir de la condición inicial x0=c{displaystyle x_{0}=c} es resuelto por xt=Atc{displaystyle x_{t}=A^{t}c}, que equivale a xt=VDtV− − 1c{displaystyle ¿Qué?, donde V y D son las matrices formadas de los eigenvectores y eigenvalues de A. Desde D es diagonal, elevarlo al poder Dt{displaystyle D^{t}, sólo implica elevar cada elemento en la diagonal al poder t. Esto es mucho más fácil de hacer y entender que criar A al poder t, desde A generalmente no es diagonal.

Descomposición de Jordan

La forma normal de Jordan y la descomposición de Jordan-Chevalley

  • Aplicable a: matriz cuadrada A
  • Comentario: la forma normal de Jordania generaliza la eigendecomposición a los casos en que hay eigenvalues repetidos y no se puede diagonalizar, la descomposición de Jordan–Chevalley hace esto sin elegir una base.

Descomposición de Schur

  • Aplicable a: matriz cuadrada A
  • Decomposición (versión compleja): A=UTUAlternativa Alternativa {displaystyle A=UTU^{*}, donde U es una matriz unitaria, UAlternativa Alternativa {displaystyle U^{*} es la transposición conyugal U, y T es una matriz triangular superior llamada el complejo Forma Schur que tiene los eigenvalues de A a lo largo de su diagonal.
  • Comentario: A es una matriz normal, entonces T es diagonal y la descomposición de Schur coincide con la descomposición espectral.

Descomposición real de Schur

  • Aplicable a: matriz cuadrada A
  • Decomposición: Esta es una versión de Schur descomposición donde V{displaystyle V} y S{displaystyle S. sólo contienen números reales. Uno siempre puede escribir A=VSVT{displaystyle A=VSV^{mathsf {T} Donde V es una matriz ortogonal real, VT{displaystyle V^{mathsf {T}} es la transposición de V, y S es una matriz triangular superior de bloque llamada la verdadera forma Schur. Los bloques en la diagonal S son de tamaño 1×1 (en cuyo caso representan verdaderos eigenvalues) o 2×2 (en cuyo caso se derivan de pares complejos conjugados de eigenvalue).

Descomposición QZ

  • También se llama: generalizado Schur descomposition
  • Aplicable a: matrices cuadradas A y B
  • Comentario: hay dos versiones de esta descomposición: complejas y reales.
  • Decomposición (versión compleja): A=QSZAlternativa Alternativa {displaystyle A=QSZ^{*} y B=QTZAlternativa Alternativa {displaystyle B=QTZ^{*} Donde Q y Z son matrices unitarias, el * superscript representa transpose conyugal, y S y T son matrices triangulares superiores.
  • Comentario: en la compleja descomposición QZ, las proporciones de los elementos diagonales de S a los elementos diagonales correspondientes T, λ λ i=Sii/Tii{displaystyle lambda - Sí., son los eigenvalues generalizados que resuelven el problema eigenvalue generalizado Av=λ λ Bv{displaystyle Amathbf {v} =lambda Bmathbf {v} (donde) λ λ {displaystyle lambda } es un escalar desconocido v es un vector no cero desconocido).
  • Decomposición (versión real): A=QSZT{displaystyle A=QSZ^{mathsf {T} y B=QTZT{displaystyle B=QTZ^{mathsf {T}} Donde A, B, Q, Z, S, y T son matrices que contienen números reales solamente. En este caso Q y Z son matrices ortogonales, T superscript representa la transposición, y S y T son matrices triangulares superiores de bloque. Los bloques en la diagonal S y T son de tamaño 1×1 o 2×2.

Factorización de Takagi

  • Aplicable a: matriz cuadrada, compleja, simétrica A.
  • Decomposición: A=VDVT{displaystyle A=VDV^{mathsf {T}, donde D es una verdadera matriz diagonal no negativa, y V es unitario. VT{displaystyle V^{mathsf {T}} denota la matriz transpose de V.
  • Comentario: Los elementos diagonales de D son las raíces cuadradas no negativas de los eigenvalues de AAAlternativa Alternativa =VD2VAlternativa Alternativa {displaystyle AA^{*}=VD^{2}V^{*}.
  • Comentario: V puede ser complejo incluso si A es real.
  • Comentario: Este no es un caso especial de la eigendecomposición (véase supra), que utiliza V− − 1{displaystyle V^{-1} en lugar de VT{displaystyle V^{mathsf {T}}. Además, si A no es real, no es Hermitian y la forma usando VAlternativa Alternativa {displaystyle V^{*} tampoco se aplica.

Descomposición de valores singulares

  • Aplicable a: m-por-n matriz A.
  • Decomposición: A=UDVAlternativa Alternativa {displaystyle A=UDV^{*}, donde D es una matriz diagonal no negativa, y U y V satisfacer satisfacción UAlternativa Alternativa U=I,VAlternativa Alternativa V=I{displaystyle U^{*}U=I,V^{*}V=I}. Aquí. VAlternativa Alternativa {displaystyle V^{*} es la transposición conyugal V (o simplemente la transposición, si V contiene números reales solamente), y I denota la matriz de identidad (de alguna dimensión).
  • Comentario: Los elementos diagonales de D se llaman los valores singulares A.
  • Comentario: Al igual que la eigendecomposición anterior, la descomposición de valor singular implica encontrar direcciones de base a lo largo de las cuales la multiplicación de matriz es equivalente a la multiplicación escalar, pero tiene mayor generalidad ya que la matriz que se examina no necesita ser cuadrada.
  • Unicidad: los valores singulares A{displaystyle A} son siempre únicos. U{displaystyle U} y V{displaystyle V} no hay que ser único en general.

Descomposiciones invariantes de escala

Se refiere a variantes de descomposiciones de matrices existentes, como SVD, que son invariantes con respecto a la escala diagonal.

  • Aplicable a: m-por-n matriz A.
  • Unidad-Escale-Invariant Singular-Value Decomposition: A=DUSVAlternativa Alternativa E{displaystyle A=DUSV^{*}E}, donde S es una matriz diagonal no negativa única de valores singulares invariantes de escala, U y V son matrices unitarias, VAlternativa Alternativa {displaystyle V^{*} es la transposición conyugal V, y matrices diagonales positivas D y E.
  • Comentario: Es análogo al SVD excepto que los elementos diagonales de S son invariantes con respecto a la multiplicación izquierda y/o derecha A por matrices diagonales no lineales arbitrarias, a diferencia del estándar SVD para el cual los valores singulares son invariantes con respecto a la multiplicación izquierda y/o derecha A por matrices unitarias arbitrarias.
  • Comentario: Es una alternativa al estándar SVD cuando se requiere invariancia con respecto a las transformaciones diagonales en lugar de unitarias de A.
  • Unicidad: Los valores singulares invariantes de escala A{displaystyle A} (procedido por los elementos diagonales de S) siempre están determinados únicamente. Materias diagonales D y E, y unitario U y V, no son necesariamente únicos en general.
  • Comentario: U y V Las matrices no son las mismas que las del SVD.

Las descomposiciones invariantes de escala análogas se pueden derivar de otras descomposiciones de matrices; por ejemplo, para obtener valores propios invariantes de escala.

Otras descomposiciones

Descomposición polar

  • Aplicable a: cualquier matriz de complejo cuadrado A.
  • Decomposición: A=UP{displaystyle A=UP (descomposición polar derecha) o A=P.U{displaystyle A=P'U} (descomposición polar izquierda), donde U es una matriz unitaria y P y P ' son matrices hermitianas semidefinidas positivas.
  • Unicidad: P{displaystyle P} es siempre único e igual AAlternativa Alternativa A{displaystyle {sqrt {}A}} (que siempre es hermitiano y semidefinido positivo). Si A{displaystyle A} es invertible, entonces U{displaystyle U} es único.
  • Comentario: Como cualquier matriz hermitiana admite una descomposición espectral con una matriz unitaria, P{displaystyle P} puede ser escrito como P=VDVAlternativa Alternativa {displaystyle P=VDV^{*}. Desde P{displaystyle P} es semidefinido positivo, todos los elementos en D{displaystyle D} no son negativos. Puesto que el producto de dos matrices unitarias es unitario, tomando W=UV{displaystyle W=UV}uno puede escribir A=U()VDVAlternativa Alternativa )=WDVAlternativa Alternativa {displaystyle A=U(VDV^{*})=WDV^{*} que es la descomposición de valor singular. Por lo tanto, la existencia de la descomposición polar es equivalente a la existencia de la descomposición de valor singular.

Descomposición polar algebraica

  • Aplicable a: matriz cuadrada, compleja, no singular A.
  • Decomposición: A=QS{displaystyle A=QS}, donde Q es una matriz ortogonal compleja y S es una matriz simétrica compleja.
  • Uniqueness: Si ATA{displaystyle A. no tiene valores reales negativos, entonces la descomposición es única.
  • Comentario: La existencia de esta descomposición equivale a AAT{displaystyle AA^{mathsf {T}} ser similar a ATA{displaystyle A..
  • Comentario: Una variante de esta descomposición es A=RC{displaystyle A=RC}, donde R es una matriz real y C es una matriz circular.

Descomposición de Mostow

  • Aplicable a: matriz cuadrada, compleja, no singular A.
  • Decomposición: A=UeiMeS{displaystyle A=Ue^{iM}e^{S}, donde U es unitario, M es antisimétrico real S es simétrico.
  • Comentario: La matriz A también se puede descomponer A=U2eS2eiM2{displaystyle A=U_{2}e^{S_{2}e^{iM_{2}}, donde U2 es unitario, M2 es antisimétrico real S2 es simétrico.

Forma normal Sinkhorn

  • Aplicable a: matriz real cuadrada A con elementos estrictamente positivos.
  • Decomposición: A=D1SD2{displaystyle A=D_{1}SD_{2}, donde S es doblemente estocástico y D1 y D2 son matrices diagonales reales con elementos estrictamente positivos.

Descomposición sectorial

  • Aplicable a: matriz cuadrada y compleja A con rango numérico contenido en el sector 0,|theta |leq alpha Sα α ={}reiSilencio Silencio ▪ ▪ C▪ ▪ r■0,SilencioSilencio Silencio Silencio≤ ≤ α α .π π 2}{displaystyle S_{alpha #=left{re^{itheta }en mathbb {C} mid r confianza0, sobre la vidaleq alpha0,|theta |leq alpha .
  • Decomposición: A=CZCAlternativa Alternativa {displaystyle A=CZC^{*}, donde C es una matriz compleja invertible y Z=diag⁡ ⁡ ()eiSilencio Silencio 1,...... ,eiSilencio Silencio n){displaystyle Z=operatorname {diag} left(e^{itheta _{1}},ldotse^{itheta _{n}right)} con todos SilencioSilencio Silencio jSilencio≤ ≤ α α {displaystyle left durabletheta _{j}right sobrevivirleq alpha }.

Forma normal de Williamson

  • Aplicable a: matriz real cuadrada, definitiva A con el orden 2n× 2n.
  • Decomposición: A=STdiag⁡ ⁡ ()D,D)S{displaystyle A=S^{mathsf {T}operatorname {diag} (D,D)S}, donde S▪ ▪ Sp()2n){displaystyle Sin {text{Sp}(2n)} es una matriz y D es un no negativo n-por-n matriz diagonal.

Raíz cuadrada de matriz

  • Decomposición: A=BB{displaystyle ABB=, no único en general.
  • En el caso de semidefinido positivo A{displaystyle A}, hay un semidefinido positivo único B{displaystyle B} tales que A=BAlternativa Alternativa B=BB{displaystyle A=B^{*}B=BB}.

Generalizaciones

Existen análogos de las factorizaciones SVD, QR, LU y Cholesky para cuasimatrices y cmatrices o matrices continuas. Una 'cuasimatriz' es, como una matriz, un esquema rectangular cuyos elementos están indexados, pero un índice discreto se reemplaza por un índice continuo. Asimismo, una 'cmatrix', es continua en ambos índices. Como ejemplo de cmatrix, se puede pensar en el kernel de un operador integral.

Estas factorizaciones se basan en los primeros trabajos de Fredholm (1903), Hilbert (1904) y Schmidt (1907). Para un relato y una traducción al inglés de los artículos fundamentales, véase Stewart (2011).

Contenido relacionado

Modelo Black-Scholes

El modelo Black-Scholes o Black-Scholes-Merton es un modelo matemático para la dinámica de un mercado financiero que contiene instrumentos de inversión...

Geodésico

En geometría, una geodésica es una curva que representa en cierto sentido el camino más corto entre dos puntos en una superficie, o más generalmente en...

Número de bobinado

En matemáticas, el número de vueltas o índice de vueltas de una curva cerrada en el plano alrededor de un punto dado es un número entero que representa el...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save