Complemento de Schur

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Herramienta en álgebra lineal y análisis de matriz

En álgebra lineal y teoría de matrices, el complemento de Schur de una matriz de bloques se define de la siguiente manera.

Supongamos que p, q son números enteros no negativos y supongamos que A, B, C, D son respectivamente p × p, p × q, matrices q × p y q × q de números complejos. Dejar

M=[ABCD]{displaystyle M=left[{begin{matrix}A limitB\cH00Dend{matrix}right]
Mpqpq

Si D es invertible, entonces el complemento de Schur del bloque D de la matriz M es el Matriz p × p definida por

M/D:=A− − BD− − 1C.{displaystyle M/D:=A-BD^{-1}C.}
ASuplemento de SchurAMqq
M/A:=D− − CA− − 1B.{displaystyle M/A:=D-CA^{-1}B.}
ADM/AM/Dgeneralizado Suplemento de Schur

El complemento de Schur lleva el nombre de Issai Schur, quien lo utilizó para demostrar el lema de Schur, aunque ya se había utilizado anteriormente. Emilie Virginia Haynsworth fue la primera en llamarlo complemento Schur. El complemento Schur es una herramienta clave en los campos del análisis numérico, la estadística y el análisis matricial.

Fondo

El complemento de Schur surge al realizar una eliminación gaussiana en bloque sobre la matriz M. Para eliminar los elementos debajo de la diagonal del bloque, se multiplica la matriz M por una matriz triangular inferior del bloque a la derecha de la siguiente manera:

M=[ABCD]→ → [ABCD][Ip0− − D− − 1CIq]=[A− − BD− − 1CB0D],{begin} {begin} {begin {bmatrix}A {BB}cH00}}quadto quad {begin{bmatrix}A {Bgin}BginBgincH00} {Bgin} {Bend} {Btrix} {Bend} {B# {B## {B# {cH00}#}### {cH00}########################################################################################################################################
IpppM/D=A− − BD− − 1C{displaystyle M/D=A-BD^{-1}C}pp

Continuando el proceso de eliminación más allá de este punto (es decir, realizando una eliminación en bloque Gauss-Jordan),

[A− − BD− − 1CB0D]→ → [Ip− − BD− − 10Iq][A− − BD− − 1CB0D]=[A− − BD− − 1C00D],{displaystyle {begin{begin{begin{bmatrix}A-BD^{-1}C limitB {}}quad ################################################################################################################################################################################################################################################################
M
M=[ABCD]=[IpBD− − 10Iq][A− − BD− − 1C00D][Ip0D− − 1CIq].{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {begin} {begin} {bmatrix}I_{p} {cH0}cH0} {cH00}}}}}fnMicrosoft}
MD−1
M− − 1=[ABCD]− − 1=()[IpBD− − 10Iq][A− − BD− − 1C00D][Ip0D− − 1CIq])− − 1=[Ip0− − D− − 1CIq][()A− − BD− − 1C)− − 100D− − 1][Ip− − BD− − 10Iq]=[()A− − BD− − 1C)− − 1− − ()A− − BD− − 1C)− − 1BD− − 1− − D− − 1C()A− − BD− − 1C)− − 1D− − 1+D− − 1C()A− − BD− − 1C)− − 1BD− − 1]=[()M/D)− − 1− − ()M/D)− − 1BD− − 1− − D− − 1C()M/D)− − 1D− − 1+D− − 1C()M/D)− − 1BD− − 1].{fnMicrosoft Sans Serif} (A-BD^{-1}Cright)}{-1} {fnMicrosoft Sans Serif}fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}
D−1M/DADM−1MM/DM/A"Derivación de la descomposición de LDU"

Propiedades

  • Si p y q ambos son 1 (es decir, A, B, C y D todos los escalares), obtenemos la fórmula familiar para el inverso de una matriz de 2 por 2:
M− − 1=1AD− − BC[D− − B− − CA]{displaystyle M^{-1}={frac {1}{begin{matrix}D âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa âTMa
siempre que ADBC no es cero.
  • En general, si A es invertible, entonces
M=[ABCD]=[Ip0CA− − 1Iq][A00D− − CA− − 1B][IpA− − 1B0Iq],M− − 1=[A− − 1+A− − 1B()M/A)− − 1CA− − 1− − A− − 1B()M/A)− − 1− − ()M/A)− − 1CA− − 1()M/A)− − 1]{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}
cuando este inverso existe.
  • (La fórmula de Schur) Cuando A, respectivamente D, es invertible, el determinante M también se ve claramente que
Det()M)=Det()A)Det()D− − CA− − 1B){displaystyle det(M)=det(A)det left(D-CA^{-1}Bright)}, respectivamente
Det()M)=Det()D)Det()A− − BD− − 1C){displaystyle det(M)=det(D)det left(A-BD^{-1}Cright)},
que generaliza la fórmula determinante para 2 × 2 matrices.
  • (Fórmula de aditividad de rango masculino) Si D es invertible, entonces el rango de M es dado por
rango⁡ ⁡ ()M)=rango⁡ ⁡ ()D)+rango⁡ ⁡ ()A− − BD− − 1C){displaystyle operatorname {rank} (M)=operatorname {rank} (D)+operatorname {rank} left(A-BD^{-1}Cright)}
  • (Fórmula de aditividad inercia Haynsworth) Si A es invertible, entonces el inercia de la matriz del bloque M es igual a la inercia de A más la inercia de M/A.
  • (Identidad cualitativa) A/B=()()A/C)/()B/C)){displaystyle A/B=(A/C)/(B/C)}.
  • El complemento de Schur de una matriz laplaciana es también una matriz laplaciana.

Aplicación a la resolución de ecuaciones lineales

El complemento de Schur surge naturalmente al resolver un sistema de ecuaciones lineales como

[ABCD][xSí.]=[uv]{displaystyle {begin{bmatrix}A PulB\cH33}{begin{bmatrix} {begin{bmatrix}x\yend{bmatrix}}={begin{bmatrix}uvend{bmatrix}}}}}}}}}}}}}}}} {.

Suponiendo que la submatrix A{displaystyle A} es invertible, podemos eliminar x{displaystyle x} de las ecuaciones, como sigue.

x=A− − 1()u− − BSí.){displaystyle x=A^{-1}(u-By)}.

Sustituyendo esta expresión en la segunda ecuación se obtiene

()D− − CA− − 1B)Sí.=v− − CA− − 1u{displaystyle left(D-CA^{-1}Bright)y=v-CA^{-1}u}.

Nos referimos a esto como el ecuación reducida obtenido mediante la eliminación x{displaystyle x} de la ecuación original. La matriz que aparece en la ecuación reducida se llama el complemento Schur del primer bloque A{displaystyle A} dentro M{displaystyle M}:

S=defD− − CA− − 1B{displaystyle S {overset {compset {mathrm {def} } {} {=} D-CA^{-1}B}.

Resolviendo la ecuación reducida, obtenemos

Sí.=S− − 1()v− − CA− − 1u){displaystyle Y=S^{-1}left(v-CA^{-1}uright)}.

Sustituyendo esto en la primera ecuación se obtiene

x=()A− − 1+A− − 1BS− − 1CA− − 1)u− − A− − 1BS− − 1v{displaystyle x=left(A^{-1}+A^{-1}BS^{-1}CA^{-1}right)u-A^{-1}BS^{-1}v}.

Podemos expresar las dos ecuaciones anteriores como:

[xSí.]=[A− − 1+A− − 1BS− − 1CA− − 1− − A− − 1BS− − 1− − S− − 1CA− − 1S− − 1][uv]{begin {begin {bmatrix}xyend{bmatrix}={begin{bmatrix}A^{-1}+A^{-1}{-1}CA^{-1} {-1} {bmatrix} {cH} {cH} {ccH0}cH0}.

Por lo tanto, una formulación para la inversa de una matriz de bloques es:

[ABCD]− − 1=[A− − 1+A− − 1BS− − 1CA− − 1− − A− − 1BS− − 1− − S− − 1CA− − 1S− − 1]=[Ip− − A− − 1BIq][A− − 1S− − 1][Ip− − CA− − 1Iq]{fnh} {fnh} {fnh} {fnh} {fnh} {fnh} {fn}}}} {fn}fn}fnh}}cH0} {cH0}cH0} {cH}}}b}cH0} {b}}}} {cH}}}}}}} {b}b}}} {b}}}}} {b} {b}} {c}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {b} {b} {b} {b} {b}}}}}}}b}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}.

En particular, vemos que el complemento de Schur es el inverso del 2,2{displaystyle 2,2} entrada de bloque del inverso de M{displaystyle M}.

En la práctica, una necesidad A{displaystyle A} estar bien acondicionado para que este algoritmo sea numéricamente preciso.

En ingeniería eléctrica, esto a menudo se denomina eliminación de nodos o reducción de Kron.

Aplicaciones a la teoría de la probabilidad y la estadística

Supongamos que los vectores de columna aleatorios X, Y viven en Rn y Rm respectivamente, y el vector (X, Y) en Rn + m tiene una distribución normal multivariada cuya covarianza es la matriz simétrica definida positiva

.. =[ABBTC],{displaystyle Sigma =left[{begin{matrix}A pacienteB\B^{mathsf {T} {Cend{matrix}right],}

Donde A▪ ▪ Rn× × n{textstyle Ain mathbb {R} {ntimes n} es la matriz de covariancia X, C▪ ▪ Rm× × m{textstyle Cin mathbb {R} {mtimes m} es la matriz de covariancia Y y B▪ ▪ Rn× × m{textstyle Bin mathbb {R} {ntimes m} es la matriz de covariancia entre X y Y.

Entonces la covariancia condicional X dado Y es el complemento de Schur C dentro .. {textstyle Sigma }:

Cov⁡ ⁡ ()X▪ ▪ Y)=A− − BC− − 1BTE⁡ ⁡ ()X▪ ▪ Y)=E⁡ ⁡ ()X)+BC− − 1()Y− − E⁡ ⁡ ()Y)){displaystyle {begin{aligned}operatorname {Cov} (Xmid Y) - ¿Qué? {E} (Xmid Y)}=operatorname {E} (X)+BC^{-1}(Y-operatorname {E} (Y)end{aligned}}

Si tomamos la matriz .. {displaystyle Sigma } arriba para ser, no una covariancia de un vector al azar, sino un muestra covariancia, entonces puede tener una distribución de Wishart. En ese caso, el complemento de Schur C dentro .. {displaystyle Sigma } también tiene una distribución de Wishart.

Condiciones para la certeza positiva y la semidefinición

Sea X una matriz simétrica de números reales dada por

X=[ABBTC].{displaystyle X=left[{begin{matrix}A tendrían que serlo.

  • Si A es invertible, entonces X es positivo definido si y sólo si A y su complemento X/A ambos son positivos definidos:
    • X≻ ≻ 0.. A≻ ≻ 0,X/A=C− − BTA− − 1B≻ ≻ 0.{displaystyle Xsucc 0Leftrightarrow Asucc 0,X/A=C-B^{mathsf {T}A^{-1}Bsucc 0.}
  • Si C es invertible, entonces X es positivo definido si y sólo si C y su complemento X/C ambos son positivos definidos:
    • X≻ ≻ 0.. C≻ ≻ 0,X/C=A− − BC− − 1BT≻ ≻ 0.{displaystyle Xsucc 0Leftrightarrow Csucc 0,X/C=A-BC^{-1}B^{mathsf {T}succ 0.}
  • Si A es positivo definido, entonces X es positivo semi-definido si y sólo si el complemento X/A es positivo semi-definido:
    • SiA≻ ≻ 0,entoncesX⪰ ⪰ 0.. X/A=C− − BTA− − 1B⪰ ⪰ 0.{displaystyle {text{ If }Asucc 0,{text{ then }Xsucceq 0Leftrightarrow X/A=C-B^{mathsf {T}A^{-1}Bsucceq 0.}
  • Si C es positivo definido, entonces X es positivo semi-definido si y sólo si el complemento X/C es positivo semi-definido:
    • SiC≻ ≻ 0,entoncesX⪰ ⪰ 0.. X/C=A− − BC− − 1BT⪰ ⪰ 0.{displaystyle {text{ If }Csucc 0,{text{ then }Xsucceq 0Leftrightarrow X/C=A-BC^{-1}B^{mathsf {T}succeq 0.}

La primera y la tercera afirmación se pueden derivar considerando el minimizador de la cantidad

uTAu+2vTBTu+vTCv,{displaystyle u^{mathsf {T}Au+2v^{mathsf}B^{mathsf {T}u+v^{mathsf {T}Cv,,}
vu

Además, desde

[ABBTC]≻ ≻ 0⟺ ⟺ [CBTBA]≻ ≻ 0{begin{begin{matrix}A presentarseB\B^{mathsf {T} {end{matrix}derecho]succ 0Longleftrightarrow left[{begin{matrix}C limite {sf}b}b}b}BendmatrixcH0} 0}

También existe una condición suficiente y necesaria para la semidefinición positiva de X en términos de un complemento de Schur generalizado. Precisamente,

  • X⪰ ⪰ 0.. A⪰ ⪰ 0,C− − BTAgB⪰ ⪰ 0,()I− − AAg)B=0{displaystyle Xsucceq 0Leftrightarrow Asucceq 0,C-B^{mathsf {T}A^{g}Bsucceq 0,left(I-AA^{g}right)B=0,} y
  • X⪰ ⪰ 0.. C⪰ ⪰ 0,A− − BCgBT⪰ ⪰ 0,()I− − CCg)BT=0,{displaystyle Xsucceq 0Leftrightarrow Csucceq 0,A-BC^{g}B^{mathsf {T}succeq 0,left(I-CC^{g}right)B^{mathsf {T}=0,}

Donde Ag{displaystyle A^{g} denota un inverso generalizado de A{displaystyle A}.

Contenido relacionado

Teoría de la prueba

La teoría de la prueba es una rama importante de la lógica matemática y la informática teórica que representa las pruebas como objetos matemáticos...

Diofántico

Diofantino significa perteneciente al antiguo matemático griego Diofanto. Varios conceptos llevan este...

Eje

Un eje es una línea imaginaria alrededor de la cual un objeto gira o es simétrico. Eje también puede referirse...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save