Matriz definida

Compartir Imprimir Citar
Propiedad de una matriz matemática

En matemáticas, una matriz M{displaystyle M} con entradas reales positivo-definido si el número real zTMz{displaystyle z^{textsf {T}Mz} es positivo para cada vector de columna real no cero z,{displaystyle z,} Donde zT{displaystyle z^{textsf {T}} es la transposición de z{displaystyle z}. Más generalmente, una matriz hermitiana (es decir, una matriz compleja igual a su transpose conyugal) es positivo-definido si el número real zAlternativa Alternativa Mz{displaystyle z^{*}Mz} es positivo para cada vector de columna no complejo z,{displaystyle z,} Donde zAlternativa Alternativa {displaystyle z^{*} denota la transposición conyugal de z.{displaystyle z.}

Positivo semidefinido matrices se definen de forma similar, excepto que los escalares zTMz{displaystyle z^{textsf {T}Mz} y zAlternativa Alternativa Mz{displaystyle z^{*}Mz} deben ser positivos o cero (es decir, no negativo). Negativo-definido y semi-definido negativo las matrices se definen analógicamente. Una matriz que no es positivo semi-definido y no negativo semi-definido a veces se llama indefinidamente.

Por lo tanto, una matriz es definida positiva si y solo si es la matriz de una forma cuadrática definida positiva o forma hermitiana. En otras palabras, una matriz es definida positiva si y solo si define un producto interno.

Las matrices positivas definidas y positivas semidefinidas se pueden caracterizar de muchas maneras, lo que puede explicar la importancia del concepto en varias partes de las matemáticas. Una matriz M es definida positiva si y solo si satisface cualquiera de las siguientes condiciones equivalentes.

Una matriz es semidefinida positiva si satisface condiciones equivalentes similares donde "positivo" se reemplaza por "no negativo", "matriz invertible" se reemplaza por "matriz", y la palabra "principal" es removido.

Las matrices reales positivas definidas y positivas semidefinidas son la base de la optimización convexa, ya que, dada una función de varias variables reales que es dos veces diferenciable, entonces si su matriz hessiana (matriz de sus segundas derivadas parciales) es positiva- definida en un punto p, entonces la función es convexa cerca de p y, por el contrario, si la función es convexa cerca de p, entonces la matriz hessiana es semidefinido positivo en p.

Algunos autores usan definiciones más generales de definición, incluidas algunas matrices reales no simétricas o complejas no hermitianas.

Definiciones

En las siguientes definiciones, xT{displaystyle mathbf {x} {textosf {T}} es la transposición de x{displaystyle mathbf {x}, xAlternativa Alternativa {displaystyle mathbf {x} es la transposición conyugal x{displaystyle mathbf {x} y 0{displaystyle mathbf {0} denota los n- dimensional cero-vector.

Definiciones de matrices reales

An n× × n{displaystyle ntimes n} matriz real simétrica M{displaystyle M} se dice que positivo-definido si 0}" xmlns="http://www.w3.org/1998/Math/MathML">xTMx■0{displaystyle mathbf {x} {T}Mmathbf {x}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/e5567b0cc3737630680657f3f0e2715e7808768e" style="vertical-align: -0.338ex; width:10.877ex; height:2.676ex;"/> para todos los no cero x{displaystyle mathbf {x} dentro Rn{displaystyle mathbb {R} {} {}} {fn}}. Formalmente,

0{text{ for all }}mathbf {x} in mathbb {R} ^{n}setminus {mathbf {0} }}" xmlns="http://www.w3.org/1998/Math/MathML">Mpositivo-definido⟺ ⟺ xTMx■0para todosx▪ ▪ Rn∖ ∖ {}0}{displaystyle M{text{ positive-definite}}quad iff quad mathbf {x} ^{textsf {T}}Mmathbf {x} } {text{ for all }mathbf {x} in mathbb {R} } } {n}setminus {} {} {m} {m}}} {m}}} {m} {m}}} {m} {m} {m} {m}} {}}}}}}}m}}}}}} {m}} {m}}}}}}}}}}}}}} {m}}}}} {m} {m} {m}m} {m}m}m}}} {}}}}}}}}}}}}}}m}}}}}}m}}}}}}}}}}}}}}}}0{text{ for all }}mathbf {x} in mathbb {R} ^{n}setminus {mathbf {0} }}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/f47c0b407dddcbacb2f1f8cda4a190aa843dc34d" style="vertical-align: -0.838ex; width:61.594ex; height:3.176ex;"/>

An n× × n{displaystyle ntimes n} matriz real simétrica M{displaystyle M} se dice que positivo-semidefinito o no negativo-definido si xTMx≥ ≥ 0{displaystyle mathbf {x} {T}Mmathbf {x} geq 0} para todos x{displaystyle mathbf {x} dentro Rn{displaystyle mathbb {R} {} {}} {fn}}. Formalmente,

Msemi-definido positivo⟺ ⟺ xTMx≥ ≥ 0para todosx▪ ▪ Rn{displaystyle M{text{ positive semi-definite}}quad iff quad mathbf {x} ^{textsf {T}}Mmathbf {x} geq 0{text{ for all }mathbf {x} in mathbb {R} }

An n× × n{displaystyle ntimes n} matriz real simétrica M{displaystyle M} se dice que negativo-definido si <math alttext="{displaystyle mathbf {x} ^{textsf {T}}Mmathbf {x} xTMx.0{displaystyle mathbf {x} {T}Mmathbf {x} #<img alt="{displaystyle mathbf {x} ^{textsf {T}}Mmathbf {x} para todos los no cero x{displaystyle mathbf {x} dentro Rn{displaystyle mathbb {R} {} {}} {fn}}. Formalmente,

<math alttext="{displaystyle M{text{ negative-definite}}quad iff quad mathbf {x} ^{textsf {T}}Mmathbf {x} Mnegativo-definido⟺ ⟺ xTMx.0para todosx▪ ▪ Rn∖ ∖ {}0}{displaystyle M{text{ negative-definite}}quad iff quad mathbf {x} ^{textsf {T}}Mmathbf {x} 0{text{ for all }mathbf {x} in mathbb {R} } ^n}setminus {mathbf {0}}<img alt="{displaystyle M{text{ negative-definite}}quad iff quad mathbf {x} ^{textsf {T}}Mmathbf {x}

An n× × n{displaystyle ntimes n} matriz real simétrica M{displaystyle M} se dice que negativo-semidefinito o no positivo-definido si xTMx≤ ≤ 0{displaystyle x^{textsf {T}Mxleq 0} para todos x{displaystyle x} dentro Rn{displaystyle mathbb {R} {} {}} {fn}}. Formalmente,

Msemi-definido negativo⟺ ⟺ xTMx≤ ≤ 0para todosx▪ ▪ Rn{displaystyle M{text{ negative semi-definite}}quad iff quad mathbf {x} ^{textsf {T}}Mmathbf {x} leq 0{text{ for all }mathbf {x} in mathbb {R} } {n}} {} {n} {}}}}}}}}} {n}}}}}}}}} {n}}}}}}}}}}} {n}}}}}}}}}}}}}} {n}}}}}}}}}} {s}}}}}}}}}}}}}}} {n}}}}} {soy}}}}}}}}}} {soy}}}}}}}}}}}}}}}}}}}}}}} {soy}}}}}}}}}}}}}}}}}}}}}} {

An n× × n{displaystyle ntimes n} matriz real simétrica que no es ni semidefinido positivo ni semidefinido negativo se llama indefinidamente.

Definiciones de matrices complejas

Todas las definiciones siguientes incluyen el término xAlternativa Alternativa Mx{displaystyle mathbf {x} }Mmathbf {x}. Observe que este es siempre un número real para cualquier matriz cuadrada Hermitian M{displaystyle M}.

An n× × n{displaystyle ntimes n} Matriz compleja hermitiana M{displaystyle M} se dice que positivo-definido si 0}" xmlns="http://www.w3.org/1998/Math/MathML">xAlternativa Alternativa Mx■0{displaystyle mathbf {x} }Mmathbf {x} }0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/b2fdd001e3f3212591daa363156bd5c3cde43207" style="vertical-align: -0.338ex; width:10.579ex; height:2.343ex;"/> para todos los no cero x{displaystyle mathbf {x} dentro Cn{displaystyle mathbb {C} {n}}. Formalmente,

0{text{ for all }}mathbf {x} in mathbb {C} ^{n}setminus {mathbf {0} }}" xmlns="http://www.w3.org/1998/Math/MathML">Mpositivo-definido⟺ ⟺ xAlternativa Alternativa Mx■0para todosx▪ ▪ Cn∖ ∖ {}0}{displaystyle M{text{ positive-definite}}quad iff quad mathbf {x} ^{*}Mmathbf {x} } {text{ for all }mathbf {x} in mathbb {C} ^{n}setminus{mathbf {0}}} {}}}} {}}}}}}} {}}}}}}}} {}}}}}}}}} {}}} {}}}}}}}}}} {}}}} {} {}}}}}}} {f}}}}}}}}}}} {f}}}}} {f}}}}}}}}}}}}}} {f}}}} {f}}}} {f}}}} {f}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}0{text{ for all }}mathbf {x} in mathbb {C} ^{n}setminus {mathbf {0} }}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/96df9bbcb8bcd5c0668bbe9d51b2a8b400c35225" style="vertical-align: -0.838ex; width:61.297ex; height:2.843ex;"/>

An n× × n{displaystyle ntimes n} Matriz compleja hermitiana M{displaystyle M} se dice que semi-definido positivo o no negativo-definido si xAlternativa Alternativa Mx≥ ≥ 0{displaystyle x^{*}Mxgeq 0} para todos x{displaystyle x} dentro Cn{displaystyle mathbb {C} {n}}. Formalmente,

Msemi-definido positivo⟺ ⟺ xAlternativa Alternativa Mx≥ ≥ 0para todosx▪ ▪ Cn{displaystyle M{text{ positive semi-definite}}quad iff quad mathbf {x} ^{*}Mmathbf {x} geq 0{text{ for all }mathbf {x} in mathbb {C} }

An n× × n{displaystyle ntimes n} Matriz compleja hermitiana M{displaystyle M} se dice que negativo-definido si <math alttext="{displaystyle mathbf {x} ^{*}Mmathbf {x} xAlternativa Alternativa Mx.0{displaystyle mathbf {x} ^{*}Mmathbf {x} #<img alt="{displaystyle mathbf {x} ^{*}Mmathbf {x} para todos los no cero x{displaystyle mathbf {x} dentro Cn{displaystyle mathbb {C} {n}}. Formalmente,

<math alttext="{displaystyle M{text{ negative-definite}}quad iff quad mathbf {x} ^{*}Mmathbf {x} Mnegativo-definido⟺ ⟺ xAlternativa Alternativa Mx.0para todosx▪ ▪ Cn∖ ∖ {}0}{displaystyle M{text{ negative-definite}}quad iff quad mathbf {x} ^{*}Mmathbf {x} 0{text{ for all }mathbf {x} in mathbb {C} ^{n}setminus {mathbf {0}}<img alt="{displaystyle M{text{ negative-definite}}quad iff quad mathbf {x} ^{*}Mmathbf {x}

An n× × n{displaystyle ntimes n} Matriz compleja hermitiana M{displaystyle M} se dice que semi-definido negativo o no positivo-definido si xAlternativa Alternativa Mx≤ ≤ 0{displaystyle mathbf {x} ^{*}Mmathbf {x} leq 0} para todos x{displaystyle mathbf {x} dentro Cn{displaystyle mathbb {C} {n}}. Formalmente,

Msemi-definido negativo⟺ ⟺ xAlternativa Alternativa Mx≤ ≤ 0para todosx▪ ▪ Cn{displaystyle M{text{ negative semi-definite}}quad iff quad mathbf {x} ^{*}Mmathbf {x} leq 0{text{ for all }mathbf {x} in mathbb {C} } } {n}} {}} {} {}}}} {}}}} {}}}}}}}}}}}}}} {}}}}}}}}}}}} {}}}} {}}}}}}}} {}}}}} {

An n× × n{displaystyle ntimes n} matriz compleja hermitiana que no es semidefinido positivo ni semidefinido negativo se llama indefinidamente.

Coherencia entre definiciones reales y complejas

Dado que toda matriz real es también una matriz compleja, las definiciones de "definición" pues las dos clases deben concordar.

Para las matrices complejas, la definición más común dice que "M{displaystyle M} es positivo-definido si y sólo si zAlternativa Alternativa Mz{displaystyle mathbf {z}. es real y positivo para todos los no cero complejo vectores de columna z{displaystyle mathbf {z}". Esta condición implica que M{displaystyle M} es Hermitian (es decir, su transpose es igual a su conjugado). Para ver esto, considere las matrices A=12()M+MAlternativa Alternativa ){textstyle A={frac {2}left(M+M^{*}right)} y B=12i()M− − MAlternativa Alternativa ){textstyle B={frac {2i}left(M-M^{*}right)}Así que M=A+iB{displaystyle M=A+iB} y zAlternativa Alternativa Mz=zAlternativa Alternativa Az+izAlternativa Alternativa Bz{displaystyle mathbf {z} ^{*}Mmathbf {z} = 'mathbf {z} ^{*}Amathbf {z} ## Imathbf {z}.. Las matrices A{displaystyle A} y B{displaystyle B} Hermitian, por lo tanto zAlternativa Alternativa Az{displaystyle mathbf {z} ^{*}Amathbf {z} y zAlternativa Alternativa Bz{displaystyle mathbf {z}. son individualmente reales. Si zAlternativa Alternativa Mz{displaystyle mathbf {z}. es real, entonces zAlternativa Alternativa Bz{displaystyle mathbf {z}. debe ser cero para todos z{displaystyle mathbf {z}. Entonces... B{displaystyle B} es la matriz cero y M=A{displaystyle M=A., demostrando que M{displaystyle M} es Hermitian.

Por esta definición, un punto positivo real matriz M{displaystyle M} es hermitiano, por lo tanto simétrico; y zTMz{displaystyle mathbf {z} {T}Mmathbf {z} es positivo para todos los no cero real vectores de columna z{displaystyle mathbf {z}. Sin embargo, la última condición por sí sola no es suficiente M{displaystyle M} ser positivo-definido. Por ejemplo, si

M=[11− − 11],{displaystyle M={begin{bmatrix}1 coincidencia1-1 implica1end{bmatrix}}

entonces para cualquier vector real z{displaystyle mathbf {z} con entradas a{displaystyle a} y b{displaystyle b} tenemos zTMz=()a+b)a+()− − a+b)b=a2+b2{displaystyle mathbf {z} {textosf {T}Mmathbf {z} =left(a+bright)a+left(-a+bright)b=a^{2}+b^{2}, que siempre es positivo si z{displaystyle mathbf {z} no es cero. Sin embargo, si z{displaystyle mathbf {z} es el vector complejo con entradas 1{displaystyle 1} y i{displaystyle i}, uno se pone

zAlternativa Alternativa Mz=[1− − i]M[1i]=[1+i1− − i][1i]=2+2i{fn} {f} {f}}m}begin{bmatrix}1iend{bmatrix}={bmatrix}} {begin{bmatrix}1iiend{itrix}={itrix}}= {i}= {b}}} {b}}} {b} {b} {b}} {b}}}} {b}}}}}}}}}}} {b} {b}}}}} {b} {i} {b}}}}}}}}}}}}}}}}}} {i}}}}} {i} {b}} {b} {b} {b}b}}}b}b}b}}}}}}}}}}b} {b}b}}}}}b} {i}b}b}b}}}}}

que no es real. Por lo tanto, M{displaystyle M} no es positivo-definido.

Por otro lado, por un simétrica matriz real M{displaystyle M}, la condición "0}" xmlns="http://www.w3.org/1998/Math/MathML">zTMz■0{displaystyle mathbf {z} {T}Mmathbf {z} }0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/e7e44a66cbd191c486734b673a1dcc7d6aea163a" style="vertical-align: -0.338ex; width:10.431ex; height:2.676ex;"/> para todos los vectores no cero reales z{displaystyle mathbf {z}" ¿Sí? implicación M{displaystyle M} es positivo-definido en el sentido complejo.

Notación

Si una matriz hermitiana M{displaystyle M} es semi-definido positivo, uno a veces escribe M⪰ ⪰ 0{displaystyle Msucceq 0} y si M{displaystyle M} es positivo-definido uno escribe M≻ ≻ 0{displaystyle Msucc 0}. To denote that M{displaystyle M} es negativo semi-definido uno escribe M⪯ ⪯ 0{displaystyle Mpreceq 0} y denotar que M{displaystyle M} es negativo-definido uno escribe M≺ ≺ 0{displaystyle Mprec 0}.

La noción viene del análisis funcional donde matrices semidefinidas positivas definen operadores positivos. Si dos matrices A{displaystyle A} y B{displaystyle B} satisfacer satisfacción B− − A⪰ ⪰ 0{displaystyle B-Asucceq 0}, podemos definir un orden parcial no restringido B⪰ ⪰ A{displaystyle Bsucceq A} que es reflexivo, antisimétrico y transitivo; No es un orden total, sin embargo, como B− − A{displaystyle B-A} en general puede ser indefinida.

Una notación alternativa común M≥ ≥ 0{displaystyle Mgeq 0}, 0}" xmlns="http://www.w3.org/1998/Math/MathML">M■0{displaystyle M confidencial0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/a7f423ab77b3411ec2803520a07c0dfae6ceb826" style="vertical-align: -0.338ex; width:6.703ex; height:2.176ex;"/>, M≤ ≤ 0{displaystyle Mleq 0} y <math alttext="{displaystyle MM.0{displaystyle - ¿Sí?<img alt="{displaystyle M para matrices semi-definidas y positivas-definidas, negativas semi-definidas y negativas-definidas, respectivamente. Esto puede ser confuso, ya que a veces las matrices no negativas (respectivamente, matrices no positivas) también se denotan de esta manera.

Ejemplos

  • La matriz de identidad I=[1001]{displaystyle I={begin{bmatrix}1 {0}}} es positivo-definido (y como tal también positivo semi-definido). Es una matriz simétrica real, y, para cualquier vector de columna no cero z con entradas reales a y b, uno tiene

    zTIz=[ab][1001][ab]=a2+b2.{displaystyle mathbf {z} {T}Imathbf {z} ={begin{bmatrix}a Damebend{bmatrix}{begin{bmatrix}1 {0}{bmatrix} {begin{bmatrix}abend{bmatrix}}}}}=a^{2}+b}{2}}} {b}}}} {bbb}bbbbbbbbbbbbbbbbbbbbbbb.
    Visto como una matriz compleja, para cualquier vector de columna no cero z con entradas complejas a y b uno tiene
    zAlternativa Alternativa Iz=[ā ̄ b̄ ̄ ][1001][ab]=ā ̄ a+b̄ ̄ b=SilencioaSilencio2+SilenciobSilencio2.{displaystyle mathbf {z} {begin{bmatrix}{begin{bmatrix}{overline {a} {b}end{bmatrix}}{begin{bmatrix}1 limit0}{bmatrix} {begin{bmatrix}} {bbegin} {begin} {bend{bbend=0trix}=0} {bbb}=0} {begin}{begin} {betrix} {begin} {bbb} {b}}}}}} {begin}} {begin}}}} {begin} {begin} {begin}}}}} {b}}} {b}}}}}}}}}}}}}}}}}}}}}}{}}}}}}} {begin {begin} {bbbegin {bbbb} {a}a+{overline {b}b=viva eterna^{2}+Principio de la muerte.}

    De cualquier manera, el resultado es positivo desde z{displaystyle mathbf {z} no es el vector cero (es decir, al menos uno de a{displaystyle a} y b{displaystyle b} no es cero).
  • La matriz simétrica real
    M=[2− − 10− − 12− − 10− − 12]{displaystyle M={begin{bmatrix}2 ventaja-1 0-1 3 3 0 3 0 3 0 3 0 3 2end{bmatrix}}
    es positivo-definido ya que para cualquier vector de columna no cero z con entradas a, b y c, tenemos
    zTMz=()zTM)z=[()2a− − b)()− − a+2b− − c)()− − b+2c)][abc]=()2a− − b)a+()− − a+2b− − c)b+()− − b+2c)c=2a2− − ba− − ab+2b2− − cb− − bc+2c2=2a2− − 2ab+2b2− − 2bc+2c2=a2+a2− − 2ab+b2+b2− − 2bc+c2+c2=a2+()a− − b)2+()b− − c)2+c2{displaystyle {begin{aligned}mathbf {z} {textosf {T}Mmathbf {z} =left(mathbf {z} {textosf {2} {2} {2} {2} {2}
    Este resultado es una suma de cuadrados, y por lo tanto no negativo; y es cero sólo si a=b=c=0{displaystyle a=b=c=0}, es decir, cuando z es el vector cero.
  • Para cualquier matriz invertible real A{displaystyle A}, el producto ATA{displaystyle A^{textsf}A} es una matriz definida positiva (si los medios de las columnas de A son 0, entonces esto también se llama la matriz de covariancia). Una prueba simple es que para cualquier vector no cero z{displaystyle mathbf {z}, la condición 0,}" xmlns="http://www.w3.org/1998/Math/MathML">zTATAz=()Az)T()Az)=.. Az.. 2■0,{displaystyle mathbf {z} {T}A^{textsf {T}Amathbf {z} =(Amathbf {z})^{textsf {T}(Amathbf {z})= eternaAmathbf {z} "Sobrevivir" {2} {0]0,}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/5d5e4b003cd8e0e0dc31e54fc84bdd45ec667cd5" style="vertical-align: -0.838ex; width:36.812ex; height:3.176ex;"/> desde la invertibilidad de la matriz A{displaystyle A} significa que Azل ل 0.{displaystyle Amathbf {z} neq 0.}
  • El ejemplo M{displaystyle M} arriba muestra que una matriz en la que algunos elementos son negativos puede ser todavía positiva definida. Por el contrario, una matriz cuyas entradas son todas positivas no es necesariamente positiva definida, como por ejemplo
    N=[1221],{displaystyle N={begin{bmatrix}1 tendría222end{bmatrix}}
    para la cual <math alttext="{displaystyle {begin{bmatrix}-1&1end{bmatrix}}N{begin{bmatrix}-1&1end{bmatrix}}^{textsf {T}}=-2[− − 11]N[− − 11]T=− − 2.0.{displaystyle {begin{bmatrix}1end{bmatrix}N{begin{bmatrix}-1 implica1end{bmatrix}}{textsf {T}=-2 se hizo.}<img alt="{displaystyle {begin{bmatrix}-1&1end{bmatrix}}N{begin{bmatrix}-1&1end{bmatrix}}^{textsf {T}}=-2

Valores propios

Vamos M{displaystyle M} ser un n× × n{displaystyle ntimes n} Matriz hermitiana (esto incluye matrices simétricas reales). Todos los eigenvalues de M{displaystyle M} son reales, y su signo caracteriza su determinación:

Vamos PDP− − 1{displaystyle PDP^{-1} ser una eigendecomposición de M{displaystyle M}, donde P{displaystyle P} es una matriz compleja unitaria cuyas columnas comprenden una base ortonormal de los eigenvectores de M{displaystyle M}, y D{displaystyle D} es un real matriz diagonal cuya diagonal principal contiene los eigenvalues correspondientes. La matriz M{displaystyle M} puede considerarse como una matriz diagonal D{displaystyle D} que ha sido reexpresado en coordenadas de la base (eigenvectores) P{displaystyle P}. Ponga diferente, aplicando M{displaystyle M} a algún vector z, dar Mz, es el mismo que cambiar la base al sistema de coordenadas eigenvector utilizando P−1, dar P−1z, aplicando la transformación de estiramiento D al resultado, dando DP−1z, y luego cambiar la base de nuevo utilizando P, dar PDP−1z.

Con esto en mente, el único cambio de variable Sí.=Pz{displaystyle mathbf {y} =Pmathbf {z} muestra que zAlternativa Alternativa Mz{displaystyle mathbf {z}. es real y positivo para cualquier vector complejo z{displaystyle mathbf {z} si Sí.Alternativa Alternativa DSí.{displaystyle mathbf {y} {f}fn} es real y positivo para cualquier Sí.{displaystyle y}; en otras palabras, si D{displaystyle D} es positivo. Para una matriz diagonal, esto es verdad sólo si cada elemento de la diagonal principal - es decir, cada valor de eigen M{displaystyle M}- es positivo. Dado que el teorema espectral garantiza que todos los valores eigenales de una matriz hermitiana sean reales, la positividad de los eigenvalues se puede comprobar utilizando la regla de Descartes de signos alternantes cuando el polinomio característico de una matriz real, simétrica M{displaystyle M} está disponible.

Descomposición

Vamos M{displaystyle M} ser un n× × n{displaystyle ntimes n} Matriz hermitiana. M{displaystyle M} es semidefinido positivo si y sólo si puede ser descompuesto como un producto

M=BAlternativa Alternativa B{displaystyle M=B^{*}B}
B{displaystyle B}

Cuando M{displaystyle M} es real, B{displaystyle B} puede ser real también y la descomposición se puede escribir como

M=BTB.{displaystyle M=B^{textsf B.

M{displaystyle M} es positivo definido si y sólo si existe tal descomposición con B{displaystyle B} invertible. Más generalmente, M{displaystyle M} es semidefinido positivo con rango k{displaystyle k} si y sólo si existe una descomposición k× × n{displaystyle ktimes n} matriz B{displaystyle B} de fila completa (es decir, de rango k{displaystyle k}). Además, para cualquier descomposición M=BAlternativa Alternativa B{displaystyle M=B^{*}B}, rango⁡ ⁡ ()M)=rango⁡ ⁡ ()B){displaystyle operatorname {rank} (M)=operatorname {rank} (B)}.

Prueba

Si M=BAlternativa Alternativa B{displaystyle M=B^{*}B}, entonces xAlternativa Alternativa Mx=()xAlternativa Alternativa BAlternativa Alternativa )()Bx)=.. Bx.. 2≥ ≥ 0{displaystyle x^{*}Mx=(x^{*}B^{*}(Bx)= AnteriorBx WordPress^{2}geq 0}Así que M{displaystyle M} es semidefinido positivo. Si más B{displaystyle B} es invertible entonces la desigualdad es estricta xل ل 0{displaystyle xneq 0}Así que M{displaystyle M} es positivo. Si B{displaystyle B} es k× × n{displaystyle ktimes n} de rango k{displaystyle k}, entonces rango⁡ ⁡ ()M)=rango⁡ ⁡ ()BAlternativa Alternativa )=k{displaystyle operatorname {rank} (M)=operatorname {rank} (B^{*}=k}.

En la otra dirección, supongamos M{displaystyle M} es semidefinido positivo. Desde M{displaystyle M} es Hermitian, tiene una eigendecomposición M=Q− − 1DQ{displaystyle M=Q^{-1}DQ} Donde Q{displaystyle Q} es unitario y D{displaystyle D} es una matriz diagonal cuyas entradas son los eigenvalues de M{displaystyle M}Desde M{displaystyle M} es semidefinido positivo, los eigenvalues son números reales no negativos, por lo que uno puede definir D12{displaystyle D^{frac {1}{2}}} como matriz diagonal cuyas entradas son raíces cuadradas no negativas de eigenvalues. Entonces... M=Q− − 1DQ=QAlternativa Alternativa DQ=QAlternativa Alternativa D12D12Q=QAlternativa Alternativa D12Alternativa Alternativa D12Q=BAlternativa Alternativa B{displaystyle M=Q^{-1}DQ=Q^{*}DQ=Q^{*}D^{frac {1}{2}D^{frac} {2}Q=Q^{}D^{{frac} {1}{2}*}D^{frac} {1}{2}Q=B^{*}B} para B=D12Q{displaystyle B=D^{frac {1}{2}Q}. Si más M{displaystyle M} es positivo, entonces los eigenvalues son (strictamente) positivos, por lo que D12{displaystyle D^{frac {1}{2}}} es invertible, y por lo tanto B=D12Q{displaystyle B=D^{frac {1}{2}Q} es invertible también. Si M{displaystyle M} tiene rango k{displaystyle k}, entonces tiene exactamente k{displaystyle k} eigenvalues positivos y los otros son cero, por lo tanto B=D12Q{displaystyle B=D^{frac {1}{2}Q} todo pero k{displaystyle k} Las filas están a cero. Cortar las filas cero da un k× × n{displaystyle ktimes n} matriz B.{displaystyle B' tales que B.Alternativa Alternativa B.=BAlternativa Alternativa B=M{displaystyle B'^{*}B'=B^{*}B=M}.

Las columnas b1,...... ,bn{displaystyle b_{1},dots B_{n} de B{displaystyle B} se puede ver como vectores en el espacio vectorial complejo o real Rk{displaystyle mathbb {R} {cH00}, respectivamente. Entonces las entradas de M{displaystyle M} son productos interiores (es decir, productos de punto, en el caso real) de estos vectores

Mij=.. bi,bj.. .{displaystyle M_{ij}=langle - Sí.
M{displaystyle M}b1,...... ,bn{displaystyle b_{1},dots B_{n}b1,...... ,bn{displaystyle b_{1},dots B_{n}

Unicidad hasta transformaciones unitarias

La descomposición no es única: si M=BAlternativa Alternativa B{displaystyle M=B^{*}B} para algunos k× × n{displaystyle ktimes n} matriz B{displaystyle B} y si Q{displaystyle Q} es cualquier unidad k× × k{displaystyle ktimes k} matriz QAlternativa Alternativa Q=QQAlternativa Alternativa =I{displaystyle Q^{*}Q=Q^{*}=I}), entonces M=BAlternativa Alternativa B=BAlternativa Alternativa QAlternativa Alternativa QB=AAlternativa Alternativa A{displaystyle M=B^{*}B=B^{*}Q^{*}QB=A^{*}A} para A=QB{displaystyle A=QB}.

Sin embargo, esta es la única manera en que dos descomposiciones pueden diferir: la descomposición es única hasta transformaciones unitarias. Más formal, si A{displaystyle A} es un k× × n{displaystyle ktimes n} matriz B{displaystyle B} es un l l × × n{displaystyle ell times n} matriz tal que AAlternativa Alternativa A=BAlternativa Alternativa B{displaystyle A^{*}A=B^{*}B}, entonces hay un l l × × k{displaystyle ell times k} matriz Q{displaystyle Q} con columnas ortonormales QAlternativa Alternativa Q=Ik× × k{displaystyle Q^{*}Q=I_{ktimes k}. B=QA{displaystyle B=QA}. Cuando l l =k{displaystyle ell =k} Esto significa Q{displaystyle Q} es unitario.

Esta declaración tiene una interpretación geométrica intuitiva en el caso real: dejar las columnas de A{displaystyle A} y B{displaystyle B} ser los vectores a1,...... ,an{displaystyle a_{1},dotsa_{n} y b1,...... ,bn{displaystyle b_{1},dots B_{n} dentro Rk{displaystyle mathbb {R} {cH00}. Una matriz unitaria real es una matriz ortogonal, que describe una transformación rígida (una isometría del espacio euclidiano Rk{displaystyle mathbb {R} {cH00}) preservando el punto 0 (es decir, rotaciones y reflexiones, sin traducciones). Por lo tanto, los productos de punto ai⋅ ⋅ aj{displaystyle a_{i}cdot A_{j} y bi⋅ ⋅ bj{displaystyle B_{i}cdot B_{j} son iguales si y sólo si alguna transformación rígida Rk{displaystyle mathbb {R} {cH00} transforma los vectores a1,...... ,an{displaystyle a_{1},dotsa_{n} a b1,...... ,bn{displaystyle b_{1},dots B_{n} (y 0 a 0).

Raíz cuadrada

Una matriz M{displaystyle M} es semidefinido positivo si y sólo si hay una matriz semidefinida positiva B{displaystyle B} (en particular) B{displaystyle B} es Hermitian, así que BAlternativa Alternativa =B{displaystyle B^{*}=B}) satisfactoria M=BB{displaystyle MBB=. Esta matriz B{displaystyle B} es único, se llama el raíz cuadrada no negativa de M{displaystyle M}, y se denota con B=M12{displaystyle B=M^{frac {1}{2}}}. Cuando M{displaystyle M} es positivo definido, así que M12{displaystyle M^{frac {1}{2}}}, por lo tanto se llama también raíz cuadrada positiva de M{displaystyle M}.

La raíz cuadrada no negativa no debe confundirse con otras descomposiciones M=BAlternativa Alternativa B{displaystyle M=B^{*}B}. Algunos autores utilizan el nombre raíz cuadrada y M12{displaystyle M^{frac {1}{2}}} para tal descomposición, o específicamente para la descomposición de Cholesky, o cualquier descomposición de la forma M=BB{displaystyle MBB=; otros sólo lo usan para la raíz cuadrada no negativa.

Si N>0}" xmlns="http://www.w3.org/1998/Math/MathML">M■N■0{displaystyle M confidencialN confianza0}N>0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/633e713c2d4db66d30057135e8454c82b6443196" style="vertical-align: -0.338ex; width:11.865ex; height:2.176ex;"/> entonces N^{frac {1}{2}}>0}" xmlns="http://www.w3.org/1998/Math/MathML">M12■N12■0{displaystyle M^{frac {1}{2} {fnK} {1}{2} {0}}N^{frac {1}{2}}>0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/520cd6e97a2ea5774867316cf40b7e02a3518260" style="vertical-align: -0.338ex; width:15.453ex; height:3.509ex;"/>.

Descomposición de Cholesky

Una matriz semidefinida positiva M{displaystyle M} puede ser escrito como M=LLAlternativa Alternativa {displaystyle M=LL^{*}, donde L{displaystyle L. es triangular inferior con diagonal no negativo (equivalentemente M=BAlternativa Alternativa B{displaystyle M=B^{*}B} Donde B=LAlternativa Alternativa {displaystyle B=L^{*} es triangular superior); esta es la descomposición de Cholesky. Si M{displaystyle M} es positivo definido, entonces la diagonal de L{displaystyle L. es positivo y la descomposición de Cholesky es única. Inversamente si L{displaystyle L. es triangular inferior con diagonal no negativo entonces L{displaystyle L. es semidefinido positivo. La descomposición Cholesky es especialmente útil para cálculos numéricos eficientes. Una descomposición estrechamente relacionada es la descomposición LDL, M=LDLAlternativa Alternativa {displaystyle M=LDL^{*}, donde D{displaystyle D} es diagonal y L{displaystyle L. es un unitriangular inferior.

Otras caracterizaciones

Vamos M{displaystyle M} ser un n× × n{displaystyle ntimes n} matriz simétrica real, y dejar B1()M):={}x▪ ▪ Rn:xTMx≤ ≤ 1}{displaystyle B_{1}(M):={xin mathbb - Sí. ser la "bola única" definida por M{displaystyle M}. Entonces tenemos lo siguiente

Vamos M{displaystyle M} ser un n× × n{displaystyle ntimes n} Matriz hermitiana. Las siguientes propiedades son equivalentes a M{displaystyle M} ser positivo definido:

La forma sesquilinear asociada es un producto interno
La forma sesquilinear definida por M{displaystyle M} es la función .. ⋅ ⋅ ,⋅ ⋅ .. {displaystyle langle cdotcdot rangle } desde Cn× × Cn{displaystyle mathbb {C}n}times mathbb {C} a Cn{displaystyle mathbb {C} {n}} tales que .. x,Sí... :=Sí.Alternativa Alternativa Mx{displaystyle langle x,yrangle:=y^{*} Mx! para todos x{displaystyle x} y Sí.{displaystyle y} dentro Cn{displaystyle mathbb {C} {n}}, donde Sí.Alternativa Alternativa {displaystyle y^{*} es la transposición conyugal Sí.{displaystyle y}. Para cualquier matriz compleja M{displaystyle M}, esta forma es lineal en x{displaystyle x} y semilinear en Sí.{displaystyle y}. Por lo tanto, la forma es un producto interno en Cn{displaystyle mathbb {C} {n}} si .. z,z.. {displaystyle langle z,zrangle } es real y positivo para todos los no cero z{displaystyle z}; eso es si y sólo si M{displaystyle M} es positivo. (De hecho, cada producto interno en Cn{displaystyle mathbb {C} {n}} surge de esta manera de una matriz definida positiva Hermitian.)
Sus principales menores son todos positivos
El kth principal menor de una matriz M{displaystyle M} es el determinante de su izquierda superior k× × k{displaystyle ktimes k} sub-matrix. Resulta que una matriz es positiva definida si y sólo si todos estos determinantes son positivos. Esta condición se conoce como criterio de Sylvester, y proporciona una prueba eficiente de la definición positiva de una matriz real simétrica. Es decir, la matriz se reduce a una matriz triangular superior mediante el uso de operaciones de filas elementales, como en la primera parte del método de eliminación gausiana, cuidando de preservar el signo de su determinante durante el proceso pivotante. Desde kth principal menor de una matriz triangular es el producto de sus elementos diagonales hasta la fila k{displaystyle k}, el criterio de Sylvester es equivalente a comprobar si sus elementos diagonales son todos positivos. Esta afección se puede revisar cada vez una nueva fila k{displaystyle k} de la matriz triangular se obtiene.

Una matriz semidefinida positiva es definitiva positiva si y sólo si es invertible. Una matriz M{displaystyle M} es negativo (semi)definido si y sólo si − − M{displaystyle - Sí. es positivo (semi)definido.

Formas cuadráticas

La forma cuadrática (puramente) asociada a un real n× × n{displaystyle ntimes n} matriz M{displaystyle M} es la función Q:Rn→ → R{displaystyle Q:mathbb {R} ^{n}to mathbb {R} tales que Q()x)=xTMx{displaystyle Q(x)=x^{textsf {T}Mx} para todos x{displaystyle x}. M{displaystyle M} puede ser asumido simétrico por reemplazarlo 12()M+MT){displaystyle {tfrac {2}left(M+M^{textsf {T}right)}.

Una matriz simétrica M{displaystyle M} es positivo definido si y sólo si su forma cuadrática es una función estrictamente convexa.

Más generalmente, cualquier función cuadrática de Rn{displaystyle mathbb {R} {} {}} {fn}} a R{displaystyle mathbb {R} puede ser escrito como xTMx+xTb+c{displaystyle x^{textsf Mx+x^{textsf {T}b+c} Donde M{displaystyle M} es un simétrico n× × n{displaystyle ntimes n} matriz b{displaystyle b} es un verdadero n{displaystyle n}-vector, y c{displaystyle c} una constante real. En el n=1{displaystyle n=1} caso, esto es una parabola, y como en el n=1{displaystyle n=1} Case, tenemos

Teorema: Esta función cuadrática es estrictamente convexa, y por lo tanto tiene un mínimo global finito único, si y sólo si M{displaystyle M} es positivo.

Prueba: Si M{displaystyle M} es positivo definido, entonces la función es estrictamente convexa. Su gradiente es cero en el punto único M− − 1b{displaystyle M^{-1}b}, que debe ser el mínimo global ya que la función es estrictamente convexa. Si M{displaystyle M} no es positivo definido, entonces existe algún vector v{displaystyle v} tales que vTMv≤ ≤ 0{displaystyle v^{T}Mvleq 0}, por lo que la función f()t):=()vt)TM()vt)+bt()vt)+c{displaystyle f(t):=(vt)}{T}M(vt)+b^{t}(vt)+c} es una línea o una parabola descendente, por lo tanto no es estrictamente convexo y no tiene un mínimo global.

Por esta razón, las matrices definidas positivas juegan un papel importante en los problemas de optimización.

Diagonalización simultánea

Una matriz simétrica y otra matriz que es a la vez simétrica y definida positiva se pueden diagonalizar simultáneamente. Esto es así aunque la diagonalización simultánea no se realiza necesariamente con una transformación de semejanza. Este resultado no se extiende al caso de tres o más matrices. En esta sección escribimos para el caso real. La extensión al caso complejo es inmediata.

Vamos M{displaystyle M} ser simétrico y N{displaystyle N} una matriz definida simétrica y positiva. Escribe la ecuación eigenvalue generalizada ()M− − λ λ N)x=0{displaystyle left(M-lambda Nright)mathbf {x} =0} donde imponemos eso x{displaystyle x} ser normalizado, es decir. xTNx=1{displaystyle mathbf {x} {T}Nmathbf {x} =1}. Ahora utilizamos la descomposición de Cholesky para escribir el inverso de N{displaystyle N} como QTQ{displaystyle Q^{textsf}Q}. Multiplying by Q{displaystyle Q} y dejar x=QTSí.{displaystyle mathbf {x} =Q^{textsf {T}mathbf {y}, tenemos Q()M− − λ λ N)QTSí.=0{displaystyle Qleft(M-lambda Nright)Q^{textsf {T}mathbf {y} =0}, que puede ser reescrito como ()QMQT)Sí.=λ λ Sí.{displaystyle left(QMQ^{textsf {T}right)mathbf {y} =lambda mathbf {y} Donde Sí.TSí.=1{displaystyle mathbf {y} {textosf {T}Mathbf {y} =1}. La manipulación ahora produce MX=NX▪ ▪ {displaystyle MX=NXLambda} Donde X{displaystyle X} es una matriz que tiene como columnas los eigenvectores generalizados y ▪ ▪ {displaystyle Lambda } es una matriz diagonal de los eigenvalues generalizados. Ahora premultiplicación con XT{displaystyle X^{textsf}} da el resultado final: XTMX=▪ ▪ {displaystyle X^{textsf {T}MX=Lambda } y XTNX=I{displaystyle X^{textsf}NX=I}, pero note que esto ya no es una diagonalización ortogonal con respecto al producto interior donde Sí.TSí.=1{displaystyle mathbf {y} {textosf {T}Mathbf {y} =1}. De hecho, diagonalizamos M{displaystyle M} con respecto al producto interno inducido por N{displaystyle N}.

Tenga en cuenta que este resultado no contradice lo que se dice sobre la diagonalización simultánea en el artículo Matriz diagonalizable, que se refiere a la diagonalización simultánea por una transformación de similitud. Nuestro resultado aquí es más parecido a una diagonalización simultánea de dos formas cuadráticas y es útil para la optimización de una forma bajo las condiciones de la otra.

Propiedades

Pedido parcial inducido

Para matrices cuadradas arbitrarias M{displaystyle M}, N{displaystyle N} Escribimos M≥ ≥ N{displaystyle Mgeq N} si M− − N≥ ≥ 0{displaystyle M-Ngeq 0} i.e., M− − N{displaystyle M-N. es semi-definido positivo. Esto define una orden parcial en el conjunto de todas las matrices cuadradas. Uno puede definir igualmente un estricto orden parcial N}" xmlns="http://www.w3.org/1998/Math/MathML">M■N{displaystyle M]N}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/e68c94f6aa76debb5df6454737cb14c203ab7891" style="vertical-align: -0.338ex; width:7.604ex; height:2.176ex;"/>. La orden se llama la orden de Loewner.

Inverso de matriz definida positiva

Cada matriz definida positiva es invertible y su inverso es también positivo definido. Si 0}" xmlns="http://www.w3.org/1998/Math/MathML">M≥ ≥ N■0{displaystyle Mgeq N confiar00}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/13476d7e933aa21c72b8bcea43628a6741369805" style="vertical-align: -0.505ex; width:11.865ex; height:2.343ex;"/> entonces 0}" xmlns="http://www.w3.org/1998/Math/MathML">N− − 1≥ ≥ M− − 1■0{displaystyle N^{-1}geq M^{-1} confía0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/380689bc555aca5b9990496a41addf7b82ebad4a" style="vertical-align: -0.505ex; width:16.647ex; height:2.843ex;"/>. Además, por el teorema min-max, el kt mayor eigenvalue de M{displaystyle M} es mayor que el kt mayor eigenvalue de N{displaystyle N}.

Escalado

Si M{displaystyle M} es definitivo positivo 0}" xmlns="http://www.w3.org/1998/Math/MathML">r■0{displaystyle r] 0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/23cbbcd53bd13620bc53490e3eec42790850b452" style="vertical-align: -0.338ex; width:5.31ex; height:2.176ex;"/> es un número real, entonces rM{displaystyle rM} es positivo.

Adición

Multiplicación

Rastrear

Las entradas diagonales mii{displaystyle m_{ii} de una matriz positiva-semidefinita son reales y no negativas. Como consecuencia del rastro, tr⁡ ⁡ ()M)≥ ≥ 0{displaystyle operatorname {tr} (M)geq 0}. Además, dado que cada submatrix principal (en particular, 2 por 2) es semidefinido positivo,

SilenciomijSilencio≤ ≤ miimjjО О i,j{displaystyle left habitm_{ij}right WordPressleq {fnK} {fn}fnK}fnK}fnK} ################################################################################################################################################################################################################################################################

y así, cuando n≥ ≥ 1{displaystyle ngeq 1},

maxi,jSilenciomijSilencio≤ ≤ maximii{displaystyle max _{i,j}left habitm_{ij}right WordPressleq max _{i}m_{ii}

An n× × n{displaystyle ntimes n} Matriz ermitiana M{displaystyle M} es positivo si satisface las siguientes desigualdades:

0quad mathrm {and} quad {frac {(operatorname {tr} (M))^{2}}{operatorname {tr} (M^{2})}}>n-1.}" display="block" xmlns="http://www.w3.org/1998/Math/MathML">tr⁡ ⁡ ()M)■0and()tr⁡ ⁡ ()M))2tr⁡ ⁡ ()M2)■n− − 1.{displaystyle operatorname {tr} (M) confianza0quad mathrm {and} quad {frac {operatorname {tr} (M)}{2}{operatorname {tr}}}}}} {}} {}} {}}} {}}}}}}} {}}}}} {
0quad mathrm {and} quad {frac {(operatorname {tr} (M))^{2}}{operatorname {tr} (M^{2})}}>n-1.}" aria-hidden="true" class="mwe-math-fallback-image-display" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/8c22459f2da7f84d26f04e32fd7f54ba9f5124de" style="vertical-align: -2.671ex; width:37.632ex; height:6.676ex;"/>

Otro resultado importante es que para cualquier M{displaystyle M} y N{displaystyle N} matrices positivas y definitivas, tr⁡ ⁡ ()MN)≥ ≥ 0{displaystyle operatorname {tr} (MN)geq 0}

Producto Hadamard

Si M,N≥ ≥ 0{displaystyle M,Ngeq 0}, aunque MN{displaystyle MN. no es necesario semidefinido positivo, el producto Hadamard es, M∘ ∘ N≥ ≥ 0{displaystyle Mcirc Ngeq 0} (este resultado se llama a menudo el teorema de productos Schur).

Con respecto al producto Hadamard de dos matrices semidefinidas positivas M=()mij)≥ ≥ 0{displaystyle M=(m_{ij}geq 0}, N≥ ≥ 0{displaystyle Ngeq 0}, hay dos desigualdades notables:

Producto Kronecker

Si M,N≥ ≥ 0{displaystyle M,Ngeq 0}, aunque MN{displaystyle MN. no es necesario semidefinido positivo, el producto Kronecker M⊗ ⊗ N≥ ≥ 0{displaystyle Motimes Ngeq 0}.

Producto Frobenius

Si M,N≥ ≥ 0{displaystyle M,Ngeq 0}, aunque MN{displaystyle MN. no es necesario semidefinido positivo, el producto interior Frobenius M:N≥ ≥ 0{displaystyle M:Ngeq 0} (Lancaster-Tismenetsky, The The The Theory of Matrices, pág. 218).

Convexidad

El conjunto de matrices simétricas semidefinidas positivas es convex. Eso es, si M{displaystyle M} y N{displaystyle N} son positivos semidefinidos, entonces para cualquier α α {displaystyle alpha } entre 0 y 1, α α M+()1− − α α )N{displaystyle alpha M+left(1-alpha right)N} es también semidefinido positivo. Para cualquier vector x{displaystyle mathbf {x}:

xT()α α M+()1− − α α )N)x=α α xTMx+()1− − α α )xTNx≥ ≥ 0.{displaystyle mathbf {x} ^{textsf {T}left(alpha M+left(1-alpha right)Nright)mathbf {x} =alpha mathbf {x} ^{textsf {T}}Mmathbf {x} +(1-bfax) {T}Nmathbf {x} geq 0.}

Esta propiedad garantiza que los problemas de programación semidefinidos converjan a una solución óptima global.

Relación con el coseno

La definición positiva de una matriz A{displaystyle A} expresa que el ángulo Silencio Silencio {displaystyle theta } entre cualquier vector x{displaystyle mathbf {x} y su imagen Ax{displaystyle Amathbf {x} Siempre <math alttext="{displaystyle -pi /2<theta − − π π /2.Silencio Silencio .+π π /2{displaystyle - 'pi /2'<img alt="{displaystyle -pi /2<theta :

#⁡ ⁡ Silencio Silencio =xTAx.. x.. .. Ax.. =.. x,Ax.. .. x.. .. Ax.. ,Silencio Silencio =Silencio Silencio ()x,Ax)=x,Ax^ ^ =el ángulo entrexyAx{displaystyle cos theta ={mathbf {x} }Amathbf {x} {l} {l} Vert mathbf {x} rVert lVert Amathbf {x} rVert }={frac {langle mathbf {x}Amathbf {x} rangle }{langle Vert mathbf {x} rVert lVert Amathbf {x} rVert },theta =theta (mathbf {x}Amathbf {x})= {mathbf {x}Amathbf {x} {x}={b} {f}

Otras propiedades

  1. Si M{displaystyle M} es una matriz simétrica de Toeplitz, es decir, las entradas mij{displaystyle # se dan como función de sus diferencias índice absoluto: mij=h()Silencioi− − jSilencio){displaystyle m_{ij}=h(Principi-j habit)}, y el estricto desigualdad <math alttext="{textstyle sum _{jneq 0}left|h(j)right|.. jل ل 0Silencioh()j)Silencio.h()0){textstyle sum _{jneq 0}left sometidah(j)right supuestamenteh(0)}<img alt="{textstyle sum _{jneq 0}left|h(j)right| sostiene, entonces M{displaystyle M} es estrictamente estricta positivo definido.
  2. Vamos 0}" xmlns="http://www.w3.org/1998/Math/MathML">M■0{displaystyle M confidencial0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/a7f423ab77b3411ec2803520a07c0dfae6ceb826" style="vertical-align: -0.338ex; width:6.703ex; height:2.176ex;"/> y N{displaystyle N} Hermitian. Si MN+NM≥ ≥ 0{displaystyle MN+NMgeq 0} (resp., 0}" xmlns="http://www.w3.org/1998/Math/MathML">MN+NM■0{displaystyle MN+NM confía0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/634a4205a5019cbf8ea13423c5100e17fa8a8ec5" style="vertical-align: -0.505ex; width:16.113ex; height:2.343ex;"/>entonces N≥ ≥ 0{displaystyle Ngeq 0} (resp., 0}" xmlns="http://www.w3.org/1998/Math/MathML">N■0{displaystyle N confiar0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/6b5e672f875388753faa233a18e9f2cf1275aaa4" style="vertical-align: -0.338ex; width:6.325ex; height:2.176ex;"/>).
  3. Si 0}" xmlns="http://www.w3.org/1998/Math/MathML">M■0{displaystyle M confidencial0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/a7f423ab77b3411ec2803520a07c0dfae6ceb826" style="vertical-align: -0.338ex; width:6.703ex; height:2.176ex;"/> es real, entonces hay un 0}" xmlns="http://www.w3.org/1998/Math/MathML">δ δ ■0{displaystyle delta >0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/595d5cea06fdcaf2642caf549eda2cfc537958a9" style="vertical-align: -0.338ex; width:5.31ex; height:2.343ex;"/> tales que delta I}" xmlns="http://www.w3.org/1998/Math/MathML">M■δ δ I{displaystyle M confidencialdelta Yo...delta I}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/5d7b1f4f91d3663a5cd7ed827471aecdfa3fd953" style="vertical-align: -0.338ex; width:7.761ex; height:2.343ex;"/>, donde I{displaystyle Yo... es la matriz de identidad.
  4. Si Mk{displaystyle M_{k} denota el liderazgo k× × k{displaystyle ktimes k} menor, Det()Mk)/Det()Mk− − 1){displaystyle det left(M_{k}right)/det left(M_{k-1}right)} es kto pivot during LU decomposition.
  5. Una matriz es negativa definida si k-el orden principal menor es negativo cuando k{displaystyle k} es extraño, y positivo cuando k{displaystyle k} es incluso.

Una matriz hermítica es semidefinida positiva si y solo si todos sus principales menores son no negativos. Sin embargo, no es suficiente considerar solo a los principales principales menores, como se verifica en la matriz diagonal con entradas 0 y −1.

Matrices y submatrices de bloques

Un positivo 2n× × 2n{displaystyle 2ntimes 2n} matriz también puede definirse por bloques:

M=[ABCD]{displaystyle M={begin{bmatrix}A presentarseB\cH00Dend{bmatrix}}

donde cada bloque es n× × n{displaystyle ntimes n}. Al aplicar la condición de positividad, inmediatamente sigue que A{displaystyle A} y D{displaystyle D} son ermitianos, y C=BAlternativa Alternativa {displaystyle C=B^{*}.

Tenemos eso zAlternativa Alternativa Mz≥ ≥ 0{displaystyle mathbf {z} ^{*}Mmathbf {z} geq 0} para todo complejo z{displaystyle mathbf {z}, y en particular para z=[v,0]T{displaystyle mathbf {z} =[mathbf {v}0]^{textsf {T}}. Entonces...

[vAlternativa Alternativa 0][ABBAlternativa Alternativa D][v0]=vAlternativa Alternativa Av≥ ≥ 0.{displaystyle {begin{bmatrix}mathbf {v} {{*} {begin{bmatrix}{begin{bmatrix}A limitBB^{*}} {begin{bmatrix}{begin{bmatrix}mathbf {v}end{bmatrix}=mathbf {v}Amathbf {v} geq 0.}

Un argumento similar se puede aplicar a D{displaystyle D}, y así concluimos que ambos A{displaystyle A} y D{displaystyle D} debe ser definitivo. El argumento puede extenderse para demostrar que cualquier submatrix principal M{displaystyle M} es en sí mismo positivo.

Se pueden demostrar resultados opuestos con condiciones más fuertes en los bloques, por ejemplo, utilizando el complemento de Schur.

Extremos locales

Una forma cuadrática general f()x){displaystyle f(mathbf {x})} on n{displaystyle n} variables reales x1,...... ,xn{displaystyle x_{1},ldotsx_{n} siempre se puede escribir como xTMx{displaystyle mathbf {x} {T}Mmathbf {x} Donde x{displaystyle mathbf {x} es el vector de columna con esas variables, y M{displaystyle M} es una matriz simétrica real. Por lo tanto, la matriz siendo positiva significa que f{displaystyle f} tiene un mínimo único (cero) cuando x{displaystyle mathbf {x} es cero, y es estrictamente positivo para cualquier otro x{displaystyle mathbf {x}.

Más generalmente, una función real dos veces diferente f{displaystyle f} on n{displaystyle n} variables reales tiene mínimo local en argumentos x1,...... ,xn{displaystyle x_{1},ldotsx_{n} si su gradiente es cero y su hesiano (la matriz de todos los segundos derivados) es positivo semi-definido en ese punto. Se pueden hacer declaraciones similares para matrices definidas y semidefinidas negativas.

Covarianza

En estadística, la matriz de covarianza de una distribución de probabilidad multivariada es siempre semidefinida positiva; y es definida positiva a menos que una variable sea una función lineal exacta de las otras. Por el contrario, toda matriz semidefinida positiva es la matriz de covarianza de alguna distribución multivariante.

Extensión para matrices cuadradas no hermitianas

La definición de definido positivo puede generalizarse designando cualquier matriz compleja M{displaystyle M} (por ejemplo, no simétrico real) como positivo definido si 0}" xmlns="http://www.w3.org/1998/Math/MathML">R R ()zAlternativa Alternativa Mz)■0{displaystyle Re left(mathbf {z} ^{*}Mmathbf {z} right)}0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/aaeca8c867b24b9d04b541e4192abb33428f8c2f" style="vertical-align: -0.838ex; width:14.254ex; height:2.843ex;"/> para todos los vectores no complejos z{displaystyle mathbf {z}, donde R R ()c){displaystyle Re (c)} denota la parte real de un número complejo c{displaystyle c}. Sólo la parte Hermitiana 12()M+MAlternativa Alternativa ){textstyle {frac {1}{2}left(M+M^{*}right)} determina si la matriz es positiva definida, y se evalúa en el sentido más estrecho de arriba. Del mismo modo, si x{displaystyle mathbf {x} y M{displaystyle M} somos reales, tenemos 0}" xmlns="http://www.w3.org/1998/Math/MathML">xTMx■0{displaystyle mathbf {x} {T}Mmathbf {x}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/e5567b0cc3737630680657f3f0e2715e7808768e" style="vertical-align: -0.338ex; width:10.877ex; height:2.676ex;"/> para todos los vectores noceros reales x{displaystyle mathbf {x} si y sólo si la parte simétrica 12()M+MT){textstyle {frac {1}{2}left (M+M^{textsf {T}right)} es positivo definido en el sentido más estrecho. Es inmediatamente claro que xTMx=.. ijxiMijxj{textstyle mathbf {x} {T}Mmathbf {x} =sum ¿Qué?es insensible a la transposición de M.

En consecuencia, una matriz real no simétrica con sólo eigenvalues positivos no necesita ser definitiva positiva. Por ejemplo, la matriz M=[4914]{displaystyle M=left[{begin{smallmatrix}4 limit91 limit4end{smallmatrix}right] tiene eigenvalues positivos pero no es definitivo positivo; en particular un valor negativo xTMx{displaystyle mathbf {x} {T}Mmathbf {x} se obtiene con la elección x=[− − 11]{displaystyle mathbf {x} =left[{begin{smallmatrix}-11end{smallmatrix}}right] (que es el eigenvector asociado con el eigenvalo negativo de la parte simétrica de M{displaystyle M}).

En resumen, la característica distintiva entre el caso real y el complejo es que un operador positivo acotado en un espacio de Hilbert complejo es necesariamente hermitiano o autoadjunto. La afirmación general se puede argumentar utilizando la identidad de polarización. Eso ya no es cierto en el caso real.

Aplicaciones

Matriz de conductividad térmica

Ley de conducción de calor de Fourier, dando flujo de calor q{displaystyle mathbf {q} en términos del gradiente de temperatura g=Silencio Silencio T{displaystyle mathbf {g} =nabla T} está escrito para los medios anisotrópicos q=− − Kg{displaystyle mathbf {q} =-Kmathbf {g}, en que K{displaystyle K} es la matriz de conductividad térmica simétrica. El negativo se inserta en la ley de Fourier para reflejar la expectativa de que el calor siempre fluirá de calor a frío. En otras palabras, desde el gradiente de temperatura g{displaystyle mathbf {g} siempre apunta de frío a calor, el flujo de calor q{displaystyle mathbf {q} se espera que tenga un producto interno negativo con g{displaystyle mathbf {g} así <math alttext="{displaystyle mathbf {q} ^{textsf {T}}mathbf {g} qTg.0{displaystyle mathbf {q} {textosf {T}Mathbf {g} #<img alt="{displaystyle mathbf {q} ^{textsf {T}}mathbf {g} . Sustituyendo la ley de Fourier entonces da esta expectativa como 0}" xmlns="http://www.w3.org/1998/Math/MathML">gTKg■0{displaystyle mathbf {g} {textosf {T}Kmathbf {g} }0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/0f201bf843033bc9fde83e7262acfedb3cf35a2b" style="vertical-align: -0.671ex; width:10.352ex; height:3.009ex;"/>, implicando que la matriz de conductividad debe ser positiva definida.