Norma matricial
En matemáticas, podemos definir normas para los elementos de un espacio vectorial. Cuando el espacio vectorial en cuestión consta de matrices, éstas se denominan normas matriciales.
Lo que distingue a las normas matriciales de otras normas vectoriales es cómo interactúan con la multiplicación, ya sea entre sí o con vectores, que a su vez pueden tener otras normas definidas.
Preliminares
Dado un campo K{displaystyle K} de números reales o complejos, Km× × n{displaystyle K^{mtimes No. ser el K-Espacio de vehículos con matrices m{displaystyle m} filas y n{displaystyle n} columnas y entradas en el campo K{displaystyle K}. Una norma de matriz es una norma Km× × n{displaystyle K^{mtimes No..
Este artículo siempre escribirá tales normas con dobles barras verticales (como así: . . A. . {displaystyle bendiciones para siempre}). Así, la norma matriz es una función . . ⋅ ⋅ . . :Km× × n→ → R{displaystylefncdotfnMicrosoft Sans Serif}to mathbb {R} que debe satisfacer las siguientes propiedades:
Para todos los escalares α α ▪ ▪ K{displaystyle alpha in K} y matrices A,B▪ ▪ Km× × n{displaystyle A,Bin K^{mtimes No.,
- . . A. . ≥ ≥ 0{displaystyle "Principal" ()valor positivo)
- . . A. . =0⟺ ⟺ A=0m,n{displaystyle "Principio" A=0_{m,n} ()definida)
- .α α A.=Silencioα α Silencio.A.{displaystyleleftleftAlpha Aright=left foreveralpha right sobre la vidaleftArightjustaf} ()absolutamente homogénea)
- . . A+B. . ≤ ≤ . . A. . +. . B. . {displaystyle pacienciaA+BfnciónleqfnciónAfnción+fnción} ()subadditivo o satisfacción del desigualdad)
La única característica que distingue las matrices de los vectores reordenados es la multiplicación. Las normas matriciales son particularmente útiles si también son submultiplicativas:
- .AB.≤ ≤ .A..B.{displaystyleleftfnh00fnh00fnMicrosoftfnsefnMicrosoftfnMicrosoftfn}
Cada norma en Kn×n puede ser reescatado para ser sub-multiplicativo; en algunos libros, la terminología matriz está reservada para normas submultiplicativas.
Matriz normas inducidas por normas vectoriales
Suponga una norma vectorial . . ⋅ ⋅ . . α α {displaystyle {cdotcdotfnh} on Kn{displaystyle K^{n} y una norma vectorial . . ⋅ ⋅ . . β β {displaystyle {beta}} on Km{displaystyle K^{m} se dan. Cualquier m× × n{displaystyle mtimes n} matriz A induce a un operador lineal de Kn{displaystyle K^{n} a Km{displaystyle K^{m} con respecto a la base estándar, y uno define el correspondiente norma inducida o norma del operador o norma subordinada sobre el espacio Km× × n{displaystyle K^{mtimes No. de todos m× × n{displaystyle mtimes n} matrices como sigue:
Normas matriciales inducidas por normas p vectoriales
Si el p-norm para vectores (1≤ ≤ p≤ ≤ JUEGO JUEGO {displaystyle 1leq pleqinfty}) se utiliza para ambos espacios Kn{displaystyle K^{n} y Km,{displaystyle K^{m}, } entonces la norma del operador correspondiente es:
Estas normas inducidas son diferentes del "entry-wise" p-normas y los ronmos de Schatten para matrices tratados a continuación, que son generalmente denotados por . . A. . p.{displaystyle "Principal"
En los casos especiales p=1,JUEGO JUEGO ,{displaystyle p=1,infty} las normas de matriz inducidas pueden ser calculadas o calculadas
Por ejemplo, para
En el caso especial p=2{displaystyle p=2} (la norma euclidiana o l l 2{displaystyle ell _{2}-norma para vectores), la norma de matriz inducida es la norma espectral. (Los dos valores sí no coinciden en dimensiones infinitas — véase el radio espectral para mayor discusión.) La norma espectral de una matriz A{displaystyle A} es el mayor valor singular de A{displaystyle A} (es decir, la raíz cuadrada del mayor valor de la matriz AAlternativa Alternativa A,{displaystyle A. Donde AAlternativa Alternativa {displaystyle A^{} denota la transposición conyugal de A{displaystyle A}):
Cuando p=2{displaystyle p=2} tenemos una definición equivalente . . A. . 2{displaystyle "Principada" como
Normas matriciales inducidas por normas vectoriales α y β
Supongamos normas vectoriales . . ⋅ ⋅ . . α α {displaystyle {cdotcdotfnh} y . . ⋅ ⋅ . . β β {displaystyle {beta}} son utilizados para espacios Kn{displaystyle K^{n} y Km{displaystyle K^{m} respectivamente, la norma del operador correspondiente es:
En los casos especiales α α =1{displaystyle alpha =1} y β β =2{displaystyle beta =2}, las normas de matriz inducidas pueden ser calculadas por
Por lo tanto, . . A. . 2,JUEGO JUEGO {displaystyle "Principalmente" y . . A. . 1,2{displaystyle "Principalmente" son la fila máxima y la columna 2-norm de la matriz, respectivamente.
Propiedades
Cualquier norma de operador es consistente con las normas vectoriales que lo inducen, dando
Suppose . . ⋅ ⋅ . . α α ,β β {displaystylefncdotcdotcdotfnfnfbeta }; . . ⋅ ⋅ . . β β ,γ γ {betabetagamma}; y . . ⋅ ⋅ . . α α ,γ γ {displaystylefncdotfnhcdotfnhcdot} son normas del operador inducidas por los pares respectivos de normas vectoriales (). . ⋅ ⋅ . . α α ,. . ⋅ ⋅ . . β β ){displaystyle (ftimacdotfnhcdotcdotcdotcdot,fnsecdotpbeta })}; (). . ⋅ ⋅ . . β β ,. . ⋅ ⋅ . . γ γ ){fnMicrosoft Sans Serif}fnMicrosoft Sans Serif}; y (). . ⋅ ⋅ . . α α ,. . ⋅ ⋅ . . γ γ ){displaystyle (ftimacdotfnh00cdotcdotcdotcdot}}}}. Entonces,
- . . AB. . α α ,γ γ ≤ ≤ . . A. . β β ,γ γ . . B. . α α ,β β ;{displaystyle "Prinfagamma"leq "Principada" }fnunciofnhâhbeta }
de este modo
Matrices cuadradas
Suppose . . ⋅ ⋅ . . α α ,α α {displaystylefncdotfncdotfnhfnK} es una norma de operador en el espacio de matrices cuadradas Kn× × n{displaystyle K^{ntimes No.inducido por normas vectoriales . . ⋅ ⋅ . . α α {displaystyle {cdotcdotfnh} y . . ⋅ ⋅ . . α α {displaystyle {cdotcdotfnh}. Entonces, la norma del operador es una norma de matriz submultiplicativa:
Además, cualquier norma de este tipo satisface la desigualdad
(). . Ar. . α α ,α α )1/r≥ ≥ *** *** ()A){displaystyle (fnA^{r}fnción_{alphaalpha })^{1/r}gq rho (A)} |
| ()1) |
para todos los enteros positivos r, donde ρ(A) es el valor espectral radio de A. Para A simétrica o hermitiana, tenemos igualdad en (1) para la norma 2, ya que en este caso la norma 2 es precisamente el radio espectral de A. Para una matriz arbitraria, es posible que no tengamos igualdad para ninguna norma; un contraejemplo sería
Normas consistentes y compatibles
Una norma de matriz . . ⋅ ⋅ . . {displaystylefncdotfn} on Km× × n{displaystyle K^{mtimes No. se llama coherente con una norma vectorial . . ⋅ ⋅ . . α α {displaystyle {cdotcdotfnh} on Kn{displaystyle K^{n} y una norma vectorial . . ⋅ ⋅ . . β β {displaystyle {beta}} on Km{displaystyle K^{m}, si:
Todas las normas inducidas son consistentes por definición. Además, cualquier norma de matriz submultiplicativa en Kn× × n{displaystyle K^{ntimes No. induce una norma vectorial compatible en Kn{displaystyle K^{n} definiendo .v.:=.()v,v,... ... ,v).{displaystyle leftrightfnMicrosoft Sans Serpientes:=leftleft(v,v,dotsvright)righthone}.
"Entrada" normas matriciales
Estas normas tratan un m× × n{displaystyle mtimes n} matriz como vector de tamaño m⋅ ⋅ n{displaystyle mcdot n}, y utilizar una de las normas vectoriales familiares. Por ejemplo, usando el p-norm para vectores, p ≥ 1, tenemos:
- . . A. . p,p=. . vec()A). . p=(). . i=1m. . j=1nSilencioaijSilenciop)1/p{displaystyle "Principalidad" _{p,p}=fnciónmathrm {vec} (A)fnción_p}=left(sum) ##{i=1} {m}sum ¿Por qué?
Esta es una norma diferente de la inducida p-norm (ver arriba) y Schatten p-norm (ver abajo), pero la notación es la misma.
El caso especial p = 2 es la norma Frobenius, y p = ∞ produce la norma máxima.
Normas L2,1 y Lp,q
Vamos. ()a1,... ... ,an){displaystyle (a_{1},ldotsa_{n}} ser las columnas de la matriz A{displaystyle A}. De la definición original, la matriz A{displaystyle A} presenta n puntos de datos en espacio m-dimensional. El L2,1{displaystyle L_{2,1} la norma es la suma de las normas euroclidianas de las columnas de la matriz:
- . . A. . 2,1=. . j=1n. . aj. . 2=. . j=1n(). . i=1mSilencioaijSilencio2)12{displaystyle "Principado" ¿Por qué? ¿Por qué? ¿Por qué? {1}{2}}}
El L2,1{displaystyle L_{2,1} la norma como función de error es más robusta, ya que el error para cada punto de datos (una columna) no se cuadra. Se utiliza en análisis de datos sólidos y codificación escasa.
Para p, q ≥ 1, el L2,1{displaystyle L_{2,1} la norma se puede generalizar a Lp,q{displaystyle L_{p,q} norma como sigue:
- . . A. . p,q=(). . j=1n(). . i=1mSilencioaijSilenciop)qp)1q.{displaystyle "Perfecto" ¿Por qué? ¿Por qué? {q} {p}right)}{frac} {1}{q}.}
Norma de Frobenius
Cuando p = q = 2 para el Lp,q{displaystyle L_{p,q} norma, se llama la Frobenius norm o el Hilbert-Schmidt norm, aunque este último término se utiliza con más frecuencia en el contexto de los operadores en (posiblemente infinita-dimensional) espacio Hilbert. Esta norma puede definirse de diversas maneras:
- . . A. . F=. . im. . jnSilencioaijSilencio2=rastro ()AAlternativa Alternativa A)=. . i=1min{}m,n}σ σ i2()A),{displaystyle "Principalmente" ¿Qué? {fnMicrosoft Sans Serif}={sqrt {sum)} ¿Por qué? ¿Qué?
Donde σ σ i()A){displaystyle sigma _{i}(A)} son los valores singulares A{displaystyle A}. Recordemos que la función traza devuelve la suma de entradas diagonales de una matriz cuadrada.
La norma Frobenius es una extensión de la norma euclidiana a Kn× × n{displaystyle K^{ntimes No. y viene del producto interior Frobenius en el espacio de todas las matrices.
La norma Frobenius es submultiplicativa y es muy útil para el álgebra lineal numérica. La submultiplicatividad de la norma Frobenius se puede probar utilizando la desigualdad Cauchy-Schwarz.
La norma Frobenius es a menudo más fácil de calcular que las normas inducidas, y tiene la propiedad útil de ser invariable bajo rotaciones (y operaciones unitarias en general). Eso es, . . A. . F=. . AU. . F=. . UA. . F{displaystyle "Principalmente" para cualquier matriz unitaria U{displaystyle U}. Esta propiedad sigue de la naturaleza cíclica del trazo (rastro ()XYZ)=rastro ()ZXY){displaystyle operatorname {trace} (XYZ)=operatorname {trace} (ZXY)}):
- . . AU. . F2=rastro ()()AU)Alternativa Alternativa AU)=rastro ()UAlternativa Alternativa AAlternativa Alternativa AU)=rastro ()UUAlternativa Alternativa AAlternativa Alternativa A)=rastro ()AAlternativa Alternativa A)=. . A. . F2,{displaystyle ################################################################################################################################################################################################################################################################
y análogamente:
- . . UA. . F2=rastro ()()UA)Alternativa Alternativa UA)=rastro ()AAlternativa Alternativa UAlternativa Alternativa UA)=rastro ()AAlternativa Alternativa A)=. . A. . F2,{displaystyle 'Aright)=operatorname {*}UAright)=operatorname {*}UAright)=operatorname {trace}left(A^{*}U^{*}UAright)=operatorname {trace}left(Aright)=textoA}{}{}{}{}{}{}{}}}}}}}f}}}}}}}}}}}f}}f}f}f}}}}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}
donde hemos utilizado la naturaleza unitaria U{displaystyle U} (es decir, UAlternativa Alternativa U=UUAlternativa Alternativa =I{displaystyle U^{*}U=UU^{*}=mathbf {I}).
También satisface
- . . AAlternativa Alternativa A. . F=. . AAAlternativa Alternativa . . F≤ ≤ . . A. . F2{displaystyle ################################################################################################################################################################################################################################################################ "Antes"
y
- . . A+B. . F2=. . A. . F2+. . B. . F2+2Re(). . A,B. . F),{displaystyle {fnMicrosoft Sans Serif}\fnMicrosoft_f}fnMicrosoft _{2}f}_f}fnMicrosoft _ {f}{2}cH}+2Releft(langle A,Brangle _{F}}right),}}}}
Donde . . A,B. . F{displaystyle langle A,Brangle _{text{F}} es el producto interior Frobenius, y Re es la parte real de un número complejo (irrelevant para matrices reales)
Norma máxima
La norma máxima es la norma por elementos en el límite como p = q va al infinito:
- . . A. . max=maxijSilencioaijSilencio.{displaystyle "Primáx" - Hola.
Esta norma no es submultiplicativa.
Tenga en cuenta que en alguna literatura (como la complejidad de la comunicación), una definición alternativa de máx-norm, también llamada la γ γ 2{displaystyle gamma _{2}-norm, se refiere a la norma de factorización:
- γ γ 2()A)=minU,V:A=UVT. . U. . 2,JUEGO JUEGO . . V. . 2,JUEGO JUEGO =minU,V:A=UVTmaxi,j. . Ui,:. . 2. . Vj,:. . 2{displaystyle gamma _{2}(A)=min _{U,V:A=UV^{T} eternaU imper_{2,infty }fnMicrosoft Sans ### {U,V:A=UV^{T}max ¿Por qué?
Normas de Schatten
El Schatten p- surgen normas cuando se aplica el p-norm al vector de valores singulares de una matriz. Si los valores singulares de los m× × n{displaystyle mtimes n} matriz A{displaystyle A} son denotados por σi, entonces el Schatten p-norm se define por
- . . A. . p=(). . i=1min{}m,n}σ σ ip()A))1/p.{displaystyle "Principio" ¿Por qué? ¿Por qué?
Estas normas nuevamente comparten la notación con las normas p inducidas y de entrada, pero son diferentes.
Todas las normas Schatten son submultiplicativas. También son unitariamente invariantes, lo que significa que . . A. . =. . UAV. . {displaystyle pacienciaAfnssi} para todas las matrices A{displaystyle A} y todas las matrices unitarias U{displaystyle U} y V{displaystyle V}.
Los casos más conocidos son p = 1, 2, ∞. p = 2 cede la norma Frobenius, introducida antes. El caso p = ∞ produce la norma espectral, que es la norma del operador inducida por el vector 2-norm (ver arriba). Finalmente, p = 1 produce los nuclear (también conocido como norma de traza, o el Ky Fan 'n'-norm, definido como:
- . . A. . Alternativa Alternativa =rastro ()AAlternativa Alternativa A)=. . i=1min{}m,n}σ σ i()A),{displaystyle "Principalmente" ¿Por qué?
Donde AAlternativa Alternativa A{displaystyle {sqrt {}A}} denota una matriz semidefinida positiva B{displaystyle B} tales que BB=AAlternativa Alternativa A{displaystyle BB=A^{*}A}. Más precisamente, desde AAlternativa Alternativa A{displaystyle A. es una matriz semidefinida positiva, su raíz cuadrada está bien definida. La norma nuclear . . A. . Alternativa Alternativa {displaystyle {fnK} es un sobre convexo de la función de rango rango()A){displaystyle {text{rank}(A)}, por lo que se utiliza a menudo en la optimización matemática para buscar matrices de bajo rango.
Combinar la traza de desigualdad de von Neumann con la desigualdad de Hölder para el espacio Euclidean produce una versión de la desigualdad de Hölder para las normas Schatten para 1/p+1/q=1{displaystyle 1/p+1/q=1}:
- Silenciorastro ()A.B)Silencio≤ ≤ . . A. . p. . B. . q,{displaystyle left durableoperatorname {trace} (A'B)right durableleq "Principalmente"
En particular, esto implica la desigualdad de la norma de Schatten
- . . A. . F2≤ ≤ . . A. . p. . A. . q.{displaystyle "Principio" "Principalmente"
Monotone norms
Una norma de matriz . . ⋅ ⋅ . . {displaystylefncdotfn} se llama monotone si es monotónico con respecto a la orden Loewner. Así, una norma de matriz está aumentando si
- A≼ ≼ B⇒ ⇒ . . A. . ≤ ≤ . . B. . .{displaystyle Apreccurlyeq BRightarrow pacienciaA eternaleq sobre la vida.}
La norma de Frobenius y la norma espectral son ejemplos de normas monótonas.
Cortar normas
Otra fuente de inspiración para las normas de matriz surge de considerar una matriz como la matriz de adyacencia de un gráfico ponderado y dirigido. La llamada "norma cortada" mide cuán cerca está el gráfico asociado para ser bipartito:
La norma de corte es equivalente a la norma del operador inducido ‖·‖∞→1, que a su vez es equivalente a otra norma, llamada Norma de Grothendieck.
Para definir la norma de Grothendieck, primero observe que un operador lineal K1 → K1 es solo un escalar y, por lo tanto, se extiende a un operador lineal en cualquier Kk → Kk. Además, dada cualquier elección de base para Kn y Km, cualquier operador lineal Kn → Km se extiende a un operador lineal (Kk)n → (Kk)m , dejando que cada elemento de la matriz en elementos de Kk vía multiplicación escalar. La norma de Grothendieck es la norma de ese operador ampliado; en símbolos:
La norma de Grothendieck depende de la elección de la base (generalmente considerada la base estándar) y k.
Equivalencia de normas
Para cualquier dos normas de matriz . . ⋅ ⋅ . . α α {displaystyle {cdotcdotfnh} y . . ⋅ ⋅ . . β β {displaystyle {beta}}, tenemos eso:
- r. . A. . α α ≤ ≤ . . A. . β β ≤ ≤ s. . A. . α α {displaystyle RfnA }leq "Principada" } 'leq s 'pretende'
para algunos números positivos r y s, para todas las matrices A▪ ▪ Km× × n{displaystyle Ain K^{mtimes No.. En otras palabras, todas las normas Km× × n{displaystyle K^{mtimes No. son equivalente; inducen la misma topología en Km× × n{displaystyle K^{mtimes No.. Esto es verdad porque el espacio vectorial Km× × n{displaystyle K^{mtimes No. tiene la dimensión finita m× × n{displaystyle mtimes n}.
Además, por cada norma vectorial . . ⋅ ⋅ . . {displaystylefncdotfn} on Rn× × n{displaystyle mathbb {R} {ntimes n}, existe un número real positivo único k{displaystyle k} tales que l l . . ⋅ ⋅ . . {displaystyle ellfncióncdotfnción} es una norma de matriz submultiplicativa para cada l l ≥ ≥ k{displaystyle ell geq k}.
Una norma de matriz submultiplicativa . . ⋅ ⋅ . . α α {displaystyle {cdotcdotfnh} se dice que mínimo, si no existe otra norma de matriz submultiplicativa . . ⋅ ⋅ . . β β {displaystyle {beta}} satisfacción <math alttext="{displaystyle |cdot |_{beta }. . ⋅ ⋅ . . β β c). . ⋅ ⋅ . . α α {displaystylefncdotcdot } **<img alt="{displaystyle |cdot |_{beta }.
Ejemplos de equivalencia de normas
Vamos. . . A. . p{displaystyle "Principio" una vez más se refiere a la norma inducida por el vector p-norm (como arriba en la sección de la norma inducida).
Para matriz A▪ ▪ Rm× × n{displaystyle Ain mathbb {R} {mtimes n} de rango r{displaystyle r}, las siguientes desigualdades:
- . . A. . 2≤ ≤ . . A. . F≤ ≤ r. . A. . 2{displaystyle "Principada" "Principalmente"
- . . A. . F≤ ≤ . . A. . Alternativa Alternativa ≤ ≤ r. . A. . F{displaystyle "Principio" "Principio"
- . . A. . max≤ ≤ . . A. . 2≤ ≤ mn. . A. . max{displaystyle "Principal" "Antes de la muerte"
- 1n. . A. . JUEGO JUEGO ≤ ≤ . . A. . 2≤ ≤ m. . A. . JUEGO JUEGO {displaystyle {frac {1}{sqrt {fn}fnK}fnKfn}fn}fn}fnfn}fnfn} "Princesa" {m}fnMicrosoft Sans Serif}
- 1m. . A. . 1≤ ≤ . . A. . 2≤ ≤ n. . A. . 1.{displaystyle {frac {1}{sqrt {m}}fnunciofnh00fnh}fnh}fnunciofnhnnnnnnnnnnnnnnnnnnnnnnnnnn}fnhnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnn "Principalmente, no es un problema.
Contenido relacionado
Conjunto vacío
Historia de la lógica
Menor que <