Matriz sesgada simétrica

ImprimirCitar
Forma de una matriz

En matemáticas, particularmente en álgebra lineal, una matriz sesgada (o antisimétrica o antimétrica) matriz es una matriz cuadrada cuya transpuesta es igual a su negativo. Es decir, cumple la condición

Askew-symmetric⟺ ⟺ AT=− − A.{displaystyle A{text{ skew-symmetric}}quad iff quad A^{textsf A.

En términos de las entradas de la matriz, si aij{textstyle a_{ij}} denota la entrada en i{textstyle i}-a la fila y j{textstyle j}-a la columna, entonces la condición simétrica del puño es equivalente a

Askew-symmetric⟺ ⟺ aji=− − aij.{displaystyle A{text{ skew-symmetric}quad iff quad a_{ji}=-a_{ij}

Ejemplo

La matriz

A=[02− − 45− − 20− − 44540]{displaystyle A={begin{bmatrix}0 tarde2 punto-45\2 punto0 punto 445 punto 4 segundos0end{bmatrix}}

es asimétrico porque

− − A=[0− − 245204− − 45− − 40]=AT.{displaystyle -A={begin{bmatrix}0 ventaja-2452 punto0 3\-45 consecutivo0end{bmatrix}=A^{textsf {T}}

Propiedades

A lo largo de todo, suponemos que todas las entradas de matriz pertenecen a un campo F{textstyle mathbb {F} cuya característica no es igual a 2. Es decir, suponemos que 1 + 1, donde 1 denota la identidad multiplicativa y 0 la identidad aditiva del campo dado. Si la característica del campo es 2, entonces una matriz simétrica es la misma cosa que una matriz simétrica.

  • La suma de dos matrices simétricas es simétrica.
  • Un escalar múltiple de una matriz simétrica de cerro es simétrico.
  • Los elementos en la diagonal de una matriz simétrica de cerdas son cero, y por lo tanto su traza equivale a cero.
  • Si A{textstyle A} es una matriz simétrica real y λ λ {textstyle lambda } es un verdadero eigenvalue, entonces λ λ =0{textstyle lambda =0}, es decir, los eigenvalues no cero de una matriz simétrica de puerco son no reales.
  • Si A{textstyle A} es una matriz simétrica de puerco real, entonces I+A{textstyle I+A} es invertible, donde I{textstyle I} es la matriz de identidad.
  • Si A{textstyle A} es una matriz simétrica de puerco entonces A2{textstyle A^{2} es una matriz semidefinida simétrica negativa.

Estructura del espacio vectorial

Como resultado de las dos primeras propiedades anteriores, el conjunto de todas las matrices simétricas de un tamaño fijo forma un espacio vectorial. El espacio de n× × n{textstyle ntimes n} matrices simétricas de puño tiene dimensión 12n()n− − 1).{textstyle {frac {1}{2}n(n-1). }

Vamos Matn{displaystyle {mbox{Mat}_{n}} denota el espacio de n× × n{textstyle ntimes n} matrices. Una matriz simétrica de puerco se determina por 12n()n− − 1){fn1}n(n-1)} escalares (el número de entradas por encima de la diagonal principal); una matriz simétrica se determina por 12n()n+1){fn+1)} escalares (el número de entradas en o por encima de la diagonal principal). Vamos Skewn{fnK} denota el espacio de n× × n{textstyle ntimes n} matrices simétricas de puerco Symn{fnK} denota el espacio de n× × n{textstyle ntimes n} matrices simétricas. Si A▪ ▪ Matn{textstyle Ain {mbox{Mat}_{n} entonces

A=12()A− − AT)+12()A+AT).{displaystyle A={frac {2}left(A-A^{mathsf {T}right)+{frac {1}{2}}left(A+A^{mathsf {T}right). }

Note que 12()A− − AT)▪ ▪ Skewn{textstyle {frac {1}{2}left(A-A^{textf {T}right)in {mbox{Skew}_{n}} y 12()A+AT)▪ ▪ Symn.{textstyle {frac {1}{2}left(A+A^{textsf {T}right)in {mbox{Sym}_{n} Esto es verdad para cada matriz cuadrada A{textstyle A} con entradas de cualquier campo cuya característica es diferente a 2. Entonces, desde Matn=Skewn+Symn{mbox {mbox {fn}={mbox{mbox}_{n}mbox{Sym}_{n}}} {n}}} {mbox{n}}} {mbox {mbox {mbox {mbox {mbox{n}}}}}} {mbox {n}}}{n}}}}} {mbox {mbox{n}}}}}}} {mbox{n}}}}} {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {mbox {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} y Skewn∩ ∩ Symn={}0},{fnK} {fn}cH00}cH00} {mbox{Sym}_{n}={0}}

Matn=Skewn⊕ ⊕ Symn,{fnK}mbox {fn} {mbox{mbox}_{n}oplus}n}n}n}n} {mbox{mbox{mbox {n}}}n}n}n}n}n}n}n}}n}n}n}}}}}}}}}}n} {mbox}}}} {n} {n}n}}}}}}}}}}}}}}}}}}}}}}} {n} {n} {n}}n}}}}}}}}}}}}}}}}}} {n} {n}} {n}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {mbox{Sym}_{n}}
⊕ ⊕ {displaystyle oplus }

Denote by .. ⋅ ⋅ ,⋅ ⋅ .. {textstyle langle cdotcdot rangle } el producto interno estándar en Rn.{displaystyle mathbb {R} ^{n} El verdadero n× × n{displaystyle ntimes n} matriz A{textstyle A} es simétrico si y sólo si

.. Ax,Sí... =− − .. x,ASí... para todosx,Sí.▪ ▪ Rn.{displaystyle langle Ax,yrangle =-langle x, Ayrangle quad {text{ for all }x,yin mathbb {R} ^{n}

Esto también equivale a .. x,Ax.. =0{textstyle langle x,Axrangle =0} para todos x▪ ▪ Rn{displaystyle xin mathbb {R} {fn} (una implicación siendo obvia, la otra una consecuencia simple .. x+Sí.,A()x+Sí.).. =0{textstyle langle x+y,A(x+y)rangle =0} para todos x{displaystyle x} y Sí.{displaystyle y}).

Puesto que esta definición es independiente de la elección de la base, la simetría de los puños es una propiedad que depende sólo del operador lineal A{displaystyle A} y una selección de producto interno.

3× × 3{displaystyle 3times 3} matrices simétricas se pueden utilizar para representar productos cruzados como multiplicaciones de matriz.

Determinante

Vamos A{displaystyle A} ser un n× × n{displaystyle ntimes n} matriz simétrica. El determinante A{displaystyle A} satisfizo

Det()AT)=Det()− − A)=()− − 1)nDet()A).{displaystyle det left(A^{textsf {T}right)=det(-A)=(-1)^{n}det(A).}

En particular, si n{displaystyle n} es extraño, y como el campo subyacente no es de característica 2, el determinante desaparece. Por lo tanto, todas las matrices simétricas de punta de dimensión extraña son singulares ya que sus determinantes son siempre cero. Este resultado se llama Teorema de Jacobi, después de Carl Gustav Jacobi (Eves, 1980).

El caso incluso dimensional es más interesante. Resulta que el determinante A{displaystyle A} para n{displaystyle n} incluso se puede escribir como la plaza de un polinomio en las entradas A{displaystyle A}, que fue probado por primera vez por Cayley:

Det()A)=Pf⁡ ⁡ ()A)2.{displaystyle det(A)=operatorname {Pf} (A)^{2}

Este polinomio se llama Pfaffian de A{displaystyle A} y está denotado Pf⁡ ⁡ ()A){displaystyle operatorname {Pf} (A)}. Por lo tanto, el determinante de una matriz simétrica real es siempre no negativo. Sin embargo, este último hecho puede ser probado de una manera elemental como sigue: los eigenvalues de una matriz simétrica real de skew son puramente imaginarios (ver abajo) y a cada eigenvalue corresponde el eigenvalue conjugado con la misma multiplicidad; por lo tanto, como el determinante es el producto de los eigenvalues, cada uno repetido de acuerdo a su multiplicidad, se sigue si el número real

El número de términos distintos s()n){displaystyle s(n)} en la expansión del determinante de una matriz de orden simétrica n{displaystyle n} ya ha sido considerado por Cayley, Sylvester y Pfaff. Debido a cancelaciones, este número es bastante pequeño en comparación con el número de términos de una matriz genérica de orden n{displaystyle n}, que es n!{displaystyle n!}. La secuencia s()n){displaystyle s(n)} (secuencia) A002370 en el OEIS)

1, 0, 1, 0, 6, 0, 120, 0, 5250, 0, 395010, 0,...

y está codificada en la función generadora exponencial

.. n=0JUEGO JUEGO s()n)n!xn=()1− − x2)− − 14exp⁡ ⁡ ()x24).{displaystyle sum _{n=0}{infty }{frac {s)}{n}}x^{n}=left(1-x^{2}right)^{-{-{frac {1}{4}}exp left({frac {x}{4}}right).}}}}}}} {splaystyle sum} {s=0}}} {f} {f} {f} {f} {f} {f} {f}}}}} {f}} {f}}}}}}} {f}} {f}}}}}} {f}}} {f}} {fn0}} {fn}}}}}}}} {f} {f}}}}}} {f}}}}}}}}}}}} {f}} {f}}}}}}}}}}}}}}}}}}

Este último cede a la asintotica (para n{displaystyle n} incluso)

s()n)=π π − − 12234.. ()34)()ne)n− − 14()1+O()1n)).{displaystyle s(n)=pi ^{-{frac {1}{2}}2^{frac} {3}{4}}Gamma left({frac {3}{4}right)left({frac {n}{e}}right)^{n-{frac {1}{4}}left(1+Oleft({frac {1}{n}right)right).}

El número de términos positivos y negativos es aproximadamente la mitad del total, aunque su diferencia toma valores positivos y negativos mayores y mayores como n{displaystyle n} aumentos (secuencia A167029 en el OEIS).

Producto vectorial

Las matrices simétricas de tres por tres esquejes pueden utilizarse para representar productos cruzados como multiplicaciones de matriz. Considerar vectores a=()a1a2a3)T{textstyle mathbf {a} =left(a_{1} a_{2} a_{3}right)^{textsf {T}} y b=()b1b2b3)T.{textstyle mathbf {b} =left(b_{1} b_{2} b_{3}right)^{textsf {T}} Luego, definiendo la matriz

[a]× × =[0− − a3a2a30− − a1− − a2a10],{displaystyle [mathbf {a}_{times {begin{bmatrix},,0 âTMa!-a_{3} limit,,a_{2}\\,,,,,a_{3} â0 âTMa_{1}\\\\!-a_{2} âTMa,0end{bmatrix}

el producto vectorial se puede escribir como

a× × b=[a]× × b.{displaystyle mathbf {a} times mathbf {b} =[mathbf {a} ♪♪ {times }Mathbf {b}

Esto se puede verificar inmediatamente calculando ambos lados de la ecuación anterior y comparando cada elemento correspondiente de los resultados.

Uno realmente tiene

[a× × b]× × =[a]× × [b]× × − − [b]× × [a]× × ;{displaystyle [mathbf {atimes b}_{times }=[mathbf {a} ### {fnMicrosoft Sans Serif} ♪♪ {times }

i.e., el conmutador de tres por tres matrices simétricas se puede identificar con el producto cruzado de tres vencedores. Ya que las matrices simétricas de tres por tres son el álgebra de Lie del grupo de rotación SO()3){textstyle SO(3)} esta elucida la relación entre tres espacios R3{textstyle mathbb [R] ^{3}, el producto de la cruz y las rotaciones tridimensionales. Más sobre las rotaciones infinitesimal se puede encontrar abajo.

Teoría espectral

Puesto que una matriz es similar a su propia transposición, deben tener los mismos valores eigenvalues. Se sigue que los eigenvalues de una matriz simétrica de puerco siempre vienen en pares ±λ (excepto en el caso extradimensional donde hay un valor no deseado 0 eigenvalue adicional). Desde el teorema espectral, para una verdadera matriz simétrica de skew los eigenvalues no cero son todos imaginarios puros y por lo tanto son de la forma λ λ 1i,− − λ λ 1i,λ λ 2i,− − λ λ 2i,...... {displaystyle lambda _{1}i,-lambda _{1}i,lambda ¿Qué? donde cada uno de los λ λ k{displaystyle lambda _{k} son reales.

Las matrices simétricas reales son matrices normales (comunican con sus adjoints) y están sujetas al teorema espectral, lo que indica que cualquier matriz simétrica real del puño puede ser diagonalizada por una matriz unitaria. Dado que los eigenvalues de una matriz simétrica real de las cerdas son imaginarios, no es posible diagonalizar uno por una matriz real. Sin embargo, es posible llevar cada matriz simétrica de cerro a una forma diagonal de bloque por una transformación ortogonal especial. Específicamente, todos 2n× × 2n{displaystyle 2ntimes 2n} matriz simétrica real se puede escribir en la forma A=Q.. QT{displaystyle A=QSigma Q^{textsf {T}} Donde Q{displaystyle Q} es ortogonal y

.. =[0λ λ 1− − λ λ 100⋯ ⋯ 000λ λ 2− − λ λ 200⋮ ⋮ ⋱ ⋱ ⋮ ⋮ 00⋯ ⋯ 0λ λ r− − λ λ r00⋱ ⋱ 0]{displaystyle Sigma ={begin{bmatrix}{begin{matrix}0 limitlambda ¿Por qué? ################################################################################################################################################################################################################################################################ - ¿Qué? ################################################################################################################################################################################################################################################################ ¿Por qué? ¿Por qué? {fnK}}

para el verdadero positivo-definido λ λ k{displaystyle lambda _{k}. Los valores no cero de esta matriz son ±λk i. En el caso extradimensional, la eva siempre tiene al menos una fila y columna de ceros.

Más generalmente, cada matriz simétrica compleja del puño se puede escribir en la forma A=U.. UT{displaystyle A=USigma U^{mathrm {T} Donde U{displaystyle U} es unitario y .. {displaystyle Sigma } tiene la forma de bloque-diagonal dada arriba con λ λ k{displaystyle lambda _{k} todavía muy positivo-definido. Este es un ejemplo de la descomposición de Youla de una matriz cuadrada compleja.

Formas sesgadas simétricas y alternas

A forma simétrica φ φ {displaystyle varphi } en un espacio vectorial V{displaystyle V} sobre un terreno K{displaystyle K} de característica arbitraria se define como una forma bilineal

φ φ :V× × V↦ ↦ K{displaystyle varphi:Vtimes Vmapsto K}

tal que para todos v,w{displaystyle v,w} dentro V,{displaystyle V,}

φ φ ()v,w)=− − φ φ ()w,v).{displaystyle varphi (v,w)=-varphi (w,v). }

Esto define una forma con propiedades deseables para espacios vectoriales sobre campos de característica no igual a 2, pero en un espacio vectorial sobre un campo de característica 2, la definición es equivalente a la de una forma simétrica, ya que cada elemento es su propio inverso aditivo.

Donde el espacio vectorial V{displaystyle V} es sobre un campo de característica arbitraria incluyendo la característica 2, podemos definir un forma alternada como forma bilineal φ φ {displaystyle varphi } tal que para todos los vectores v{displaystyle v} dentro V{displaystyle V}

φ φ ()v,v)=0.{displaystyle varphi (v,v)=0.}

Esto es equivalente a una forma sesgada simétrica cuando el campo no es de característica 2, como se ve desde

0=φ φ ()v+w,v+w)=φ φ ()v,v)+φ φ ()v,w)+φ φ ()w,v)+φ φ ()w,w)=φ φ ()v,w)+φ φ ()w,v),{displaystyle 0=varphi (v+w,v+w)=varphi (v,v)+varphi (v,w)+varphi (w,v)+varphi (w,w)=varphi (v,w)+varphi (w,v),}

de donde

φ φ ()v,w)=− − φ φ ()w,v).{displaystyle varphi (v,w)=-varphi (w,v). }

Una forma bilineal φ φ {displaystyle varphi } estará representado por una matriz A{displaystyle A} tales que φ φ ()v,w)=vTAw{displaystyle varphi (v,w)=v^{textsf {T}Aw}, una vez por base V{displaystyle V} es elegido, y por el contrario un n× × n{displaystyle ntimes n} matriz A{displaystyle A} on Kn{displaystyle K^{n} da lugar a un formulario que envía ()v,w){displaystyle (v,w)} a vTAw.{displaystyle v^{textsf Oh. Para cada una de las formas simétricas, simétricas y alternadas, las matrices representativas son simétricas, simétricas y alternadas respectivamente.

Rotaciones infinitesimales

Las matrices simétricas de Skew sobre el campo de números reales forman el espacio tangente al grupo ortogonal real O()n){displaystyle O(n)} en la matriz de identidad; formalmente, el álgebra especial ortogonal de Lie. En este sentido, entonces, las matrices simétricas se pueden considerar como Rotación infinitesimal.

Otra manera de decir esto es que el espacio de matrices simétricas de puerco forma el álgebra de Lie o()n){displaystyle o(n)} del grupo Lie O()n).{displaystyle O(n).} El soporte de Lie en este espacio es dado por el conmutador:

[A,B]=AB− − BA.{displaystyle [A,B]=AB-BA.

Es fácil comprobar que el conmutador de dos matrices simétricas oblicuas vuelve a ser simétrica oblicua:

[A,B]T=BTAT− − ATBT=()− − B)()− − A)− − ()− − A)()− − B)=BA− − AB=− − [A,B].{displaystyle {begin{aligned}{} {} A,B{]}{textsf {T}=B^{textsf {T}A^{textsf {T}-A^{textsf {T}}B^{textsf {T}\\\\cHFF}(-A)-(-B)=BA-AB=-[A,B],.end{aligned}}

La matriz exponencial de una matriz simétrica de un puño A{displaystyle A} es entonces una matriz ortogonal R{displaystyle R.:

R=exp⁡ ⁡ ()A)=.. n=0JUEGO JUEGO Ann!.{displaystyle R=exp(A)=sum _{n=0}{infty }{frac {A^{n} {n}}}}}}

La imagen del mapa exponencial de un álgebra Lie siempre está en el componente conectado del grupo Lie que contiene el elemento de identidad. En el caso del grupo Lie O()n),{displaystyle O(n),} este componente conectado es el grupo ortogonal especial SO()n),{displaystyle SO(n),} consiste en todas las matrices ortogonales con determinante 1. So R=exp⁡ ⁡ ()A){displaystyle R=exp(A)} tendrá determinante +1. Además, desde el mapa exponencial de un compacto conectado El grupo de mentiras siempre es subjetivo, resulta que cada uno matriz ortogonal con determinante de unidad se puede escribir como el exponencial de alguna matriz simétrica de puerco. En el caso particular importante de la dimensión n=2,{displaystyle n=2,} la representación exponencial de una matriz ortogonal reduce a la conocida forma polar de un complejo número de módulos de unidad. De hecho, si n=2,{displaystyle n=2,} una matriz ortogonal especial tiene la forma

[a− − bba],{fnMicrosoft Sans Serif}}

con a2+b2=1{displaystyle a^{2}+b^{2}=1}. Por lo tanto, poniendo a=#⁡ ⁡ Silencio Silencio {displaystyle a=cos theta } y b=pecado⁡ ⁡ Silencio Silencio ,{displaystyle b=sin theta} puede ser escrito

[#Silencio Silencio − − pecadoSilencio Silencio pecadoSilencio Silencio #Silencio Silencio ]=exp⁡ ⁡ ()Silencio Silencio [0− − 110]),{displaystyle {begin{bmatrix}cos ,theta &-sin ,theta \sin ,theta &,cos ,theta end{bmatrix}=exp left(thetat) {begin{bmatrix}0 lider-111,0end{bmatrix}right),}

que corresponde exactamente a la forma polar #⁡ ⁡ Silencio Silencio +ipecado⁡ ⁡ Silencio Silencio =eiSilencio Silencio {displaystyle cos theta +isin theta =e^{itheta } de un complejo número de módulos de unidad.

La representación exponencial de una matriz ortogonal del orden n{displaystyle n} también se puede obtener a partir del hecho de que en dimensión n{displaystyle n} cualquier matriz ortogonal especial R{displaystyle R. puede ser escrito como R=QSQT,{displaystyle R=QSQ^{textsf {T},} Donde Q{displaystyle Q} es ortogonal y S es una matriz diagonal de bloque con ⌊ ⌊ n/2⌋ ⌋ {textstyle lfloor n/2rfloor } bloques de orden 2, más uno de orden 1 si n{displaystyle n} es extraño; ya que cada bloque único del orden 2 es también una matriz ortogonal, admite una forma exponencial. Correspondientemente, la matrizS escribe como exponencial de una matriz de bloques simétricos .. {displaystyle Sigma } de la forma anterior, S=exp⁡ ⁡ ().. ),{displaystyle S=exp(Sigma),} así R=Qexp⁡ ⁡ ().. )QT=exp⁡ ⁡ ()Q.. QT),{displaystyle R=Qexp(Sigma)Q^{textsf {T}=exp(QSigma Q^{textsf {T}}}} exponencial de la matriz simétrica Q.. QT.{displaystyle QSigma Q^{textsf {T}} Por el contrario, la subjetividad del mapa exponencial, junto con la mencionada diagonalización de bloques para matrices simétricas de cerdas, implica la diagonalización de bloques para matrices ortogonales.

Sin coordenadas

Más intrínsecamente (es decir, sin usar coordenadas), transformaciones lineales simétricas en un espacio vectorial V{displaystyle V} con un producto interior se puede definir como los bivectores en el espacio, que son sumas de simples bivectores (2-negros) v∧ ∧ w.{textstyle vwedge w.} La correspondencia es dada por el mapa v∧ ∧ w↦ ↦ vAlternativa Alternativa ⊗ ⊗ w− − wAlternativa Alternativa ⊗ ⊗ v,{fnMicrosoft Sans Serif} Donde vAlternativa Alternativa {textstyle v^{*} es el covector dual al vector v{textstyle v}; en las coordenadas ortonormales estas son exactamente las matrices simétricas de cerda elemental. Esta caracterización se utiliza para interpretar el borde de un campo vectorial (naturalmente un 2-vector) como una rotación infinitesimal o "curl", por lo tanto el nombre.

Matriz sesgada simetrizable

An n× × n{displaystyle ntimes n} matriz A{displaystyle A} se dice que skew-symmetrizable si existe una matriz diagonal invertible D{displaystyle D} tales que DA{displaystyle ¿Sí? es simétrico. Para real n× × n{displaystyle ntimes n} matrices, a veces la condición para D{displaystyle D} para tener entradas positivas se añade.

Contenido relacionado

Espiral Ulam

La espiral de Ulam o espiral prima es una representación gráfica del conjunto de números primos, ideada por el matemático Stanisław Ulam en 1963 y...

Factorización de curva elíptica de Lenstra

La factorización de curva elíptica de Lenstra o el método de factorización de curva elíptica es un tiempo de ejecución subexponencial rápido, algoritmo...

Grupo abeliano finitamente generado

En álgebra abstracta, un grupo abeliano ()G,+){displaystyle (G,+)} se llama finitamente generado si existen finitamente muchos elementos x1,.........
Más resultados...
Tamaño del texto:
Copiar