Matriz cuadrada

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Matriz con el mismo número de filas y columnas
Una matriz cuadrada del orden 4. Las entradas aii{displaystyle a_{ii} forman la diagonal principal de una matriz cuadrada. Por ejemplo, la diagonal principal de la matriz 4×4 arriba contiene los elementos a11 = 9, a22 = 11, a33 = 4, a44 = 10.

En matemáticas, a matriz cuadrada es una matriz con el mismo número de filas y columnas. An n-por-n matriz se conoce como una matriz cuadrada del orden n{displaystyle n}. Cualquier dos matrices cuadradas del mismo orden se puede añadir y multiplicar.

Las matrices cuadradas se utilizan a menudo para representar simples transformaciones lineales, como el esquilado o la rotación. Por ejemplo, si R{displaystyle R. es una matriz cuadrada que representa una rotación (matriz de rotación) y v{displaystyle mathbf {v} es un vector de columna que describe la posición de un punto en el espacio, el producto Rv{displaystyle Rmathbf {v} produce otro vector de columna que describe la posición de ese punto después de esa rotación. Si v{displaystyle mathbf {v} es un vector de fila, la misma transformación se puede obtener utilizando vRT{displaystyle mathbf {v} R^{mathsf {T}}, Donde RT{displaystyle R^{mathsf {T}} es la transposición de R{displaystyle R..

Diagonal principal

Las entradas aii{displaystyle a_{ii} ()i = 1,... n) forman la diagonal principal de una matriz cuadrada. Se encuentran en la línea imaginaria que va desde la esquina superior izquierda hasta la esquina inferior derecha de la matriz. Por ejemplo, la diagonal principal de la matriz 4×4 arriba contiene los elementos a11 = 9, a22 = 11, a33 = 4, a44 = 10.

La diagonal de una matriz cuadrada desde la esquina superior derecha hasta la esquina inferior izquierda se llama antidiagonal o contradiagonal.

Tipos especiales

NombreEjemplo con n = 3
Matriz diagonal[a11000a22000a33]{fnMicrosoft Sans Serif} {} {}}}}} {}}}}}}
Matriz triangular inferior[a1100a21a220a31a32a33]{displaystyle {begin{bmatrix}a_{11} tendría un problema0a_{21} {a_{22} {0a_{31} {a_{32}}}end{bmatrix}}}}}}} {f}}}}}
Matriz triangular superior[a11a12a130a22a2300a33]{displaystyle {begin{bmatrix}a_{11} limita_{12}duca_{13} limita_{22} limita_{23} limit0 limita_{33}end{bmatrix}}

Matriz diagonal o triangular

Si todas las entradas fuera de la diagonal principal son cero, A{displaystyle A} se llama matriz diagonal. Si sólo todas las entradas arriba (o abajo) la diagonal principal son cero, A{displaystyle A} se llama matriz triangular superior (o inferior).

Matriz de identidad

La matriz de identidad In{displaystyle I_{n} de tamaño n{displaystyle n} es n× × n{displaystyle ntimes n} matriz en la que todos los elementos en la diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0, por ejemplo.

I1=[1],I2=[1001],...... ,In=[10⋯ ⋯ 001⋯ ⋯ 0⋮ ⋮ ⋮ ⋮ ⋱ ⋱ ⋮ ⋮ 00⋯ ⋯ 1].{displaystyle I_{1}={begin{bmatrix}1end{bmatrix} I_{2}={begin{bmatrix}1 ventaja0 quedado1end{bmatrix}} ldots I_{n}={begin{bmatrix}1 ventaja0 limitadacdots &0 limitada1⁄cdots &0\\vdots &vdots &ddots >vdots \0 implicadots >

Es una matriz cuadrada del orden n{displaystyle n}, y también un tipo especial de matriz diagonal. Se llama matriz de identidad porque la multiplicación con ella deja una matriz sin cambios:

AIn = ImA = A para cualquier m-por-n matriz A{displaystyle A}.

Matriz invertible y su inversa

Una matriz cuadrada A{displaystyle A} se llama invertible o non-singular si existe una matriz B{displaystyle B} tales que

AB=BA=In.{displaystyle AB=BA=I_{n}

Si B{displaystyle B} existe, es único y se llama matriz inversa de A{displaystyle A}, denotado A− − 1{displaystyle A^{-1}.

Matriz simétrica o asimétrica

Una matriz cuadrada A{displaystyle A} que es igual a su transpose, es decir, AT=A{displaystyle A^{mathsf {T}=A}, es una matriz simétrica. Si no AT=− − A{displaystyle A^{mathsf {T}=-A}, entonces A{displaystyle A} se llama matriz simétrica.

Para una matriz cuadrada compleja A{displaystyle A}, a menudo la analogía apropiada de la transposición es la transposición conyugal AAlternativa Alternativa {displaystyle A^{*}, definido como la transposición del complejo conjugado A{displaystyle A}. Una matriz cuadrada compleja A{displaystyle A} satisfacción AAlternativa Alternativa =A{displaystyle A^{*}=A} se llama matriz hermitiana. Si no AAlternativa Alternativa =− − A{displaystyle A^{*}=-A}, entonces A{displaystyle A} se llama una matriz jermitiana.

Por el teorema espectral, las matrices simétricas reales (o hermitianas complejas) tienen una base propia ortogonal (o unitaria); es decir, cada vector es expresable como una combinación lineal de vectores propios. En ambos casos, todos los valores propios son reales.

Matriz definida

Determinado positivoIndefinido
[1/4001]{displaystyle {begin{bmatrix}1/4 logro0cera1\end{bmatrix}}}[1/400− − 1/4]{displaystyle {begin{bmatrix}1/4 ventaja0 Con-1/4end{bmatrix}}
Q()x,Sí.) = 1/4 x2 + Sí.2Q()x,Sí.) = 1/4 x2 − 1/4 Sí.2
Ellipse in coordinate system with semi-axes labelled.svg
Puntos tales que Q()x, Sí.) = 1
(Elipse).
Hyperbola2 SVG.svg
Puntos tales que Q()x, Sí.) = 1
(Hyperbola).

Simétrica n×n-Matrix se llama positivo-definido (respectivamente negativo-definido; indefinida), si para todos los vectores no cero x▪ ▪ Rn{displaystyle xin mathbb {R} {fn} la forma cuadrática asociada dada por

Q()x) xTAx

toma solo valores positivos (respectivamente solo valores negativos; tanto algunos valores negativos como positivos). Si la forma cuadrática toma solo valores no negativos (respectivamente solo no positivos), la matriz simétrica se llama positiva-semidefinida (respectivamente negativa-semidefinida); por tanto, la matriz es indefinida precisamente cuando no es semidefinida positiva ni semidefinida negativa.

Una matriz simétrica es definida positiva si y solo si todos sus valores propios son positivos. La tabla de la derecha muestra dos posibilidades para matrices de 2×2.

Al permitir como entrada dos vectores diferentes, se obtiene la forma bilineal asociada a A:

BA()x, Sí.) xTASí..

Matriz ortogonal

Una matriz ortogonal es una matriz cuadrada con elementos reales cuyas columnas y filas son vectores unitarios ortogonales (es decir, vectores ortonormales). De manera equivalente, una matriz A es ortogonal si su transpuesta es igual a su inversa:

AT=A− − 1,{displaystyle A^{textsf {T}=A^{-1}

lo que implica

ATA=AAT=I,{displaystyle A^{textsf}A=AA^{textsf {T}=I,}

donde I es la matriz identidad.

Una matriz ortogonal A es necesariamente invertible (con inverso A−1 = AT), unitario (A−1 = A*), y normal (A*A = AA*). El determinante de cualquier matriz ortogonal es ya sea +1 o −1. El grupo ortogonal especial SO⁡ ⁡ ()n){displaystyle operatorname {SO} (n)} consiste en n × n matrices ortogonales con determinantes +1.

El análogo complejo de una matriz ortogonal es una matriz unitaria.

Matriz normal

Una matriz cuadrada real o compleja A{displaystyle A} se llama normal si AAlternativa Alternativa A=AAAlternativa Alternativa {displaystyle A^{*}A=AA^{*}. Si una matriz cuadrada real es simétrica, simétrica de cerrojo, o ortogonal, entonces es normal. Si una matriz cuadrada compleja es Hermitian, skew-Hermitian, o unitario, entonces es normal. Las matrices normales son de interés principalmente porque incluyen los tipos de matrices que acaban de enumerar y forman la clase más amplia de matrices para las que el teorema espectral sostiene.

Operaciones

Rastrear

La traza, tr(A) de una matriz cuadrada A es la suma de sus entradas diagonales. Si bien la multiplicación de matrices no es conmutativa, la traza del producto de dos matrices es independiente del orden de los factores:

tr⁡ ⁡ ()AB)=tr⁡ ⁡ ()BA).{displaystyle operatorname {tr} (AB)=operatorname {tr} (BA).}

Esto es inmediato a partir de la definición de multiplicación de matrices:

tr⁡ ⁡ ()AB)=.. i=1m.. j=1nAijBji=tr⁡ ⁡ ()BA).{displaystyle operatorname {tr} (AB)=sum ##{i=1} {m}sum ¿Por qué?

Además, la traza de una matriz es igual a la de su transpuesta, es decir,

tr⁡ ⁡ ()A)=tr⁡ ⁡ ()AT).{displaystyle operatorname {tr} (A)=operatorname {tr} (A^{mathrm {T}).}

Determinante

Una transformación lineal en R2{displaystyle mathbb {R} {2}} dada por la matriz indicada. El determinante de esta matriz es −1, ya que el área del paralelograma verde a la derecha es 1, pero el mapa revierte la orientación, ya que gira la orientación en sentido contrario de los vectores a un reloj.

El determinante Det()A){displaystyle det(A)} o SilencioASilencio{displaystyle Silencioso de una matriz cuadrada A{displaystyle A} es un número de codificación de ciertas propiedades de la matriz. Una matriz es invertible si y sólo si su determinante es no cero. Su valor absoluto es igual al área (en R2{displaystyle mathbb {R} {2}}) o volumen (en R3{displaystyle mathbb {R} {} {}}}) de la imagen de la unidad cuadrado (o cubo), mientras que su signo corresponde a la orientación del mapa lineal correspondiente: el determinante es positivo si y sólo si se conserva la orientación.

El determinante de matrices 2×2 viene dado por

Det[abcd]=ad− − bc.{displaystyle det {begin{bmatrix}a palb\cend{bmatrix}=ad-bc.}

El determinante de matrices de 3×3 involucra 6 términos (regla de Sarrus). La fórmula de Leibniz, más extensa, generaliza estas dos fórmulas a todas las dimensiones.

El determinante de un producto de matrices cuadradas es igual al producto de sus determinantes:

Det()AB)=Det()A)⋅ ⋅ Det()B){displaystyle det(AB)=det(A)cdot det(B)}

Sumar un múltiplo de cualquier fila a otra fila, o un múltiplo de cualquier columna a otra columna, no cambia el determinante. Intercambiar dos filas o dos columnas afecta el determinante al multiplicarlo por −1. Usando estas operaciones, cualquier matriz puede transformarse en una matriz triangular inferior (o superior), y para tales matrices el determinante es igual al producto de las entradas en la diagonal principal; esto proporciona un método para calcular el determinante de cualquier matriz. Finalmente, la expansión de Laplace expresa el determinante en términos de menores, es decir, determinantes de matrices más pequeñas. Esta expansión puede usarse para una definición recursiva de determinantes (tomando como caso de partida el determinante de una matriz 1×1, que es su única entrada, o incluso el determinante de una matriz 0×0, que es 1), que puede ser se considera equivalente a la fórmula de Leibniz. Los determinantes se pueden usar para resolver sistemas lineales usando la regla de Cramer, donde la división de los determinantes de dos matrices cuadradas relacionadas equivale al valor de cada una de las variables del sistema.

Valores propios y vectores propios

Un número λ y un vector no cero v{displaystyle mathbf {v} satisfacción

Av=λ λ v{displaystyle Amathbf {v} =lambda mathbf {v}

son llamados eigenvalue y un eigenvector de A{displaystyle A}, respectivamente. El número λ es un eigenvalue de un n×n-Matrix A si A − λIn no es invertible, lo que equivale a

Det()A− − λ λ I)=0.{displaystyle det(A-lambda I)=0.}

El polinomio pA en un indeterminado X dado por la evaluación del determinante det(XInA) se llama el polinomio característico de A. Es un polinomio mónico de grado n. Por lo tanto, la ecuación polinomial pA(λ) = 0 tiene como máximo n soluciones diferentes, es decir, valores propios de la matriz. Pueden ser complejos incluso si las entradas de A son reales. Según el teorema de Cayley-Hamilton, pA(A) = 0, es decir, el resultado de sustituir la propia matriz en su propio polinomio característico da como resultado la matriz cero.

Contenido relacionado

Dominio dedekind

En álgebra abstracta, un dominio de Dedekind o anillo de Dedekind, llamado así por Richard Dedekind, es un dominio integral en el que cada ideal propio...

Grupo de simetría

En teoría de grupos, el grupo de simetría de un objeto geométrico es el grupo de todas las transformaciones bajo las cuales el objeto es invariante, dotado...

Teorema del valor medio

En matemáticas, el teorema del valor medio establece, aproximadamente, que para un arco plano dado entre dos extremos, hay al menos un punto en que la...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save