Matriz ortogonal

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Matriz cuadrada real cuyas columnas y filas son vectores de unidad ortogonal

En álgebra lineal, una matriz ortogonal, o matriz ortonormal, es una matriz cuadrada real cuyas columnas y filas son vectores ortonormales.

Una forma de expresar esto es

QTQ=QQT=I,{displaystyle Q^{mathrm {T}Q=Q^{mathrm Yo...
QTQI

Esto lleva a la caracterización equivalente: una matriz Q es ortogonal si su transpuesta es igual a su inversa:

QT=Q− − 1,{displaystyle Q^{mathrm {T}=Q^{-1}
Q−1Q

Una matriz ortogonal Q es necesariamente invertible (con inversa Q−1 = QT), unitario (Q−1 = Q), donde Q es el adjunto hermitiano (transpuesta conjugada) de Q y, por lo tanto, normal (QQ = QQ ) sobre los números reales. El determinante de cualquier matriz ortogonal es +1 o −1. Como transformación lineal, una matriz ortogonal conserva el producto interno de los vectores y, por lo tanto, actúa como una isometría del espacio euclidiano, como una rotación, una reflexión o una reflexión del rotor. En otras palabras, es una transformación unitaria.

El conjunto de matrices ortogonales n × n, bajo multiplicación, forma el grupo O(n), conocido como el grupo ortogonal. El subgrupo SO(n) formado por matrices ortogonales con determinante +1 se denomina grupo ortogonal especial, y cada uno de sus elementos es un matriz ortogonal especial. Como transformación lineal, cada matriz ortogonal especial actúa como una rotación.

Resumen

Una matriz ortogonal es la especialización real de una matriz unitaria, y por lo tanto siempre una matriz normal. Aunque aquí solo consideramos matrices reales, la definición se puede usar para matrices con entradas de cualquier campo. Sin embargo, las matrices ortogonales surgen naturalmente de los productos escalares, y para las matrices de números complejos, esto conduce al requisito unitario. Las matrices ortogonales conservan el producto punto, por lo tanto, para los vectores u y v en un espacio euclidiano real n-dimensional

u⋅ ⋅ v=()Qu)⋅ ⋅ ()Qv){displaystyle {Mathbf} } 'cdot {mathbf {v} }=left(Q{mathbf {u}right)cdot left(Q{mathbf {v}right)}
QvnvvTvQv
vTv=()Qv)T()Qv)=vTQTQv.{displaystyle {Mathbf}. {T} {fn} {fn} {\fn}}} {fn}}} {\mhm} {fn} {\fn}} {\fnMitbf})= {\fnMitbf {f}} {f}}} {f}}}}} {f}}}}}}}}} {\f}}}}}\\\\\\\\\\\fnH0}\\\\\fnH0}\\\\\\\fn\\\\\\\\\fnMithnhnMitbhnMithnhnhnMithnhnhnhnhnhnhnhnhnhnhnhnhnhnhnhnhnhnhnhnhnhnhnh. {T}Q^{mathrm {T}Q{mathbf {}}

Por lo tanto, las isometrías lineales de dimensión finita (rotaciones, reflexiones y sus combinaciones) producen matrices ortogonales. Lo contrario también es cierto: las matrices ortogonales implican transformaciones ortogonales. Sin embargo, el álgebra lineal incluye transformaciones ortogonales entre espacios que pueden no ser de dimensión finita ni de la misma dimensión, y estos no tienen una matriz ortogonal equivalente.

Las matrices ortogonales son importantes por varias razones, tanto teóricas como prácticas. Las matrices ortogonales n × n forman un grupo bajo la multiplicación de matrices, el grupo ortogonal denotado por O(n), que, con sus subgrupos, se usa ampliamente en matemáticas y ciencias físicas. Por ejemplo, el grupo puntual de una molécula es un subgrupo de O(3). Debido a que las versiones de punto flotante de las matrices ortogonales tienen propiedades ventajosas, son clave para muchos algoritmos en álgebra lineal numérica, como la descomposición QR. Como otro ejemplo, con la normalización adecuada, la transformada de coseno discreta (utilizada en la compresión de MP3) se representa mediante una matriz ortogonal.

Ejemplos

A continuación se muestran algunos ejemplos de matrices ortogonales pequeñas y posibles interpretaciones.

  • [1001]{displaystyle {begin{bmatrix}1 âTMa âTMa âTMa {}}}}} (Transformación de identidad)
  • [#⁡ ⁡ Silencio Silencio − − pecado⁡ ⁡ Silencio Silencio pecado⁡ ⁡ Silencio Silencio #⁡ ⁡ Silencio Silencio ]{displaystyle {begin{bmatrix}cos theta &-sin theta \sin theta &cos theta \end{bmatrix}} (rotación sobre el origen)
  • [100− − 1]{displaystyle {begin{bmatrix}1 âTMa âTMa âTMa {}}}}} (reflexión al otro lado x-eje)
  • [0001001010000100]{displaystyle {begin{bmatrix}0 ventaja0 limitada1 lentamente0}}}} (permutación de ejes de coordenadas)

Construcciones elementales

Dimensiones inferiores

Las matrices ortogonales más simples son las matrices 1 × 1 [1] y [−1], que podemos interpretar como la identidad y un reflejo de la línea real a través de la origen.

Las matrices 2 × 2 tienen la forma

[ptqu],{displaystyle {begin{bmatrix}p Damet\q recuruend{bmatrix}}
1=p2+t2,1=q2+u2,0=pq+tu.{displaystyle {begin{aligned}1 limit=p^{2}+t^{2},1 limit=q^{2}+u^{2}, limit=pq+tu.end{aligned}}}

Considerando la primera ecuación, sin pérdida de generalidad, sea p = cos θ, q = sin θ; entonces t = −q, u = p o t = q, u = −p. Podemos interpretar el primer caso como una rotación por θ (donde θ = 0 es la identidad), y el segundo como un reflejo a través de una línea en un ángulo de θ/2 .

[#⁡ ⁡ Silencio Silencio − − pecado⁡ ⁡ Silencio Silencio pecado⁡ ⁡ Silencio Silencio #⁡ ⁡ Silencio Silencio ](rotación),[#⁡ ⁡ Silencio Silencio pecado⁡ ⁡ Silencio Silencio pecado⁡ ⁡ Silencio Silencio − − #⁡ ⁡ Silencio Silencio ](reflexión){displaystyle {begin{bmatrix}cos theta &-sin theta \sin theta &cos theta \end{bmatrix}{text{ (rotation), }qquad {begin{bmatrix}cos theta &sin theta \sin theta &-cos theta \end{bmatrix}{text{ (reflexión)}}}}

El caso especial de la matriz de reflexión con θ = 90° genera una reflexión sobre la línea a 45° dada por y = x y por lo tanto intercambia x y y; es una matriz de permutación, con un solo 1 en cada columna y fila (y de lo contrario 0):

[0110].{displaystyle {begin{bmatrix}0 tarde11}end{bmatrix}}

La identidad también es una matriz de permutación.

Una reflexión es su propia inversa, lo que implica que una matriz de reflexión es simétrica (igual a su transpuesta) además de ortogonal. El producto de dos matrices de rotación es una matriz de rotación y el producto de dos matrices de reflexión también es una matriz de rotación.

Dimensiones más altas

Independientemente de la dimensión, siempre es posible clasificar las matrices ortogonales como puramente rotacionales o no, pero para matrices 3 × 3 y más grandes, las matrices no rotacionales pueden ser más complicado que los reflejos. Por ejemplo,

[− − 1000− − 1000− − 1]y[0− − 1010000− − 1]{}} {begin{bmatrix}}{begin{bmatrix}} {begin{begin{bmatrix}0 {}0 âTMa}0 âTMa âTMa {bmatrix}0 âTMa âTMa}0 âTMa âTMa {}}}}}}}} {bmatrix}}}}}}}}}}}}}}}}}}}}}}}} {

representan una inversión a través del origen y una rotoinversión, respectivamente, sobre el eje z.

Las rotaciones se vuelven más complicadas en dimensiones más altas; ya no pueden caracterizarse completamente por un ángulo y pueden afectar a más de un subespacio plano. Es común describir una matriz de rotación 3 × 3 en términos de un eje y un ángulo, pero esto solo funciona en tres dimensiones. Por encima de tres dimensiones se necesitan dos o más ángulos, cada uno asociado con un plano de rotación.

Sin embargo, tenemos bloques de construcción elementales para permutaciones, reflexiones y rotaciones que se aplican en general.

Primitivas

La permutación más elemental es una transposición, que se obtiene de la matriz identidad intercambiando dos filas. Cualquier matriz de permutación n × n se puede construir como un producto de no más de n − 1 transposiciones.

Un reflejo de cabeza de familia se construye a partir de un vector no nulo v como

Q=I− − 2vvTvTv.{displaystyle Q=I-2{frac {fnMitbf} }{mathbf {v} }{mathbf {v} }{mathrm {T}{mathbf {v} }}}

Aquí el numerador es una matriz simétrica mientras que el denominador es un número, la magnitud al cuadrado de v. Este es un reflejo en el hiperplano perpendicular a v (negando cualquier componente vectorial paralelo a v). Si v es un vector unitario, entonces Q = I − 2vvT es suficiente. Una reflexión de jefe de hogar se usa típicamente para poner a cero simultáneamente la parte inferior de una columna. Cualquier matriz ortogonal de tamaño n × n se puede construir como un producto de como máximo n tales reflexiones.

Una rotación de Givens actúa sobre un subespacio bidimensional (planar) dividido por dos ejes de coordenadas, que gira según un ángulo elegido. Por lo general, se usa para poner a cero una sola entrada subdiagonal. Cualquier matriz de rotación de tamaño n × n se puede construir como un producto de como máximo n(n − 1)/2 dichas rotaciones. En el caso de las matrices 3 × 3, tres rotaciones de este tipo son suficientes; y fijando la secuencia podemos describir todas las matrices de rotación 3 × 3 (aunque no de forma única) en términos de los tres ángulos utilizados, a menudo llamados ángulos de Euler.

Una rotación de Jacobi tiene la misma forma que una rotación de Givens, pero se usa para poner a cero ambas entradas fuera de la diagonal de una submatriz simétrica 2 × 2.

Propiedades

Propiedades de la matriz

Una matriz cuadrada real es ortogonal si y solo si sus columnas forman una base ortonormal del espacio euclidiano Rn con el producto punto euclidiano ordinario, que es el caso si y solo si sus filas forman una base ortonormal de Rn. Podría ser tentador suponer que una matriz con columnas ortogonales (no ortonormales) se llamaría matriz ortogonal, pero tales matrices no tienen un interés especial ni un nombre especial; solo satisfacen MTM = D, con D una matriz diagonal.

El determinante de cualquier matriz ortogonal es +1 o −1. Esto se deduce de los hechos básicos sobre los determinantes, como sigue:

1=Det()I)=Det()QTQ)=Det()QT)Det()Q)=()Det()Q))2.{displaystyle 1=det(I)=det left(Q^{mathrm) {T} }Qright)=det left(Q^{mathrm {T}right)det(Q)={bigl (}det(Q){bigr)}{2}}

Lo contrario no es cierto; tener un determinante de ±1 no es garantía de ortogonalidad, incluso con columnas ortogonales, como se muestra en el siguiente contraejemplo.

[20012]{displaystyle {begin{bmatrix}2 limit0 {frac}end{bmatrix}}}

Con las matrices de permutación, el determinante coincide con la firma, siendo +1 o −1 según la paridad de la permutación sea par o impar, ya que el determinante es una función alterna de las filas.

Más fuerte que la restricción del determinante es el hecho de que una matriz ortogonal siempre se puede diagonalizar sobre los números complejos para exhibir un conjunto completo de valores propios, todos los cuales deben tener un módulo (complejo) 1.

Propiedades del grupo

La inversa de toda matriz ortogonal es nuevamente ortogonal, como lo es el producto matricial de dos matrices ortogonales. De hecho, el conjunto de todas las matrices ortogonales n × n satisface todos los axiomas de un grupo. Es un grupo de Lie compacto de dimensión n( n − 1)/2, llamado el grupo ortogonal y denotado por O(n).

Las matrices ortogonales cuyo determinante es +1 forman un subgrupo normal conectado por caminos de O(n) de índice 2, el grupo ortogonal especial SO(n) de rotaciones. El grupo de cocientes O(n)/SO(n) es isomorfo a O (1), con el mapa de proyección eligiendo [+1] o [−1] según el determinante. Las matrices ortogonales con determinante −1 no incluyen la identidad, por lo que no forman un subgrupo sino solo una clase lateral; también está (por separado) conectado. Así, cada grupo ortogonal se divide en dos piezas; y debido a que el mapa de proyección se divide, O(n) es un producto semidirecto de SO(n) por O(1). En términos prácticos, una declaración comparable es que cualquier matriz ortogonal se puede producir tomando una matriz de rotación y posiblemente negando una de sus columnas, como vimos con las matrices 2 × 2. Si n es impar, entonces el producto semidirecto es de hecho un producto directo, y cualquier matriz ortogonal se puede producir tomando una rotación matriz y posiblemente negando todas sus columnas. Esto se deduce de la propiedad de los determinantes de que negar una columna niega el determinante y, por lo tanto, negar un número impar (pero no par) de columnas niega el determinante.

Ahora considere (n + 1) × (n + 1) matrices ortogonales con la entrada inferior derecha igual a 1. El resto de la última columna (y la última fila) deben ser ceros, y el producto de cualquiera de estas dos matrices tiene la misma forma. El resto de la matriz es una matriz ortogonal n × n; por lo tanto, O(n) es un subgrupo de O(n + 1) (y de todos los grupos superiores).

[0O()n)⋮ ⋮ 00⋯ ⋯ 01]{displaystyle {begin{bmatrix} limitándose tarde0\demn}(n) limitándosevdots\fnción doble0cdots >

Dado que una reflexión elemental en la forma de una matriz de Jefe de Hogar puede reducir cualquier matriz ortogonal a esta forma restringida, una serie de dichas reflexiones puede llevar cualquier matriz ortogonal a la identidad; por tanto, un grupo ortogonal es un grupo de reflexión. La última columna se puede fijar a cualquier vector unitario, y cada opción da una copia diferente de O(n) en O(n + 1); de esta manera O(n + 1) es un paquete sobre la esfera unitaria Sn con fibra O(n).

Del mismo modo, SO(n) es un subgrupo de SO(n + 1); y cualquier matriz ortogonal especial puede generarse mediante rotaciones planas de Givens utilizando un procedimiento análogo. La estructura del paquete persiste: SO(n) ↪ SO(n + 1) → S n. Una sola rotación puede producir un cero en la primera fila de la última columna, y una serie de n − 1 rotaciones pondrán en cero todas menos la última fila de la última columna de una matriz de rotación n × n. Como los planos son fijos, cada rotación tiene solo un grado de libertad, su ángulo. Por inducción, SO(n) por lo tanto tiene

()n− − 1)+()n− − 2)+⋯ ⋯ +1=n()n− − 1)2{displaystyle (n-1)+(n-2)+cdots +1={frac {n-1)}{2}}}
O...n)

Las matrices de permutación son aún más simples; forman, no un grupo de Lie, sino sólo un grupo finito, el orden n! grupo simétrico Sn. Por el mismo tipo de argumento, Sn es un subgrupo de Sn + 1. Las permutaciones pares producen el subgrupo de matrices de permutación de determinante +1, el orden n !/2 grupo alterno.

Forma canónica

En términos más generales, el efecto de cualquier matriz ortogonal se separa en acciones independientes en subespacios bidimensionales ortogonales. Es decir, si Q es ortogonal especial, siempre se puede encontrar una matriz ortogonal P, un cambio de base (rotacional), que trae Q al bloque forma diagonal:

PTQP=[R1⋱ ⋱ Rk]()nincluso),PTQP=[R1⋱ ⋱ Rk1]()nextraño).{displaystyle ################################################################################################################################################################################################################################################################ }

donde las matrices R1,..., Rk son matrices de rotación 2 × 2 y las entradas restantes son cero. Excepcionalmente, un bloque de rotación puede ser diagonal, ±I. Por lo tanto, negando una columna si es necesario, y observando que un reflejo 2 × 2 se diagonaliza a +1 y −1, cualquier matriz ortogonal se puede llevar a la forma

PTQP=[R1⋱ ⋱ Rk00± ± 1⋱ ⋱ ± ± 1],{displaystyle P^{mathrm {}QP={begin{bmatrix}{begin{matrix}R_{1} limitándose\\fnMicrosoft {}\begin{matrix}pm 1 limitada\\\\\fnMicrosoft Sans Serif}\\\fnMicrosoft Sans Serif}\\fnMicrosoft Sans Serif}}\end{bmatrix}}}}}}}}}}}

Las matrices R1,..., Rk dan pares conjugados de valores propios que se encuentran en el círculo unitario en el plano complejo; por lo que esta descomposición confirma que todos los valores propios tienen el valor absoluto 1. Si n es impar, hay al menos un valor propio real, +1 o -1; para una rotación 3 × 3, el vector propio asociado con +1 es el eje de rotación.

Álgebra de mentira

Suponga que las entradas de Q son funciones diferenciables de t, y que t = 0 da Q = yo. Diferenciando la condición de ortogonalidad

QTQ=I{displaystyle Q^{mathrm {T}Q=I}
QÍ Í TQ+QTQÍ Í =0{displaystyle {dot {fnK} {fnMicrosoft}} {fnMicrosoft}} {fn}}} {fnMicrom}}} {fnK}}}}} {fnMicrom}} {T}Q+Q^{mathrm {T}{dot {Q}=0}

Evaluación en t = 0 (Q = I) entonces implica

QÍ Í T=− − QÍ Í .{displaystyle {dot {fnK} {fnMicrosoft}} {fnMicrosoft}} {fn}}} {fnMicrom}}} {fnK}}}}} {fnMicrom}} {T}=-{dot {Q}}

En términos de grupos de Lie, esto significa que el álgebra de Lie de un grupo de matrices ortogonales consta de matrices asimétricas. Yendo en la otra dirección, la matriz exponencial de cualquier matriz asimétrica es una matriz ortogonal (de hecho, ortogonal especial).

Por ejemplo, la física de objeto tridimensional llama velocidad angular es una rotación diferencial, por lo tanto un vector en el álgebra de Lie so()3){displaystyle {mathfrak}(3)} tangente a SO(3). Dado =x, Y., z), con v =x, Sí., z) ser un vector de unidad, la forma de matriz simétrica correcta de la sierra es

Ω Ω =[0− − zSilencio Silencio Sí.Silencio Silencio zSilencio Silencio 0− − xSilencio Silencio − − Sí.Silencio Silencio xSilencio Silencio 0].{displaystyle Omega ={begin{bmatrix}0 sensible-ztheta &theta \ztheta >.

La exponencial de esto es la matriz ortogonal para la rotación alrededor del eje v por el ángulo θ; configuración c = cos θ/2, s = sin θ/2,

exp⁡ ⁡ ()Ω Ω )=[1− − 2s2+2x2s22xSí.s2− − 2zsc2xzs2+2Sí.sc2xSí.s2+2zsc1− − 2s2+2Sí.2s22Sí.zs2− − 2xsc2xzs2− − 2Sí.sc2Sí.zs2+2xsc1− − 2s2+2z2s2].{2}222xys^{2}22222222222\2222222222222222222222222222222222222222222\22222222\\4444422222222222\\44\\\4\\\44444444444444444444222222222

Álgebra lineal numérica

Beneficios

El análisis numérico aprovecha muchas de las propiedades de las matrices ortogonales para el álgebra lineal numérica y surgen de forma natural. Por ejemplo, a menudo es deseable calcular una base ortonormal para un espacio, o un cambio ortogonal de bases; ambos toman la forma de matrices ortogonales. Tener un determinante ±1 y todos los valores propios de magnitud 1 es de gran beneficio para la estabilidad numérica. Una implicación es que el número de condición es 1 (que es el mínimo), por lo que los errores no se magnifican al multiplicar con una matriz ortogonal. Muchos algoritmos usan matrices ortogonales como las reflexiones de Houseer y las rotaciones de Givens por este motivo. También es útil que, no solo una matriz ortogonal sea invertible, sino que su inversa esté disponible esencialmente de forma gratuita, mediante el intercambio de índices.

Las permutaciones son esenciales para el éxito de muchos algoritmos, incluida la eliminación gaussiana de caballo de batalla con pivote parcial (donde las permutaciones hacen el pivote). Sin embargo, rara vez aparecen explícitamente como matrices; su forma especial permite una representación más eficiente, como una lista de índices n.

Del mismo modo, los algoritmos que utilizan matrices de Householder y Givens suelen utilizar métodos especializados de multiplicación y almacenamiento. Por ejemplo, una rotación de Givens afecta solo a dos filas de una matriz que multiplica, cambiando una multiplicación completa de orden n3 a un orden mucho más eficiente n. Cuando los usos de estos reflejos y rotaciones introducen ceros en una matriz, el espacio vacío es suficiente para almacenar suficientes datos para reproducir la transformación y hacerlo de manera sólida. (Siguiendo a Stewart (1976), no almacenamos un ángulo de rotación, que es costoso y se comporta mal).

Descomposiciones

Varias descomposiciones de matrices importantes (Golub & Van Loan 1996) involucran matrices ortogonales, incluyendo especialmente:

QR descomposición
M = QR, Q ortogonal, R superior triangular
Descomposición de valor
M = U.VT, U y V ortogonal, . matriz diagonal
Eigendecomposición de una matriz simétrica (decomposición según el teorema espectral)
S = QQT, S simétrico, Q ortogonal, diagonal
Polar descomposition
M = QS, Q ortogonal, S symmetric positive-semidefinite

Ejemplos

Considere un sistema sobredeterminado de ecuaciones lineales, como podría ocurrir con mediciones repetidas de un fenómeno físico para compensar errores experimentales. Escriba Ax = b, donde A es m × n, m > n. Una descomposición QR reduce A al triangular superior R. Por ejemplo, si A es 5 × 3 entonces R tiene la forma

R=[⋅ ⋅ ⋅ ⋅ ⋅ ⋅ 0⋅ ⋅ ⋅ ⋅ 00⋅ ⋅ 000000].{displaystyle R={begin{bmatrix}cdot &cdot >cdot \0 tardecdot {}}

El problema de mínimos cuadrados lineales es encontrar la x que minimiza ||Axb| |, que es equivalente a proyectar b al subespacio abarcado por las columnas de A. Asumiendo las columnas de A (y por lo tanto R) son independientes, la solución de proyección se encuentra en ATA x = ATb. Ahora ATA es cuadrado (n × n) e invertible, y también igual a RTR. Pero las filas inferiores de ceros en R son superfluas en el producto, que por lo tanto ya está en forma factorizada triangular inferior triangular superior, como en la eliminación de Gauss (descomposición de Cholesky). Aquí la ortogonalidad es importante no solo para reducir ATA = (R TQT)QR a R TR, sino también por permitir la solución sin magnificar problemas numéricos.

En el caso de un sistema lineal indeterminado o de una matriz no invertible, la descomposición en valores singulares (SVD) es igualmente útil. Con A factorizado como UΣVT, una solución satisfactoria utiliza el pseudoinverso de Moore-Penrose, VΣ+ UT, donde Σ+ simplemente reemplaza cada diagonal distinta de cero entrada con su recíproco. Establezca x en VΣ+ UTb.

El caso de una matriz cuadrada invertible también tiene interés. Supongamos, por ejemplo, que A es una matriz de rotación 3 × 3 que se ha calculado como la composición de numerosos giros y vueltas. El punto flotante no coincide con el ideal matemático de los números reales, por lo que A ha perdido gradualmente su verdadera ortogonalidad. Un proceso de Gram-Schmidt podría ortogonalizar las columnas, pero no es el método más confiable, ni el más eficiente, ni el más invariable. La descomposición polar factoriza una matriz en un par, uno de los cuales es la única matriz ortogonal más cercana a la matriz dada, o una de las más cercanas si la matriz dada es singular. (La cercanía se puede medir mediante cualquier norma de matriz invariante bajo un cambio de base ortogonal, como la norma espectral o la norma de Frobenius). El método de Newton enfoque debido a Higham (1986) (1990), promediando repetidamente la matriz con su transpuesta inversa. Dubrulle (1999) ha publicado un método acelerado con una conveniente prueba de convergencia.

Por ejemplo, considere una matriz no ortogonal para la cual el algoritmo de promedio simple toma siete pasos

[3175]→ → [1.81250,06253.43752.6875]→ → ⋯ ⋯ → → [0,8− − 0.60.60,8]{displaystyle {begin{bmatrix}3 ventaja17 recur5end{bmatrix}rightarrow {begin{bmatrix}1.8125 litro0.06253.4375end{bmatrix}rightarrow cdots rightarrow {begin{bmatrix}0.8 âTMa.6.8end{bmatrix}}
γ

[3175]→ → [1.41421− − 1.060661.060661.41421]→ → [0,8− − 0.60.60,8]{displaystyle {begin{bmatrix}3 ventaja17 recur5end{bmatrix}rightarrow {begin{bmatrix}1.41421 ventaja-1.06066\1.06066 ventaja1.41421end{bmatrix}rightarrow {begin{bmatrix}0.8 âTMa.6.8end{bmatrix}}

Gram-Schmidt produce una solución inferior, mostrada por una distancia de Frobenius de 8,28659 en lugar del mínimo 8,12404.

[3175]→ → [0.393919− − 0.9191450.9191450.393919]{displaystyle {begin{bmatrix}3 ventaja17 recur5end{bmatrix}rightarrow {begin{bmatrix}0.393919 implica-0.919145.9145.9145}.393919end{bmatrix}}}}}}}}}}}}}}}

Aleatorización

Algunas aplicaciones numéricas, como los métodos Monte Carlo y la exploración de espacios de datos de alta dimensión, requieren la generación de matrices ortogonales aleatorias uniformemente distribuidas. En este contexto, "uniforme" se define en términos de la medida de Haar, que esencialmente requiere que la distribución no cambie si se multiplica por cualquier matriz ortogonal elegida libremente. La ortogonalización de matrices con entradas aleatorias distribuidas uniformemente independientes no da como resultado matrices ortogonales distribuidas uniformemente, pero la descomposición QR de entradas aleatorias distribuidas normalmente independientes sí lo hace, siempre que la diagonal de R contiene solo entradas positivas (Mezzadri 2006). Stewart (1980) reemplazó esto con una idea más eficiente de que Diaconis & Shahshahani (1987) más tarde generalizó como el "algoritmo de subgrupos" (en cuya forma funciona igual de bien para permutaciones y rotaciones). Para generar una matriz ortogonal (n + 1) × (n + 1), tome una n × n uno y un vector unitario de dimensión uniformemente distribuido n + 1. Construya un reflejo de jefe de hogar a partir del vector, luego aplíquelo a la matriz más pequeña (incrustada en el tamaño más grande con un 1 en la esquina inferior derecha).

Matriz ortogonal más cercana

El problema de encontrar la matriz ortogonal Q más cercana a una matriz dada M está relacionado con el problema de Procrustes ortogonal. Hay varias formas diferentes de obtener la solución única, la más simple de las cuales es tomar la descomposición del valor singular de M y reemplazar el singular valores con unos. Otro método expresa la R explícitamente pero requiere el uso de una raíz cuadrada de matriz:

Q=M()MTM)− − 12{displaystyle Q=Mleft(M^{mathrm ¿Qué? {1}{2}}}}

Esto se puede combinar con el método babilónico para extraer la raíz cuadrada de una matriz para dar una recurrencia que converge cuadráticamente a una matriz ortogonal:

Qn+1=2M()Qn− − 1M+MTQn)− − 1{displaystyle Q_{n+1}=2Mleft(Q_{n}{-1}M+M^{mathrm {T} }Q_{n}right)}{-1}
Q0 = M

Estas iteraciones son estables siempre que el número de condición de M sea inferior a tres.

Usar una aproximación de primer orden de la inversa y la misma inicialización da como resultado la iteración modificada:

Nn=QnTQn{displaystyle No. {T}
Pn=12QnNn{displaystyle P_{n}={frac {1} {2}Q_{n}N_{n}
Qn+1=2Qn+PnNn− − 3Pn{displaystyle Q_{n+1}=2Q_{n}+P_{n}N_{n}-3P_{n}

Girar y fijar

Un sutil problema técnico afecta a algunos usos de matrices ortogonales. No solo los componentes del grupo con determinante +1 y −1 no están conectados entre sí, incluso el componente +1, SO(n), está no simplemente conectado (excepto SO(1), que es trivial). Por lo tanto, a veces es ventajoso, o incluso necesario, trabajar con un grupo de cobertura de SO(n), el grupo de giro, Spin(n). Asimismo, O(n) tiene grupos de cobertura, los grupos pin, Pin(n). Para n > 2, Spin(n) simplemente está conectado y, por lo tanto, es el grupo de cobertura universal para SO(n). Con mucho, el ejemplo más famoso de un grupo de espín es Spin(3), que no es más que SU(2), o el grupo de cuaterniones unitarios.

Los grupos Pin y Spin se encuentran dentro de las álgebras de Clifford, que a su vez se pueden construir a partir de matrices ortogonales.

Matrices rectangulares

Si Q no es una matriz cuadrada, entonces las condiciones QTQ = I y QQT = I no son equivalentes. La condición QTQ = I dice que el las columnas de Q son ortonormales. Esto solo puede suceder si Q es un m × n con nm (debido a la dependencia lineal). De manera similar, QQT = I dice que las filas de Q son ortonormales, lo que requiere nm.

No existe una terminología estándar para estas matrices. Se denominan de diversas formas "matrices semiortogonales", "matrices ortonormales", "matrices ortogonales" y, a veces, simplemente "matrices con filas/columnas ortonormales". 34;.

Para el caso nm, las matrices con columnas ortonormales pueden denominarse marcos k ortogonales y son elementos de la variedad de Stiefel.

Contenido relacionado

Diferencia finita

El operador de la diferencia, comúnmente denotado Δ Δ {displaystyle Delta } es el operador que mapea una función f a la función Δ Δ [f]{displaystyle...

Sistema de clasificación Elo

El sistema de calificación Elo es un método para calcular los niveles de habilidad relativos de los jugadores en juegos de suma cero como el ajedrez. Lleva...

Producto tensorial

En matemáticas, la producto tensor V⊗ ⊗ W{displaystyle Votimes W} de dos espacios vectoriales V y W es un espacio vectorial al que se asocia un mapa...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save