Matriz ortogonal
Na álgebra linear, uma matriz ortogonal ou matriz ortonormal , é uma matriz quadrada real cujas colunas e linhas são vetores ortonormais.
Uma maneira de expressar isso é Onde? QT é a transpose de Q e Eu... é a matriz de identidade.
Isso leva à caracterização equivalente: uma matriz Q é ortogonal se sua transpose é igual ao seu inverso: Onde? Q- Sim. é o inverso de Q.
Uma matriz ortogonal q é necessariamente invertível (com inverso q
O conjunto de n × n matrizes ortogonais, sob multiplicação, forma o grupo O ( n ) , conhecido como grupo ortogonal. O subgrupo então ( n ) consistindo em matrizes ortogonais com determinante +1 é chamado de grupo ortogonal especial, e cada um de seus elementos é uma matriz ortogonal especial especial . Como uma transformação linear, toda matriz ortogonal especial atua como uma rotação.
Visão geral

Uma matriz ortogonal é a especialização real de uma matriz unitária, e assim sempre uma matriz normal. Embora consideremos apenas matrizes reais aqui, a definição pode ser usada para matrizes com entradas de qualquer campo. No entanto, as matrizes ortogonais surgem naturalmente de produtos do ponto, e para matrizes de números complexos que levam ao invés da exigência unitária. Matrizes ortogonais preservam o produto do ponto, assim, para vetores u e v em um n-espaço real Euclidiano Onde? Q é uma matriz ortogonal. Para ver a conexão interna do produto, considere um vetor v em um n- espaço euclidiano real. Escrito com respeito a uma base ortonormal, o comprimento quadrado de v é vTv. Se uma transformação linear, em forma de matriz Qv, preserva comprimentos vetoriais, então
Assim, isometrias lineares-dimensionais finitas-rotações, reflexões e suas combinações-produziram matrizes ortogonais. O inverso também é verdadeiro: as matrizes ortogonais implicam transformações ortogonais. No entanto, a álgebra linear inclui transformações ortogonais entre espaços que podem não ser dimensionais finitos nem da mesma dimensão, e estes não possuem matriz ortogonal equivalente.
Matrizes ortogonais são importantes por várias razões, teóricas e práticas. O n × n matrizes ortogonais formam um grupo sob multiplicação de matrizes, o grupo ortogonal indicado por O ( n ) , que - com seus subgrupos - é amplamente utilizado na matemática e nas ciências físicas. Por exemplo, o grupo pontual de uma molécula é um subgrupo de O (3). Como as versões de ponto flutuante das matrizes ortogonais têm propriedades vantajosas, elas são essenciais para muitos algoritmos na álgebra linear numérica, como a decomposição de QR. Como outro exemplo, com a normalização apropriada, a transformação de cosseno discreto (usada na compressão MP3) é representada por uma matriz ortogonal.Exemplos
Abaixo estão alguns exemplos de pequenas matrizes ortogonais e possíveis interpretações.
- (transformação de identidade)
- (rotação sobre a origem)
- (reflexão em x- eixos?
- (permutação de eixos de coordenadas)
Construções elementares
Dimensões mais baixas
As matrizes ortogonais mais simples são as matrizes 1 × 1 [1] e [-1], que podemos interpretar como a identidade e uma reflexão da linha real através da linha através da origem.
O 2 × 2 matrizes têm a forma que a ortogonalidade exige satisfazer as três equações
Considerando a primeira equação, sem perda de generalidade, deixe p = cos θ , q = sin θ ; Então t = - q , u = = p ou t = q , u = - p . Podemos interpretar o primeiro caso como uma rotação por θ (onde θ = 0 é a identidade) e a segunda como uma reflexão em uma linha em um ângulo de θ / 2 < /span> .
O caso especial da matriz de reflexão com θ = 90 ° gera um reflexo sobre a linha a 45 ° dado por Sim. = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = x e, portanto, trocas x e Sim.; é uma matriz de permutação, com um único 1 em cada coluna e linha (e de outra forma 0):
A identidade também é uma matriz de permutação.
Uma reflexão é sua própria inversa, o que implica que uma matriz de reflexão é simétrica (igual à sua transposição) e ortogonal. O produto de duas matrizes de rotação é uma matriz de rotação e o produto de duas matrizes de reflexão também é uma matriz de rotação.
Dimensões mais altas
Independentemente da dimensão, é sempre possível classificar matrizes ortogonais como puramente rotativas ou não, mas para 3 × 3 matrizes e maiores as matrizes não-rotacionais podem ser mais complicadas do que reflexos. Por exemplo,
Representar uma inversão através da origem e uma rotainversão , respectivamente, sobre o z -xis.
Asrotações se tornam mais complicadas em dimensões mais altas; Eles não podem mais ser completamente caracterizados por um ângulo e podem afetar mais de um subespaço plano. É comum descrever uma matriz de rotação 3 × 3 em termos de eixo e ângulo, mas isso só funciona em três dimensões. Acima de três dimensões, são necessários dois ou mais ângulos, cada um associado a um plano de rotação.
No entanto, temos blocos de construção elementares para permutações, reflexões e rotações que se aplicam em geral.
Primitivos
A permutação mais elementar é uma transposição, obtida da matriz de identidade trocando duas linhas. Qualquer n × n A matriz de permutação pode ser construída como um produto não mais que n - 1 transposições.
Uma reflexão do Householder é construída a partir de um vetor não-null v como
Aqui o numerador é uma matriz simétrica, enquanto o denominador é um número, a magnitude quadrada de v . Esta é uma reflexão no hiperplano perpendicular a v (negando qualquer componente vetorial paralelo a v // b> ). Se v é um vetor de unidade, então q = i - 2 vv
Uma rotação de givens atua em um subespaço bidimensional (planar), abranjado por dois eixos de coordenadas, girando por um ângulo escolhido. Normalmente, é usado para zero uma única entrada subdiagonal. Qualquer matriz de rotação de tamanho n × n pode ser construída como um produto de na maioria das vezes n ( n - 1) / 2 tais rotações. No caso de matrizes 3 × 3 , três dessas rotações são suficientes; E, ao corrigir a sequência, podemos descrever todas as matrizes de rotação 3 × 3 (embora não exclusivamente) em termos dos três ângulos utilizados, geralmente chamados de ângulos de Euler.
Uma rotação de Jacobi tem a mesma forma que uma rotação de givens, mas é usada para zerar as duas entradas fora da diagonal de A 2 × 2 Submatriz simétrica.
Propriedades
Propriedades da Matrix
Uma matriz quadrada real é ortogonal se e somente se suas colunas formarem uma base ortonormal do espaço euclidiano r
O determinante de qualquer matriz ortogonal é +1 ou −1. Isso se segue de fatos básicos sobre determinantes, como segue:
O converso não é verdadeiro; ter um determinante de ±1 não é garantia de ortogonalidade, mesmo com colunas ortogonais, como mostrado pelo contraexemplo seguinte.
Com matrizes de permutação, o determinante corresponde à assinatura, sendo +1 ou -1 como a paridade da permutação é par ou ímpar, pois o determinante é uma função alternada das linhas.
Mais forte que a restrição determinante é o fato de que uma matriz ortogonal sempre pode ser diagonalizada sobre os números complexos para exibir um conjunto completo de valores próprios, todos os quais devem ter (complexo) módulo 1.
Propriedades do grupo
O inverso de toda matriz ortogonal é novamente ortogonal, assim como o produto da matriz de duas matrizes ortogonais. De fato, o conjunto de todos n × n matrizes ortogonais satisfaz todos os axiomas de um grupo. É um grupo compacto de Lie of Dimension n ( n -1) / 2 Span> , chamado de grupo ortogonal e indicado por o ( n ) .
As matrizes ortogonais cujo determinante é +1 formam um subgrupo normal conectado ao caminho de o ( n ) do índice 2, o grupo ortogonal especial então ( n ) de rotações. O grupo quociente o ( n )/SO ( n ) é isomórfico para o (1) , com a escolha do mapa de projeção [+1] ou [-1] de acordo com o determinante. Matrizes ortogonais com determinante -1 não incluem a identidade e, portanto, não formam um subgrupo, mas apenas um coset; também está (separadamente) conectado. Assim, cada grupo ortogonal cai em dois pedaços; E porque o mapa de projeção se divide, o ( n ) é um produto semidireta de então ( n ) por o (1) . Em termos práticos, uma afirmação comparável é que qualquer matriz ortogonal pode ser produzida tomando uma matriz de rotação e possivelmente negando uma de suas colunas, como vimos com 2 × 2 span> matrizes. Se n é estranho, então o produto semidireta é de fato um produto direto e qualquer matriz ortogonal pode ser produzida com uma rotação, tomando uma rotação Matrix e possivelmente negando todas as suas colunas. Isso segue da propriedade dos determinantes que negar uma coluna nega o determinante e, assim, negar um número ímpar (mas nem mesmo) de colunas nega o determinante.
Agora considere ( n + 1) × ( n + 1) matrizes ortogonais com entrada inferior direita igual a 1. O restante da última coluna (e última linha) deve ser zeros, e o produto de qualquer dessas matrizes tem a mesma forma. O restante da matriz é um n × n matriz ortogonal; Assim o ( n ) é um subgrupo de o ( n + 1) < /span> (e de todos os grupos superiores).
Como uma reflexão elementar na forma de uma matriz do chefe de família pode reduzir qualquer matriz ortogonal a essa forma restrita, uma série de tais reflexões pode trazer qualquer matriz ortogonal à identidade; Assim, um grupo ortogonal é um grupo de reflexão. A última coluna pode ser fixada em qualquer vetor de unidade e cada opção fornece uma cópia diferente de o ( n ) em O ( n + 1) ; Dessa maneira, o ( n + 1) é um pacote sobre a esfera da unidade s
Da mesma forma, Então...n) é um subgrupo de Então...n + 1); e qualquer matriz ortogonal especial pode ser gerada por rotações de plano Givens usando um procedimento analógico. A estrutura do pacote persiste: Então...n) SO(n + 1) → Sn. Uma única rotação pode produzir um zero na primeira linha da última coluna e série de n - 1 rotações vão zero tudo menos a última linha da última coluna de uma n × n matriz de rotação. Uma vez que os planos são fixos, cada rotação tem apenas um grau de liberdade, seu ângulo. Por indução, Então...n) por conseguinte, graus de liberdade, e assim faz On).
As matrizes de permutação são ainda mais simples; Eles formam, não um grupo de mentiras, mas apenas um grupo finito, a ordem n! Grupo simétrico s
Forma canônica
Mais amplamente, o efeito de qualquer matriz ortogonal se separa em ações independentes em subespaços bidimensionais ortogonais. Isto é, se q é ortogonal especial, então sempre se pode encontrar uma matriz ortogonal p , uma mudança de base (rotacional), que traz q no bloco Formulário diagonal:
onde as matrizes R1, Rk são 2 × 2 matrizes de rotação, e com as restantes entradas zero. Excepcionalmente, um bloco de rotação pode ser diagonal, ±Eu.... Assim, negando uma coluna, se necessário, e observando que uma 2 × 2 reflexão diagonaliza para um +1 e −1, qualquer matriz ortogonal pode ser trazido à forma
As matrizes r
Álgebra de mentira
Suponha que as entradas de Q são funções diferenciadas de )e isso ) = 0 dá Q = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = Eu.... Diferenciando a condição ortogonal produção
Avaliação ) = 0 (Q = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = Eu...) depois implica
Em termos de grupo de mentiras, isso significa que a álgebra de mentira de um grupo matricial ortogonal consiste em matrizes simétricas de inclinação. Seguindo a outra direção, a matriz exponencial de qualquer matriz simétrica de inclinação é uma matriz ortogonal (de fato, ortogonal especial).
Por exemplo, a física de objetos tridimensionais chama velocidade angular é uma rotação diferencial, portanto, um vetor na álgebra de Lie tangente a Então, (3). Conduzido ω - Sim.x θ, - Sim., - Sim.)com v - Sim.x, Sim., zangão.) sendo um vetor unitário, a forma de matriz skew-symmetric correta de ω é
A exponencial é a matriz ortogonal para rotação em torno do eixo v por ângulo θ; definição c = cos θ/2, S = pecado θ/2,
Álgebra linear numérica
Benefícios
numérica tira proveito de muitas das propriedades de matrizes ortogonais para álgebra linear numérica, e elas surgem naturalmente. Por exemplo, muitas vezes é desejável calcular uma base ortonormal para um espaço ou uma mudança ortogonal de bases; Ambos assumem a forma de matrizes ortogonais. Ter determinante ± 1 e todos os autovalores de magnitude 1 são de grande benefício para a estabilidade numérica. Uma implicação é que o número da condição é 1 (que é o mínimo); portanto, os erros não são ampliados ao se multiplicar com uma matriz ortogonal. Muitos algoritmos usam matrizes ortogonais, como reflexões do chefe de família e rotações de givens por esse motivo. Também é útil que, não apenas seja uma matriz ortogonal invertível, mas seu inverso está disponível essencialmente livre, trocando índices.
Permutações são essenciais para o sucesso de muitos algoritmos, incluindo a eliminação gaussiana do cavalo de batalha com articulação parcial (onde as permutações fazem o giratório). No entanto, eles raramente parecem explicitamente como matrizes; Sua forma especial permite uma representação mais eficiente, como uma lista de n índices.
Da mesma forma, os algoritmos que usam matrizes de trabalho doméstico e givens normalmente usam métodos especializados de multiplicação e armazenamento. Por exemplo, uma rotação de givens afeta apenas duas linhas de uma matriz que ele multiplica, alterando uma multiplicação completa de ordem n
Decomposição
Várias decomposições importantes da matriz (Golub & amp; Van Loan 1996) envolvem matrizes ortogonais, incluindo especialmente:
- Decomposição QR
- M = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = QR, Q ortogonal, R superior triangular
- Decomposição do valor singular
- M = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = UΣVT, U e V ortogonal, Σ matriz diagonal
- Eigendecomposição de uma matriz simétrica (decomposição segundo o teorema espectral)
- S = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = Q:QT, S simétrica, Q ortogonal, : diagonal
- Descomposição polar
- M = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = QS, Q ortogonal, S simétrico positivo-semidefinito
Exemplos
Considere um sistema sobredeterminado de equações lineares, como pode ocorrer com medidas repetidas de um fenômeno físico para compensar erros experimentais. Escrever Ax = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = b), onde A é m × n, m > n. A QR decomposição reduz A para superior triangular R. Por exemplo, se A é 5 × 3 então R tem o formulário
O problema dos mínimos quadrados lineares é encontrar o x que minimiza » a x - b ‖ /span>, que é equivalente a projetar b para o subespaço abrangido pelas colunas de a . Assumindo as colunas de a (e, portanto, R ) são independentes, a solução de projeção é encontrada em a
No caso de um sistema linear que é subdeterminado, ou uma matriz não invertível, a decomposição de valor singular (SVD) é igualmente útil. Com a fatorado como u σ v
O caso de uma matriz invertível quadrada também possui juros. Suponha, por exemplo, que a é uma matriz de rotação 3 × 3 foi calculado como a composição de inúmeras reviravoltas. O ponto flutuante não corresponde ao ideal matemático de números reais; portanto, a perdeu gradualmente sua verdadeira ortogonalidade. Um processo Gram -Schmidt pode ortogonalizar as colunas, mas não é o mais confiável, nem o mais eficiente, nem o método mais invariante. A decomposição polar considera uma matriz em um par, uma das quais é a matriz ortogonal mais próxima da matriz dada, ou uma das mais próximas se a matriz fornecida for singular. (A proximidade pode ser medida por qualquer norma matricial invariante sob uma mudança de base ortogonal, como a norma espectral ou a norma de Frobenius.) Para uma matriz quase ortogonal, a convergência rápida ao fator ortogonal pode ser alcançado por A " O método de Newton; Abordagem devido a Higham (1986) (1990), com média repetidamente da matriz com sua transposição inversa. Dubrulle (1999) publicou um método acelerado com um teste de convergência conveniente.
Por exemplo, considere uma matriz não-ortogonal para a qual o algoritmo de média simples toma sete passos e que aceleração apara a dois passos (com γ = 0.353553, 0.565685).
Gram-schmidt produz uma solução inferior, mostrada por uma distância de Frobenius de 8.28659 em vez do mínimo 8.12404.
Randomização
Algumas aplicações numéricas, como métodos de Monte Carlo e exploração de espaços de dados de alta dimensão, requerem geração de matrizes ortogonais aleatórias uniformemente distribuídas. Nesse contexto, 'uniforme " é definido em termos de medida HAAR, que exige essencialmente que a distribuição não mude se multiplicada por qualquer matriz ortogonal escolhida livremente. As matrizes ortogonalizadas com entradas aleatórias independentes distribuídas uniformemente não resultam em matrizes ortogonais uniformemente distribuídas, mas a decomposição do QR de entradas aleatórias normalmente distribuídas independentes, desde que o diagonal de r contém apenas entradas positivas (Mezzadri 2006). Stewart (1980) substituiu isso por uma idéia mais eficiente de que Diaconis & amp; Shahshahani (1987) mais tarde generalizou como o algoritmo de subgrupo " (em que forma funciona tão bem quanto a permutações e rotações). Para gerar um ( n + 1) × ( n + 1) matriz ortogonal, tome um n × n um e um vetor de dimensão uniforme uniformemente distribuído n + 1 . Construa uma reflexão do chefe de família do vetor e aplique -o à matriz menor (incorporada no tamanho maior com 1 no canto inferior direito).
Matriz ortogonal mais próxima
O problema de encontrar a matriz ortogonal Q mais próximo uma determinada matriz M está relacionado com o problema Orthogonal Procrustes. Existem várias maneiras diferentes de obter a solução única, a mais simples de que está tomando a decomposição do valor singular de M e substituindo os valores singulares por uns. Outro método expressa o R explicitamente, mas requer o uso de uma raiz quadrada matriz:
Isso pode ser combinado com o método babilônico para extrair a raiz quadrada de uma matriz para dar uma recorrência que converge para uma matriz ortogonal quadraticamente: Onde? Q0 = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = M.
Essas iterações são estáveis, desde que o número da condição de m é menor que três.
Usando uma aproximação de primeira ordem do inverso e a mesma inicialização resulta na iteração modificada:
Gire e pin
Um problema técnico sutil afeta alguns usos de matrizes ortogonais. Não apenas os componentes do grupo com +1 e -1 não estão conectados entre si, mesmo o componente +1, então ( n ) , é não simplesmente conectado (exceto para So (1), que é trivial). Assim, às vezes é vantajoso, ou mesmo necessário, trabalhar com um grupo de cobertura de So ( n ), o grupo de spin, spin ( n ) . Da mesma forma, o ( n ) possui grupos de cobertura, os grupos de pinos, pino ( n ). Para n & gt; 2 , spin ( n ) está simplesmente conectado e, portanto, o grupo de cobertura universal para então (< i> n ) . De longe, o exemplo mais famoso de um grupo de spin é spin (3) , o que nada mais é do que su (2) ou O grupo de quaternions da unidade.
Os grupos PIN e spin são encontrados nas álgebras de Clifford, que podem ser construídas a partir de matrizes ortogonais.
Matrizes retangulares
se q não é uma matriz quadrada, então as condições q
Não há terminologia padrão para essas matrizes. São chamadas de várias matrizes semi-ortogonais " " matrizes ortonormais ", " matrizes ortogonais-e às vezes simplesmente "matrizes com linhas ortonormais/colunas" 34;.
Para o caso n ≤ m , matrizes com colunas ortonormais podem ser referidas como quadros k ortogonais e Eles são elementos do distrito de Stiefel.
Ver também
- Sistema biorthogonal
Notas
- ^ «Paul's online math notes», Paul Dawkins, Lamar University, 2008. Teorema 3(c)
- ^ "Encontrando a Matriz Ortonormal mais próxima", Berthold K.P. Horn, MIT.
- ^ "Newton's Method for the Matrix Square Root" Arquivado em 2011-09-29 na Wayback Machine, Nicholas J. Higham, Mathematics of Computation, Volume 46, Number 174, 1986.
Referências
- Diaconis, Persi; Shahshahani, Mehrdad (1987), "O algoritmo de subgrupo para gerar variáveis aleatórias uniformes", Probabilidade na Engenharia e Ciências da Informação, 1: 15–32, doi:10.1017/S0269964800000255, ISSN 0269-9648, S2CID 122752374
- Dubrulle, Augustin A. (1999), "An Optimum Iteration for the Matrix Polar Decomposition", Transações eletrônicas em Análise Numérica, 8: 21–25
- Golub, Gene H.; Van Loan, Charles F. (1996), Computação de Matriz (3/e ed.), Baltimore: Johns Hopkins University Press, ISBN 978-0-8018-5414-9
- Higham, Nicholas (1986), "Computar a Decomposição Polar - com Aplicações" (PDF), SIAM Journal on Scientific and Statistics Computing, 7 (4): 1160–1174, doi:10.1137/09079, ISSN 0196-5204
- Higham, Nicholas; Schreiber, Robert (julho de 1990), "Decomposição polar mais fácil de uma matriz arbitrária", SIAM Journal on Scientific and Statistics Computing, 11 (4): 648–655, CiteSeerX 10.1.1.230.4322, doi:10.1137/0911038, ISSN 0196-5204, S2CID 14268409 [1]
- Stewart, G. W. (1976), "The Economical Storage of Plane Rotations", Adicionar ao cesto, 25 (2): 137–138, doi:10.1007/BF01462266, ISSN 0029-599X, S2CID 120372682
- Stewart, G. W. (1980), «The Efficient Generation of Random Orthogonal Matrices with an Application to Condition Estimators» (em inglês). SIAM Journal on Numerical Analysis, 17. (3): 403–409, Bibcode:1980SJNA...17..403S, doi:10.1137/0717034, ISSN 0036-1429
- Mezzadri, Francesco (2006), "Como gerar matrizes aleatórias dos grupos compactos clássicos", Avisos da Sociedade Matemática Americana, 54, arXiv:matemática-ph/0609050, Bibcode:2006math.ph...9050M
Ligações externas
- "Matriz ortogonal", Enciclopédia da Matemática, EMS Press, 2001 [1994]
- Programa Tutorial e Interativo em Matriz Ortogonal