Matriz de gramos

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

En álgebra lineal, el Matriz de gramos (o Matriz gramiana, Gramian) de un conjunto de vectores en un espacio interior de producto es la matriz hermitiana de productos interiores, cuyas entradas son dadas por el producto interior . Si los vectores son las columnas de la matriz entonces la matriz de Gram en el caso general de que las coordenadas vectoriales son números complejos, que simplifica para el caso de que las coordenadas vectoriales son números reales.

Una aplicación importante es calcular la independencia lineal: un conjunto de vectores es linealmente independiente si y sólo si el determinante de Gram (el determinante de la matriz de Gram) es distinto de cero.

Lleva el nombre de Jørgen Pedersen Gram.

Ejemplos

Para vectores reales de dimensiones finitas en con el producto habitual de puntos Euclidesanos, la matriz Gram es , donde es una matriz cuyas columnas son los vectores y es su transpose cuyas filas son los vectores . Para vectores complejos en , , donde es la transposición conyugal .

Funciones cuadradas integradas en el intervalo , la matriz Gram es:

Donde es el complejo conjugado de .

Para cualquier forma bilineal en un espacio vectorial de dimensiones finitas sobre cualquier campo podemos definir una matriz Gram unido a un conjunto de vectores por . La matriz será simétrica si la forma bilineal es simétrico.

Aplicaciones

  • En la geometría Riemanniana, dado un embebido -dimensional Manifold Riemanniano y una parametrización para , el formulario de volumen on induced by the embedding may be computedted using the Gramian of the coordinate tangent vectors:
    Esto generaliza la superficie clásica integral de una superficie parametrizada para :
  • Si los vectores son variables aleatorias centradas, el Gramian es aproximadamente proporcional al matriz de covariancia, con el escalado determinado por el número de elementos en el vector.
  • En la química cuántica, la matriz Gram de un conjunto de vectores de base es la matriz de superposición.
  • En teoría de control (o teoría de sistemas más generalmente), la control Gramian y observabilidad Gramian determinar las propiedades de un sistema lineal.
  • Las matrices gramianas surgen en el ajuste modelo de estructura de covariancia (por ejemplo, Jamshidian y Bentler, 1993, Medición Psicológica Aplicada, Volumen 18, págs. 79 a 94).
  • En el método de elemento finito, la matriz Gram surge de aproximar una función de un espacio dimensional finito; las entradas de la matriz Gram son entonces los productos internos de las funciones de base del subespacio dimensional finito.
  • En el aprendizaje automático, las funciones del núcleo a menudo se representan como matrices de gramos. (También vea el núcleo PCA)
  • Dado que la matriz Gram sobre los reinos es una matriz simétrica, es diagonalizable y sus eigenvalues no son negativos. La diagonalización de la matriz Gram es la descomposición de valor singular.

Propiedades

Semidefinición positiva

La matriz de Gram es simétrica en el caso de que el producto real tenga valor real; es hermitiano en el caso general y complejo por definición de producto interno.

La matriz de Gram es semidefinida positiva y cada matriz semidefinida positiva es la matriz de Gramian para algún conjunto de vectores. El hecho de que la matriz de Gramian sea positiva-semidefinida se puede ver a partir de la siguiente derivación simple:

La primera igualdad se deriva de la definición de multiplicación de matriz, la segunda y tercera de la bi-linearidad del producto interno, y la última de la definición positiva del producto interno. Tenga en cuenta que esto también muestra que la matriz gramiana es positiva definida si y sólo si los vectores son linealmente independientes (es decir, para todos ).

Encontrar una realización vectorial

Dada cualquier matriz semidefinida positiva , uno puede descomponerlo como:

,

Donde es la transposición conyugal (o en el caso real).

Aquí. es un matriz, donde es el rango de . Varias maneras de obtener tal descomposición incluyen la computación de la descomposición de Cholesky o la toma de la raíz cuadrada no negativa .

Las columnas de se puede ver como n vectores en (o k-dimensional Espacio euclidiano , en el caso real). Entonces...

donde el producto de punto es el producto interno habitual en .

Así una matriz hermitiana es semidefinido positivo si y sólo si es la matriz Gram de algunos vectores . Tales vectores se llaman un realización de vectores de . La analogía infinita de esta declaración es el teorema de Mercer.

Singularidad de las realizaciones vectoriales

Si es la matriz Gram de vectores dentro luego aplicar cualquier rotación o reflexión (cualquier transformación ortogonal, es decir, cualquier isometría euclidiana preservando 0) a la secuencia de vectores resulta en la misma matriz de Gram. Eso es, para cualquier matriz ortogonal , la matriz de Gram también .

Esta es la única manera en que dos realizaciones vectoriales reales de puede diferir: los vectores son únicas hasta transformaciones ortogonales. En otras palabras, los productos de punto y son iguales si y sólo si alguna transformación rígida transforma los vectores a y 0 a 0.

Lo mismo ocurre en el caso complejo, con transformaciones unitarias en lugar de ortogonales. Es decir, si la matriz Gram de vectores es igual a la matriz Gram de vectores dentro entonces hay una unidad matriz (que significa) . para .

Otras propiedades

  • Porque... , es necesariamente el caso de que y Comute. Es decir, una matriz de Gram real o compleja es también una matriz normal.
  • La matriz Gramática de cualquier base ortonormal es la matriz de identidad. Equivalentemente, la matriz Gram de las filas o las columnas de una matriz de rotación real es la matriz de identidad. Asimismo, la matriz Gram de las filas o columnas de una matriz unitaria es la matriz de identidad.
  • El rango de la matriz Gram de vectores en o iguala la dimensión del espacio abarcado por estos vectores.

Determinante de gramo

El determinante de Gram o Gramiano es el determinante de la matriz de Gram:

Si son vectores en entonces es el cuadrado de la n- volumen dimensional del paraleloótopo formado por los vectores. En particular, los vectores son linealmente independientes si y sólo si el paraleópo tiene no cero n- volumen dimensional, si y sólo si el determinante Gram es no cero, si y sólo si la matriz Gram es no es lineal. Cuando m c) n el determinante y el volumen son cero. Cuando m = n, esto reduce al teorema estándar que el valor absoluto del determinante n n- vectores dimensionales es el n- volumen dimensional. El determinante Gram también es útil para calcular el volumen del simplex formado por los vectores; su volumen es Volumen(parallelotope) / n!.

El determinante de Gram también se puede expresar en términos del producto exterior de vectores por

Cuando los vectores se definen desde las posiciones de los puntos relativo a algún punto de referencia ,

entonces el determinante de Gram se puede escribir como la diferencia de dos determinantes de Gram,

donde cada es el punto correspondiente complementado con el valor de coordenadas 1 para un - la dimensión. Note que en el caso común que n = m, el segundo término en el lado derecho será cero.

Construyendo una base ortonormal

Dado un conjunto de vectores linealmente independientes con matriz de gramos definidas por , uno puede construir una base ortonormal

En la notación de matriz, , donde tiene vectores de base ortonormal y la matriz se compone de los vectores de columna dados .

La matriz está garantizada a existir. De hecho, es Hermitian, y así puede ser descompuesto como con una matriz unitaria y una matriz diagonal real. Además, el son linealmente independientes si es definitivo positivo, lo que implica que las entradas diagonales de son positivos. es, por lo tanto, único . Uno puede comprobar que estos nuevos vectores son ortonormales:

donde usamos .

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save