Polinomio característico

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Polynomial cuyas raíces son los eigenvalues de una matriz

En álgebra lineal, el polinomio característico de una matriz cuadrada es un polinomio que es invariante bajo similitud de matriz y tiene los valores propios como raíces. Tiene el determinante y la traza de la matriz entre sus coeficientes. El polinomio característico de un endomorfismo de un espacio vectorial de dimensión finita es el polinomio característico de la matriz de ese endomorfismo sobre cualquier base (es decir, el polinomio característico no depende de la elección de una base). La ecuación característica, también conocida como ecuación determinante, es la ecuación que se obtiene igualando a cero el polinomio característico.

En la teoría de grafos espectrales, el polinomio característico de un grafo es el polinomio característico de su matriz de adyacencia.

Motivación

En álgebra lineal, los valores propios y los vectores propios juegan un papel fundamental, ya que, dada una transformación lineal, un vector propio es un vector cuya dirección no cambia por la transformación, y el valor propio correspondiente es la medida del cambio de magnitud resultante de el vector

Más precisamente, si la transformación está representada por una matriz cuadrada A,{displaystyle A,} un eigenvector v,{displaystyle mathbf {v} y el eigenvalue correspondiente λ λ {displaystyle lambda } debe satisfacer la ecuación

Av=λ λ v,{displaystyle Amathbf {v} =lambda mathbf {v}
()λ λ I− − A)v=0{displaystyle (lambda I-A)mathbf {v} =0}
I{displaystyle Yo...vل ل 0{displaystyle mathbf {v} neq mathbf {0}λ λ ,{displaystyle lambda}

Sigue que la matriz ()λ λ I− − A){displaystyle (lambda I-A)} debe ser singular, y su determinante

Det()λ λ I− − A)=0{displaystyle det(lambda I-A)=0}

En otras palabras, los valores propios de A son las raíces de

Det()xI− − A),{displaystyle det(xI-A),}
xnAn×ncaracterística polinomialA

Definición formal

Considerar un n× × n{displaystyle ntimes n} matriz A.{displaystyle A.} El polinomio característico A,{displaystyle A,} denotado por pA()t),{displaystyle p_{A}(t),} es el polinomio definido por

pA()t)=Det()tI− − A){displaystyle p_{A}(t)=det(tI-A)}
I{displaystyle Yo...n× × n{displaystyle ntimes n}

Algunos autores definen el polinomio característico Det()A− − tI).{displaystyle det(A-tI).} Ese polinomio difiere del definido aquí por un signo ()− − 1)n,{displaystyle (-1)^{n} por lo que no hace ninguna diferencia para las propiedades como tener como raíces los eigenvalues A{displaystyle A}; sin embargo la definición anterior siempre da un polinomio monico, mientras que la definición alternativa es monic solamente cuando n{displaystyle n} es incluso.

Ejemplos

Para calcular el polinomio característico de la matriz

A=()21− − 10).{displaystyle A={begin{pmatrix}2 simultáneamente1\-1 implica0end{pmatrix}}
tI− − A=()t− − 2− − 11t− − 0){displaystyle tI-A={begin{pmatrix}t-2 sensible-11 cont-0end{pmatrix}}
()t− − 2)t− − 1()− − 1)=t2− − 2t+1,{displaystyle (t-2)t-1(-1)=t^{2}-2t+1,! }A.{displaystyle A.}

Otro ejemplo utiliza funciones hiperbólicas de un ángulo hiperbólico φ. Para la matriz tomar

A=()cosh⁡ ⁡ ()φ φ )pecado⁡ ⁡ ()φ φ )pecado⁡ ⁡ ()φ φ )cosh⁡ ⁡ ()φ φ )).{displaystyle A={begin{pmatrix}cosh(varphi) limitadasinh(varphi)\sinh(varphi) limitadacosh(varphi)end{pmatrix}.}
Det()tI− − A)=()t− − cosh⁡ ⁡ ()φ φ ))2− − pecado2⁡ ⁡ ()φ φ )=t2− − 2tcosh⁡ ⁡ ()φ φ )+1=()t− − eφ φ )()t− − e− − φ φ ).{displaystyle det(t-A)=(t-cosh(varphi))^{2}-sinh ^{2}(varphi)=t^{2}-2t cosh(varphi)+1=(t-e^{varphi })(t-e^{-varphi }).}

Propiedades

El polinomio característico pA()t){displaystyle p_{A}(t)} of a n× × n{displaystyle ntimes n} matriz es monic (su coeficiente líder es 1{displaystyle 1}) y su grado es n.{displaystyle n.} El hecho más importante sobre el polinomio característico ya se mencionó en el párrafo motivacional: los eigenvalues de A{displaystyle A} son precisamente las raíces pA()t){displaystyle p_{A}(t)} (esto también tiene para el mínimo polinomio de A,{displaystyle A,} pero su grado puede ser inferior a n{displaystyle n}). Todos los coeficientes del polinomio característico son expresiones polinomio en las entradas de la matriz. En particular su coeficiente constante pA()0){displaystyle p_{A}(0)} es Det()− − A)=()− − 1)nDet()A),{displaystyle det(-A)=(-1)^{n}det(A),} el coeficiente tn{displaystyle t^{n} es uno, y el coeficiente de tn− − 1{displaystyle t^{n-1} es tr(−A) = −tr(A), donde tr(A) es el rastro de A.{displaystyle A.} (Los signos dados aquí corresponden a la definición formal dada en la sección anterior; para la definición alternativa éstos serían en su lugar Det()A){displaystyle det(A)} y (1)−n – 1 tr(A) respectivamente.)

Para un 2× × 2{displaystyle 2times 2} matriz A,{displaystyle A,} el polinomio característico es dado por

t2− − tr⁡ ⁡ ()A)t+Det()A).{displaystyle t^{2}-operatorname {tr} (A)t+det(A). }

Usando el lenguaje del álgebra exterior, el polinomio característico de un n× × n{displaystyle ntimes n} matriz A{displaystyle A} puede expresarse como

pA()t)=.. k=0ntn− − k()− − 1)ktr⁡ ⁡ ()⋀ ⋀ kA){displaystyle p_{A}(t)=sum ¿Por qué?
tr⁡ ⁡ ()⋀ ⋀ kA){textstyle operatorname {tr} left(bigwedge ^{k}Aright)}k{displaystyle k}A,{displaystyle A,}()nk).{fnMicrosoft} {n}{k}.}A{displaystyle A}k.{displaystyle k.}

Cuando la característica del campo de los coeficientes es 0,{displaystyle 0,} cada uno de esos rastros puede ser computado alternativamente como un único determinante, el del k× × k{displaystyle ktimes k} matriz

tr⁡ ⁡ ()⋀ ⋀ kA)=1k!Silenciotr⁡ ⁡ Ak− − 10⋯ ⋯ 0tr⁡ ⁡ A2tr⁡ ⁡ Ak− − 2⋯ ⋯ 0⋮ ⋮ ⋮ ⋮ ⋱ ⋱ ⋮ ⋮ tr⁡ ⁡ Ak− − 1tr⁡ ⁡ Ak− − 2⋯ ⋯ 1tr⁡ ⁡ Aktr⁡ ⁡ Ak− − 1⋯ ⋯ tr⁡ ⁡ ASilencio.{displaystyle operatorname {tr} left(textstyle bigwedge ^{k}Aright)={frac {1}{k!}}{begin{vmatrix}operatorname {tr} A limitark-1 Pulsocdots &0\operatorname {tr} A^{2} limitoperatorname {tr} Aoperak-2 simultáneamentecdots >vdots > A^{k-1} limitada\operatorname {tr} A^{k-2} limitándosecdots &1\\\\operatorname {tr} A^{k} limitadacdots > operatorname {tr} Aend{vmatrix}~}

El teorema de Cayley-Hamilton establece que reemplazar t{displaystyle t} por A{displaystyle A} en el polinomio característico (interpretando los poderes resultantes como potencias matriz, y el término constante c{displaystyle c} como c{displaystyle c} tiempos la matriz de identidad) produce la matriz cero. Hablando informalmente, cada matriz satisface su propia ecuación característica. Esta declaración equivale a decir que el mínimo polinomio de A{displaystyle A} divide el polinomio característico de A.{displaystyle A.}

Dos matrices similares tienen el mismo polinomio característico. Sin embargo, lo contrario no es cierto en general: dos matrices con el mismo polinomio característico no necesitan ser similares.

La matriz A{displaystyle A} y su transpose tienen el mismo polinomio característico. A{displaystyle A} es similar a una matriz triangular si y sólo si su polinomio característico puede ser completamente factorado en factores lineales sobre K{displaystyle K} (lo mismo es cierto con el polinomio mínimo en lugar del polinomio característico). En este caso A{displaystyle A} es similar a una matriz en Jordania forma normal.

Polinomio característico de un producto de dos matrices

Si A{displaystyle A} y B{displaystyle B} dos cuadrados n× × n{displaystyle ntimes n} matrices luego polinomios característicos de AB{displaystyle AB} y BA{displaystyle ¡Baby! coincidencia:

pAB()t)=pBA()t).{fnMicrosoft Sans Serif}

Cuando A{displaystyle A} es no-singular este resultado se debe al hecho de que AB{displaystyle AB} y BA{displaystyle ¡Baby! son similares:

BA=A− − 1()AB)A.{displaystyle BA=A^{-1}(AB)A.}

Para el caso donde ambos A{displaystyle A} y B{displaystyle B} son singulares, la identidad deseada es una igualdad entre polinomios en t{displaystyle t} y los coeficientes de las matrices. Así, para probar esta igualdad, basta probar que se verifica en un subconjunto abierto no vacío (para la topología habitual, o, más generalmente, para la topología Zariski) del espacio de todos los coeficientes. Como las matrices no-singulares forman un subconjunto tan abierto del espacio de todas las matrices, esto demuestra el resultado.

Más generalmente, si A{displaystyle A} es una matriz de orden m× × n{displaystyle mtimes n} y B{displaystyle B} es una matriz de orden n× × m,{displaystyle ntimes m,} entonces AB{displaystyle AB} es m× × m{displaystyle mtimes m} y BA{displaystyle ¡Baby! es n× × n{displaystyle ntimes n} matriz, y uno tiene

pBA()t)=tn− − mpAB()t).{displaystyle p_{BA}(t)=t^{n-m}p_{AB}(t).

Para probar esto, se supone que m,}" xmlns="http://www.w3.org/1998/Math/MathML">n■m,{displaystyle n títulom,}m,}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/e55fd464102d10bc5b8685a9c31eae0495e79079" style="vertical-align: -0.671ex; width:7.18ex; height:2.176ex;"/> intercambiando, si es necesario, A{displaystyle A} y B.{displaystyle B.} Entonces, al borde A{displaystyle A} en el fondo por n− − m{displaystyle No. filas de ceros, y B{displaystyle B} a la derecha, por, n− − m{displaystyle No. columnas de ceros, uno consigue dos n× × n{displaystyle ntimes n} matrices A.. {displaystyle A. y B.. {displaystyle B^{prime } tales que B.. A.. =BA{displaystyle ¿Qué? y A.. B.. {displaystyle A^{prime }B^{prime } es igual a AB{displaystyle AB} fronteriza con n− − m{displaystyle No. filas y columnas de ceros. El resultado se deriva del caso de matrices cuadradas, comparando los polinomios característicos de A.. B.. {displaystyle A^{prime }B^{prime } y AB.{displaystyle AB.}

Polinomio característico de Ak

Si λ λ {displaystyle lambda } es un eigenvalue de una matriz cuadrada A{displaystyle A} con eigenvector v,{displaystyle mathbf {v} entonces λ λ k{displaystyle lambda ^{k} es un eigenvalue de Ak{displaystyle A^{k} porque

Akv=Ak− − 1Av=λ λ Ak− − 1v=⋯ ⋯ =λ λ kv.{displaystyle A^{k}{textbf {fnMicrosoft} {v}=lambda A^{k-1}{textbf {v}=dots =lambda ^{k}{textbf {v}}

Las multiplicidades también pueden estar de acuerdo, y esto generaliza a cualquier polinomio en lugar de xk{displaystyle x^{k}:

Theorem Vamos A{displaystyle A} ser un cuadrado n× × n{displaystyle ntimes n} matriz y dejar f()t){displaystyle f(t)} ser un polinomio. Si el polinomio característico A{displaystyle A} tiene una factorización

pA()t)=()t− − λ λ 1)()t− − λ λ 2)⋯ ⋯ ()t− − λ λ n){displaystyle p_{A}(t)=(t-lambda _{1})(t-lambda _{2})cdots (t-lambda _{n})}
entonces el polinomio característico de la matriz f()A){displaystyle f(A)} es dado por
pf()A)()t)=()t− − f()λ λ 1))()t− − f()λ λ 2))⋯ ⋯ ()t− − f()λ λ n)).{displaystyle p_{f(A)}(t)=(t-f(lambda _{1})(t-f(lambda _{2})cdots (t-f(lambda _{n})}).}

Es decir, la multiplicidad algebraica de λ λ {displaystyle lambda } dentro f()A){displaystyle f(A)} iguala la suma de las multiplicidades algebraicas λ λ .{displaystyle lambda} dentro A{displaystyle A} sobre λ λ .{displaystyle lambda} tales que f()λ λ .)=λ λ .{displaystyle f(lambda ')=lambda.} En particular, tr⁡ ⁡ ()f()A))=.. i=1nf()λ λ i){displaystyle operatorname {tr} (f(A))=textstyle sum _{i=1}^{n}f(lambda _{i})} y Det⁡ ⁡ ()f()A))=∏ ∏ i=1nf()λ λ i).{displaystyle operatorname {det} (f(A)=textstyle prod _{i=1} {n}f(lambda _{i}).} Aquí un polinomio f()t)=t3+1,{displaystyle f(t)=t^{3}+1,} por ejemplo, se evalúa en una matriz A{displaystyle A} simplemente f()A)=A3+1.{displaystyle f(A)=A^{3}+1.}

El teorema se aplica a matrices y polinomios sobre cualquier campo o anillo conmutativo. Sin embargo, la hipótesis de que pA()t){displaystyle p_{A}(t)} tiene una factorización en factores lineales no siempre es verdad, a menos que la matriz está sobre un campo algebraicamente cerrado, como los números complejos.

Prueba

Esta prueba sólo se aplica a matrices y polinomios sobre números complejos (o cualquier campo algebraicamente cerrado). En ese caso, el polinomio característico de cualquier matriz cuadrada puede ser siempre factorizado como

pA()t)=()t− − λ λ 1)()t− − λ λ 2)⋯ ⋯ ()t− − λ λ n){displaystyle p_{A}(t)=left(t-lambda _{1}right)left(t-lambda _{2}cdots left(t-lambda _{n}right)}
Donde λ λ 1,λ λ 2,...... ,λ λ n{displaystyle lambda _{1},lambda _{2},ldotslambda ¿Qué? son los eigenvalues de A,{displaystyle A,} posiblemente repetido. Además, el teorema de descomposición de Jordania garantiza que cualquier matriz cuadrada A{displaystyle A} puede ser descompuesto A=S− − 1US,{displaystyle A=S^{-1}US,} Donde S{displaystyle S. es una matriz invertible y U{displaystyle U} es triangular superior con λ λ 1,...... ,λ λ n{displaystyle lambda _{1},ldotslambda ¿Qué? en la diagonal (con cada eigenvalue repetido según su multiplicidad algebraica). (La forma normal de Jordania tiene propiedades más fuertes, pero son suficientes; alternativamente se puede utilizar la descomposición de Schur, que es menos popular pero algo más fácil de probar).

Vamos f()t)=.. iα α iti.{textstyle f(t)=sum _{i}alpha _{i}t^{i} Entonces...

f()A)=.. α α i()S− − 1US)i=.. α α iS− − 1USS− − 1US⋯ ⋯ S− − 1US=.. α α iS− − 1UiS=S− − 1().. α α iUi)S=S− − 1f()U)S.{displaystyle f(A)=textstyle sum alpha ¿Por qué? ¿Por qué? S^{-1}US=textstyle sum alpha ¿Por qué? S=S^{-1}f(U)S.}
Para una matriz triangular superior U{displaystyle U} con diagonal λ λ 1,...... ,λ λ n,{displaystyle lambda _{1},dotslambda _{n} la matriz Ui{displaystyle U^{i} es triangular superior con diagonal λ λ 1i,...... ,λ λ ni{displaystyle lambda ¿Qué? dentro Ui,{displaystyle U^{i},} y por consiguiente f()U){displaystyle f(U)} es triangular superior con diagonal f()λ λ 1),...... ,f()λ λ n).{displaystyle fleft(lambda _{1}right),dotsfleft(lambda _{n}right). } Por lo tanto, los eigenvalues de f()U){displaystyle f(U)} son f()λ λ 1),...... ,f()λ λ n).{displaystyle f(lambda _{1}),dotsf(lambda _{n}).} Desde f()A)=S− − 1f()U)S{displaystyle f(A)=S^{-1}f(U)S} es similar a f()U),{displaystyle f(U),} tiene los mismos eigenvalues, con las mismas multiplicidades algebraicas.

Función secular y ecuación secular

Función secular

El término función secular se ha usado para lo que ahora se llama polinomio característico (en alguna literatura todavía se usa el término función secular). El término proviene del hecho de que el polinomio característico se usaba para calcular perturbaciones seculares (en una escala de tiempo de un siglo, es decir, lento en comparación con el movimiento anual) de las órbitas planetarias, según la teoría de oscilaciones de Lagrange.

Ecuación secular

Ecuación secular puede tener varios significados.

  • En álgebra lineal se utiliza a veces en lugar de ecuación característica.
  • En la astronomía es la expresión algebraica o numérica de la magnitud de las desigualdades en el movimiento de un planeta que permanecen después de que se hayan permitido las desigualdades de un corto período.
  • En cálculos orbitales moleculares relacionados con la energía del electrón y su función de onda también se utiliza en lugar de la ecuación característica.

Para álgebras asociativas generales

La definición anterior del polinomio característico de una matriz A▪ ▪ Mn()F){displaystyle Ain M_{n}(F)} con entradas en un campo F{displaystyle F} generaliza sin cambios en el caso cuando F{displaystyle F} es sólo un anillo conmutativo. Garibaldi (2004) define el polinomio característico para elementos de un álgebra finita-dimensional arbitraria (asociativa, pero no necesariamente comunitaria) sobre un campo F{displaystyle F} y prueba las propiedades estándar del polinomio característico en esta generalidad.

Contenido relacionado

Cuerpo y alma

Cuerpo y Alma puede referirse...

Ratramnus

Ratramnus un monje franco de el monasterio de Corbie, cerca de Amiens en el norte de Francia, fue un teólogo carolingio mejor conocido por sus escritos sobre...

Posibilidad

Posibilidad es la condición o hecho de ser posible. Los orígenes latinos de la palabra insinúan...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save