Teorema de rango-nulidad

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
En álgebra lineal, relación entre 3 dimensiones
Teorema de anualidad

El teorema de rango-nulidad es un teorema de álgebra lineal, que afirma:

  • el número de columnas de una matriz M es la suma del rango de M y la nulidad de M; y
  • la dimensión del dominio de una transformación lineal f es la suma del rango de f (la dimensión de la imagen f) y la nulidad de f (la dimensión del núcleo f).
Did you mean:

It follows that for linear transformations of vector spaces of finite dimension, either injectivity and surjectivity implies injectivity.

Enunciado del teorema

Transformaciones lineales

Vamos T:V→ → W{displaystyle T:Vto W} ser una transformación lineal entre dos espacios vectoriales donde T{displaystyle T}'s dominio V{displaystyle V} es una dimensión finita. Entonces...

rango⁡ ⁡ ()T)+nulidad⁡ ⁡ ()T)=dim⁡ ⁡ V,{displaystyle operatorname {rank} (T)~+~operatorname {nullity} (T)~=~dim V.
rango⁡ ⁡ ()T){textstyle operatorname {rank} (T)}T{displaystyle T}nulidad⁡ ⁡ ()T){displaystyle operatorname {nullity} (T)}T{displaystyle T}
dim⁡ ⁡ ()Im⁡ ⁡ T)+dim⁡ ⁡ ()Ker⁡ ⁡ T)=dim⁡ ⁡ ()Dominio⁡ ⁡ ()T)).{displaystyle dim(operatorname {Im} T)+dim(fnMicrosoftware) {Ker} T)=dim(fnMicrosoftware) {Domain} (T)). }
T{displaystyle T}V/Ker⁡ ⁡ ()T){displaystyle V/operatorname {Ker} (T)}Imagen⁡ ⁡ ()T),{displaystyle operatorname {Image} (T),}V{displaystyle V}Ker⁡ ⁡ ()T){displaystyle operatorname {Ker} (T)}Imagen⁡ ⁡ ()T)⊕ ⊕ Ker⁡ ⁡ ()T).. V.{displaystyle operatorname {Image} (T)oplus operatorname {Ker} (T)cong V.}

Matrices

Los mapas lineales pueden ser representados con matrices. Más precisamente, un m× × n{displaystyle mtimes n} matriz M representa un mapa lineal f:Fn→ → Fm,{displaystyle f:F^{n}to F^{m},} Donde F{displaystyle F} es el campo subyacente. Entonces, la dimensión del dominio f{displaystyle f} es n, el número de columnas de M, y el teorema de anualidad rango para un m× × n{displaystyle mtimes n} matriz M es

rango⁡ ⁡ ()M)+nulidad⁡ ⁡ ()M)=n.{displaystyle operatorname {rank} (M)+operatorname {nullity} (M)=n.}

Pruebas

Aquí ofrecemos dos pruebas. El primero opera en el caso general, utilizando mapas lineales. La segunda prueba mira el sistema homogéneo Ax=0,{displaystyle mathbf {Ax} =mathbf {0} Donde A{displaystyle mathbf {A} es un m× × n{displaystyle mtimes n} con rango r,{displaystyle r,} y muestra explícitamente que existe un conjunto de n− − r{displaystyle No. soluciones linealmente independientes que abarcan el espacio nulo A{displaystyle mathbf {A}.

Si bien el teorema requiere que el dominio del mapa lineal sea de dimensión finita, no existe tal suposición en el codominio. Esto significa que hay aplicaciones lineales no dadas por matrices para las que se aplica el teorema. A pesar de esto, la primera prueba en realidad no es más general que la segunda: dado que la imagen del mapa lineal es de dimensión finita, podemos representar el mapa desde su dominio hasta su imagen mediante una matriz, probar el teorema para esa matriz, entonces componer con la inclusión de la imagen en el codominio completo.

Primera prueba

Vamos V,W{displaystyle V,W} ser espacios vectoriales en algún campo F,{displaystyle F,} y T{displaystyle T} definido como en la declaración del teorema con dim⁡ ⁡ V=n{displaystyle dim V=n}.

As Ker⁡ ⁡ T⊂ ⊂ V{displaystyle operatorname {Ker} Tsubset V} es un subespacio, existe una base para ello. Suppose dim⁡ ⁡ Ker⁡ ⁡ T=k{displaystyle dim operatorname {Ker} T=k! y dejar

K:={}v1,...... ,vk}⊂ ⊂ Ker⁡ ⁡ ()T){fnMicrosoft Sans Serif}:={v_{1} nombre del operador {Ker} (T)}

Ahora podemos, por el intercambio de Steinitz, extendernos K{displaystyle {fnMithcal}} con n− − k{displaystyle No. vectores linealmente independientes w1,...... ,wn− − k{displaystyle w_{1},ldotsw_{n-k} para constituir una base completa V{displaystyle V}.

Dejar

S:={}w1,...... ,wn− − k}⊂ ⊂ V∖ ∖ Ker⁡ ⁡ ()T){displaystyle {máthcal {}:=w_{1},ldotsw_{n-k}subset Vsetminus operatorname {Ker} (T)}
B:=K∪ ∪ S={}v1,...... ,vk,w1,...... ,wn− − k}⊂ ⊂ V{displaystyle {máthcal}:={mthcal {K}cup {máthcal {}={v_{1},ldotsv_{k},w_{1},ldotsw_{n-k}\}beset] V.
V{displaystyle V}
Im⁡ ⁡ T=Span⁡ ⁡ T()B)=Span⁡ ⁡ {}T()v1),...... ,T()vk),T()w1),...... ,T()wn− − k)}{displaystyle operatorname {Im} T=operatorname {Span} T({mathcal {B})=operatorname {Span} {T(v_{1}),ldotsT(v_{k}),T(w_{1}),ldotsT(w_{n-k})}}}}}}}

=Span⁡ ⁡ {}T()w1),...... ,T()wn− − k)}=Span⁡ ⁡ T()S).{displaystyle =operatorname {Span} {T(w_{1}),ldotsT(w_{n-k})}=operatorname - ¿Qué?

Ahora afirmamos que T()S){displaystyle T({mathcal {S})} es una base para Im⁡ ⁡ T{displaystyle operatorname {Im} T}. La igualdad anterior ya establece que T()S){displaystyle T({mathcal {S})} es un conjunto generador para Im⁡ ⁡ T{displaystyle operatorname {Im} T}; queda por demostrar que también es linealmente independiente concluir que es una base.

Suppose T()S){displaystyle T({mathcal {S})} no es linealmente independiente, y

.. j=1n− − kα α jT()wj)=0W{displaystyle sum _{j=1} {n-k}alpha ¿Qué?
α α j▪ ▪ F{displaystyle alpha _{j}in F}

Así pues, debido a la linealidad T{displaystyle T}, sigue que

T().. j=1n− − kα α jwj)=0W⟹ ⟹ ().. j=1n− − kα α jwj)▪ ▪ Ker⁡ ⁡ T=Span⁡ ⁡ K⊂ ⊂ V.{displaystyle Tleft(sum _{j=1}{n-k}alpha ¿Por qué? En operatorname {Ker} T=operatorname Subset V.}
B{displaystyle {máthcal {B}}α α j{displaystyle alpha _{j}}T()S){displaystyle T({mathcal {S})}Im⁡ ⁡ T{displaystyle operatorname {Im} T}

Para resumir, tenemos K{displaystyle {fnMithcal}}, una base para Ker⁡ ⁡ T{displaystyle operatorname {Ker} T}, y T()S){displaystyle T({mathcal {S})}, una base para Im⁡ ⁡ T{displaystyle operatorname {Im} T}.

Finalmente podemos afirmar que

Rank⁡ ⁡ ()T)+Nullity⁡ ⁡ ()T)=dim⁡ ⁡ Im⁡ ⁡ T+dim⁡ ⁡ Ker⁡ ⁡ T{displaystyle operatorname {Rank} (T)+operatorname {Nullity} (T)=dim operatorname {Im} T+dim operatorname {Ker} T}

=SilencioT()S)Silencio+SilencioKSilencio=()n− − k)+k=n=dim⁡ ⁡ V.{displaystyle = privacyT({mathcal {S}) V.}

Esto concluye nuestra prueba.

Segunda prueba

Vamos A{displaystyle mathbf {A} ser un m× × n{displaystyle mtimes n} matriz r{displaystyle r} columnas linealmente independientes (es decir, Rank⁡ ⁡ ()A)=r{displaystyle operatorname {Rank} (mathbf {A}r}). Demostraremos que:

  1. Existe un conjunto de n− − r{displaystyle No. soluciones linealmente independientes al sistema homogéneo Ax=0{displaystyle mathbf {Ax} =mathbf {0}.
  2. Que cada otra solución es una combinación lineal de estas n− − r{displaystyle No. soluciones.

Para hacer esto, produciremos un n× × ()n− − r){displaystyle ntimes (n-r)} matriz X{displaystyle mathbf {X} cuyas columnas forman la base del espacio nulo de A{displaystyle mathbf {A}.

Sin pérdida de generalidad, asuma que la primera r{displaystyle r} columnas de A{displaystyle mathbf {A} son linealmente independientes. Así que podemos escribir

A=()A1A2),{displaystyle mathbf {A} ={begin{pmatrix}mathbf {A} {1} {cHFF} {A} {2}end{pmatrix}}}}

  • A1{displaystyle mathbf {fnK} es un m× × r{displaystyle mtimes r} matriz r{displaystyle r} vectores de columna linealmente independientes, y
  • A2{displaystyle mathbf {A} {2}} es un m× × ()n− − r){displaystyle mtimes (n-r)} matriz tal que cada uno de sus n− − r{displaystyle No. columnas es combinaciones lineales de las columnas de A1{displaystyle mathbf {fnK}.

Esto significa que A2=A1B{displaystyle mathbf {A} {2}=Mathbf {A} _{1}mathbf {B} para algunos r× × ()n− − r){displaystyle rtimes (n-r)} matriz B{displaystyle mathbf {B} (ver factorización de rango) y, por consiguiente,

A=()A1A1B).{displaystyle mathbf {A} ={begin{pmatrix}mathbf {A} {1} {cHFF} {A} _{1}mathbf {B} end{pmatrix}}}

Dejar

X=()− − BIn− − r),{displaystyle mathbf {X} ={begin{pmatrix}-mathbf {B} 'Mathbf {I} {n-r}end{pmatrix}}}
In− − r{displaystyle mathbf {I} _{n-r}()n− − r)× × ()n− − r){displaystyle (n-r)times (n-r)}X{displaystyle mathbf {X}n× × ()n− − r){displaystyle ntimes (n-r)}
AX=()A1A1B)()− − BIn− − r)=− − A1B+A1B=0m× × ()n− − r).{displaystyle mathbf {A} mathbf {X} ={begin{pmatrix}mathbf {A} {1} {cHFF} {A} _{1}mathbf {B}end{pmatrix}{begin{pmatrix}-mathbf {B} 'Mathbf {I} {n-r}end{pmatrix}=-mathbf {A} _{1}mathbf {B} +mathbf {A} _{1}mathbf {B} =mathbf {0} _{mtimes (n-r)}.}

Por lo tanto, cada uno de los n− − r{displaystyle No. columnas de X{displaystyle mathbf {X} son soluciones particulares Ax=0Fm{displaystyle mathbf {Ax} {cHFF}.

Además, el n− − r{displaystyle No. columnas de X{displaystyle mathbf {X} son linealmente independientes porque Xu=0Fn{displaystyle mathbf {Xu} =mathbf {0} {fn}} implicarán u=0Fn− − r{displaystyle mathbf {u} = 'Mathbf {0} F} {n-r}} para u▪ ▪ Fn− − r{displaystyle mathbf {u} {f} {f} {f} {f}} {f} {f}} {f}}} {f} {f}}}}} {f}}}}}}}}} {:

Xu=0Fn⟹ ⟹ ()− − BIn− − r)u=0Fn⟹ ⟹ ()− − Buu)=()0Fr0Fn− − r)⟹ ⟹ u=0Fn− − r.{displaystyle mathbf {X} mathbf {u} =mathbf {0} _{F}implies {begin{pmatrix}-mathbf {B} 'Mathbf {fn} {fn} {fn}fnh}m}mfnfnh}mfn} {fnMicrosoft Sans Serif} {B} mathbf {u} \mathbf {u}end{pmatrix}={begin{pmatrix}mathbf {0} _{F}}\mathbf {0} _{n-r}} {m} {f} {f} {f} {f}f}f}f}f}f}f}f}f}f}}f}f}f}f}f}f}f}f}f}cH00}f}cH00}cH00}f}f}f}f}f}f}cH00}f}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}}}}cH00} = 'Mathbf {0} _{F} {n-r}}
X{displaystyle mathbf {X}n− − r{displaystyle No.Ax=0Fm{displaystyle mathbf {Ax} =mathbf {0} _{mathbb {F} {m}}

Probamos que cualquiera solución de Ax=0Fm{displaystyle mathbf {Ax} =mathbf {0} {cHFF}} debe ser una combinación lineal de las columnas de X{displaystyle mathbf {X}.

Para esto, deja

u=()u1u2)▪ ▪ Fn{displaystyle mathbf {u} {fnMitbf} ¿Qué? {fn}

ser cualquier vector tal que Au=0Fm{displaystyle mathbf {Au} =mathbf {0} {cHFF}}. Desde las columnas de A1{displaystyle mathbf {fnK} son linealmente independientes, A1x=0Fm{displaystyle mathbf {A} _{1}mathbf {x} = 'Mathbf {0} {cHFF}} implicación x=0Fr{displaystyle mathbf {x} = 'Mathbf {0} {cHFF}}.

Por lo tanto,

Au=0Fm⟹ ⟹ ()A1A1B)()u1u2)=A1u1+A1Bu2=A1()u1+Bu2)=0Fm⟹ ⟹ u1+Bu2=0Fr⟹ ⟹ u1=− − Bu2{displaystyle {begin{rcl}mathbf {A} mathbf {u} ' âTMa âTMa âTMa {0} {{m}\\\\\\\\\\\\\\\\\\\\\fnMicrosoft}\\cH009fnMicrosoft} {A} {1} {cHFF} {A} _{1}mathbf {B}end{pmatrix}{begin{pmatrix}mathbf {u} _{1}\Mathbf {u} ################################################################################################################################################################################################################################################################ {A} {fn}fnMitbf} _{1}+mathbf {A} _{1}mathbf {B} mathbf {u} _{2} [A] _{1}(Mathbf {u} _{1}+mathbf {B} mathbf {u} _{2}) {0} {F} {m}\\\\fnMicrosoft Sans Serif} _{1}+mathbf {B} mathbf {u} ################################################################################################################################################################################################################################################################ {0} _{F}\\\fnMicrosoft Sans Serif} ################################################################################################################################################################################################################################################################ {B} mathbf {u} _{2}end{array}}
⟹ ⟹ u=()u1u2)=()− − BIn− − r)u2=Xu2.{displaystyle implies mathbf {u} {fnMitbf} ######### {begin{pmatrix}-mathbf {B} 'Mathbf {I} {n-r}end{pmatrix}mathbf {u} - ¿Qué? {X} mathbf {u} _{2}.

Esto demuestra que cualquier vector u{displaystyle mathbf {u} que es una solución Ax=0{displaystyle mathbf {Ax} =mathbf {0} debe ser una combinación lineal de la n− − r{displaystyle No. soluciones especiales dadas por las columnas de X{displaystyle mathbf {X}. Y ya hemos visto que las columnas de X{displaystyle mathbf {X} son linealmente independientes. Por lo tanto, las columnas de X{displaystyle mathbf {X} constituye una base para el espacio nulo de A{displaystyle mathbf {A}. Por lo tanto, la nulidad de A{displaystyle mathbf {A} es n− − r{displaystyle No.. Desde r{displaystyle r} igualdad de rango A{displaystyle mathbf {A}, sigue que Rank⁡ ⁡ ()A)+Nullity⁡ ⁡ ()A)=n{displaystyle operatorname {Rank} (mathbf {A})+operatorname {Nullity} (mathbf {A})=n}. Esto concluye nuestra prueba.

Un tercer subespacio fundamental

Cuando T:V→ → W{displaystyle T:Vto W} es una transformación lineal entre dos subespacios finitos-dimensionales, con n=dim⁡ ⁡ ()V){displaystyle n=dim(V)} y m=dim⁡ ⁡ ()W){displaystyle m=dim(W)} (también puede ser representado por un m× × n{displaystyle mtimes n} matriz M{displaystyle M}), el teorema de rango anual afirma que si T{displaystyle T} tiene rango r{displaystyle r}, entonces n− − r{displaystyle No. es la dimensión del espacio nulo de M{displaystyle M}, que representa el núcleo T{displaystyle T}. En algunos textos, un tercer subespacio fundamental asociado a T{displaystyle T} se considera junto a su imagen y núcleo: el cokernel T{displaystyle T} es el espacio conveniente W/Imagen⁡ ⁡ ()T){displaystyle W/operatorname {Image} (T)}, y su dimensión es m− − r{displaystyle m-r}. Esta fórmula de dimensión (que también podría ser renderizada dim⁡ ⁡ Imagen⁡ ⁡ ()T)+dim⁡ ⁡ Coker⁡ ⁡ ()T)=dim⁡ ⁡ ()W){displaystyle dim operatorname {Image} (T)+dim operatorname {Coker} (T)=dim(W)}) junto con el teorema de rango-nullidad a veces se llama el teorema fundamental de álgebra lineal.

Reformulaciones y generalizaciones

Este teorema es un enunciado del primer teorema de isomorfismo del álgebra para el caso de espacios vectoriales; se generaliza al lema de división.

En un lenguaje más moderno, el teorema también puede expresarse diciendo que cada secuencia exacta corta de espacios vectoriales se divide. Explícitamente, dado que

0→ → U→ → V→ → TR→ → 0{displaystyle 0rightarrow Urightarrow Vmathbin {overset}Rrightarrow 0}
U⊕ ⊕ R.. V{displaystyle Uoplus Rcong V}
dim⁡ ⁡ ()U)+dim⁡ ⁡ ()R)=dim⁡ ⁡ ()V).{displaystyle dim(U)+dim(R)=dim(V). }
R{displaystyle R.Im⁡ ⁡ T{displaystyle operatorname {Im} T}U{displaystyle U}Ker⁡ ⁡ T{displaystyle operatorname {Ker} T}
0→ → ker⁡ ⁡ T.. V→ → Tim⁡ ⁡ T→ → 0{displaystyle 0rightarrow ker Tmathbin {hookrightarrow } Vmathbinoverset {T}{rightarrow }}operatorname {im} Trightarrow 0}

En el caso de dimensión finita, esta formulación es susceptible de una generalización: si

0→ → V1→ → V2→ → ⋯ ⋯ Vr→ → 0{displaystyle 0rightarrow V_{1}derecho V_{2}rightarrow cdots V_{r}rightarrow 0}
.. i=1r()− − 1)idim⁡ ⁡ ()Vi)=0.{displaystyle sum _{i=1}{r}(-1)^{i}dim(V_{i})=0.}
índiceT▪ ▪ Hom⁡ ⁡ ()V,W){displaystyle Tin operatorname {Hom} (V,W)}V{displaystyle V}W{displaystyle W.
índice⁡ ⁡ T=dim⁡ ⁡ Ker⁡ ⁡ ()T)− − dim⁡ ⁡ Coker⁡ ⁡ T.{displaystyle operatorname {index} T=dim operatorname {Ker} (T)-dim operatorname {Coker} T.}

Intuitivamente, dim⁡ ⁡ Ker⁡ ⁡ T{displaystyle dim operatorname {Ker} T} es el número de soluciones independientes v{displaystyle v} de la ecuación Tv=0{displaystyle Tv=0}, y dim⁡ ⁡ Coker⁡ ⁡ T{displaystyle dim operatorname {Coker} T} es el número de restricciones independientes que deben imponerse w{displaystyle w} para hacer Tv=w{displaystyle Tv=w! solvable. El teorema de rango-nullidad para espacios vectoriales finitos es equivalente a la declaración

índice⁡ ⁡ T=dim⁡ ⁡ V− − dim⁡ ⁡ W.{displaystyle operatorname {index} T=dim V-dim W.}

Vemos que podemos leer fácilmente el índice del mapa lineal T{displaystyle T} de los espacios involucrados, sin necesidad de analizar T{displaystyle T} en detalle. Este efecto también se produce en un resultado mucho más profundo: el teorema del índice de Atiyah-Singer indica que el índice de ciertos operadores diferenciales se puede leer de la geometría de los espacios involucrados.

Contenido relacionado

Problema bien planteado

El término matemático problema bien planteado proviene de una definición dada por el matemático francés del siglo XX Jacques Hadamard. Él creía que los...

Círculo de Euler

Círculo de Euler puede referirse...

Especies combinatorias

En matemáticas combinatorias, la teoría de las especies combinatorias es un método abstracto y sistemático para derivar las funciones generatrices de...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save