Tensor
En matemáticas, un tensor es un objeto algebraico que describe una relación multilineal entre conjuntos de objetos algebraicos relacionados con un espacio vectorial. Los tensores pueden asignarse entre diferentes objetos, como vectores, escalares e incluso otros tensores. Hay muchos tipos de tensores, incluidos escalares y vectores (que son los tensores más simples), vectores duales, mapas multilineales entre espacios vectoriales e incluso algunas operaciones como el producto escalar. Los tensores se definen independientemente de cualquier base, aunque a menudo se hace referencia a ellos por sus componentes en una base relacionada con un sistema de coordenadas particular.
Los tensores se han vuelto importantes en física porque proporcionan un marco matemático conciso para formular y resolver problemas de física en áreas como la mecánica (tensión, elasticidad, mecánica de fluidos, momento de inercia,...), la electrodinámica (tensor electromagnético, Maxwell tensor, permitividad, susceptibilidad magnética,...), relatividad general (tensor tensión-energía, tensor de curvatura,...) y otros. En las aplicaciones, es común estudiar situaciones en las que puede presentarse un tensor diferente en cada punto de un objeto; por ejemplo, la tensión dentro de un objeto puede variar de un lugar a otro. Esto conduce al concepto de un campo tensorial. En algunas áreas, los campos de tensores son tan ubicuos que a menudo se les llama simplemente "tensores".
Tullio Levi-Civita y Gregorio Ricci-Curbastro popularizaron los tensores en 1900, continuando el trabajo anterior de Bernhard Riemann y Elwin Bruno Christoffel y otros, como parte del cálculo diferencial absoluto. El concepto permitió una formulación alternativa de la geometría diferencial intrínseca de una variedad en forma de tensor de curvatura de Riemann.
Definición
Aunque aparentemente diferentes, los diversos enfoques para definir los tensores describen el mismo concepto geométrico usando un lenguaje diferente y en diferentes niveles de abstracción.
Como arreglos multidimensionales
Un tensor se puede representar como una matriz (potencialmente multidimensional). Del mismo modo que un vector en un espacio n-dimensional se representa mediante una matriz unidimensional con n componentes con respecto a una base dada, cualquier tensor con respecto a una base está representado por una matriz multidimensional. Por ejemplo, un operador lineal se representa en una base como una matriz cuadrada bidimensional n × n. Los números en la matriz multidimensional se conocen como los componentes escalares del tensor o simplemente sus componentes. Se denotan mediante índices que dan su posición en el arreglo, como subíndices y superíndices, siguiendo el nombre simbólico del tensor. Por ejemplo, los componentes de un tensor de orden 2 T podrían denotarse Tij, donde i y j son índices que van desde 1 a n, o también por T i
j. Que un índice se muestre como superíndice o subíndice depende de las propiedades de transformación del tensor, que se describen a continuación. Así, mientras Tij y T i
j pueden expresarse como n- matrices by-n, y están relacionadas numéricamente a través de malabares de índices, la diferencia en sus leyes de transformación indica que sería incorrecto sumarlas.
El número total de índices (m) necesarios para identificar cada componente de forma única es igual a la dimensión o el número de formas de una matriz, por lo que a veces se hace referencia a una matriz como m-dimensional o una matriz m-way. El número total de índices también se denomina orden, grado, rango o modo de un tensor, aunque el término "rango" generalmente tiene otro significado en el contexto de matrices y tensores.
Así como los componentes de un cambio vectorial cuando cambiamos la base del espacio vectorial, los componentes de un tensor también cambian bajo tal transformación. Cada tipo de tensor viene equipado con un derecho de transformación que detalla cómo los componentes del tensor responden a un cambio de base. Los componentes de un vector pueden responder de dos maneras distintas a un cambio de base (ver covariancia y contravariancia de vectores), donde los vectores de nueva base e^ ^ i{displaystyle mathbf {hat {e} ¿Qué? se expresan en términos de la antigua base vectores ej{displaystyle mathbf {e} _{j} como,
- e^ ^ i=.. j=1nejRij=ejRij.{displaystyle mathbf {hat {e} ¿Qué? ¿Qué?
Aquí R ji están las entradas del cambio de base matriz, y en la expresión más a la derecha se suprimió el signo de suma: esta es la convención de suma de Einstein, que se utilizará a lo largo de este artículo. Las componentes vi de un vector columna v se transforman con la inversa de la matriz R,
- v^ ^ i=()R− − 1)jivj,{displaystyle {hat {f} {i}=left(R^{-1}right)_{j}i}v^{j}}}
donde el sombrero denota los componentes en la nueva base. Esto se llama una ley de transformación contravariante, porque los componentes del vector se transforman por el inverso del cambio de base. Por el contrario, las componentes, wi, de un covector (o vector fila), w, se transforman con la propia matriz R,
- w^ ^ i=wjRij.{displaystyle {hat} {fnMicrosoft Sans Serif}
Esto se denomina ley de transformación covariante, porque los componentes del covector se transforman según la misma matriz que la matriz de cambio de base. Los componentes de un tensor más general se transforman mediante alguna combinación de transformaciones covariantes y contravariantes, con una ley de transformación para cada índice. Si la matriz de transformación de un índice es la matriz inversa de la transformación de base, entonces el índice se llama contravariante y se denota convencionalmente con un índice superior (superíndice). Si la matriz de transformación de un índice es la propia transformación base, entonces el índice se denomina covariante y se denota con un índice inferior (subíndice).
Como ejemplo simple, la matriz de un operador lineal con respecto a una base es un array rectangular T{displaystyle T} que se transforma bajo un cambio de matriz de base R=()Rij){displaystyle R=left(R_{i}{j}right)} por T^ ^ =R− − 1TR{displaystyle {hat {}=R^{-1}TR}. Para las entradas de la matriz individual, esta ley de transformación tiene la forma T^ ^ j.i.=()R− − 1)ii.TjiRj.j{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnK}} {fn}}}} {fnK}} {fnK}} {f} {f}}} {f}}}} {fnKf}}}}} {f}}}} {f}}}}}}}}}}}}} {f}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}} {f}}}} {f}}}}}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}} {f}}}}}}}} por lo que el tensor correspondiente a la matriz de un operador lineal tiene un covariante y un índice contravariante: es de tipo (1,1).
Las combinaciones de componentes covariantes y contravariantes con el mismo índice nos permiten expresar invariantes geométricos. Por ejemplo, el hecho de que un vector sea el mismo objeto en diferentes sistemas de coordenadas se puede capturar mediante las siguientes ecuaciones, utilizando las fórmulas definidas anteriormente:
- v=v^ ^ ie^ ^ i=()()R− − 1)jivj)()ekRik)=()()R− − 1)jiRik)vjek=δ δ jkvjek=vkek=viei{displaystyle mathbf {v} {f} {f}fnMitbf {f} {f} {f} {f}}} {f}f}fnMitbf {f} {f}} {f}} {fnK}f}fnK}=f}=f}f}=cH0}=cH00})left(mathbf {i} {i} {cH} {cHFF}cH}=i} {cH} {cHFF}cH0}cH00}}cH0} {cH0}}cH}cH}}cH00}cH}cH00}cH00}cH00}}cH}cH0}cH00}cH00}cH0}}}}ccH}}}cH}cH}cH}cH0}c}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH}cH00}cH00}}}}}}cH00} ¿Qué? ¿Qué?,
Donde δ δ jk{displaystyle delta _{j} {k}} es el delta Kronecker, que funciona de manera similar a la matriz de identidad, y tiene el efecto de renombrar índices (j en k en este ejemplo). Esto muestra varias características de la notación del componente: la capacidad de re-arrange terms at will (commutativity), la necesidad de utilizar diferentes índices al trabajar con múltiples objetos en la misma expresión, la capacidad de renombrar índices, y la forma en que se combinan los tensores contravariantes y covariantes para que todas las instancias de la matriz de transformación y su cancelación inversa, de modo que expresiones como viei{fnMicrosoft} puede ser inmediatamente visto como geométricamente idéntico en todos los sistemas de coordenadas.
Del mismo modo, un operador lineal, visto como un objeto geométrico, no depende en realidad de una base: es sólo un mapa lineal que acepta un vector como argumento y produce otro vector. La ley de transformación para cómo la matriz de componentes de un operador lineal cambia con la base es consistente con la ley de transformación para un vector contravariante, de modo que la acción de un operador lineal en un vector contravariante está representada en coordenadas como el producto matriz de sus respectivas representaciones de coordenadas. Es decir, los componentes ()Tv)i{displaystyle (Tv)} {}} son dados por ()Tv)i=Tjivj{displaystyle (Tv)}=T_{j}{i}v^{j}. Estos componentes se transforman contravariablemente, ya que
- ()Tv^ ^ )i.=T^ ^ j.i.v^ ^ j.=[()R− − 1)ii.TjiRj.j][()R− − 1)kj.vk]=()R− − 1)ii.()Tv)i.{displaystyle left({widehat Está bien.
La ley de transformación para un tensor de orden p + q con índices contravariantes p y los índices covariantes q se dan así como,
- T^ ^ j1.,...... ,jq.i1.,...... ,ip.=()R− − 1)i1i1.⋯ ⋯ ()R− − 1)ipip.{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f}}} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans}} {fnMicrosoft}}}fnMicros}}fnMicrosoft Sansigues}fnMicrosoft Sans}fnMicrosoft Sans}fnMicrosoft Sans}}fnMicrosoft Sans}fnMicros}fnMicros}}fnMicros}fnMicros}}fnMicrosoft Sans, uh}fnMissss, mio_}fnMicrosoft Sans}fnMicros, uh}}}fnMicrosoft, uh} {fnMicro Tj1,...... ,jqi1,...... ,ip{displaystyle T_{j_{1},ldotsj_{q}{i_{1}ldotsi_{p}} Rj1.j1⋯ ⋯ Rjq.jq.{displaystyle ¿Qué? ¿Qué?
Aquí, los índices con prima denotan componentes en las nuevas coordenadas, y los índices sin prima denotan los componentes en las coordenadas antiguas. Se dice que tal tensor es de orden o tipo (p, q). Los términos "orden", "tipo", "rango", "valencia" y "grado" todos se utilizan a veces para el mismo concepto. Aquí, el término "orden" o "pedido total" se usará para la dimensión total de la matriz (o su generalización en otras definiciones), p + q en el ejemplo anterior, y el término "tipo" para el par que da el número de índices contravariantes y covariantes. Un tensor de tipo (p, q) también se denomina (p, q)-tensor para abreviar.
Esta discusión motiva la siguiente definición formal:
Definición. Un tensor de tipo (p, q) es una asignación de un array multidimensional
- Tj1...... jqi1...... ip[f]{displaystyle T_{j_{1}dots ############ ¿Qué?
a cada base f =e1,... en) of an n- el espacio vectorial dimensional tal que, si aplicamos el cambio de base
- f↦ ↦ f⋅ ⋅ R=()eiR1i,...... ,eiRni){displaystyle mathbf {f} mapsto mathbf {f} cdot R=left(mathbf {e} ¿Qué? - Sí.
entonces el array multidimensional obedece la ley de transformación
- Tj1....... jq.i1....... ip.[f⋅ ⋅ R]=()R− − 1)i1i1.⋯ ⋯ ()R− − 1)ipip.{displaystyle T_{j'_{1}dots ¿Qué? i'_{p}[mathbf {f}cdot R]=left(R^{-1}right)_{i_{1}} {i'_{1}cdots left(R^{-1}right)_{i_{p}} {i'_{i'_}}}}}}} Tj1,...... ,jqi1,...... ,ip[f]{displaystyle ¿Qué? Rj1.j1⋯ ⋯ Rjq.jq.{displaystyle ¿Qué? ¿Qué?
La definición de un tensor como una matriz multidimensional que satisface una ley de transformación se remonta al trabajo de Ricci.
Una definición equivalente de un tensor utiliza las representaciones del grupo lineal general. Hay una acción del grupo lineal general en el conjunto de todas las bases ordenadas de un n- espacio vectorial dimensional. Si f=()f1,...... ,fn){displaystyle mathbf {f} =(mathbf {f} _{1},dotsmathbf {f} _{n})} es una base ordenada, y R=()Rji){displaystyle R=left(R_{j}{i}right)} es un invertido n× × n{displaystyle ntimes n} matriz, entonces la acción es dada por
- fR=()fiR1i,...... ,fiRni).{displaystyle mathbf {f} R=left(mathbf {f} ¿Qué? - ¿Sí?
Vamos F ser el conjunto de todas las bases ordenadas. Entonces... F es un espacio homogéneo principal para GL(n). Vamos W ser un espacio vectorial y dejar *** *** {displaystyle rho } ser una representación de GL(n) on W (es decir, un grupo de homomorfismo *** *** :GL()n)→ → GL()W){displaystyle rho:{text{GL}(n)to {text{GL}(W)}). Entonces un tensor de tipo *** *** {displaystyle rho } es un mapa equivariable T:F→ → W{displaystyle T:Fto W}. La equidad aquí significa que
- T()FR)=*** *** ()R− − 1)T()F).{displaystyle T(FR)=rho left(R^{-1}right)T(F).}
Cuando *** *** {displaystyle rho } es una representación tensora del grupo lineal general, esto da la definición habitual de tensores como arrays multidimensionales. Esta definición se utiliza a menudo para describir a los tensores sobre los múltiples, y se generaliza fácilmente a otros grupos.
Como mapas multilineales
Una desventaja de la definición de un tensor usando el enfoque de matriz multidimensional es que no es evidente a partir de la definición que el objeto definido es realmente independiente de la base, como se espera de un objeto intrínsecamente geométrico. Aunque es posible demostrar que las leyes de transformación aseguran la independencia de la base, a veces se prefiere una definición más intrínseca. Un enfoque que es común en la geometría diferencial es definir tensores relativos a un espacio vectorial fijo (de dimensión finita) V, que generalmente se toma como un espacio vectorial particular de algún significado geométrico como el espacio tangente a un múltiple. En este enfoque, un tipo (p, q) tensor T se define como un mapa multilineal,
- T:VAlternativa Alternativa × × ⋯ ⋯ × × VAlternativa Alternativa ⏟ ⏟ pcopias× × V× × ⋯ ⋯ × × V⏟ ⏟ qcopias→ → R,{displaystyle T:underbrace {V^{*}times dots times V^{*} ¿Por qué?
donde V∗ es el correspondiente espacio dual de covectores, el cual es lineal en cada uno de sus argumentos. Lo anterior asume que V es un espacio vectorial sobre los números reales, ℝ. De manera más general, V se puede tomar sobre cualquier campo F (por ejemplo, los números complejos), con F reemplazando ℝ como el codominio de los mapas multilineales.
Al aplicar un mapa multilineal T de tipo (p, q) a una base {ej} para V y una cobase canónica {εi} para V∗,
- Tj1...... jqi1...... ip↑ ↑ T()ε ε i1,...... ,ε ε ip,ej1,...... ,ejq),{displaystyle T_{j_{1}dots ################# i_{p}equiv Tleft({boldsymbol {varepsilon }{i_{1}ldots{boldsymbol {varepsilon {fnMicrosoft Sans Serif}
Se puede obtener una matriz (p + q)-dimensional de componentes. Una elección diferente de base producirá diferentes componentes. Pero, debido a que T es lineal en todos sus argumentos, los componentes satisfacen la ley de transformación del tensor utilizada en la definición de matriz multilineal. La matriz multidimensional de componentes de T forma un tensor de acuerdo con esa definición. Además, dicha matriz se puede realizar como los componentes de algún mapa multilineal T. Esto motiva a ver los mapas multilineales como los objetos intrínsecos subyacentes a los tensores.
Al ver un tensor como un mapa multilineal, es convencional identificar el doble dual V∗∗ del espacio vectorial V, es decir, el espacio de funcionales lineales en el espacio vectorial dual V∗, con el espacio vectorial V. Siempre hay un mapa lineal natural de V a su doble dual, dado al evaluar una forma lineal en V∗ contra un vector en V. Este mapeo lineal es un isomorfismo en dimensiones finitas y, a menudo, es conveniente identificar V con su doble dual.
Uso de productos tensoriales
Para algunas aplicaciones matemáticas, a veces es útil un enfoque más abstracto. Esto se puede lograr definiendo tensores en términos de elementos de productos tensoriales de espacios vectoriales, que a su vez se definen a través de una propiedad universal como se explica aquí y aquí.
Un tipo (p, q) tensor se define en este contexto como un elemento del producto tensorial de espacios vectoriales,
- T▪ ▪ V⊗ ⊗ ⋯ ⋯ ⊗ ⊗ V⏟ ⏟ pcopias⊗ ⊗ VAlternativa Alternativa ⊗ ⊗ ⋯ ⋯ ⊗ ⊗ VAlternativa Alternativa ⏟ ⏟ qcopias.{displaystyle Tin underbrace {Votimes dots otimes V} _{p{text{ copies}}otimes underbrace {V^{*}otimes dots otimes V^{*} - ¿Qué?
Una base vi de V y base wj de W induce naturalmente una base vi ⊗ wj del producto tensorial V ⊗ W. Las componentes de un tensor T son los coeficientes del tensor con respecto a la base obtenida a partir de una base {ei} para V y su base dual {εj}, es decir,
- T=Tj1...... jqi1...... ipei1⊗ ⊗ ⋯ ⋯ ⊗ ⊗ eip⊗ ⊗ ε ε j1⊗ ⊗ ⋯ ⋯ ⊗ ⊗ ε ε jq.{displaystyle T=T_{j_{1}dots ################# ¿Qué? _{i_{1}otimes cdots otimes mathbf {e} ################################################################################################################################################################################################################################################################ }{j_{1}otimes cdots otimes {boldsymbol {varepsilon - Sí.
Usando las propiedades del producto tensorial, se puede demostrar que estos componentes satisfacen la ley de transformación para un tipo (p, q) tensor. Además, la propiedad universal del producto tensorial da una correspondencia uno a uno entre los tensores definidos de esta manera y los tensores definidos como mapas multilineales.
Esta correspondencia 1 a 1 se puede archivar de la siguiente manera, porque en el caso de dimensión finita existe un isomorfismo canónico entre un espacio vectorial y su doble dual:
- U⊗ ⊗ V.. ()UAlternativa Alternativa Alternativa Alternativa )⊗ ⊗ ()VAlternativa Alternativa Alternativa Alternativa ).. ()UAlternativa Alternativa ⊗ ⊗ VAlternativa Alternativa )Alternativa Alternativa .. Hom2 ()UAlternativa Alternativa × × VAlternativa Alternativa ;F){displaystyle Uotimes Vcong left(U^{**}right)otimes left(V^{**}right)cong left(U^{*}otimes V^{*}right)^{*}cong operatorname {Hom} ^{2}left(U^{*}times V^{*};mathbb {F}right)}
La última línea está utilizando la propiedad universal del producto tensor, que hay una correspondencia de 1 a 1 entre mapas de Hom2 ()UAlternativa Alternativa × × VAlternativa Alternativa ;F){displaystyle operatorname {Hom} ^{2}left(U^{*}times V^{*};mathbb {F}right)} y Hom ()UAlternativa Alternativa ⊗ ⊗ VAlternativa Alternativa ;F){displaystyle operatorname {Hom} left(U^{*}otimes V^{*};mathbb {F}right)}.
Los productos tensoriales se pueden definir de manera muy general, por ejemplo, involucrando módulos arbitrarios sobre un anillo. En principio, se podría definir un "tensor" simplemente para ser un elemento de cualquier producto tensorial. Sin embargo, la literatura matemática suele reservar el término tensor para un elemento de un producto tensorial de cualquier número de copias de un único espacio vectorial V y su dual, como arriba.
Tensores en infinitas dimensiones
Esta discusión de tensores hasta ahora asume una dimensionalidad finita de los espacios involucrados, donde los espacios de tensores obtenidos por cada una de estas construcciones son naturalmente isomorfos. Las construcciones de espacios de tensores basados en el producto tensorial y aplicaciones multilineales se pueden generalizar, esencialmente sin modificación, a haces vectoriales o haces coherentes. Para espacios vectoriales de dimensión infinita, las topologías no equivalentes conducen a nociones no equivalentes de tensor, y estos diversos isomorfismos pueden o no ser válidos según lo que se entienda exactamente por tensor (ver producto tensorial topológico). En algunas aplicaciones, se pretende el producto tensorial de los espacios de Hilbert, cuyas propiedades son las más similares al caso de dimensión finita. Una visión más moderna es que son los tensores' estructura como una categoría monoide simétrica que codifica sus propiedades más importantes, en lugar de los modelos específicos de esas categorías.
Campos tensoriales
En muchas aplicaciones, especialmente en geometría diferencial y física, es natural considerar un tensor con componentes que son funciones del punto en un espacio. Este fue el escenario de la obra original de Ricci. En la terminología matemática moderna, dicho objeto se denomina campo tensorial, a menudo denominado simplemente tensor.
En este contexto, a menudo se elige una base de coordenadas para el espacio vectorial tangente. Entonces, la ley de transformación puede expresarse en términos de derivadas parciales de las funciones coordinadas,
- x̄ ̄ i()x1,...... ,xn),{displaystyle {bar {x}}i}left(x^{1},ldotsx^{n}right),}
definir una transformación de coordenadas,
- T^ ^ j1....... jq.i1....... ip.()x̄ ̄ 1,...... ,x̄ ̄ n)=∂ ∂ x̄ ̄ i1.∂ ∂ xi1⋯ ⋯ ∂ ∂ x̄ ̄ ip.∂ ∂ xip∂ ∂ xj1∂ ∂ x̄ ̄ j1.⋯ ⋯ ∂ ∂ xjq∂ ∂ x̄ ̄ jq.Tj1...... jqi1...... ip()x1,...... ,xn).{fnMicrosoft Sans Serif} ¿Qué? {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}}} {fn}} {fn}}} {fn}} {fn}}} {fnfn}} {fnfn}}} {fnfnfn}}}} {fnfnfnfnfnfnfn}}}}}}}}}}}}fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnh00fnfnhncfnfnfnfnfnfnh00}fnfnh00}fnh00fnfnfnfnfnh00}}}}fn {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}}} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif} {fnMicrosoft Sans {fnMicrosoft Sans Serif} {fnK} {fnK}} {fnK}} {fnMicroc {fnK}} {fn}} {fn}}}} {fnMicroc {fnK}}}} {fn}}}} {f}} {f}}}}}}} {fnf}}}}}}}} {f}}}}}}}}f}}}}}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}}f}f}f}f}fnMikf}fnf}f}f}fnfnfnf}f}fnfnfnMicrocfnfnfnfnfnfnf}}fn {fnMicrosoft Sans Serif} {fnMicroc {fnMicrosoft {fnMicroc} {fnMicrosoft Sans Serif} ########### i_{p}left(x^{1},ldotsx^{n}right).}
Ejemplos
Un ejemplo elemental de un mapeo descriptible como tensor es el producto del punto, que mapea dos vectores a un escalar. Un ejemplo más complejo es el tensor de estrés de Cauchy T, que toma una unidad direccional vector v como entrada y mapas al vector de estrés T()v), que es la fuerza (por área unidad) ejercida por el material en el lado negativo de la ortogonal plano a v contra el material en el lado positivo del plano, expresando así una relación entre estos dos vectores, mostrado en la figura (derecha). El producto cruzado, donde dos vectores se mapean a uno tercero, no es estrictamente un tensor porque cambia su signo bajo aquellas transformaciones que cambian la orientación del sistema de coordenadas. El símbolo totalmente antisimétrico ε ε ijk{displaystyle varepsilon _{ijk}} Sin embargo, permite un manejo conveniente del producto cruzado en sistemas de coordinación tridimensional igualmente orientados.
Esta tabla muestra ejemplos importantes de tensores en espacios vectoriales y campos de tensores en variedades. Los tensores se clasifican según su tipo (n, m), donde n es el número de índices contravariantes, m es el número de índices covariantes, y n + m da el orden total del tensor. Por ejemplo, una forma bilineal es lo mismo que un tensor (0, 2); un producto interno es un ejemplo de un tensor (0, 2), pero no todos los tensores (0, 2) son productos internos. En la entrada (0, M) de la tabla, M denota la dimensionalidad del espacio vectorial subyacente o variedad porque para cada dimensión del espacio, se necesita un índice separado para seleccionar esa dimensión para obtener un tensor antisimétrico covariante máximo.
m | ||||||||
---|---|---|---|---|---|---|---|---|
0 | 1 | 2 | 3 | ⋯ | M | ⋯ | ||
n | 0 | Scalar, por ejemplo, curvatura de escalar | Covector, funcional lineal, 1-form, por ejemplo momento dipole, gradiente de un campo escalar | Forma bilineal, p. ej. producto interno, momento cuádrupo, tensor métrico, curvatura Ricci, forma 2-form, forma symplectic | 3-form E.g. octupole moment | Por ejemplo. M- formulario de volumen | ||
1 | Euclidean vector | Transformación lineal, Kronecker delta | E.g. producto cruzado en tres dimensiones | E.g. Riemann curvature tensor | ||||
2 | Tensor métrico inverso, bivector, por ejemplo, estructura Poisson | E.g. elasticity tensor | ||||||
⋮ | ||||||||
N | Multivector | |||||||
⋮ |
Elevar un índice en un tensor (n, m) produce un (n + 1, m − 1)-tensor; esto corresponde a moverse en diagonal hacia abajo ya la izquierda en la mesa. Simétricamente, bajar un índice corresponde a moverse en diagonal hacia arriba y hacia la derecha en la tabla. La contracción de un índice superior con un índice inferior de un tensor (n, m) produce un (n − 1, m − 1)-tensor; esto corresponde a moverse en diagonal hacia arriba y hacia la izquierda en la mesa.
Propiedades
Suponiendo una base de un espacio vectorial real, por ejemplo, un marco de coordinación en el espacio ambiente, un tensor puede ser representado como un conjunto multidimensional organizado de valores numéricos con respecto a esta base específica. Cambiar la base transforma los valores en la matriz de una manera característica que permite definir tensores como objetos que se adhieren a este comportamiento transformador. Por ejemplo, hay invariantes de tensores que deben ser preservados bajo cualquier cambio de la base, por lo que sólo algunos arrays multidimensionales de números son un tensor. Compare esto al array que representa ε ε ijk{displaystyle varepsilon _{ijk}} no siendo un tensor, porque el cambio de signo bajo transformaciones cambiando la orientación.
Debido a que las componentes de los vectores y sus duales se transforman de manera diferente bajo el cambio de sus bases duales, existe una ley de transformación covariante y/o contravariante que relaciona las matrices, que representan el tensor con respecto a una base y que con respecto a el otro. Los números de, respectivamente, vectores: n (índices contravariantes) y dual vectores: m (índices covariantes) en la entrada y salida de un tensor determinar el tipo (o valencia) del tensor, un par de números naturales ( n, m), que determinan la forma precisa de la ley de transformación. El orden de un tensor es la suma de estos dos números.
La orden (también grado o rango) de un tensor es así la suma de las órdenes de sus argumentos más el orden del tensor resultante. Esta es también la dimensionalidad del conjunto de números necesarios para representar al tensor con respecto a una base específica, o equivalentemente, el número de índices necesarios para etiquetar cada componente en ese array. Por ejemplo, en una base fija, un mapa lineal estándar que mapea un vector a un vector, está representado por una matriz (una matriz de 2 dimensiones), y por lo tanto es un tensor de 2o orden. Un vector simple puede ser representado como un array de 1 dimensión, y por lo tanto es un tensor de 1er orden. Los escalares son números simples y por lo tanto son tensores de orden 0. De esta manera el tensor que representa el producto del cuero cabelludo, tomando dos vectores y resultando en un escalar tiene orden 2 + 0 = 2, igual que el tensor de estrés, tomando un vector y devolviendo otro 1 + 1 = 2. El ε ε ijk{displaystyle varepsilon _{ijk}}- Símbolo, mapear dos vectores a un vector, tendría orden 2 + 1 = 3.
La colección de tensores en un espacio vectorial y su dual forma un álgebra tensorial, que permite productos de tensores arbitrarios. Las aplicaciones simples de tensores de orden 2, que se pueden representar como una matriz cuadrada, se pueden resolver mediante una disposición inteligente de los vectores transpuestos y aplicando las reglas de la multiplicación de matrices, pero el tensor El producto no debe confundirse con esto.
Notación
Existen varios sistemas de notación que se utilizan para describir tensores y realizar cálculos relacionados con ellos.
Cálculo de Ricci
El cálculo de Ricci es el formalismo y la notación modernos para índices tensoriales: indica productos internos y externos, covarianza y contravarianza, sumas de componentes tensoriales, simetría y antisimetría, y derivadas parciales y covariantes.
Convención de suma de Einstein
La convención de suma de Einstein prescinde de escribir signos de suma, dejando la suma implícita. Cualquier símbolo de índice repetido se suma: si el índice i se usa dos veces en un término dado de una expresión tensorial, significa que el término debe sumarse para todos los i. Varios pares distintos de índices se pueden sumar de esta manera.
Notación gráfica de Penrose
La notación gráfica de Penrose es una notación esquemática que reemplaza los símbolos de los tensores por formas y sus índices por líneas y curvas. Es independiente de los elementos básicos y no requiere símbolos para los índices.
Notación de índice abstracto
La notación de índice abstracto es una forma de escribir tensores de modo que los índices ya no se consideran numéricos, sino indeterminados. Esta notación captura la expresividad de los índices y la independencia de base de la notación sin índice.
Notación sin componentes
Un tratamiento de tensores sin componentes utiliza una notación que enfatiza que los tensores no dependen de ninguna base y se define en términos del producto tensorial de espacios vectoriales.
Operaciones
Hay varias operaciones en tensores que nuevamente producen un tensor. La naturaleza lineal del tensor implica que se pueden sumar dos tensores del mismo tipo y que los tensores se pueden multiplicar por un escalar con resultados análogos a la escala de un vector. En los componentes, estas operaciones simplemente se realizan por componentes. Estas operaciones no cambian el tipo del tensor; pero también hay operaciones que producen un tensor de distinto tipo.
Producto tensor
El producto tensorial toma dos tensores, S y T, y produce un nuevo tensor, S ⊗ T, cuyo orden es la suma de los órdenes de los tensores originales. Cuando se describen como mapas multilineales, el producto tensorial simplemente multiplica los dos tensores, es decir,
Contracción
La contracción de tensor es una operación que reduce un tipo ()n, m) tensor a un tipo ()n, 1, m −1) Tensor, del cual el rastro es un caso especial. Por lo tanto, reduce el orden total de un tensor por dos. La operación se logra resumiendo componentes para los cuales un índice contravariante especificado es el mismo que un índice covariante especificado para producir un nuevo componente. Los componentes para los cuales esos dos índices son diferentes son descartados. Por ejemplo, a (1, 1)-tensor Tij{displaystyle T_{i} {j} puede ser contratado a un escalar a través Tii{displaystyle T_{i} {i}. Donde la suma es otra vez implícita. Cuando el (1, 1)-tensor se interpreta como un mapa lineal, esta operación se conoce como el trazo.
La contracción se usa a menudo junto con el producto tensorial para contraer un índice de cada tensor.
La contracción también se puede entender utilizando la definición de un tensor como elemento de un producto tensor de copias del espacio V con el espacio VAlternativa por primera vez descomponer el tensor en una combinación lineal de simples tensores, y luego aplicar un factor desde VAlternativa a un factor desde V. Por ejemplo, un tensor T▪ ▪ V⊗ ⊗ V⊗ ⊗ VAlternativa Alternativa {displaystyle Tin Votimes Votimes V^{*} se puede escribir como una combinación lineal
- T=v1⊗ ⊗ w1⊗ ⊗ α α 1+v2⊗ ⊗ w2⊗ ⊗ α α 2+⋯ ⋯ +vN⊗ ⊗ wN⊗ ⊗ α α N.{displaystyle T=v_{1}otimes w_{1}otimes alpha _{1}+v_{2}otimes w_{2}otimes alpha _{2}+cdots +v_{N}otimes w_{N}otimes alpha _{N}
La contracción de T en la primera y última ranura es entonces el vector
- α α 1()v1)w1+α α 2()v2)w2+⋯ ⋯ +α α N()vN)wN.{displaystyle alpha _{1}(v_{1})w_{1}+alpha _{2}(v_{2})w_{2}+cdots +alpha _{N}(v_{N})w_{N}}}
En un espacio vectorial con un producto interior (también conocido como métrica) g, el término contracción se utiliza para eliminar dos índices contravariantes o dos covariantes formando un rastro con el tensor métrico o su inverso. Por ejemplo, a (2, 0)-tensor Tij{displaystyle T^{ij} puede ser contratado a un escalar a través Tijgij{displaystyle T^{ij}g_{ij} (asumiendo de nuevo la convención de la suma).
Subir o bajar un índice
Cuando un espacio vectorial está equipado con una forma bilineal no degenerada (o tensor métrico como suele llamarse en este contexto), se pueden definir operaciones que convierten un índice contravariante (superior) en una covariante índice (inferior) y viceversa. Un tensor métrico es un (simétrico) (0, 2)-tensor; así es posible contraer un índice superior de un tensor con uno de los índices inferiores del tensor métrico en el producto. Esto produce un nuevo tensor con la misma estructura de índice que el tensor anterior, pero con el índice inferior generalmente mostrado en la misma posición del índice superior contraído. Esta operación se conoce bastante gráficamente como bajar un índice.
Por el contrario, la operación inversa se puede definir y se llama elevar un índice. Esto es equivalente a una contracción similar en el producto con un tensor (2, 0). Este tensor métrico inverso tiene componentes que son la matriz inversa de las del tensor métrico.
Aplicaciones
Mecánica continua
La mecánica continua proporciona ejemplos importantes. Las tensiones dentro de un cuerpo sólido o fluido se describen mediante un campo tensorial. El tensor de tensión y el tensor de deformación son campos tensoriales de segundo orden y están relacionados en un material elástico lineal general por un campo tensor de elasticidad de cuarto orden. En detalle, el tensor que cuantifica la tensión en un objeto sólido tridimensional tiene componentes que pueden representarse convenientemente como una matriz de 3 × 3. Las tres caras de un segmento de volumen infinitesimal en forma de cubo del sólido están sujetas a alguna fuerza dada. Los componentes del vector de la fuerza también son tres. Por lo tanto, se requieren 3 × 3 o 9 componentes para describir la tensión en este segmento infinitesimal en forma de cubo. Dentro de los límites de este sólido hay una masa completa de diferentes cantidades de tensión, cada una de las cuales requiere 9 cantidades para ser descrita. Por lo tanto, se necesita un tensor de segundo orden.
Si se selecciona un elemento de superficie particular dentro del material, el material de un lado de la superficie aplicará una fuerza en el otro lado. En general, esta fuerza no será ortogonal a la superficie, sino que dependerá de la orientación de la superficie de forma lineal. Esto está descrito por un tensor de tipo (2, 0), en elasticidad lineal, o más precisamente por un campo tensorial de tipo (2, 0), ya que las tensiones pueden variar de punto a punto.
Otros ejemplos de física
Las aplicaciones comunes incluyen:
- Tensor electromagnético (o tensor Faraday) en electromagnetismo
- Tensores de deformación finitos para describir deformaciones y tensor de cepa para cepa en mecánicos continuos
- Permisibilidad y susceptibilidad eléctrica son tensores en medios anisotrópicos
- Four-tensors in general relativity (e.g. stress-energy tensor), used to represent momentum fluxes
- Los operadores de tensores esféricos son las funciones eigen del operador de impulso angular cuántico en las coordenadas esféricas
- Los tensores de difusión, la base de la imagen de tensor de difusión, representan tasas de difusión en entornos biológicos
- La mecánica cuántica y el cálculo cuántico utilizan productos tensores para la combinación de estados cuánticos
Aplicaciones de tensores de orden > 2
El concepto de tensor de orden dos a menudo se combina con el de matriz. Sin embargo, los tensores de orden superior capturan ideas importantes en la ciencia y la ingeniería, como se ha demostrado sucesivamente en numerosas áreas a medida que se desarrollan. Esto sucede, por ejemplo, en el campo de la visión artificial, con el tensor trifocal generalizando la matriz fundamental.
El campo de la óptica no lineal estudia los cambios en la densidad de polarización del material bajo campos eléctricos extremos. Las ondas de polarización generadas se relacionan con los campos eléctricos generados a través del tensor de susceptibilidad no lineal. Si la polarización P no es linealmente proporcional al campo eléctrico E, el medio se denomina no lineal. En una buena aproximación (para campos suficientemente débiles, suponiendo que no hay momentos dipolares permanentes), P viene dada por una serie de Taylor en E cuyos coeficientes son las susceptibilidades no lineales:
- Piε ε 0=.. jχ χ ij()1)Ej+.. jkχ χ ijk()2)EjEk+.. jkl l χ χ ijkl l ()3)EjEkEl l +⋯ ⋯ .{displaystyle {frac}{varepsilon _{0}=sum _{j}chi _{ij}{(1)}E_{j}+sum _{jk}chi _{ijk}{(2)}E_{j}E_{k}+sum ¿Por qué? }+cdotas.
Aquí. χ χ ()1){displaystyle chi ^{(1)} es la susceptibilidad lineal, χ χ ()2){displaystyle chi ^{(2)} da el efecto Pockels y segunda generación armónica, y χ χ ()3){displaystyle chi ^{(3)} da el efecto Kerr. Esta expansión muestra la forma en que los tensores de orden superior surgen naturalmente en el tema.
Generalizaciones
Productos tensoriales de espacios vectoriales
Los espacios vectoriales de un producto tensorial no tienen por qué ser iguales y, a veces, los elementos de un producto tensorial más general se denominan "tensores". Por ejemplo, un elemento del espacio del producto tensorial V ⊗ W es un "tensor&# de segundo orden 34; en este sentido más general, y un tensor d de orden también puede definirse como un elemento de un producto tensorial de d diferentes espacios vectoriales. Un tensor de tipo (n, m), en el sentido definido anteriormente, es también un tensor de orden n + m en este sentido más general. El concepto de producto tensorial se puede extender a módulos arbitrarios sobre un anillo.
Tensores en infinitas dimensiones
La noción de tensor se puede generalizar de varias maneras a infinitas dimensiones. Uno, por ejemplo, es a través del producto tensorial de los espacios de Hilbert. Otra forma de generalizar la idea de tensor, común en el análisis no lineal, es a través de la definición de mapas multilineales donde, en lugar de usar espacios vectoriales de dimensión finita y sus duales algebraicos, se usan espacios de Banach de dimensión infinita y su dual continuo. Los tensores viven así naturalmente en las variedades de Banach y las variedades de Fréchet.
Densidades de tensores
Supongamos que un medio homogéneo llena R3, de modo que la densidad del medio se describe mediante un solo valor escalar ρ en kg⋅m−3. La masa, en kg, de una región Ω se obtiene multiplicando ρ por el volumen de la región Ω, o integrando de manera equivalente la constante ρ sobre la región:
- m=∫ ∫ Ω Ω *** *** dxdSí.dz,{displaystyle m=int _{omega }rho ,dx,dy,dz,}
donde las coordenadas cartesianas x, y, z se miden en m. Si las unidades de longitud se cambian a cm, entonces los valores numéricos de las funciones de coordenadas se deben reescalar por un factor de 100:
- x.=100x,Sí..=100Sí.,z.=100z.{displaystyle x'=100x,quad y'=100y,quad z'=100z.}
El valor numérico de la densidad *** entonces también debe transformarse 100−3 m3/cm3 para compensar, de modo que el valor numérico de la masa en kg siga siendo dado por integral de *** *** dxdSí.dz{displaystyle rho ,dx,dy,dz}. Así *** *** .=100− − 3*** *** {displaystyle rho '=100^{-3}rho } (en unidades de kg⋅cm−3).
Más generalmente, si las coordenadas cartesianas x, y, z experimentan una transformación lineal, luego el valor numérico de la densidad ρ debe cambiar por un factor del recíproco del valor absoluto del determinante de la transformación de coordenadas, para que la integral permanezca invariante, por la fórmula de cambio de variables para la integración. Tal cantidad que escala por el recíproco del valor absoluto del determinante del mapa de transición de coordenadas se llama densidad escalar. Para modelar una densidad no constante, ρ es una función de las variables x , y, z (un campo escalar), y bajo un cambio de coordenadas curvilíneo, se transforma por el recíproco del jacobiano del cambio de coordenadas. Para obtener más información sobre el significado intrínseco, consulte Densidad en una variedad.
Un tensor de densidad se transforma como un tensor bajo un cambio de coordenadas, excepto que además toma un factor del valor absoluto del determinante de la transición de coordenadas:
- Tj1....... jq.i1....... ip.[f⋅ ⋅ R]=SilencioDetRSilencio− − w()R− − 1)i1i1.⋯ ⋯ ()R− − 1)ipip.Tj1,...... ,jqi1,...... ,ip[f]Rj1.j1⋯ ⋯ Rjq.jq.{displaystyle T_{j'_{1}dots ¿Qué? Estoy bien. {f} {f} {f}c}cc}cc}cdots left(R^{-1} {c}c} {c}} {c} {c} {cc} {c} {c} {c} {c} {c}ccc} {c}}}} {c} {c}c}c}c}c}cc}c}c}c}c}c}c}ccc}ccc}ccccccccc}c}cc}cccccc}ccc}cccccc}c}c}c}c}c}c}c}c}c}cc}c}c}c ¿Qué?
Aquí w se llama peso. En general, cualquier tensor multiplicado por una potencia de esta función o su valor absoluto se denomina densidad tensorial o tensor ponderado. Un ejemplo de una densidad de tensor es la densidad de corriente del electromagnetismo.
Bajo una transformación afín de las coordenadas, un tensor se transforma por la parte lineal de la propia transformación (o su inversa) en cada índice. Estos provienen de las representaciones racionales del grupo lineal general. Pero esta no es la ley de transformación lineal más general que puede tener un objeto de este tipo: las densidades de tensor no son racionales, pero siguen siendo representaciones semisimples. Otra clase de transformaciones proviene de la representación logarítmica del grupo lineal general, una representación reducible pero no semisimple, que consiste en un (x, y) ∈ R2 con la ley de transformación
- ()x,Sí.)↦ ↦ ()x+Sí.log SilencioDetRSilencio,Sí.).{displaystyle (x,y)mapsto (x+ylog left WordPressdet Rright,y).}
Objetos geométricos
La ley de transformación para un tensor se comporta como un funtor en la categoría de sistemas de coordenadas admisibles, bajo transformaciones lineales generales (u otras transformaciones dentro de alguna clase, como difeomorfismos locales). Esto hace que un tensor sea un caso especial de un objeto geométrico, en el sentido técnico de que es una función del sistema de coordenadas que se transforma funcionalmente bajo cambios de coordenadas. Ejemplos de objetos que obedecen tipos más generales de leyes de transformación son los chorros y, más generalmente aún, los haces naturales.
Espinores
Al cambiar de una base ortonormal (llamada marco) a otra mediante una rotación, las componentes de un tensor se transforman mediante esa misma rotación. Esta transformación no depende del camino recorrido por el espacio de fotogramas. Sin embargo, el espacio de marcos no está simplemente conectado (ver enredo de orientación y truco de placas): hay caminos continuos en el espacio de marcos con las mismas configuraciones de inicio y final que no son deformables entre sí. Es posible adjuntar un invariante discreto adicional a cada marco que incorpore esta dependencia de la ruta y que resulte (localmente) tener valores de ±1. Un espinor es un objeto que se transforma como un tensor bajo rotaciones en el marco, además de un posible signo que está determinado por el valor de este invariante discreto.
Resumidamente, los espinores son elementos de la representación de espín del grupo de rotación, mientras que los tensores son elementos de sus representaciones de tensores. Otros grupos clásicos tienen representaciones de tensores, y también tensores que son compatibles con el grupo, pero todos los grupos clásicos no compactos también tienen representaciones unitarias de dimensión infinita.
Historia
Los conceptos del análisis tensorial posterior surgieron del trabajo de Carl Friedrich Gauss en geometría diferencial, y la formulación estuvo muy influenciada por la teoría de formas algebraicas e invariantes desarrollada a mediados del siglo XIX. La palabra "tensor" en sí mismo fue introducido en 1846 por William Rowan Hamilton para describir algo diferente de lo que ahora se entiende por tensor. Gibbs introdujo Dyadics y Polyadic algebra, que también son tensores en el sentido moderno. El uso contemporáneo fue introducido por Woldemar Voigt en 1898.
El cálculo tensorial fue desarrollado alrededor de 1890 por Gregorio Ricci-Curbastro bajo el título cálculo diferencial absoluto, y presentado originalmente por Ricci-Curbastro en 1892. Se hizo accesible a muchos matemáticos con la publicación de Ricci - Texto clásico de Curbastro y Tullio Levi-Civita de 1900 Méthodes de calcul différentiel absolu et leurs application (Métodos de cálculo diferencial absoluto y sus aplicaciones). En la notación de Ricci, se refiere a "sistemas" con componentes covariantes y contravariantes, que se conocen como campos tensoriales en el sentido moderno.
En el siglo XX, el tema llegó a conocerse como análisis tensorial y logró una aceptación más amplia con la introducción de la teoría de la relatividad general de Einstein, alrededor de 1915. Se formula la relatividad general completamente en el lenguaje de los tensores. Einstein los había aprendido, con gran dificultad, del geómetra Marcel Grossmann. Levi-Civita luego inició una correspondencia con Einstein para corregir los errores que Einstein había cometido en su uso del análisis tensorial. La correspondencia duró de 1915 a 1917 y se caracterizó por el respeto mutuo:
Admiro la elegancia de su método de computación; debe ser agradable montar a través de estos campos sobre el caballo de las matemáticas verdaderas mientras que los como de nosotros tienen que hacer nuestro camino laborioso a pie.
—Albert Einstein
También se descubrió que los tensores son útiles en otros campos, como la mecánica continua. Algunos ejemplos bien conocidos de tensores en geometría diferencial son formas cuadráticas como los tensores métricos y el tensor de curvatura de Riemann. El álgebra exterior de Hermann Grassmann, de mediados del siglo XIX, es en sí misma una teoría tensorial y altamente geométrica, pero pasó algún tiempo antes de que se la viera, con la teoría de las formas diferenciales, como naturalmente unificada con el cálculo tensorial. El trabajo de Élie Cartan hizo de las formas diferenciales uno de los tipos básicos de tensores utilizados en matemáticas, y Hassler Whitney popularizó el producto tensorial.
A partir de la década de 1920, se descubrió que los tensores desempeñan un papel básico en la topología algebraica (por ejemplo, en el teorema de Künneth). En consecuencia, hay tipos de tensores en funcionamiento en muchas ramas del álgebra abstracta, particularmente en el álgebra homológica y la teoría de la representación. El álgebra multilineal se puede desarrollar con mayor generalidad que para los escalares provenientes de un campo. Por ejemplo, los escalares pueden provenir de un anillo. Pero la teoría es entonces menos geométrica y los cálculos más técnicos y menos algorítmicos. Los tensores se generalizan dentro de la teoría de categorías mediante el concepto de categoría monoide, a partir de la década de 1960.
Notas explicativas
- ^ La convención de sumación de Einstein, en resumen, requiere que se tome la suma sobre todos los valores del índice cada vez que el mismo símbolo aparece como un subscript y superscript en el mismo término. Por ejemplo, en virtud de esta convención BiCi=B1C1+B2C2+⋯ ⋯ +BnCn{displaystyle B_{i}C^{i}=B_{1}C^{1}+B_{2}C^{2}+cdots ¿Qué?
- ^ El isomorfismo de doble dualidad, por ejemplo, se utiliza para identificar V con el doble espacio dual VAlternativa, que consiste en formas multilineales de grado uno en VAlternativa. Es típico en álgebra lineal para identificar espacios que son naturalmente isomorfos, tratarlos como el mismo espacio.
- ^ Es decir, la operación de la norma en un espacio vectorial.
Contenido relacionado
Tetraedro
Trapecio (figura geométrica)
Coeficiente binomial