Separación de variables

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Técnica para resolver ecuaciones diferenciales

En matemáticas, la separación de variables (también conocida como método de Fourier) es cualquiera de varios métodos para resolver ecuaciones diferenciales ordinarias y parciales, en los que el álgebra permite Reescribe una ecuación de modo que cada una de las dos variables ocurra en un lado diferente de la ecuación.

Resolver la ecuación diferencial de primer orden proporcional por separación de variables.
Resuelva la ecuación diferencial de primer orden lineal por separación de variables.

Ecuaciones diferenciales ordinarias (EDO)

Una ecuación diferencial para lo desconocido f()x){displaystyle f(x)} será separable si puede ser escrito en la forma

ddxf()x)=g()x)h()f()x)){displaystyle {frac {dx}f(x)=g(x)h(f(x)}}

Donde g{displaystyle g} y h{displaystyle h} se dan funciones. Esto es quizás más transparente cuando se escribe Sí.=f()x){displaystyle y=f(x)} como:

dSí.dx=g()x)h()Sí.).{displaystyle {frac {y}=g(x)h(y).}

Así que ahora, siempre que h(y) ≠ 0, podemos reorganizar los términos para obtener:

dSí.h()Sí.)=g()x)dx,{displaystyle {dy over h(y)}=g(x),dx,}

donde se han separado las dos variables x y y. La nota dx (y dy) puede verse, en un nivel simple, simplemente como una notación conveniente, que proporciona una útil ayuda mnemotécnica para ayudar con las manipulaciones. Una definición formal de dx como diferencial (infinitesimal) es algo avanzada.

Notación alternativa

Did you mean:

Those who dislike Leibniz 's notation may prefer to write this as

1h()Sí.)dSí.dx=g()x),{displaystyle {frac {1}{h(y)}{frac {y}{dx}=g(x),}

pero eso no hace que sea tan obvio por qué se llama "separación de variables". Integrar ambos lados de la ecuación con respecto a x{displaystyle x}, tenemos

∫ ∫ 1h()Sí.)dSí.dxdx=∫ ∫ g()x)dx,{displaystyle int {frac}{h(y)}{frac {}},dx=int g(x),dx,}

()A1)

o equivalentemente,

∫ ∫ 1h()Sí.)dSí.=∫ ∫ g()x)dx{displaystyle int {frac},dy=int g(x),dx}

debido a la regla de sustitución para integrales.

Si uno puede evaluar las dos integrales, se puede encontrar una solución a la ecuación diferencial. Observe que este proceso efectivamente nos permite tratar el derivado dSí.dx{displaystyle {frac {}{dx}} como una fracción que se puede separar. Esto nos permite resolver las ecuaciones diferenciales separables más convenientemente, como se demuestra en el ejemplo a continuación.

(Tenga en cuenta que no necesitamos usar dos constantes de integración, en la ecuación (A1) como en

∫ ∫ 1h()Sí.)dSí.+C1=∫ ∫ g()x)dx+C2,{displaystyle int {frac},dy+C_{1}=int g(x),dx+C_{2}

porque una sola constante C=C2− − C1{displaystyle C=C_{2}-C_{1} es equivalente.)

Ejemplo

El crecimiento demográfico a menudo se modela mediante el modelo "logístico" ecuación diferencial

dPdt=kP()1− − PK){displaystyle {frac {dt}=kPleft(1-{frac} {P} {K}right)}

Donde P{displaystyle P} es la población con respecto al tiempo t{displaystyle t}, k{displaystyle k} es la tasa de crecimiento, y K{displaystyle K} es la capacidad de carga del medio ambiente. La separación de variables ahora conduce a

∫ ∫ dPP()1− − P/K)=∫ ∫ kdt{displaystyle {begin{aligned} {frac {dP}{Pleft(1-P/Kright)}}=int k,dtend{aligned}}
Did you mean:

which is readily integration using partial fractions on the left side yielding

P()t)=K1+Ae− − kt{displaystyle P(t)={frac {K}{1+Ae^{-kt}}

donde A es la constante de integración. Podemos encontrar A{displaystyle A} en términos de P()0)=P0{displaystyle Pleft(0right)=P_{0} A T=0. Observando e0=1{displaystyle E^{0}=1} nosotros

A=K− − P0P0.{displaystyle A={frac {K-P_{0} {0}}}} {K-P_}}} {cH00}} {cH0}}} {cH00}}}}}} {cH0}}} {cH0}}}} {cH00}}

Generalización de EDO separables al enésimo orden

De la misma manera que se puede hablar de una EDO separable de primer orden, se puede hablar de una EDO separable de segundo orden, de tercer orden o de nésimo orden. Considere la EDO separable de primer orden:

dSí.dx=f()Sí.)g()x){displaystyle {frac {y}=f(y)g(x)}

La derivada también se puede escribir de la siguiente manera para subrayar que es un operador que trabaja en la función desconocida, y:

dSí.dx=ddx()Sí.){displaystyle {frac {} {fnK} {fnMicroc} {} {fnMicrosoft} {f} {fnMicrosoft}}} {fnMicrosoft} {fnMicrosoft} {fnK}} {fnMicrosoft}}}} {fnMicroc} {f}}}}} {f}} {f}}}}}}f}}}}}}}}}}}} {f} {f}} {f}}} {f} {f} {f}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}f}} {f}

Así, cuando se separan variables para ecuaciones de primer orden, de hecho se mueve el denominador dx del operador al lado de la variable x, y el d(y) se deja al lado de la variable y. El operador de segunda derivada, por analogía, se descompone de la siguiente manera:

d2Sí.dx2=ddx()dSí.dx)=ddx()ddx()Sí.)){displaystyle {frac {f} {f}}={f}}={f} {f}} {f}} {dx}left({frac} {} {fnK} {fnMicroc {dx}left({frac {d} {dx}(y)right)}

Los operadores de tercera, cuarta y nésima derivada se descomponen de la misma manera. Por lo tanto, al igual que una EDO separable de primer orden, se puede reducir a la forma

dSí.dx=f()Sí.)g()x){displaystyle {frac {y}=f(y)g(x)}

una EDO separable de segundo orden se puede reducir a la forma

d2Sí.dx2=f()Sí..)g()x){displaystyle {frac {d^{2}y}}=fleft(y'right)g(x)}

y una EDO separable de enésimo orden es reducible a

dnSí.dxn=f()Sí.()n− − 1))g()x){displaystyle {frac {f} {f}f}f}f} {f} {f}}derechoso)}

Ejemplo

Considere la ecuación diferencial simple no lineal de segundo orden:

Sí..=()Sí..)2.{displaystyle y'=(y')^{2}
Sí. 'Sí. 'xSí. '
d()Sí..)()Sí..)2=dx.{fnMicrosoft Sans Serif}=dx.}
xSí. '
∫ ∫ d()Sí..)()Sí..)2=∫ ∫ dx.{fnMicrosoft Sans Serif}=int dx.}
− − 1Sí..=x+C1,{displaystyle -{frac {1}=x+C_{1}
Sí..=− − 1x+C1.{displaystyle y'=-{frac {1}{x+C_{1}}~}
Sí.=C2− − In⁡ ⁡ Silenciox+C1Silencio.{displaystyle Y=C_{2}-ln Silencio.

Ecuaciones diferenciales parciales

El método de separación de variables también se utiliza para resolver una amplia gama de ecuaciones diferenciales parciales lineales con condiciones iniciales y de frontera, como la ecuación de calor, la ecuación de onda, la ecuación de Laplace, la ecuación de Helmholtz y la ecuación biarmónica.

El método analítico de separación de variables para resolver ecuaciones diferenciales parciales también se ha generalizado a un método computacional de descomposición en estructuras invariantes que se puede utilizar para resolver sistemas de ecuaciones diferenciales parciales.

Ejemplo: caso homogéneo

Considere la ecuación del calor unidimensional. La ecuación es

∂ ∂ u∂ ∂ t− − α α ∂ ∂ 2u∂ ∂ x2=0{displaystyle {frac {partial u}{partial {fnMicrosoft Sans Serif} {fnMicroc} {fnMicrosoft} {fnMicrosoft} {f} {fnMicroc} {fnMicrosoft}} {fnK} {f}}}}}}f} ¿Qué?

()1)

La variable u denota temperatura. La condición de contorno es homogénea, es decir

uSilenciox=0=uSilenciox=L=0{displaystyle u{big} Silencio. Silencio.

()2)

Intentemos encontrar una solución que no sea idénticamente cero y que satisfaga las condiciones de contorno pero con la siguiente propiedad: u es un producto en el que la dependencia de u de x, t están separados, es decir:

u()x,t)=X()x)T()t).{displaystyle u(x,t)=X(x)T(t). }

()3)

Sustituyendo u nuevamente en la ecuación (1) y usando la regla del producto,

T.()t)α α T()t)=X.()x)X()x).{displaystyle {frac}{alpha T(t)}={frac {X'(x)} {X(x)}}

()4)

Did you mean:

Since the right hand side depends only on x and the left hand side only on t, both sides are equal to some constant value −λ. This:

T.()t)=− − λ λ α α T()t),{displaystyle T'(t)=-lambda alpha T(t),}

()5)

y

X.()x)=− − λ λ X()x).{displaystyle X''(x)=-lambda X(x).}

()6)

λ aquí está el valor propio de ambos operadores diferenciales, y T(t) y X(x) son funciones propias correspondientes.

Ahora mostraremos que no pueden ocurrir soluciones para X(x) para valores de λ ≤ 0:

Supongamos que λ < 0. Entonces existen números reales B, C tales que

X()x)=Be− − λ λ x+Ce− − − − λ λ x.{displaystyle X(x)=Be^{sqrt {-lambda },x},x}

De (2) obtenemos

X()0)=0=X()L),{displaystyle X(0)=0=X(L),}

()7)

y por lo tanto B = 0 = C lo que implica que u es idénticamente 0.

Supongamos que λ = 0. Entonces existen números reales B, C tales que

X()x)=Bx+C.{displaystyle X(x)=Bx+C}

De (7) concluimos de la misma manera que en 1 que u es idénticamente 0.

Por lo tanto, debe darse el caso de que λ > 0. Entonces existen números reales A, B, C tales que

T()t)=Ae− − λ λ α α t,{displaystyle T(t)=Ae^{-lambda alpha t}

y

X()x)=Bpecado⁡ ⁡ ()λ λ x)+C#⁡ ⁡ ()λ λ x).{displaystyle X(x)=Bsin({sqrt {lambda },x)+Ccos({sqrt {lambda },x). }

De (7) obtenemos C = 0 y eso para algún entero positivo n,

λ λ =nπ π L.{fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {\\fnMicrosoft {\\\\fnMicrosoft {\\\\\\fnMicrosoft {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ }=n{frac ♪ - Sí.

Esto resuelve la ecuación del calor en el caso especial de que la dependencia de u tenga la forma especial de (3).

En general, la suma de soluciones de (1) que satisfacen las condiciones de contorno (2) también satisface (1) y (3). Por tanto, se puede dar una solución completa como

u()x,t)=.. n=1JUEGO JUEGO Dnpecado⁡ ⁡ nπ π xLexp⁡ ⁡ ()− − n2π π 2α α tL2),{displaystyle u(x,t)=sum _{n=1}{infty ################################################################################################################################################################################################################################################################ {fn}fn}fn}fn}fn}fnfn}fnfn} - Sí.

donde Dn son coeficientes determinados por la condición inicial.

Dada la condición inicial

uSilenciot=0=f()x),{displaystyle u{big ⋅}_{t=0}=f(x),}

podemos conseguir

f()x)=.. n=1JUEGO JUEGO Dnpecado⁡ ⁡ nπ π xL.{displaystyle f(x)=sum _{n=1}{infty ################################################################################################################################################################################################################################################################.

Esta es la expansión de la serie sine f()x) que es amenible al análisis Fourier. Multiplicar ambos lados con pecado⁡ ⁡ nπ π xL{textstyle sin {frac {fnpi} # e integración [0, L] resultados en

Dn=2L∫ ∫ 0Lf()x)pecado⁡ ⁡ nπ π xLdx.{displaystyle ¿Qué?

Este método requiere que las eigenfunctions X, aquí {}pecado⁡ ⁡ nπ π xL}n=1JUEGO JUEGO {textstyle left{fnfnfnMicroc {npi} {} {fn} {fn} {fn}} {fnfn}} {\fn}}}}}}} {fn} {fn} {fn}}} {fn}} {fn}}}}}} {fn}} {fn}}}}}}}}}} {n}}}}}}}}}}}}}}}}}}}}}}}}\\\\\\\\\\\\\\\\n}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}\\\\\\\\\\\\\\\\\\\\\\\, son ortogonales y completos. En general esto está garantizado por la teoría de Sturm-Liouville.

Ejemplo: caso no homogéneo

Supongamos que la ecuación no es homogénea,

∂ ∂ u∂ ∂ t− − α α ∂ ∂ 2u∂ ∂ x2=h()x,t){displaystyle {frac {partial u}{partial {fnMicrosoft Sans Serif}}=h(x,t)}

()8)

con la condición de contorno igual que (2).

Expandir h(x,t), u(x,t) y f(x) en

h()x,t)=.. n=1JUEGO JUEGO hn()t)pecado⁡ ⁡ nπ π xL,{displaystyle h(x,t)=sum _{n=1}{infty }h_{n}(t)sin {frac {npi x}{L}}}

()9)

u()x,t)=.. n=1JUEGO JUEGO un()t)pecado⁡ ⁡ nπ π xL,{displaystyle u(x,t)=sum _{n=1}{infty }u_{n}(t)sin {frac {npi x}{L}}}

()10)

f()x)=.. n=1JUEGO JUEGO bnpecado⁡ ⁡ nπ π xL,{displaystyle f(x)=sum _{n=1}{infty ¿Qué?

()11)

donde hn(t) y bn se puede calcular por integración, mientras que un(t) está por determinar.

Sustituimos (9) y (10) nuevamente en (8) y considerando la ortogonalidad de las funciones seno obtenemos

un.()t)+α α n2π π 2L2un()t)=hn()t),{displaystyle u'_{n}(t)+alpha {frac {n^{2}pi} ¿Qué?

que son una secuencia de ecuaciones diferenciales lineales que se pueden resolver fácilmente, por ejemplo, con la transformada de Laplace o el factor de integración. Finalmente, podemos conseguir

un()t)=e− − α α n2π π 2L2t()bn+∫ ∫ 0thn()s)eα α n2π π 2L2sds).{displaystyle u_{n}(t)=e^{-alpha {frac {n^{2}pi ^{2}}{2}}t}left(b_{n}+int ¿Por qué?

Si la condición de frontera no es homogénea, entonces la expansión de (9) y (10) ya no es válida. Hay que encontrar una función v que satisfaga únicamente la condición de contorno y restarla de u. La función u-v entonces satisface una condición de contorno homogénea y se puede resolver con el método anterior.

Ejemplo: derivados mixtos

Para algunas ecuaciones que involucran derivadas mixtas, la ecuación no se separa tan fácilmente como lo hizo la ecuación de calor en el primer ejemplo anterior, pero aún así se puede aplicar la separación de variables. Considere la ecuación biarmónica bidimensional.

∂ ∂ 4u∂ ∂ x4+2∂ ∂ 4u∂ ∂ x2∂ ∂ Sí.2+∂ ∂ 4u∂ ∂ Sí.4=0.{fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft} ^{4}u}{partial x^{4}}+2{frac {partial ^{4}u}{partial x^{2}partial ¿Qué? Sí.

Procediendo de la manera habitual, buscamos soluciones de la forma

u()x,Sí.)=X()x)Y()Sí.){displaystyle u(x,y)=X(x)Y(y)}

y obtenemos la ecuación

X()4)()x)X()x)+2X.()x)X()x)Y.()Sí.)Y()Sí.)+Y()4)()Sí.)Y()Sí.)=0.{displaystyle {frac {X^{(4)}(x)}{X(x)}}+2{frac {X''(x)}{X(x)}}}{frac {Y''(y)}}}+{frac {frac {}(y)} {y)}}=0}}}

Escribiendo esta ecuación en la forma

E()x)+F()x)G()Sí.)+H()Sí.)=0,{displaystyle E(x)+F(x)G(y)+H(y)=0,}

Tomar el derivado de esta expresión con respecto a x{displaystyle x} da E.()x)+F.()x)G()Sí.)=0{displaystyle E'(x)+F'(x)G(y)=0} que significa G()Sí.)=const.{displaystyle G(y)=const.} y de igual manera, tomando derivación con respecto a Sí.{displaystyle y} conduce a F()x)G.()Sí.)+H.()Sí.)=0{displaystyle F(x)G'(y)+H'(y)=0} y así F()x)=const.{displaystyle F(x)=const.}, por lo tanto F()x) o G()Sí.) debe ser una constante, decir −λ. Esto implica además que − − E()x)=F()x)G()Sí.)+H()Sí.){displaystyle -E(x)=F(x)G(y)+H(y)} o − − H()Sí.)=E()x)+F()x)G()Sí.){displaystyle -H(y)=E(x)+F(x)G(y)} son constantes. Volver a la ecuación para X y Y, tenemos dos casos

X.()x)=− − λ λ 1X()x)X()4)()x)=μ μ 1X()x)Y()4)()Sí.)− − 2λ λ 1Y.()Sí.)=− − μ μ 1Y()Sí.){displaystyle {begin{aligned}X'(x) implica=-lambda _{1}X(x)X^{(4)}(x) conlleva=mu _{1}X(x)\Y^{(4)}(y)-2lambda _{1}Y''''''y]

y

Y.()Sí.)=− − λ λ 2Y()Sí.)Y()4)()Sí.)=μ μ 2Y()Sí.)X()4)()x)− − 2λ λ 2X.()x)=− − μ μ 2X()x){displaystyle {begin{aligned}Y''(y) limit=-lambda _{2}Y(y)\Y^{(4)}(y) limit=mu _{2}Y(y)X^{(4)}(x)-2lambda _{2}X'(x)} {mu}endal}

que pueden resolverse considerando los casos separados <math alttext="{displaystyle lambda _{i}0}" xmlns="http://www.w3.org/1998/Math/MathML">λ λ i.0,λ λ i=0,λ λ i■0{displaystyle lambda _{i}traducido0,lambda _{i}=0,lambda ¿Qué?<img alt="{displaystyle lambda _{i}0}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/3864ee0dd3849d7a6c0f404bd9c3e626b6399f5b" style="vertical-align: -0.671ex; width:21.315ex; height:2.509ex;"/> y notar eso μ μ i=λ λ i2{displaystyle mu ¿Qué? ¿Qué?.

Coordenadas curvilíneas

En coordenadas curvilíneas ortogonales, la separación de variables aún se puede utilizar, pero en algunos detalles es diferente a la de las coordenadas cartesianas. Por ejemplo, la regularidad o la condición periódica pueden determinar los valores propios en lugar de las condiciones de contorno. Ver armónicos esféricos, por ejemplo.

Aplicabilidad

Ecuaciones diferenciales parciales

Para muchas PDE, como la ecuación de onda, la ecuación de Helmholtz y la ecuación de Schrodinger, la aplicabilidad de la separación de variables es el resultado del teorema espectral. En algunos casos, puede que no sea posible separar las variables. La separación de variables puede ser posible en algunos sistemas de coordenadas pero no en otros, y qué sistemas de coordenadas permiten la separación depende de las propiedades de simetría de la ecuación. A continuación se muestra un resumen de un argumento que demuestra la aplicabilidad del método a ciertas ecuaciones lineales, aunque el método preciso puede diferir en casos individuales (por ejemplo, en la ecuación biarmónica anterior).

Considere un problema de valor límite inicial para una función u()x,t){displaystyle u(x,t)} on D={}()x,t):x▪ ▪ [0,l],t≥ ≥ 0}{displaystyle D={(x,t):xin [0,l],tgeq 0} en dos variables:

()Tu)()x,t)=()Su)()x,t){displaystyle (Tu)(x,t)=(Su)(x,t)}

Donde T{displaystyle T} es un operador diferencial con respecto a x{displaystyle x} y S{displaystyle S. es un operador diferencial con respecto a t{displaystyle t} con datos de límites:

()Tu)()0,t)=()Tu)()l,t)=0{displaystyle (Tu)(0,t)=(Tu)(l,t)=0} para t≥ ≥ 0{displaystyle tgeq 0}
()Su)()x,0)=h()x){displaystyle (Su)(x,0)=h(x)} para 0≤ ≤ x≤ ≤ l{displaystyle 0leq xleq l}

Donde h{displaystyle h} es una función conocida.

Buscamos soluciones de la forma u()x,t)=f()x)g()t){displaystyle u(x,t)=f(x)g(t)}. Dividir el PDE mediante f()x)g()t){displaystyle f(x)g(t)} da

Tff=Sgg{displaystyle {frac {f} {f}={frac} {Sg} {g}}

El lado derecho depende sólo de x{displaystyle x} y el lado izquierdo sólo en t{displaystyle t} así que ambos deben ser iguales a una constante K{displaystyle K}, que da dos ecuaciones diferenciales ordinarias

Tf=Kf,Sg=Kg{displaystyle Tf=Kf,Sg=Kg}

que podemos reconocer como problemas eigenvalue para los operadores T{displaystyle T} y S{displaystyle S.. Si T{displaystyle T} es un operador compacto y autónomo en el espacio L2[0,l]{displaystyle L^{2}[0,l] junto con las condiciones de límites pertinentes, entonces por el teorema espectral existe una base para L2[0,l]{displaystyle L^{2}[0,l] que consiste en funciones eigenas para T{displaystyle T}. Dejar el espectro de T{displaystyle T} Ser E{displaystyle E} y dejar fλ λ {displaystyle f_{lambda}} be an eigenfunction with eigenvalue λ λ ▪ ▪ E{displaystyle lambda in E}. Entonces para cualquier función que a cada vez t{displaystyle t} es cuadrado-integrable con respecto a x{displaystyle x}, podemos escribir esta función como una combinación lineal de la fλ λ {displaystyle f_{lambda}}. En particular, conocemos la solución u{displaystyle u} puede ser escrito como

u()x,t)=.. λ λ ▪ ▪ Ecλ λ ()t)fλ λ ()x){displaystyle u(x,t)=sum _{lambda in E}c_{lambda }(t)f_{lambda }(x)}

Para algunas funciones cλ λ ()t){displaystyle c_{lambda}(t)}. En la separación de variables, estas funciones son dadas por soluciones a Sg=Kg{displaystyle Sg=Kg.

Por lo tanto, el teorema espectral asegura que la separación de variables (cuando sea posible) encontrará todas las soluciones.

Para muchos operadores diferenciales, como d2dx2{displaystyle {frac {}{dx^{2}}} {f}} {f}} {f}}} {f}} {f}}} {f}}}}}} {f}}}}} {f}}}}}, podemos demostrar que están unidos por la integración por partes. Si bien estos operadores pueden no ser compactos, sus inversos (cuando existen) pueden ser, como en el caso de la ecuación de onda, y estos inversos tienen las mismas funciones eigenvalues y eigenvalues como el operador original (con la posible excepción de cero).

Matrices

La forma matricial de la separación de variables es la suma de Kronecker.

Como ejemplo, consideramos el laplaciano discreto 2D en una cuadrícula regular:

L=Dxx⊕ ⊕ DSí.Sí.=Dxx⊗ ⊗ I+I⊗ ⊗ DSí.Sí.,{displaystyle L=mathbf {D_{xx}} oplus mathbf {D_{yyy} =mathbf {D_{xx}}otimes mathbf {I} +mathbf {I} otimes mathbf {D_{yyy}},}

Donde Dxx{displaystyle mathbf {D_{xx}} y DSí.Sí.{displaystyle mathbf {}} son 1D discretos laplacianos en x- y Sí.- direcciones, correspondientemente, y I{displaystyle mathbf {I} son las identidades de tamaños apropiados. Ver el artículo principal Kronecker suma de la discreta Laplacians para detalles.

Software

Algunos programas matemáticos son capaces de hacer separación de variables: Xcas entre otros.

Contenido relacionado

Relación de aspecto (aeronáutica)

En aeronáutica, la relación de aspecto de un ala es la relación entre su envergadura y su cuerda media. Es igual al cuadrado de la envergadura dividido por...

Independencia algebraica

En álgebra abstracta, un subset S{displaystyle S. de un campo L{displaystyle L. es algebraically independent sobre un subcampo K{displaystyle K} si los...

Laurent

Laurent puede referirse...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save