Ecuación diferencial parcial

Compartir Imprimir Citar

En matemáticas, una ecuación diferencial parcial es una ecuación que impone relaciones entre las diversas derivadas parciales de una función multivariable.

A menudo se considera que la función es una "incógnita" que debe resolverse, de manera similar a como se piensa que x es un número desconocido que debe resolverse en una ecuación algebraica como x − 3 x + 2 = 0. Sin embargo, por lo general es imposible escribir fórmulas explícitas para soluciones de ecuaciones diferenciales parciales. Existe, en consecuencia, una gran cantidad de investigación matemática y científica moderna sobre métodos para aproximar numéricamente las soluciones de ciertas ecuaciones diferenciales parciales utilizando computadoras. Las ecuaciones diferenciales parciales también ocupan un gran sector de la investigación matemática pura, en la que las preguntas habituales son, en términos generales, sobre la identificación de características cualitativas generales de las soluciones de varias ecuaciones diferenciales parciales, como existencia, unicidad, regularidad y estabilidad. Entre las muchas preguntas abiertas se encuentran la existencia y la suavidad de las soluciones de las ecuaciones de Navier-Stokes, nombradas como uno de los Problemas del Premio del Milenio en 2000.

Las ecuaciones diferenciales parciales son omnipresentes en campos científicos de orientación matemática, como la física y la ingeniería. Por ejemplo, son fundamentales en la comprensión científica moderna del sonido, el calor, la difusión, la electrostática, la electrodinámica, la termodinámica, la dinámica de fluidos, la elasticidad, la relatividad general y la mecánica cuántica (ecuación de Schrödinger, ecuación de Pauli, etc.). También surgen de muchas consideraciones puramente matemáticas, como la geometría diferencial y el cálculo de variaciones; entre otras aplicaciones destacadas, son la herramienta fundamental en la demostración de la conjetura de Poincaré desde la topología geométrica.

En parte debido a esta variedad de fuentes, existe un amplio espectro de diferentes tipos de ecuaciones diferenciales parciales y se han desarrollado métodos para tratar muchas de las ecuaciones individuales que surgen. Como tal, generalmente se reconoce que no existe una "teoría general" de las ecuaciones diferenciales parciales, y que el conocimiento especializado se divide de alguna manera entre varios subcampos esencialmente distintos.

Las ecuaciones diferenciales ordinarias forman una subclase de ecuaciones diferenciales parciales, correspondientes a funciones de una sola variable. Las ecuaciones diferenciales parciales estocásticas y las ecuaciones no locales son, a partir de 2020, extensiones particularmente estudiadas de la noción "PDE". Los temas más clásicos, en los que todavía hay mucha investigación activa, incluyen ecuaciones diferenciales parciales elípticas y parabólicas, mecánica de fluidos, ecuaciones de Boltzmann y ecuaciones diferenciales parciales dispersivas.

Introducción

Se dice que una función u (x, y, z) de tres variables es " armónica " o "solución de la ecuación de Laplace " si satisface la condición

{displaystyle {frac {parcial ^{2}u}{parcial x^{2}}}+{frac {parcial ^{2}u}{parcial y^{2}}}+{ frac {parcial ^{2}u}{parcial z^{2}}}=0.}

Tales funciones fueron ampliamente estudiadas en el siglo XIX debido a su relevancia para la mecánica clásica, por ejemplo, la distribución de temperatura de equilibrio de un sólido homogéneo es una función armónica. Si se da explícitamente una función, generalmente es una cuestión de cálculo sencillo verificar si es armónica o no. Por ejemplo

{displaystyle u(x,y,z)={frac {1}{sqrt {x^{2}-2x+y^{2}+z^{2}+1}}}}

y

{displaystyle u(x,y,z)=2x^{2}-y^{2}-z^{2}}

ambos son armónicos mientras que

{displaystyle u(x,y,z)=sin(xy)+z}

no es. Puede ser sorprendente que los dos ejemplos dados de funciones armónicas tengan una forma tan sorprendentemente diferente entre sí. Esto es un reflejo del hecho de que no son , de manera inmediata, ambos casos especiales de una "fórmula de solución general" de la ecuación de Laplace. Esto contrasta notablemente con el caso de las ecuaciones diferenciales ordinarias (EDO) más o menos similares a la ecuación de Laplace, con el objetivo de muchos libros de texto introductorios de encontrar algoritmos que conduzcan a fórmulas de solución general. Para la ecuación de Laplace, como para un gran número de ecuaciones diferenciales parciales, tales fórmulas de solución no existen.

La naturaleza de esta falla se puede ver más concretamente en el caso de la siguiente EDP: para una función v (x, y) de dos variables, consideremos la ecuación

{displaystyle {frac {parcial ^{2}v}{parcial xparcial y}}=0.}

Se puede verificar directamente que cualquier función v de la forma v (x, y) = f (x) + g (y), para cualquier función f y g de una sola variable, satisfará esta condición. Esto va mucho más allá de las opciones disponibles en las fórmulas de solución ODE, que normalmente permiten la libre elección de algunos números. En el estudio de PDE, generalmente se tiene la libre elección de funciones.

La naturaleza de esta elección varía de PDE a PDE. Entenderlo para cualquier ecuación dada, teoremas de existencia y unicidad.suelen ser principios organizativos importantes. En muchos libros de texto introductorios, el papel de los teoremas de existencia y unicidad para ODE puede ser algo opaco; la mitad de existencia generalmente es innecesaria, ya que uno puede verificar directamente cualquier fórmula de solución propuesta, mientras que la mitad de unicidad a menudo solo está presente en segundo plano para garantizar que la fórmula de solución propuesta sea lo más general posible. Por el contrario, para PDE, los teoremas de existencia y unicidad son a menudo los únicos medios por los cuales uno puede navegar a través de la plétora de diferentes soluciones disponibles. Por este motivo, también son fundamentales a la hora de realizar una simulación puramente numérica, ya que se debe tener conocimiento de qué datos debe prescribir el usuario y qué datos debe calcular el ordenador.

Para discutir tales teoremas de existencia y unicidad, es necesario ser preciso sobre el dominio de la "función desconocida". De lo contrario, hablando solo en términos como "una función de dos variables", es imposible formular significativamente los resultados. Es decir, el dominio de la función desconocida debe considerarse como parte de la estructura de la PDE misma.

A continuación se proporcionan dos ejemplos clásicos de tales teoremas de existencia y unicidad. A pesar de que las dos EDP en cuestión son tan similares, existe una notable diferencia de comportamiento: para la primera EDP, se tiene la prescripción libre de una sola función, mientras que para la segunda EDP, se tiene la prescripción libre de dos funciones.

Incluso más fenómenos son posibles. Por ejemplo, la siguiente PDE, que surge naturalmente en el campo de la geometría diferencial, ilustra un ejemplo en el que existe una fórmula de solución simple y completamente explícita, pero con la libre elección de solo tres números y ni siquiera una función.

A diferencia de los ejemplos anteriores, esta PDE no es lineal debido a las raíces cuadradas y los cuadrados. Una EDP lineal es aquella que, si es homogénea, la suma de dos soluciones cualesquiera también es una solución, y todos los múltiplos constantes de cualquier solución también son una solución.

Bien planteado

La buena postura se refiere a un paquete esquemático común de información sobre una PDE. Para decir que una PDE está bien planteada, se debe tener:

Esto es, por la necesidad de ser aplicable a varios PDE diferentes, algo vago. El requisito de "continuidad", en particular, es ambiguo, ya que suele haber muchos medios no equivalentes por los que puede definirse rigurosamente. Sin embargo, es algo inusual estudiar una EDP sin especificar la forma en que está bien planteada.

El metodo de la energia

El método de la energía es un procedimiento matemático que se puede utilizar para verificar que los problemas con valores de contorno iniciales estén bien planteados. En el siguiente ejemplo, el método de energía se usa para decidir dónde y qué condiciones de contorno deben imponerse para que el IBVP resultante esté bien planteado. Considere la PDE hiperbólica unidimensional dada por

{displaystyle {frac {parcial u}{parcial t}}+alpha {frac {parcial u}{parcial x}}=0,quad xin [a,b],t> 0,}

donde alfa neq 0es una constante y tu(x,t)es una función desconocida con condición inicial { estilo de visualización u (x, 0) = f (x)}. Multiplicar tue integrar sobre el dominio da

{displaystyle int _{a}^{b}u{frac {u parcial}{t parcial}}mathrm {d} x+alpha int _{a}^{b}u{frac {u parcial}{x parcial}}mathrm {d} x=0.}

usando eso

{displaystyle int _{a}^{b}u{frac {parcial u}{parcial t}}mathrm {d} x={frac {1}{2}}{frac { parcial {parcial t}}|u|^{2}quad {text{y}}quad int _{a}^{b}u{frac {parcial u}{parcial x}}mathrm {d} x={frac {1}{2}}u(b,t)^{2}-{frac {1}{2}}u(a,t)^{2 },}

donde se ha utilizado la integración por partes para la segunda relación, obtenemos

{displaystyle {frac {parcial }{parcial t}}|u|^{2}+alpha u(b,t)^{2}-alpha u(a,t)^{2 }=0.}

Aquí |cdot |denota la L^{2}norma estándar. Para una buena postura, requerimos que la energía de la solución no aumente, es decir, que {textstyle {frac {parcial }{parcial t}}|u|^{2}leq 0}, lo cual se logra especificando tuat x=aif alfa >0y at x=bif alfa <0. Esto corresponde a solo imponer condiciones de contorno en la entrada. Tenga en cuenta que la buena postura permite el crecimiento en términos de datos (inicial y límite) y, por lo tanto, es suficiente para mostrar que {textstyle {frac {parcial }{parcial t}}|u|^{2}leq 0}se mantiene cuando todos los datos se establecen en cero.

Existencia de soluciones locales

El teorema de Cauchy-Kowalski para los problemas de valores iniciales de Cauchy establece esencialmente que si los términos de una ecuación diferencial parcial están compuestos todos por funciones analíticas y se cumple una determinada condición de transversalidad (el hiperplano o, más generalmente, la hipersuperficie donde se plantean los datos iniciales debe ser no característico con respecto al operador diferencial parcial), entonces en ciertas regiones, necesariamente existen soluciones que son también funciones analíticas. Este es un resultado fundamental en el estudio de las ecuaciones diferenciales parciales analíticas. Sorprendentemente, el teorema no se cumple en el caso de funciones suaves; un ejemplo descubierto por Hans Lewy en 1957 consiste en una ecuación diferencial parcial lineal cuyos coeficientes son uniformes (es decir, tienen derivadas de todos los órdenes) pero no analíticas para las cuales no existe solución.

Clasificación

Notación

Al escribir PDE, es común denotar derivadas parciales usando subíndices. Por ejemplo:

{displaystyle u_{x}={frac {parcial u}{parcial x}},quad u_{xx}={frac {parcial ^{2}u}{parcial x^{2} }},quad u_{xy}={frac {parcial ^{2}u}{parcial y,parcial x}}={frac {parcial }{parcial y}}left({frac {u parcial}{x parcial}}right).}

En la situación general en la que u es una función de n variables, entonces u i denota la primera derivada parcial relativa a la entrada i -ésima, u ij denota la segunda derivada parcial relativa a las entradas i -ésima y j -ésima, y ​​así en.

La letra griega Δ denota el operador de Laplace; si u es una función de n variables, entonces

{displaystyle Delta u=u_{11}+u_{22}+cdots +u_{nn}.}

En la literatura de física, el operador de Laplace a menudo se denota por ∇; en la literatura matemática, ∇ u también puede denotar la matriz hessiana de u.

Ecuaciones de primer orden

Ecuaciones lineales y no lineales

Una PDE se llama lineal si es lineal en la incógnita y sus derivadas. Por ejemplo, para una función u de x e y, una PDE lineal de segundo orden es de la forma

{displaystyle a_{1}(x,y)u_{xx}+a_{2}(x,y)u_{xy}+a_{3}(x,y)u_{yx}+a_{4}(x,y)u_{yy}+a_{5}(x,y)u_{x}+a_{6}(x,y)u_{y}+a_{7}(x,y)u=f(x,y)}

donde a i y f son funciones de las variables independientes solamente. (A menudo, las derivadas parciales mixtas u xy y u yx se igualarán, pero esto no es necesario para la discusión de la linealidad). Si las a i son constantes (independientes de x y y), entonces la PDE se llama lineal con coeficientes constantes.. Si f es cero en todas partes, entonces la PDE lineal es homogénea; de lo contrario, no es homogénea. (Esto es independiente de la homogeneización asintótica, que estudia los efectos de las oscilaciones de alta frecuencia en los coeficientes sobre las soluciones de las PDE).

Las PDE más cercanas a las lineales son las PDE semilineales, donde solo las derivadas de mayor orden aparecen como términos lineales, con coeficientes que son funciones de las variables independientes. Las derivadas de orden inferior y la función desconocida pueden aparecer arbitrariamente. Por ejemplo, una PDE semilineal general de segundo orden en dos variables es

{displaystyle a_{1}(x,y)u_{xx}+a_{2}(x,y)u_{xy}+a_{3}(x,y)u_{yx}+a_{4}(x,y)u_{yy}+f(u_{x},u_{y},u,x,y)=0}

En una PDE cuasilineal, las derivadas de mayor orden también aparecen solo como términos lineales, pero con coeficientes posiblemente funciones de las derivadas desconocidas y de menor orden:

{displaystyle a_{1}(u_{x},u_{y},u,x,y)u_{xx}+a_{2}(u_{x},u_{y},u,x,y) u_{xy}+a_{3}(u_{x},u_{y},u,x,y)u_{yx}+a_{4}(u_{x},u_{y},u,x, y)u_{yy}+f(u_{x},u_{y},u,x,y)=0}

Muchas de las PDE fundamentales en física son cuasilineales, como las ecuaciones de Einstein de la relatividad general y las ecuaciones de Navier-Stokes que describen el movimiento de fluidos.

Una PDE sin ninguna propiedad de linealidad se denomina completamente no lineal y posee no linealidades en una o más de las derivadas de orden más alto. Un ejemplo es la ecuación de Monge-Ampère, que surge en geometría diferencial.

Ecuaciones lineales de segundo orden

Las ecuaciones diferenciales parciales de orden dos elípticas, parabólicas e hiperbólicas han sido ampliamente estudiadas desde principios del siglo XX. Sin embargo, hay muchos otros tipos importantes de PDE, incluida la ecuación de Korteweg-de Vries. También hay híbridos como la ecuación de Euler-Tricomi, que varían de elíptica a hiperbólica para diferentes regiones del dominio. También hay extensiones importantes de estos tipos básicos a PDE de orden superior, pero dicho conocimiento es más especializado.

La clasificación elíptica/parabólica/hiperbólica proporciona una guía para las condiciones iniciales y de contorno apropiadas y para la suavidad de las soluciones. Asumiendo u xy = u yx, la PDE lineal general de segundo orden en dos variables independientes tiene la forma

{displaystyle Au_{xx}+2Bu_{xy}+Cu_{yy}+cdots {mbox{(términos de orden inferior)}}=0,}

donde los coeficientes A, B, C... pueden depender de x e y. Si A + B + C > 0 sobre una región del plano xy, la PDE es de segundo orden en esa región. Esta forma es análoga a la ecuación para una sección cónica:

{displaystyle Ax^{2}+2Bxy+Cy^{2}+cdots =0.}

Más precisamente, reemplazando ∂ x por X, e igualmente para otras variables (formalmente esto se hace mediante una transformada de Fourier), convierte una PDE de coeficiente constante en un polinomio del mismo grado, con los términos del grado más alto (un polinomio homogéneo, aquí una forma cuadrática) siendo el más significativo para la clasificación.

Así como se clasifican las secciones cónicas y las formas cuadráticas en parabólicas, hiperbólicas y elípticas con base en el discriminante B − 4 AC, se puede hacer lo mismo para una EDP de segundo orden en un punto dado. Sin embargo, el discriminante en una PDE viene dado por BAC debido a la convención de que el término xy es 2 B en lugar de B; formalmente, el discriminante (de la forma cuadrática asociada) es (2 B) − 4 AC = 4(BAC), con el factor de 4 descartado por simplicidad.

  1. BAC < 0 ( ecuación diferencial parcial elíptica): Las soluciones de las EDP elípticas son tan suaves como lo permiten los coeficientes, dentro de la región donde se definen la ecuación y las soluciones. Por ejemplo, las soluciones de la ecuación de Laplace son analíticas dentro del dominio donde están definidas, pero las soluciones pueden asumir valores límite que no son uniformes. El movimiento de un fluido a velocidades subsónicas se puede aproximar con PDE elípticas, y la ecuación de Euler-Tricomi es elíptica donde x < 0.
  2. BAC = 0 ( ecuación diferencial parcial parabólica): Las ecuaciones que son parabólicas en cada punto pueden transformarse en una forma análoga a la ecuación del calor mediante un cambio de variables independientes. Las soluciones se suavizan a medida que aumenta la variable de tiempo transformada. La ecuación de Euler-Tricomi tiene tipo parabólico en la recta donde x = 0.
  3. BAC > 0 ( ecuación diferencial parcial hiperbólica): las ecuaciones hiperbólicas conservan cualquier discontinuidad de funciones o derivadas en los datos iniciales. Un ejemplo es la ecuación de onda. El movimiento de un fluido a velocidades supersónicas se puede aproximar con PDE hiperbólicas, y la ecuación de Euler-Tricomi es hiperbólica donde x > 0.

Si hay n variables independientes x 1, x 2, …, x n, una ecuación diferencial parcial lineal general de segundo orden tiene la forma

{displaystyle Lu=sum _{i=1}^{n}sum _{j=1}^{n}a_{i,j}{frac {parcial ^{2}u}{parcial x_{i}parcial x_{j}}}quad +{text{términos de orden inferior}}=0.}

La clasificación depende de la firma de los valores propios de la matriz de coeficientes a i, j.

  1. Elíptica: los autovalores son todos positivos o todos negativos.
  2. Parabólica: los autovalores son todos positivos o todos negativos, excepto uno que es cero.
  3. Hiperbólico: solo hay un valor propio negativo y todos los demás son positivos, o solo hay un valor propio positivo y todos los demás son negativos.
  4. Ultrahiperbólico: hay más de un valor propio positivo y más de un valor propio negativo, y no hay valores propios cero.

La teoría de las ecuaciones elípticas, parabólicas e hiperbólicas se ha estudiado durante siglos, centrada en gran medida o basada en los ejemplos estándar de la ecuación de Laplace, la ecuación del calor y la ecuación de onda.

Sistemas de ecuaciones de primer orden y superficies características

La clasificación de las ecuaciones en derivadas parciales puede extenderse a sistemas de ecuaciones de primer orden, donde la incógnita u es ahora un vector con m componentes, y las matrices de coeficientes A ν son matrices m por m para ν = 1, 2, …, n. La ecuación diferencial parcial toma la forma

{displaystyle Lu=sum_{nu =1}^{n}A_{nu }{frac {parcial u}{parcial x_{nu }}}+B=0,}

donde las matrices de coeficientes A ν y el vector B pueden depender de x y u. Si se da una hipersuperficie S en la forma implícita

{displaystyle varphi (x_{1},x_{2},ldots,x_{n})=0,}

donde φ tiene un gradiente distinto de cero, entonces S es una superficie característica para el operador L en un punto dado si la forma característica desaparece:

{displaystyle Qleft({frac {parcial varphi }{parcial x_{1}}},ldots,{frac {parcial varphi }{parcial x_{n}}}right) =det left[sum _{nu =1}^{n}A_{nu }{frac {parcial varphi }{parcial x_{nu }}}right]=0.}

La interpretación geométrica de esta condición es la siguiente: si los datos para u se prescriben en la superficie S, entonces puede ser posible determinar la derivada normal de u en S a partir de la ecuación diferencial. Si los datos sobre S y la ecuación diferencial determinan la derivada normal de u sobre S, entonces S no es característico. Si los datos sobre S y la ecuación diferencial no determinan la derivada normal de u sobre S, entonces la superficie es característica, y la ecuación diferencial restringe los datos en S: la ecuación diferencial es interna a S.

  1. Un sistema de primer orden Lu = 0 es elíptico si ninguna superficie es característica de L: los valores de u en S y la ecuación diferencial siempre determinan la derivada normal de u en S.
  2. Un sistema de primer orden es hiperbólico en un punto si existe una superficie espacial S con ξ normal en ese punto. Esto significa que, dado cualquier vector no trivial η ortogonal a ξ, y un multiplicador escalar λ, la ecuación Q (λξ + η) = 0 tiene m raíces reales λ 1, λ 2, …, λ m. El sistema es estrictamente hiperbólico.si estas raíces son siempre distintas. La interpretación geométrica de esta condición es la siguiente: la forma característica Q (ζ) = 0 define un cono (el cono normal) con coordenadas homogéneas ζ. En el caso hiperbólico, este cono tiene m hojas, y el eje ζ = λξ corre dentro de estas hojas: no corta a ninguna de ellas. Pero cuando se desplaza desde el origen por η, este eje intersecta cada hoja. En el caso elíptico, el cono normal no tiene láminas reales.

Soluciones analíticas

Separación de variables

Las PDE lineales se pueden reducir a sistemas de ecuaciones diferenciales ordinarias mediante la importante técnica de separación de variables. Esta técnica se basa en una característica de las soluciones de las ecuaciones diferenciales: si se puede encontrar una solución que resuelva la ecuación y satisfaga las condiciones de contorno, entonces es la solución (esto también se aplica a las EDO). Asumimos como ansatz que la dependencia de una solución en los parámetros espacio y tiempo se puede escribir como un producto de términos que dependen cada uno de un solo parámetro, y luego vemos si esto se puede hacer para resolver el problema.

En el método de separación de variables, se reduce una PDE a una PDE en menos variables, que es una ecuación diferencial ordinaria si en una variable, estas a su vez son más fáciles de resolver.

Esto es posible para PDE simples, que se llaman ecuaciones diferenciales parciales separables, y el dominio es generalmente un rectángulo (un producto de intervalos). Las PDE separables corresponden a matrices diagonales: pensando en "el valor de x fijo " como una coordenada, cada coordenada se puede entender por separado.

Esto se generaliza al método de características y también se usa en transformadas integrales.

Método de características

En casos especiales, se pueden encontrar curvas características en las que la ecuación se reduce a una EDO: cambiar las coordenadas en el dominio para enderezar estas curvas permite la separación de variables y se denomina método de características.

Más generalmente, se pueden encontrar superficies características.

Transformada integral

Una transformada integral puede transformar la PDE en una más simple, en particular, una PDE separable. Esto corresponde a la diagonalización de un operador.

Un ejemplo importante de esto es el análisis de Fourier, que diagonaliza la ecuación del calor utilizando la base propia de las ondas sinusoidales.

Si el dominio es finito o periódico, es apropiada una suma infinita de soluciones como una serie de Fourier, pero generalmente se requiere una integral de soluciones como una integral de Fourier para dominios infinitos. La solución para una fuente puntual para la ecuación de calor dada arriba es un ejemplo del uso de una integral de Fourier.

Cambio de variable

A menudo, una PDE se puede reducir a una forma más simple con una solución conocida mediante un cambio adecuado de variables. Por ejemplo, la ecuación de Black-Scholes

{displaystyle {frac {parcial V}{parcial t}}+{tfrac {1}{2}}sigma ^{2}S^{2}{frac {parcial ^{2}V }{S parcial^{2}}}+rS{frac {V parcial}{S parcial}}-rV=0}

es reducible a la ecuación del calor

{displaystyle {frac {parcial u}{parcial tau }}={frac {parcial ^{2}u}{parcial x^{2}}}}

por el cambio de variables

{displaystyle {begin{alineado}V(S,t)&=v(x,tau),\[5px]x&=ln left(Sright),\[5px]tau & ={tfrac {1}{2}}sigma ^{2}(Tt),\[5px]v(x,tau)&=e^{-alpha x-beta tau }u(x,tau).end{alineado}}}

Solución básica

Las ecuaciones no homogéneas a menudo se pueden resolver (para EDP de coeficiente constante, siempre se resuelven) encontrando la solución fundamental (la solución para una fuente puntual), luego tomando la convolución con las condiciones de contorno para obtener la solución.

Esto es análogo en el procesamiento de señales a comprender un filtro por su respuesta de impulso.

Principio de superposición

El principio de superposición se aplica a cualquier sistema lineal, incluidos los sistemas lineales de PDE. Una visualización común de este concepto es la interacción de dos ondas en fase que se combinan para dar como resultado una mayor amplitud, por ejemplo, sen x + sen x = 2 sen x. El mismo principio se puede observar en las PDE donde las soluciones pueden ser reales o complejas y aditivas. Si u 1 y u 2 son soluciones de PDE lineal en algún espacio funcional R, entonces u = c 1 u 1 + c 2 u 2 con cualquier constante c 1y c 2 también son una solución de esa PDE en el mismo espacio funcional.

Métodos para ecuaciones no lineales

No existen métodos de aplicación general para resolver PDE no lineales. Aún así, los resultados de existencia y unicidad (como el teorema de Cauchy-Kowalevski) a menudo son posibles, al igual que las pruebas de importantes propiedades cualitativas y cuantitativas de las soluciones (obtener estos resultados es una parte importante del análisis). La solución computacional para las PDE no lineales, el método de paso dividido, existe para ecuaciones específicas como la ecuación de Schrödinger no lineal.

Sin embargo, algunas técnicas se pueden utilizar para varios tipos de ecuaciones. El principio h es el método más poderoso para resolver ecuaciones indeterminadas. La teoría de Riquier-Janet es un método efectivo para obtener información sobre muchos sistemas analíticos sobredeterminados.

El método de las características se puede utilizar en algunos casos muy especiales para resolver ecuaciones diferenciales parciales no lineales.

En algunos casos, una PDE se puede resolver mediante un análisis de perturbaciones en el que la solución se considera una corrección de una ecuación con una solución conocida. Las alternativas son técnicas de análisis numérico desde esquemas simples de diferencias finitas hasta los métodos más maduros de elementos finitos y redes múltiples. Muchos problemas interesantes en ciencia e ingeniería se resuelven de esta manera utilizando computadoras, a veces supercomputadoras de alto rendimiento.

Método de grupo de mentiras

A partir de 1870, el trabajo de Sophus Lie puso la teoría de las ecuaciones diferenciales sobre una base más satisfactoria. Demostró que las teorías de integración de los matemáticos más antiguos pueden, mediante la introducción de lo que ahora se denominan grupos de Lie, referirse a una fuente común; y que las ecuaciones diferenciales ordinarias que admiten las mismas transformaciones infinitesimales presentan dificultades de integración comparables. También enfatizó el tema de las transformaciones de contacto.

Un enfoque general para resolver PDE utiliza la propiedad de simetría de las ecuaciones diferenciales, las transformaciones infinitesimales continuas de soluciones a soluciones (teoría de Lie). La teoría de grupos continuos, el álgebra de Lie y la geometría diferencial se utilizan para comprender la estructura de las ecuaciones diferenciales parciales lineales y no lineales para generar ecuaciones integrables, encontrar sus pares de Lax, operadores de recurrencia, transformada de Bäcklund y, finalmente, encontrar soluciones analíticas exactas para la EDP.

Los métodos de simetría han sido reconocidos para estudiar ecuaciones diferenciales que surgen en matemáticas, física, ingeniería y muchas otras disciplinas.

Métodos semianalíticos

El método de descomposición de Adomian, el método de pequeño parámetro artificial de Lyapunov y su método de perturbación de homotopía son todos casos especiales del método de análisis de homotopía más general. Estos son métodos de expansión en serie y, a excepción del método de Lyapunov, son independientes de pequeños parámetros físicos en comparación con la conocida teoría de la perturbación, lo que les da a estos métodos una mayor flexibilidad y generalidad de solución.

Soluciones numéricas

Los tres métodos numéricos más utilizados para resolver PDEs son el método de elementos finitos (FEM), métodos de volumen finito (FVM) y métodos de diferencias finitas (FDM), así como otro tipo de métodos llamados métodos Meshfree, que fueron creados para resolver problemas donde los métodos antes mencionados son limitados. El FEM tiene una posición destacada entre estos métodos y especialmente su versión de orden superior hp-FEM excepcionalmente eficiente. Otras versiones híbridas de los métodos FEM y Meshfree incluyen el método generalizado de elementos finitos (GFEM), el método extendido de elementos finitos (XFEM), el método espectral de elementos finitos (SFEM), el método de elementos finitos sin malla, el método discontinuo de elementos finitos de Galerkin (DGFEM), el método Element- Método de Galerkin libre (EFGM), Método de Galerkin libre de elementos de interpolación (IEFGM), etc.

Método de elementos finitos

El método de elementos finitos (FEM) (su aplicación práctica a menudo se conoce como análisis de elementos finitos (FEA)) es una técnica numérica para encontrar soluciones aproximadas de ecuaciones diferenciales parciales (PDE), así como de ecuaciones integrales. El enfoque de solución se basa en la eliminación completa de la ecuación diferencial (problemas de estado estacionario) o en convertir la PDE en un sistema aproximado de ecuaciones diferenciales ordinarias, que luego se integran numéricamente utilizando técnicas estándar como el método de Euler, Runge-Kutta, etc.

Método de diferencias finitas

Los métodos de diferencias finitas son métodos numéricos para aproximar las soluciones a ecuaciones diferenciales usando ecuaciones de diferencias finitas para aproximar derivadas.

Método de volumen finito

Similar al método de diferencias finitas o al método de elementos finitos, los valores se calculan en lugares discretos en una geometría mallada. El "volumen finito" se refiere al pequeño volumen que rodea cada punto de nodo en una malla. En el método de volumen finito, las integrales de superficie en una ecuación diferencial parcial que contienen un término de divergencia se convierten en integrales de volumen mediante el teorema de divergencia. Estos términos luego se evalúan como flujos en las superficies de cada volumen finito. Debido a que el flujo que ingresa a un volumen dado es idéntico al que sale del volumen adyacente, estos métodos conservan la masa por diseño.