Ecuación diferencial ordinaria

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

En matemáticas, una ecuación diferencial ordinaria es una ecuación diferencial que contiene una o más funciones de una variable independiente y las derivadas de esas funciones. El término ordinario se usa en contraste con el término ecuación diferencial parcial que puede ser con respecto a más de una variable independiente.

Ecuaciones diferenciales

Una ecuación diferencial lineal es una ecuación diferencial que está definida por un polinomio lineal en la función desconocida y sus derivadas, es decir, una ecuación de la forma{displaystyle a_{0}(x)y+a_{1}(x)y'+a_{2}(x)y''+cdots +a_{n}(x)y^{(n)} +b(x)=0,}

donde { estilo de visualización a_ {0} (x)},..., { estilo de visualización a_ {n} (x)}y b(x)son funciones derivables arbitrarias que no necesitan ser lineales, y {displaystyle y',ldots,y^{(n)}}son las derivadas sucesivas de la función desconocida y de la variable x.

Entre las ecuaciones diferenciales ordinarias, las ecuaciones diferenciales lineales juegan un papel destacado por varias razones. La mayoría de las funciones elementales y especiales que se encuentran en la física y las matemáticas aplicadas son soluciones de ecuaciones diferenciales lineales (ver Función holonómica). Cuando los fenómenos físicos se modelan con ecuaciones no lineales, generalmente se aproximan mediante ecuaciones diferenciales lineales para una solución más sencilla. Las pocas ODE no lineales que se pueden resolver explícitamente generalmente se resuelven transformando la ecuación en una ODE lineal equivalente (ver, por ejemplo, la ecuación de Riccati).

Algunas ODE se pueden resolver explícitamente en términos de funciones e integrales conocidas. Cuando eso no es posible, la ecuación para calcular la serie de Taylor de las soluciones puede ser útil. Para problemas aplicados, los métodos numéricos para ecuaciones diferenciales ordinarias pueden proporcionar una aproximación a la solución.

Fondo

Las ecuaciones diferenciales ordinarias (EDO) surgen en muchos contextos de las matemáticas y las ciencias sociales y naturales. Las descripciones matemáticas del cambio utilizan diferenciales y derivadas. Varios diferenciales, derivados y funciones se relacionan a través de ecuaciones, de modo que una ecuación diferencial es un resultado que describe fenómenos, evolución y variación dinámicamente cambiantes. A menudo, las cantidades se definen como la tasa de cambio de otras cantidades (por ejemplo, derivadas del desplazamiento con respecto al tiempo) o gradientes de cantidades, que es la forma en que entran en las ecuaciones diferenciales.

Los campos matemáticos específicos incluyen la geometría y la mecánica analítica. Los campos científicos incluyen gran parte de la física y la astronomía (mecánica celeste), meteorología (modelado del clima), química (tasas de reacción), biología (enfermedades infecciosas, variación genética), ecología y modelado de población (competencia de población), economía (tendencias de existencias, tasas de interés y el precio de equilibrio del mercado cambia).

Muchos matemáticos han estudiado ecuaciones diferenciales y han contribuido al campo, incluidos Newton, Leibniz, la familia Bernoulli, Riccati, Clairaut, d'Alembert y Euler.

Un ejemplo simple es la segunda ley del movimiento de Newton: la relación entre el desplazamiento x y el tiempo t de un objeto bajo la fuerza F está dada por la ecuación diferencial{displaystyle m{frac {mathrm {d} ^{2}x(t)}{mathrm {d} t^{2}}}=F(x(t)),}

que restringe el movimiento de una partícula de masa constante m. En general, F es una función de la posición x (t) de la partícula en el tiempo t. La función desconocida x (t) aparece en ambos lados de la ecuación diferencial y se indica en la notación F (x (t)).

Definiciones

En lo que sigue, sea y una variable dependiente y x una variable independiente, y y = f (x) es una función desconocida de x. La notación para la diferenciación varía según el autor y según qué notación sea más útil para la tarea en cuestión. En este contexto, la notación de Leibniz (dy/dx,dy _/dx, …,dy _/dx) es más útil para diferenciación e integración, mientras que la notación de Lagrange (y ′, y ′ ′, …, y) es más útil para representar derivadas de cualquier orden de forma compacta, y la notación de Newton {displaystyle ({dot {y}},{ddot {y}},{overset {...}{y}})}se usa a menudo en física para representar derivadas de bajo orden con respeto al tiempo.

Definición general

Dada F, una función de x, y, y derivadas de y. Entonces una ecuación de la forma{displaystyle Fleft(x,y,y',ldots,y^{(n-1)}right)=y^{(n)}}

se denomina ecuación diferencial ordinaria explícita de orden n.

Más generalmente, una ecuación diferencial ordinaria implícita de orden n toma la forma:{displaystyle Fleft(x,y,y',y'', ldots, y^{(n)}right)=0}

Hay más clasificaciones:AutónomoUna ecuación diferencial que no depende de x se llama autónoma.LinealSe dice que una ecuación diferencial es lineal si F se puede escribir como una combinación lineal de las derivadas de y:{displaystyle y^{(n)}=sum_{i=0}^{n-1}a_{i}(x)y^{(i)}+r(x)}donde a i  (x) y r  (x) son funciones continuas de x. La función r (x) se denomina término fuente, lo que lleva a otras dos clasificaciones importantes:HomogéneoSi r (x) = 0, y en consecuencia una solución "automática" es la solución trivial, y = 0. La solución de una ecuación lineal homogénea es una función complementaria, denotada aquí por y c.No homogéneo (o no homogéneo)Si r (x) ≠ 0. La solución adicional a la función complementaria es la integral particular, denotada aquí por y p.no linealUna ecuación diferencial que no se puede escribir en forma de combinación lineal.

Sistema de ODE

Varias ecuaciones diferenciales acopladas forman un sistema de ecuaciones. Si y es un vector cuyos elementos son funciones; y (x) = [ y 1 (x), y 2 (x),..., y m (x)], y F es una función vectorial de y y sus derivadas, entonces{displaystyle mathbf {y} ^{(n)}=mathbf {F} left(x,mathbf {y},mathbf {y} ',mathbf {y} '',ldots, matemáticasbf {y} ^{(n-1)}right)}

es un sistema explícito de ecuaciones diferenciales ordinarias de orden n y dimensión m. En forma de vector de columna:{displaystyle {begin{pmatrix}y_{1}^{(n)}\y_{2}^{(n)}\vdots \y_{m}^{(n)}end{ pmatrix}}={begin{pmatrix}f_{1}left(x,mathbf {y},mathbf {y} ',mathbf {y} '',ldots,mathbf {y} ^{ (n-1)}right)\f_{2}left(x,mathbf {y},mathbf {y} ',mathbf {y} '',ldots,mathbf {y} ^ {(n-1)}right)\vdots \f_{m}left(x,mathbf {y},mathbf {y} ',mathbf {y} '',ldots, matemáticasbf {y} ^{(n-1)}right)end{pmatrix}}}

Estos no son necesariamente lineales. El análogo implícito es:{displaystyle mathbf {F} left(x,mathbf {y},mathbf {y} ',mathbf {y} '',ldots,mathbf {y} ^{(n)}right)={ símbolo de negrita {0}}}

donde 0 = (0, 0,..., 0) es el vector cero. en forma de matriz{displaystyle {begin{pmatrix}f_{1}(x,mathbf {y},mathbf {y} ',mathbf {y} '',ldots,mathbf {y} ^{(n) })\f_{2}(x,mathbf {y},mathbf {y} ',mathbf {y} '',ldots,mathbf {y} ^{(n)})\ vdots \f_{m}(x,mathbf {y},mathbf {y} ',mathbf {y} '',ldots,mathbf {y} ^{(n)})end{pmatrix }}={begin{pmatrix}0\0\vdots\0end{pmatrix}}}

Para un sistema de la forma mathbf {F} left(x,mathbf {y},mathbf {y} 'right)={boldsymbol {0}}, algunas fuentes también requieren que la matriz jacobiana {frac {mathbf parcial {F} (x,mathbf {u},mathbf {v})}{mathbf parcial {v} }}sea no singular para llamarlo un [sistema] ODE implícito; un sistema ODE implícito que satisfaga esta condición de no singularidad jacobiana puede transformarse en un sistema ODE explícito. En las mismas fuentes, los sistemas ODE implícitos con un jacobiano singular se denominan ecuaciones algebraicas diferenciales (DAE). Esta distinción no es meramente de terminología; Los DAE tienen características fundamentalmente diferentes y generalmente son más complicados de resolver que los sistemas ODE (no singulares). Presumiblemente, para derivadas adicionales, la matriz hessiana, etc., también se supone que no es singular de acuerdo con este esquema,aunque tenga en cuenta que cualquier ODE de orden mayor que uno puede reescribirse (y generalmente lo es) como un sistema de ODE de primer orden, lo que hace que el criterio de singularidad jacobiana sea suficiente para que esta taxonomía sea integral en todos los órdenes.

El comportamiento de un sistema de EDO se puede visualizar mediante el uso de un retrato de fase.

Soluciones

Dada una ecuación diferencial{displaystyle Fleft(x,y,y',ldots,y^{(n)}right)=0}

una función u: IRR, donde I es un intervalo, se llama solución o curva integral para F, si u es n veces diferenciable en I, y{displaystyle F(x,u,u', ldots, u^{(n)})=0quad xin I.}

Dadas dos soluciones u: JRR y v: IRR, u se llama una extensión de v si IJ yu(x)=v(x)quad xin I.,

Una solución que no tiene extensión se llama solución máxima. Una solución definida en todo R se llama solución global.

Una solución general de una ecuación de orden n es una solución que contiene n constantes de integración independientes arbitrarias. Una solución particular se deriva de la solución general al establecer las constantes en valores particulares, a menudo elegidos para cumplir con las 'condiciones iniciales o condiciones de contorno' establecidas. Una solución singular es una solución que no se puede obtener asignando valores definidos a las constantes arbitrarias en la solución general.

En el contexto de la ODE lineal, la terminología solución particular también puede referirse a cualquier solución de la ODE (que no necesariamente satisface las condiciones iniciales), que luego se agrega a la solución homogénea (una solución general de la ODE homogénea), que luego forma una solución general de la EDO original. Esta es la terminología utilizada en la sección del método de adivinación de este artículo, y se usa con frecuencia cuando se analiza el método de coeficientes indeterminados y la variación de parámetros.

Soluciones de duración finita

Para EDO autónomas no lineales es posible, bajo algunas condiciones, desarrollar soluciones de duración finita, lo que significa aquí que, a partir de su propia dinámica, el sistema alcanzará el valor cero en un tiempo final y permanecerá allí en cero para siempre. Estas soluciones de duración finita no pueden ser funciones analíticas en toda la línea real, y debido a que serán funciones no Lipschitz en su tiempo final, no soportan la unicidad de las soluciones de las ecuaciones diferenciales de Lipschitz.

Como ejemplo, la ecuación:{displaystyle y'=-{text{sgn}}(y){sqrt {|y|}},,,y(0)=1}

Admite la solución de duración finita:{displaystyle y(x)={frac {1}{4}}left(1-{frac {x}{2}}+left|1-{frac {x}{2}} derecha|derecha)^{2}}

Teorías

Soluciones singulares

La teoría de soluciones singulares de ecuaciones diferenciales ordinarias y parciales fue objeto de investigación desde la época de Leibniz, pero sólo desde mediados del siglo XIX ha recibido especial atención. Un trabajo valioso pero poco conocido sobre el tema es el de Houtain (1854). Darboux (desde 1873) fue un líder en la teoría, y en la interpretación geométrica de estas soluciones abrió un campo trabajado por varios escritores, en particular Casorati y Cayley. A este último se debe (1872) la teoría de soluciones singulares de ecuaciones diferenciales de primer orden aceptada hacia 1900.

Reducción a cuadraturas

El intento primitivo de tratar con ecuaciones diferenciales tenía en vista una reducción a cuadraturas. Como había sido la esperanza de los algebristas del siglo XVIII encontrar un método para resolver la ecuación general de la ngrado, por lo que era la esperanza de los analistas encontrar un método general para integrar cualquier ecuación diferencial. Gauss (1799) mostró, sin embargo, que las ecuaciones diferenciales complejas requieren números complejos. De ahí que los analistas comenzaran a sustituir el estudio de funciones, abriendo así un campo nuevo y fértil. Cauchy fue el primero en apreciar la importancia de este punto de vista. A partir de entonces, la verdadera pregunta ya no era si es posible una solución por medio de funciones conocidas o sus integrales, sino si una ecuación diferencial dada es suficiente para la definición de una función de la variable o variables independientes y, de ser así, cuáles son los propiedades caracteristicas.

Teoría fucsia

Dos memorias de Fuchs inspiraron un enfoque novedoso, posteriormente elaborado por Thomé y Frobenius. Collet fue un colaborador destacado a partir de 1869. Su método para integrar un sistema no lineal se comunicó a Bertrand en 1868. Clebsch (1873) atacó la teoría en líneas paralelas a las de su teoría de las integrales abelianas. Como estas últimas pueden clasificarse según las propiedades de la curva fundamental que permanece inalterable bajo una transformación racional, Clebsch propuso clasificar las funciones trascendentes definidas por ecuaciones diferenciales según las propiedades invariantes de las superficies correspondientes f = 0 bajo racional uno a -una transformaciones.

La teoria de la mentira

A partir de 1870, el trabajo de Sophus Lie puso la teoría de las ecuaciones diferenciales sobre una base mejor. Demostró que las teorías de integración de los matemáticos más antiguos pueden, utilizando grupos de Lie, referirse a una fuente común, y que las ecuaciones diferenciales ordinarias que admiten las mismas transformaciones infinitesimales presentan dificultades de integración comparables. También enfatizó el tema de las transformaciones de contacto.

La teoría de grupos de ecuaciones diferenciales de Lie ha sido certificada, a saber: (1) que unifica los muchos métodos ad hoc conocidos para resolver ecuaciones diferenciales, y (2) que proporciona nuevas y poderosas formas de encontrar soluciones. La teoría tiene aplicaciones tanto para ecuaciones diferenciales ordinarias como parciales.

Un enfoque de solución general utiliza la propiedad de simetría de las ecuaciones diferenciales, las transformaciones infinitesimales continuas de soluciones a soluciones (teoría de Lie). La teoría de grupos continuos, el álgebra de Lie y la geometría diferencial se utilizan para comprender la estructura de las ecuaciones diferenciales lineales y no lineales (parciales) para generar ecuaciones integrables, encontrar sus pares Lax, operadores recursivos, transformada de Bäcklund y, finalmente, encontrar soluciones analíticas exactas. a DE.

Los métodos de simetría se han aplicado a ecuaciones diferenciales que surgen en matemáticas, física, ingeniería y otras disciplinas.

Teoría de Sturm-Liouville

La teoría de Sturm-Liouville es una teoría de un tipo especial de ecuación diferencial ordinaria lineal de segundo orden. Sus soluciones se basan en valores propios y funciones propias correspondientes de operadores lineales definidos a través de ecuaciones lineales homogéneas de segundo orden. Los problemas se identifican como Problemas de Sturm-Liouville (SLP) y llevan el nombre de JCF Sturm y J. Liouville, quienes los estudiaron a mediados del siglo XIX. Los SLP tienen un número infinito de valores propios, y las funciones propias correspondientes forman un conjunto ortogonal completo, lo que hace posibles las expansiones ortogonales. Esta es una idea clave en matemáticas aplicadas, física e ingeniería. Los SLP también son útiles en el análisis de ciertas ecuaciones diferenciales parciales.

Existencia y unicidad de soluciones.

Hay varios teoremas que establecen la existencia y la unicidad de las soluciones a los problemas de valor inicial que involucran ODE tanto a nivel local como global. Los dos teoremas principales son

TeoremaSuposiciónConclusión
Teorema de existencia de PeanoF continuosolo existencia local
Teorema de Picard-LindelöfF Lipschitz continuoexistencia local y singularidad

En su forma básica, estos dos teoremas solo garantizan resultados locales, aunque el último puede extenderse para dar un resultado global, por ejemplo, si se cumplen las condiciones de la desigualdad de Grönwall.

Además, los teoremas de unicidad como el de Lipschitz anterior no se aplican a los sistemas DAE, que pueden tener múltiples soluciones derivadas solo de su parte algebraica (no lineal).

Teorema de existencia local y unicidad simplificado

El teorema puede enunciarse simplemente como sigue. Para el problema de ecuación y valor inicial:

{displaystyle y'=F(x,y),,quad y_{0}=y(x_{0})}

si F y ∂ F /∂ y son continuas en un rectángulo cerrado

{displaystyle R=[x_{0}-a,x_{0}+a]veces [y_{0}-b,y_{0}+b]}

en el plano xy, donde a y b son reales (simbólicamente: a, bR) y × denota el producto cartesiano, los corchetes denotan intervalos cerrados, entonces hay un intervalo

{displaystyle I=[x_{0}-h,x_{0}+h]subconjunto [x_{0}-a,x_{0}+a]}

para algún hR donde se puede encontrar la solución a la ecuación anterior y el problema de valor inicial. Es decir, hay una solución y es única. Como no hay restricción para que F sea lineal, esto se aplica a ecuaciones no lineales que toman la forma F (x, y), y también se puede aplicar a sistemas de ecuaciones.

Unicidad global y máximo dominio de solución

Cuando se satisfacen las hipótesis del teorema de Picard-Lindelöf, la existencia local y la unicidad pueden extenderse a un resultado global. Más precisamente:

Para cada condición inicial (x 0, y 0) existe un único intervalo abierto máximo (posiblemente infinito){displaystyle I_{max }=(x_{-},x_{+}),x_{pm }in mathbb {R} cup {pm infty },x_{0}in I_{max}}

tal que cualquier solución que satisfaga esta condición inicial es una restricción de la solución que satisface esta condición inicial con dominio yo_{max}.

En el caso de que {displaystyle x_{pm }neq pm infty}, hay exactamente dos posibilidades

  • explosión en tiempo finito:{displaystyle limsup _{xto x_{pm }}|y(x)|to infty }
  • deja dominio de definición:lim _{xto x_{pm }}y(x) in parcial {bar {Omega }}

donde Ω es el conjunto abierto en el que se define Fparcial {bar {Omega}}, y es su frontera.

Tenga en cuenta que el dominio máximo de la solución

  • es siempre un intervalo (para tener unicidad)
  • puede ser más pequeño quematemáticas {R}
  • puede depender de la elección específica de (x 0, y 0).

Ejemplo.y'=y^{2}

Esto significa que F (x, y) = y, que es C y por lo tanto localmente continua de Lipschitz, satisfaciendo el teorema de Picard-Lindelöf.

Incluso en un entorno tan simple, el dominio máximo de la solución no puede ser todo, matemáticas {R}ya que la solución esy(x)={frac{y_{0}}{(x_{0}-x)y_{0}+1}}

que tiene dominio máximo:{displaystyle {begin{cases}mathbb {R} &y_{0}=0\[4pt]left(-infty,x_{0}+{frac {1}{y_{0}}} right)&y_{0}>0\[4pt]left(x_{0}+{frac {1}{y_{0}}},+infty right)&y_{0}<0end {casos}}}

Esto muestra claramente que el intervalo máximo puede depender de las condiciones iniciales. El dominio de y podría tomarse como tal, {displaystyle mathbb {R} setminus (x_{0}+1/y_{0}),}pero esto conduciría a un dominio que no es un intervalo, por lo que el lado opuesto a la condición inicial estaría desconectado de la condición inicial y, por lo tanto, no estaría determinado únicamente por ella.

El dominio máximo no es matemáticas {R}porque{displaystyle lim _{xto x_{pm }}|y(x)|to infty,}

que es uno de los dos casos posibles según el teorema anterior.

Reducción de pedido

Las ecuaciones diferenciales generalmente se pueden resolver más fácilmente si se puede reducir el orden de la ecuación.

Reducción a un sistema de primer orden

Cualquier ecuación diferencial explícita de orden n,{displaystyle Fleft(x,y,y',y'', ldots, y^{(n-1)}right)=y^{(n)}}

se puede escribir como un sistema de n ecuaciones diferenciales de primer orden definiendo una nueva familia de funciones desconocidasy_{i}=y^{(i-1)}.!

para i = 1, 2,..., n. El sistema n -dimensional de ecuaciones diferenciales acopladas de primer orden es entonces{displaystyle {begin{matriz}{rcl}y_{1}'&=&y_{2}\y_{2}'&=&y_{3}\&vdots &\y_{n-1} '&=&y_{n}\y_{n}'&=&F(x,y_{1},ldots,y_{n}).end{matriz}}}

de forma más compacta en notación vectorial:mathbf {y} '=mathbf {F} (x,mathbf {y})

dónde{displaystyle mathbf {y} =(y_{1},ldots, y_{n}),quad mathbf {F} (x,y_{1},ldots,y_{n})=(y_ {2},ldots,y_{n},F(x,y_{1},ldots,y_{n})).}

Resumen de soluciones exactas

Algunas ecuaciones diferenciales tienen soluciones que se pueden escribir en forma exacta y cerrada. Aquí se dan varias clases importantes.

En la siguiente tabla, P (x), Q (x), P (y), Q (y) y M (x, y), N (x, y) son funciones integrables de x, y y b y c son constantes reales dadas, y C 1, C 2,...son constantes arbitrarias (complejas en general). Las ecuaciones diferenciales se encuentran en sus formas equivalentes y alternativas que conducen a la solución por integración.

En las soluciones integrales, λ y ε son variables ficticias de integración (los análogos continuos de los índices en la suma), y la notación ∫ F (λ) solo significa integrar F (λ) con respecto a λ, luego después de la integración sustituir λ = x, sin sumar constantes (explícito).

Ecuaciones separables

Ecuación diferencialmétodo de soluciónSolución general
Primer orden, separable en x e y (caso general, ver abajo para casos especiales){displaystyle {begin{alineado}P_{1}(x)Q_{1}(y)+P_{2}(x)Q_{2}(y),{frac {dy}{dx}} &=0\P_{1}(x)Q_{1}(y),dx+P_{2}(x)Q_{2}(y),dy&=0end{alineado}}}Separación de variables (dividir por P 2 Q 1).{displaystyle int ^{x}{frac {P_{1}(lambda)}{P_{2}(lambda)}},dlambda +int ^{y}{frac {Q_ {2}(lambda)}{Q_{1}(lambda)}},dlambda =C}
Primer orden, separable en x{displaystyle {begin{alineado}{frac {dy}{dx}}&=F(x)\dy&=F(x),dxend{alineado}}}Integración directa.{displaystyle y=int^{x}F(lambda),dlambda +C}
Primer orden, autónomo, separable en y{displaystyle {begin{alineado}{frac {dy}{dx}}&=F(y)\dy&=F(y),dxend{alineado}}}Separación de variables (dividir por F).{displaystyle x=int ^{y}{frac {dlambda }{F(lambda)}}+C}
Primer orden, separable en x e y{displaystyle {begin{alineado}P(y){frac {dy}{dx}}+Q(x)&=0\P(y),dy+Q(x),dx&=0 end{alineado}}}Integrar en todo.{displaystyle int ^{y}P(lambda),dlambda +int ^{x}Q(lambda),dlambda =C}

Ecuaciones generales de primer orden

Ecuación diferencialmétodo de soluciónSolución general
Primer orden, homogéneo{displaystyle {frac {dy}{dx}}=Fizquierda({frac {y}{x}}derecha)}Establezca y = ux, luego resuelva por separación de variables en u y x.{displaystyle ln(Cx)=int ^{y/x}{frac {dlambda}}{F(lambda)-lambda}}}
primer orden, separable{displaystyle {begin{alineado}yM(xy)+xN(xy),{frac {dy}{dx}}&=0\yM(xy),dx+xN(xy),dy& =0end{alineado}}}Separación de variables (dividir por xy).{displaystyle ln(Cx)=int ^{xy}{frac {N(lambda),dlambda }{lambda [N(lambda)-M(lambda)]}}}Si N = M, la solución es xy = C.
Diferencial exacto, primer orden{displaystyle {begin{alineado}M(x,y){frac {dy}{dx}}+N(x,y)&=0\M(x,y),dy+N(x,y),dx&=0end{alineado}}}dónde{displaystyle {frac {parcial M}{parcial y}}={frac {parcial N}{parcial x}}}Integrar en todo.{displaystyle {begin{alineado}F(x,y)&=int ^{x}M(lambda,y),dlambda +int ^{y}Y(lambda),d lambda \&=int ^{y}N(x,lambda),dlambda +int ^{x}X(lambda),dlambda =Cend{alineado}}}dónde{displaystyle Y(y)=N(x,y)-{frac {parcial }{parcial y}}int ^{x}M(lambda,y),dlambda }y{displaystyle X(x)=M(x,y)-{frac {parcial }{parcial x}}int ^{y}N(x,lambda),dlambda }
Diferencial inexacto, primer orden{displaystyle {begin{alineado}M(x,y){frac {dy}{dx}}+N(x,y)&=0\M(x,y),dy+N(x,y),dx&=0end{alineado}}}dónde{displaystyle {frac {parcial M}{parcial x}}neq {frac {parcial N}{parcial y}}}Factor de integración μ (x, y) que satisface{displaystyle {frac {parcial (mu M)}{parcial y}}={frac {parcial (mu N)}{parcial x}}}Si μ (x, y) se puede encontrar de manera adecuada, entonces{displaystyle {begin{alineado}F(x,y)=&int ^{x}mu (lambda,y)M(lambda,y),dlambda +int ^{y} Y(lambda),dlambda \=&int ^{y}mu (x,lambda)N(x,lambda),dlambda +int ^{x}X( lambda),dlambda =Cend{alineado}}}dónde{displaystyle Y(y)=N(x,y)-{frac {parcial }{parcial y}}int ^{x}mu (lambda,y)M(lambda,y),dlambda}y{displaystyle X(x)=M(x,y)-{frac {parcial }{parcial x}}int ^{y}mu (x,lambda)N(x,lambda),dlambda}

Ecuaciones generales de segundo orden

Ecuación diferencialmétodo de soluciónSolución general
Segundo orden, autónomo{displaystyle {frac {d^{2}y}{dx^{2}}}=F(y)}Multiplica ambos lados de la ecuación por 2 dy / dx, sustituye {displaystyle 2{frac {dy}{dx}}{frac {d^{2}y}{dx^{2}}}={frac {d}{dx}}left({frac {dy}{dx}}right)^{2}}y luego integra dos veces.{displaystyle x=pm int ^{y}{frac {dlambda }{sqrt {2int ^{lambda }F(varepsilon),dvarepsilon +C_{1}}} }+C_{2}}

Lineal a las ecuaciones de orden n

Ecuación diferencialmétodo de soluciónSolución general
Coeficientes de función de primer orden, lineales, no homogéneos{displaystyle {frac {dy}{dx}}+P(x)y=Q(x)}Factor de integración:{displaystyle e^{int ^{x}P(lambda),dlambda }.}Fórmula de armadura:{displaystyle y=e^{-int ^{x}P(lambda),dlambda }left[int ^{x}e^{int ^{lambda }P(varepsilon) ,dvarepsilon }Q(lambda),dlambda +Cright]}
Coeficientes de función de segundo orden, lineales, no homogéneos{displaystyle {frac {d^{2}y}{dx^{2}}}+2p(x){frac {dy}{dx}}+left(p(x)^{2}+ p'(x)derecha)y=q(x)}Factor de integración:e^{int^{x}P(lambda),dlambda}{displaystyle y=e^{-int ^{x}P(lambda),dlambda }left[int ^{x}left(int ^{xi }e^{int ^{lambda }P(varepsilon),dvarepsilon }Q(lambda),dlambda right)dxi +C_{1}x+C_{2}right]}
Coeficientes constantes, no homogéneos, lineales de segundo orden{displaystyle {frac {d^{2}y}{dx^{2}}}+b{frac {dy}{dx}}+cy=r(x)}Función complementaria y c: suponga y c = e, sustituya y resuelva el polinomio en α, para encontrar las funciones linealmente independientes e^{alfa _{j}x}.Integral particular y p: en general el método de variación de parámetros, aunque para muy simple r (x) la inspección puede funcionar.{displaystyle y=y_{c}+y_{p}}Si b > 4 c, entonces{displaystyle y_{c}=C_{1}e^{-{frac {x}{2}},left(b+{sqrt {b^{2}-4c}}right)}+ C_{2}e^{-{frac {x}{2}},left(b-{sqrt {b^{2}-4c}}right)}}Si b = 4 c, entonces{displaystyle y_{c}=(C_{1}x+C_{2})e^{-{frac {bx}{2}}}}Si b < 4 c, entonces{displaystyle y_{c}=e^{-{frac {bx}{2}}}left[C_{1}sin left(x,{frac {sqrt {4c-b^{ 2}}}{2}}right)+C_{2}cos left(x,{frac {sqrt {4c-b^{2}}}{2}}right)right] }
Coeficientes constantes, no homogéneos, lineales de n -ésimo orden{displaystyle sum _{j=0}^{n}b_{j}{frac {d^{j}y}{dx^{j}}}=r(x)}Función complementaria y c: suponga y c = e, sustituya y resuelva el polinomio en α, para encontrar las funciones linealmente independientes e^{alfa _{j}x}.Integral particular y p: en general el método de variación de parámetros, aunque para muy simple r (x) la inspección puede funcionar.{displaystyle y=y_{c}+y_{p}}Como α j son las soluciones del polinomio de grado n: {estilo de texto prod _{j=1}^{n}(alpha -alpha _{j})=0}, entonces: para α j todas diferentes,{displaystyle y_{c}=sum_{j=1}^{n}C_{j}e^{alpha_{j}x}}para cada raíz α j repetida k j veces,{displaystyle y_{c}=sum_{j=1}^{n}left(sum_{ell =1}^{k_{j}}C_{j,ell }x^{ ell -1}right)e^{alpha _{j}x}}para algún complejo α j, luego haciendo α = χ j ​​+ j, y usando la fórmula de Euler, permite que algunos términos en los resultados anteriores se escriban en la forma{displaystyle C_{j}e^{alpha _{j}x}=C_{j}e^{chi _{j}x}cos(gamma _{j}x+varphi _{j})}donde ϕ j es una constante arbitraria (cambio de fase).

El método de adivinanzas

Cuando fallan todos los demás métodos para resolver una ODE, o en los casos en los que tenemos cierta intuición sobre cómo podría ser la solución de una ED, a veces es posible resolver una ED simplemente adivinando la solución y validándola como correcta. Para usar este método, simplemente adivinamos una solución para la ecuación diferencial y luego reemplazamos la solución en la ecuación diferencial para validar si satisface la ecuación. Si es así, entonces tenemos una solución particular para el DE, de lo contrario, comenzamos de nuevo e intentamos otra suposición. Por ejemplo, podríamos suponer que la solución a una ED tiene la forma: {displaystyle y=Ae^{alpha t}}ya que esta es una solución muy común que físicamente se comporta de forma sinusoidal.

En el caso de una ODE de primer orden que no es homogénea, primero debemos encontrar una solución de ED para la porción homogénea de la ED, también conocida como la ecuación característica, y luego encontrar una solución para toda la ecuación no homogénea adivinando. Finalmente, sumamos ambas soluciones para obtener la solución total de la EDO, es decir:

{displaystyle {text{solución total}}={text{solución homogénea}}+{text{solución particular}}}

Software para resolver ODE

  • Maxima, un sistema de álgebra computacional de código abierto.
  • COPASI, un paquete de software libre (Licencia Artística 2.0) para la integración y análisis de ODEs.
  • MATLAB, una aplicación informática técnica (MATrix LABoratory)
  • GNU Octave, un lenguaje de alto nivel, destinado principalmente a cálculos numéricos.
  • Scilab, una aplicación de código abierto para computación numérica.
  • Maple, una aplicación propietaria para cálculos simbólicos.
  • Mathematica, una aplicación propietaria destinada principalmente a cálculos simbólicos.
  • SymPy, un paquete de Python que puede resolver ODE simbólicamente
  • Julia (lenguaje de programación), un lenguaje de alto nivel destinado principalmente a cálculos numéricos.
  • SageMath, una aplicación de código abierto que utiliza una sintaxis similar a Python con una amplia gama de capacidades que abarcan varias ramas de las matemáticas.
  • SciPy, un paquete de Python que incluye un módulo de integración ODE.
  • Chebfun, un paquete de código abierto, escrito en MATLAB, para computación con funciones con una precisión de 15 dígitos.
  • GNU R, un entorno computacional de código abierto destinado principalmente a las estadísticas, que incluye paquetes para resolver ODE.

Contenido relacionado

Función recursiva primitiva

Matriz de Toeplitz

En álgebra lineal, una matriz de Toeplitz o matriz de constantes diagonales, llamada así por Otto Toeplitz, es una matriz en la que cada diagonal...

Décimo problema de Hilbert

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save