Diferencia finita

Ajustar Compartir Imprimir Citar
Discreta analógico de un derivado

Una diferencia finita es una expresión matemática de la forma f (x + b) − f (x + a). Si una diferencia finita se divide por ba, se obtiene un cociente de diferencia. La aproximación de derivadas por diferencias finitas juega un papel central en los métodos de diferencias finitas para la solución numérica de ecuaciones diferenciales, especialmente problemas de valores en la frontera.

El operador de la diferencia, comúnmente denotado Δ Δ {displaystyle Delta } es el operador que mapea una función f a la función Δ Δ [f]{displaystyle Delta [f]} definidas por

Δ Δ [f]()x)=f()x+1)− − f()x).{displaystyle Delta [f](x)=f(x+1)-f(x). }

Una ecuación en diferencias es una ecuación funcional que involucra el operador de diferencias finitas de la misma manera que una ecuación diferencial involucra derivadas. Hay muchas similitudes entre las ecuaciones en diferencias y las ecuaciones diferenciales, especialmente en los métodos de resolución. Ciertas relaciones de recurrencia se pueden escribir como ecuaciones en diferencias reemplazando la notación de iteración con diferencias finitas.

En el análisis numérico, las diferencias finitas se usan mucho para aproximar derivadas, y el término "diferencia finita" se utiliza a menudo como una abreviatura de "aproximación de derivadas en diferencias finitas". Las aproximaciones de diferencias finitas son cocientes de diferencias finitas en la terminología empleada anteriormente.

Brook Taylor introdujo las diferencias finitas en 1715 y también se han estudiado como objetos matemáticos autónomos abstractos en obras de George Boole (1860), L. M. Milne-Thomson (1933) y Károly Jordan [de] (1939). Las diferencias finitas tienen su origen en uno de los algoritmos de Jost Bürgi (c. 1592) y el trabajo de otros, incluido Isaac Newton. El cálculo formal de diferencias finitas puede verse como una alternativa al cálculo de infinitesimales.

Tipos básicos

Los tres tipos de diferencias finitas. La diferencia central x da la mejor aproximación del derivado de la función a x.

Comúnmente se consideran tres tipos básicos: diferencias finitas hacia delante, hacia atrás y central.

A diferencia de futuro, denotado Δ Δ h[f],{displaystyle Delta _{h}[f],} de una función f es una función definida

Δ Δ h[f]()x)=f()x+h)− − f()x).{displaystyle Delta _{h}[f](x)=f(x+h)-f(x). }

Dependiendo de la aplicación, el espaciado h puede ser variable o constante. Cuando se omite, h se toma como 1; es decir,

Δ Δ [f]()x)=Δ Δ 1[f]()x)=f()x+1)− − f()x).{displaystyle Delta [f](x)=Delta _{1}[f](x)=f(x+1)-f(x). }

Una diferencia hacia atrás usa los valores de función en x y xh, en lugar de los valores en x + h y x:

Silencio Silencio h[f]()x)=f()x)− − f()x− − h)=Δ Δ h[f]()x− − h).{displaystyle nabla _{h}[f](x)=f(x)-f(x-h)=Delta _{h}[f](x-h). }

Finalmente, la diferencia central viene dada por

δ δ h[f]()x)=f()x+h2)− − f()x− − h2)=Δ Δ h/2[f]()x)+Silencio Silencio h/2[f]()x).{displaystyle delta _{h}[f](x)=f(x+{tfrac {h}{2}})-f(x-{tfrac {h}{2})=Delta _{h/2}[f](x)+nabla _{h/2}[f](x). }

Relación con derivados

La diferencia finita se usa a menudo como una aproximación de la derivada, típicamente en la diferenciación numérica.

La derivada de una función f en un punto x está definida por el límite.

f.()x)=limh→ → 0f()x+h)− − f()x)h.{displaystyle f'(x)=lim _{hto 0}{frac {f(x+h)-f(x)}{h}}}

Si h tiene un valor fijo (distinto de cero) en lugar de acercarse a cero, entonces el lado derecho de la la ecuación anterior se escribiría

f()x+h)− − f()x)h=Δ Δ h[f]()x)h.{displaystyle {frac {f(x+h)-f(x)}{h}={frac {Delta _{h}[f](x)}{h}}}}

Por lo tanto, la diferencia directa dividida por h se aproxima a la derivada cuando h es pequeño. El error en esta aproximación se puede derivar del teorema de Taylor. Suponiendo que f es dos veces diferenciable, tenemos

Δ Δ h[f]()x)h− − f.()x)=O()h)→ → 0comoh→ → 0.{displaystyle {frac {Delta _{h}[f]}{h}-f'(x)=O(h)to 0quad {text{as }hto 0.}

La misma fórmula vale para la diferencia hacia atrás:

Silencio Silencio h[f]()x)h− − f.()x)=O()h)→ → 0comoh→ → 0.{displaystyle {frac {nabla _{h}[f]}{h}-f'(x)=O(h)to 0quad {text{as }hto 0.}

Sin embargo, la diferencia central (también llamada centrada) produce una aproximación más precisa. Si f es tres veces diferenciable,

δ δ h[f]()x)h− − f.()x)=O()h2).{displaystyle {frac {delta _{h}[f](x)} {h}-f'(x)=Oleft(h^{2}right). }

Sin embargo, el problema principal con el método de la diferencia central es que las funciones oscilantes pueden producir derivada cero. Si f (nh) = 1 para n impar, y f (nh) = 2 para n incluso, entonces f ′(nh) = 0 si se calcula con el esquema de diferencia central. Esto es particularmente problemático si el dominio de f es discreto. Ver también Derivada simétrica

Los autores para quienes diferencias finitas significan aproximaciones de diferencias finitas definen las diferencias hacia adelante/hacia atrás/centrales como los cocientes dados en esta sección (en lugar de emplear las definiciones dadas en la sección anterior).

Diferencias de orden superior

De manera análoga, se pueden obtener aproximaciones en diferencias finitas a derivadas de orden superior y operadores diferenciales. Por ejemplo, usando la fórmula de diferencia central anterior para f ′(x + h/2 ) y f ′(xh/2) y aplicando una fórmula de diferencia central para la derivada de f ′ en x, obtenemos la aproximación en diferencia central de la segunda derivada de f:

Central de segundo orden
f.()x).. δ δ h2[f]()x)h2=f()x+h)− − f()x)h− − f()x)− − f()x− − h)hh=f()x+h)− − 2f()x)+f()x− − h)h2.{f} {f} {f} {f}} {f}} {f} {f}} {f} {f}} {f}}} {f} {f} {f} {f} {f} {f}}} {f}} {f}}} {f} {f}}} {f}}}}} {f}f}}} {f}}}} {f}}}}}} {f}} {f} {f}}}}} {f}}} {f}}} {f}f}}}}}}} {f}f}}}}f} {f}f} {f}}}} {f}f}}} {f}}}f}f}}}f}}}}f}}}f}f}}f}f}f}f}}}}}}}}}

Del mismo modo, podemos aplicar otras fórmulas de diferenciación de forma recursiva.

Segundo orden
f.()x).. Δ Δ h2[f]()x)h2=f()x+2h)− − f()x+h)h− − f()x+h)− − f()x)hh=f()x+2h)− − 2f()x+h)+f()x)h2.{f} {f} {f} {f}} {f}} {f}} {f}} {f}} {f} {f}}} {f} {f} {f} {f} {f} {f}} {f}} {f}}}} {f}}} {f}}}} {f}} {f}}}}} {f}}}}}}}}}} {h}} {f}}}} {f}}}}}} {h}}}} {f}}}}} {f} {f}} {f}}}}}} {f}}} {h} {h}}}}}}}}}} {h} {h}} {h}}} {f}}}}}} {f}} {f}}} {f}}}} {f}}}}}}}}}} {h}}}}}}
Segundo orden al revés
f.()x).. Silencio Silencio h2[f]()x)h2=f()x)− − f()x− − h)h− − f()x− − h)− − f()x− − 2h)hh=f()x)− − 2f()x− − h)+f()x− − 2h)h2.{f} {f} {f} {f}} {f}} {f} {f} {f} {f}} {f} {f}} {f} {f} {f} {f}} {f}} {f} {f} {f}}} {f} {f} {f}}}} {f} {f}}}} {f}}}} {f}f}}}} {f}}} {f}}}}}} {f}} {f} {f}}}}f}}}}f}}} {f}f}}f}} {f}}} {f} {f} {f}}}} {f} {f}}f}}}}}f}}}}}}}}}}f} {f}f}}}}f}f}}}}}}}}

De forma más general, las diferencias de nésimo orden adelante, atrás y central están dadas por, respectivamente,

Adelante
Δ Δ hn[f]()x)=.. i=0n()− − 1)n− − i()ni)f()x+ih),{displaystyle Delta _{h}{n}[f](x)=sum _{i=0}^{n}(-1)^{n-i}{binom {f}f{bigl (}x+ih{bigr)}

o para h = 1,

Δ Δ n[f]()x)=.. i=0n()ni)()− − 1)n− − if()x+i){displaystyle Delta ^{n}[f](x)=sum ¿Por qué?
Atrás
Silencio Silencio hn[f]()x)=.. i=0n()− − 1)i()ni)f()x− − ih),{displaystyle nabla _{h}{n}[f]=sum _{i=0}^{n}(-1)^{i}{i}{n}{i}f(x-ih),}
Central
δ δ hn[f]()x)=.. i=0n()− − 1)i()ni)f()x+()n2− − i)h).{displaystyle delta _{h}{n}[f]=sum _{i=0}^{n}(-1)^{i}{i}{n}{i}}fleft(x+left) {n}{2}-iright)hright).}

Estas ecuaciones usan coeficientes binomiales después del signo de suma que se muestra como (n
i
)
. Cada fila del triángulo de Pascal proporciona el coeficiente para cada valor de i.

Tenga en cuenta que la diferencia central, para impar n, tendrá h multiplicado por números no enteros. Esto suele ser un problema porque equivale a cambiar el intervalo de discretización. El problema se puede remediar tomando el promedio de δn[ f ](xh/2) y δn[ f ](x + h/2).

Las diferencias directas aplicadas a una secuencia a veces se denominan transformadas binomiales de la secuencia y tienen varias propiedades combinatorias interesantes. Las diferencias directas pueden evaluarse mediante la integral de Nörlund-Rice. La representación integral para este tipo de series es interesante, porque la integral a menudo se puede evaluar utilizando técnicas de expansión asintótica o de punto de silla; por el contrario, la serie de diferencia directa puede ser extremadamente difícil de evaluar numéricamente, porque los coeficientes binomiales crecen rápidamente para grandes n.

La relación de estas diferencias de orden superior con las respectivas derivadas es sencilla,

dnfdxn()x)=Δ Δ hn[f]()x)hn+O()h)=Silencio Silencio hn[f]()x)hn+O()h)=δ δ hn[f]()x)hn+O()h2).{fn} {fn} {fn} {fn}} {f}} {fn}} {f} {f} {f}} {f}} {f}} {f} {f}} {f} {f} {f}} {f}} {f}f}}} {f}}}} {f}}}}}}}} {f}}}}} {f}} {f} {f}}}}}}}}}}}} {f}} {f} {f}}} {f}}}}}}}}}} {f} {f}}}} {f}}}}}} {f}}} {f}}}} {f} {f}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f}}}} Oleft(h^{2}right). }

Las diferencias de orden superior también se pueden usar para construir mejores aproximaciones. Como se mencionó anteriormente, la diferencia de primer orden se aproxima a la derivada de primer orden hasta un término de orden h. Sin embargo, la combinación

Δ Δ h[f]()x)− − 12Δ Δ h2[f]()x)h=− − f()x+2h)− − 4f()x+h)+3f()x)2h{displaystyle {frac {Delta _{h}[f](x)-{frac {1}{2}}Delta _{h}{2}[f](x)}{h}=-{frac {f(x+2h)-4f(x+h)+3f(x)}{2h}}}}}}} {2h}}}}}}}

aproxima f ′(x) hasta un plazo de pedido h2. Esto se puede probar expandiendo la expresión anterior en series de Taylor, o usando el cálculo de diferencias finitas, que se explica a continuación.

Si es necesario, la diferencia finita se puede centrar en cualquier punto mezclando diferencias hacia adelante, hacia atrás y centrales.

Polinomios

Para un polinomio dado de grado n ≥ 1, expresado en la función P(x), con números reales a ≠ 0 y b y términos de orden inferior (si los hay) marcados como l.o.t.:

P()x)=axn+bxn− − 1+l.o.t.{displaystyle P(x)=ax^{n}+bx^{n-1}+l.o.t.}

Después de n diferencias por pares, se puede lograr el siguiente resultado, donde h ≠ 0 es un número real que marca la diferencia aritmética:

Δ Δ hn[P]()x)=ahnn!{displaystyle Delta _{n}[P](x)=ah^{n}n!

Solo queda el coeficiente del término de mayor orden. Como este resultado es constante con respecto a x, cualquier otra diferencia por pares tendrá el valor 0.

Prueba inductiva

Caso base

Sea Q(x) un polinomio de grado 1:

Δ Δ h[Q]()x)=Q()x+h)− − Q()x)=[a()x+h)+b]− − [ax+b]=ah=ah11!{displaystyle Delta _{h}[Q](x)=Q(x+h)-Q(x)=[a(x+h)+b] - [ax+b]=ah=ah^{1}1}

Esto lo prueba para el caso base.

Estuche escalonado

Sea R(x) un polinomio de grado m-1 donde m ≥ 2 y el coeficiente del término de mayor orden es a ≠ 0. Suponiendo que lo siguiente sea cierto para todos los polinomios de grado m-1:

Δ Δ hm− − 1[R]()x)=ahm− − 1()m− − 1)!{displaystyle Delta _{h}{m-1}[R](x)=ah^{m-1}(m-1)}

Sea S(x) un polinomio de grado m. Con una diferencia por pares:

Δ Δ h[S]()x)=[a()x+h)m+b()x+h)m− − 1+l.o.t.]− − [axm+bxm− − 1+l.o.t.]=ahmxm− − 1+l.o.t.=T()x){displaystyle Delta _{h}[S](x)=[a(x+h)^{m}+b(x+h)^{m-1}+l.o.t.] - [ax^{m}+bx^{m-1}+l.o.t.]=ahmx^{m-1}+l.o.t=T(x)}

Como ahm ≠ 0, esto da como resultado un polinomio T(x) de grado m-1, con ahm como el coeficiente del término de mayor orden. Dada la suposición anterior y m-1 diferencias por pares (lo que da como resultado un total de m diferencias por pares para S(x)), se puede encontrar que:

Δ Δ hm− − 1[T]()x)=ahm⋅ ⋅ hm− − 1()m− − 1)!=ahmm!{displaystyle Delta _{h}{m-1}[T](x)=ahmcdot h^{m-1}(m-1)=ah^{m}m!}

Esto completa la prueba.

Solicitud

Esta identidad se puede usar para encontrar el polinomio de menor grado que intercepta un número de puntos (x, y) donde la diferencia en el eje x de un punto a la siguiente es una constante h ≠ 0. Por ejemplo, dados los siguientes puntos:

xSí.
14
4109
7772
102641
136364

Podemos usar una tabla de diferencias, donde todas las celdas a la derecha de la primera y, la siguiente relación con las celdas en la columna inmediatamente a la izquierda existe para una celda (a+1, b+1), con la celda superior izquierda en la coordenada (0, 0):

()a+1,b+1)=()a,b)− − ()a,b+1){displaystyle (a+1,b+1)=(a,b)-(a,b+1)}

Para encontrar el primer término, se puede usar la siguiente tabla:

xSí.ΔyΔ2Sí.Δ3Sí.
1 4
4 109105
7 772663558
10 264118691206648
13 636437231854648

Esto llega a una constante 648. La diferencia aritmética es h=3, como se estableció anteriormente. Dada la cantidad de diferencias por pares necesarias para alcanzar la constante, se puede suponer que se trata de un polinomio de grado 3. Por lo tanto, usando la identidad anterior:

648=a⋅ ⋅ 33⋅ ⋅ 3!=a⋅ ⋅ 27⋅ ⋅ 6=a⋅ ⋅ 162{displaystyle 648=acdot 3}cdot 3!=acdot 27cdot 6=acdot 162}

Resolviendo para a, se puede encontrar que tiene el valor 4. Por lo tanto, el primer término del polinomio es 4x3.

Luego, restando el primer término, que reduce el grado del polinomio, y volviendo a encontrar la diferencia finita:

xSí.ΔyΔ2Sí.
1 4 a 4 1)3 = 4 - 4 = 0
4 109 - 4(4)3 = 109 - 256 = -147-147
7 772 - 4(7)3 = 772 - 1372 = -600-453-306
10 2641 - 4(10)3 = 2641 - 4000 = -1359-759-306
13 6364 - 4(13)3 = 6364 - 8788 = -2424-1065-306

Aquí, la constante se logra después de solo 2 diferencias por pares, por lo tanto, el siguiente resultado:

− − 306=a⋅ ⋅ 32⋅ ⋅ 2!=a⋅ ⋅ 18{displaystyle -306=acdot 3^{2}cdot 2!=acdot 18}

Resolviendo a, que es -17, el segundo término del polinomio es -17x2.

Pasando al siguiente término, restando el segundo término:

xSí.Δy
1 0 - (-17 1)2) = 0 + 17 = 17
4 -147 - (-17(4)2) = -147 + 272 = 125108
7 -600 - (-17(7)2) = -600 + 833 = 233 108
10 -1359 - (-17(10)2) = -1359 + 1700 = 341 108
13 -2424 - (-17(13)2) = -2424 + 2873 = 449 108

Por lo tanto, la constante se logra después de solo 1 diferencia por pares:

108=a⋅ ⋅ 31⋅ ⋅ 1!=a⋅ ⋅ 3{displaystyle 108=acdot 3^{1}cdot 1!=acdot 3}

Se puede encontrar que a = 36 y por lo tanto el tercer término del polinomio es 36x. Restando el tercer término:

xSí.
1 17 - 36(1) = 17 - 36 = -19
4 125 - 36(4) = 125 - 144 = -19
7 233 - 36(7) = 233 - 252 = -19
10 341 - 36(10) = 341 - 360 = -19
13 449 – 36(13) = 449 – 468 = –19

Sin ninguna diferencia por pares, se encuentra que el cuarto y último término del polinomio es la constante -19. Por lo tanto, se encuentra el polinomio de grado más bajo que intercepta todos los puntos en la primera tabla:

4x3− − 17x2+36x− − 19{displaystyle 4x^{3}-17x^{2}+36x-19}

Núcleos de tamaño arbitrario

Usando álgebra lineal, se pueden construir aproximaciones de diferencias finitas que utilizan un número arbitrario de puntos a la izquierda y un número (posiblemente diferente) de puntos a la derecha del punto de evaluación, para cualquier orden derivado. Esto implica resolver un sistema lineal tal que la expansión de Taylor de la suma de esos puntos alrededor del punto de evaluación se aproxime mejor a la expansión de Taylor de la derivada deseada. Estas fórmulas se pueden representar gráficamente en una cuadrícula hexagonal o en forma de diamante.

Esto es útil para diferenciar una función en una cuadrícula, donde, a medida que uno se acerca al borde de la cuadrícula, debe muestrear cada vez menos puntos en un lado.

Los detalles se describen en estas notas.

La calculadora de coeficientes de diferencia finita construye aproximaciones de diferencia finita para plantillas no estándar (e incluso no enteras) dada una plantilla arbitraria y un orden derivado deseado.

Propiedades

En ecuaciones diferenciales

Una aplicación importante de las diferencias finitas es el análisis numérico, especialmente en las ecuaciones diferenciales numéricas, cuyo objetivo es la solución numérica de las ecuaciones diferenciales ordinarias y parciales. La idea es reemplazar las derivadas que aparecen en la ecuación diferencial por diferencias finitas que las aproximen. Los métodos resultantes se denominan métodos de diferencias finitas.

Las aplicaciones comunes del método de diferencias finitas se encuentran en disciplinas de ingeniería y ciencia computacional, como ingeniería térmica, mecánica de fluidos, etc.

Serie de Newton

La serie de Newton consta de los términos de la ecuación de diferencia directa de Newton, llamada así por Isaac Newton; en esencia, es la fórmula de interpolación de Newton, publicada por primera vez en su Principia Mathematica en 1687, es decir, el análogo discreto de la expansión continua de Taylor,

f()x)=.. k=0JUEGO JUEGO Δ Δ k[f]()a)k!()x− − a)k=.. k=0JUEGO JUEGO ()x− − ak)Δ Δ k[f]()a),{displaystyle f(x)=sum _{k=0}{infty }{frac [Delta ^{k](f] {k!},(x-a)_{k}=sum ¿Qué? } {binom {x-a}{k}, Delta.

que tiene para cualquier función polinomio f y para muchas (pero no todas) funciones analíticas. (No se mantiene cuando f es el tipo exponencial π π {displaystyle pi}. Esto se ve fácilmente, ya que la función sine desaparece en múltiples enteros π π {displaystyle pi}; la correspondiente serie Newton es idénticamente cero, ya que todas las diferencias finitas son cero en este caso. Sin embargo, claramente, la función sine no es cero.) Aquí, la expresión

()xk)=()x)kk!{displaystyle {binom {x}}={frac {(x)_{k}}}}}}}

es el coeficiente binomial, y

()x)k=x()x− − 1)()x− − 2)⋯ ⋯ ()x− − k+1){displaystyle (x)_{k}=x(x-1)(x-2)cdots (x-k+1)}

es el "factorial descendente" o "factorial inferior", mientras que el producto vacío (x)0 se define como 1 En este caso particular, se asumen pasos unitarios para los cambios en los valores de x, h = 1 de la generalización a continuación.

Observe la correspondencia formal de este resultado con el teorema de Taylor. Históricamente, esto, así como la identidad Chu-Vandermonde,

()x+Sí.)n=.. k=0n()nk)()x)n− − k()Sí.)k,{displaystyle (x+y)_{n}=sum ¿Qué? ¿Qué?

(siguiendo de ello, y correspondientes al teorema del binomio), se incluyen en las observaciones que maduraron al sistema de cálculo umbral.

Las expansiones de la serie de Newton pueden ser superiores a las expansiones de la serie de Taylor cuando se aplican a cantidades discretas como espines cuánticos (consulte la transformación de Holstein-Primakoff), funciones de operadores bosónicos o estadísticas de conteo discretas.

Para ilustrar cómo se puede usar la fórmula de Newton en la práctica real, considere los primeros términos de la duplicación de la secuencia de Fibonacci f = 2, 2, 4,... Se puede encontrar un polinomio que reproduzca estos valores, primero calculando una tabla de diferencias y luego sustituyendo las diferencias que corresponden a x 0 (subrayado) en la fórmula de la siguiente manera,

xf=Δ Δ 0Δ Δ 1Δ Δ 212¿Qué? ¿Qué? 0¿Qué? ¿Qué? 222¿Qué? ¿Qué? 234f()x)=Δ Δ 0⋅ ⋅ 1+Δ Δ 1⋅ ⋅ ()x− − x0)11!+Δ Δ 2⋅ ⋅ ()x− − x0)22!()x0=1)=2⋅ ⋅ 1+0⋅ ⋅ x− − 11+2⋅ ⋅ ()x− − 1)()x− − 2)2=2+()x− − 1)()x− − 2){displaystyle {begin{begin{}{begin{array}{/hline} xf=Delta ################################################################################################################################################################################################################################################################ {0}} {0}}\2}\cHline end{array}}}\cnciped {aligned}f(x) limit=Delta ^{0}cdot 1+Delta ^{1}cdot {dfrac {(x-x_{0}}{1}}}}+ ¡Delta! (x_{0}=1)\\\\\cdot 1+0cdot {dfrac {x-1}{1}}2cdot {dfrac {(x-1)(x-2)}{2}\\\\\\\\\\\\\\\\\=2+(x-1)(x-2)\end{aligned}}end{matrix}}}}}}}}}}}}}}}}}}}}}}}}}cdot}}cdot}cdot}cdot}cdot}cdot}cdot {cdot {cdot}}}}cdot {cdotcdot {cdot {cdot {cdot {cdot {cdot {cdot {cdot {cdot {cdot {cdot {cdot {cdot {cdot {cdot {cdot {

Para el caso de pasos no uniformes en los valores de x, Newton calcula las diferencias divididas,

0,;jleq max left(jright)-kright},qquad Delta 0_{k}=Delta _{0,k}}" xmlns="http://www.w3.org/1998/Math/MathML">Δ Δ j,0=Sí.j,Δ Δ j,k=Δ Δ j+1,k− − 1− − Δ Δ j,k− − 1xj+k− − xj∋ ∋ {}k■0,j≤ ≤ max()j)− − k},Δ Δ 0k=Δ Δ 0,k{displaystyle Delta # {j,0}=y_{j},qquad Delta _{j,k}={frac {Delta _{j+1,k-1}- Delta - ¿Qué? ni quad left{k contactos0,;jleq max left(jright)-kright},qquad Delta 0_{k}= Delta _{0,k}0,;jleq max left(jright)-kright},qquad Delta 0_{k}=Delta _{0,k}}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/2bef477a7406a826cc4971124c9d6d392521f01d" style="vertical-align: -2.505ex; width:90.713ex; height:6.343ex;"/>

la serie de productos,

P0=1,Pk+1=Pk⋅ ⋅ ().. − − xk),{displaystyle {P_{0}=1,quad quad P_{k+1}=P_{k}cdot left(xi -x_{k}right),}

y el polinomio resultante es el producto escalar,

f().. )=Δ Δ 0⋅ ⋅ P().. ){displaystyle f(xi)=Delta 0cdot Pleft(xi right)}.

En el análisis con números p-ádicos, el teorema de Mahler establece que la suposición de que f es una función polinomial puede debilitarse hasta asumir que f es simplemente continua.

El teorema de Carlson proporciona las condiciones necesarias y suficientes para que una serie de Newton sea única, si existe. Sin embargo, una serie de Newton, en general, no existe.

La serie de Newton, junto con la serie de Stirling y la serie de Selberg, es un caso especial de la serie de diferencias generales, todas las cuales se definen en términos de diferencias progresivas adecuadamente escaladas.

En una forma comprimida y un poco más general y con nodos equidistantes, la fórmula dice

f()x)=.. k=0()x− − ahk).. j=0k()− − 1)k− − j()kj)f()a+jh).{displaystyle f(x)=sum _{k=0}{binom {frac {x-a}{h}}sum _{j=0} {k}(-1)^{k-j}{binom {k}{j}}f(a+jh).}

Cálculo de diferencias finitas

La diferencia directa se puede considerar como un operador, llamado operador de diferencia, que asigna la función f a Δh[ f ]. Este operador equivale a

Δ Δ h=Th− − I,{displaystyle Delta Yo...

donde Th es el operador de desplazamiento con paso h, definido por Th[ f ](x) = f (x + h), y estilo I es el operador de identidad.

La diferencia finita de órdenes superiores se puede definir de forma recursiva como Δ n
h
≡ Δhn − 1
h). Otra definición equivalente es Δn
h
= [ThI]n
.

El operador diferencia Δh es un operador lineal, como tal satisface Δh[αf + βg](x) = α Δh[ f ](x) + β Δh[g](x).

También cumple una regla especial de Leibniz indicada anteriormente, Δh(f (x)g(x)) = (Δhf (x)) g(x+h) + f (x) (Δ hg(x)). Declaraciones similares valen para las diferencias hacia atrás y central.

Aplicando formalmente la serie de Taylor con respecto a h, se obtiene la fórmula

Δ Δ h=hD+12!h2D2+13!h3D3+⋯ ⋯ =ehD− − I,{displaystyle Delta ¿Qué? {1}{2}h^{2}D^{2}+{frac {1}{3}h^{3}D^{3}+cdots - No.

donde D denota el operador derivado continuo, mapeando f a su derivada f ′. La expansión es válida cuando ambos lados actúan sobre funciones analíticas, para h suficientemente pequeñas. Por lo tanto, Th = ehD, e invirtiendo formalmente los rendimientos exponenciales

hD=log⁡ ⁡ ()1+Δ Δ h)=Δ Δ h− − 12Δ Δ h2+13Δ Δ h3− − ⋯ ⋯ .{displaystyle hD=log(1+Delta _{h}=Delta _{h}-{tfrac {1}{2}Delta ¿Qué? {1}{3}Delta ¿Qué?

Esta fórmula se cumple en el sentido de que ambos operadores dan el mismo resultado cuando se aplican a un polinomio.

Incluso para las funciones analíticas, no se garantiza que la serie de la derecha converja; puede ser una serie asintótica. Sin embargo, se puede utilizar para obtener aproximaciones más precisas de la derivada. Por ejemplo, conservar los dos primeros términos de la serie produce la aproximación de segundo orden a f ′(x) mencionado al final de la sección Diferencias de orden superior.

Las fórmulas análogas para los operadores de diferencia hacia atrás y central son

hD=− − log⁡ ⁡ ()1− − Silencio Silencio h)yhD=2arsinh⁡ ⁡ ()12δ δ h).{displaystyle hD=-log(1-nabla _{h}quad {text{and}quad hD=2operatorname {arsinh} left({tfrac {1}{2}delta _{h}right). }

El cálculo de diferencias finitas está relacionado con el cálculo umbral de la combinatoria. Esta correspondencia notablemente sistemática se debe a la identidad de los conmutadores de las cantidades umbral con sus análogos continuos (h → 0 límites),

[Δ Δ hh,xTh− − 1]=[D,x]=I.{displaystyle left[{frac {Delta [D,x]=I.

Un gran número de relaciones diferenciales formales de cálculo estándar que implican funciones f (x) por lo tanto se asignan sistemáticamente a análogos de diferencia finita umbral que involucran f (xT−1
h
)
.

Por ejemplo, el análogo umbral de un monomio xn es una generalización de lo anterior factorial descendente (símbolo k de Pochhammer),

()x)n↑ ↑ ()xTh− − 1)n=x()x− − h)()x− − 2h)⋯ ⋯ ()x− − ()n− − 1)h),{displaystyle ~(x)_{n}equiv left(xT_{h}{-1}right)^{n}=x(x-h)(x-2h)cdots {bigl (}x-(n-1)h{bigr)}}}}

para que

Δ Δ hh()x)n=n()x)n− − 1,{displaystyle {frac {Delta ¿Qué?

de ahí la fórmula de interpolación de Newton anterior (haciendo coincidir los coeficientes en la expansión de una función arbitraria f (x) en tales símbolos), y así sucesivamente.

Por ejemplo, el seno umbral es

pecado⁡ ⁡ ()xTh− − 1)=x− − ()x)33!+()x)55!− − ()x)77!+⋯ ⋯ {displaystyle sin left(x,T_{h}{-1}right)=x-{frac {(x)_{3}}{3}}}}}}+{frac {(x)_{5}}}-{frac {(x)_{7}}}}}}{7}}}}+cdots } {} {cdots} {}}}} {cdots}} {cdots}}}}}} {c}}}} {c}} {cdots} {c}}}}}}} {c}}}}}}} {c}}}} {f} {cdots}} {cdots} {cdots}} {cdots} {c}} {c}}}}}}}}}}}}}} {c}}}}}}}}}}} {c}}} {c}

Como en el límite continuo, la función propia de Δh /h también resulta ser exponencial,

Δ Δ hh()1+λ λ h)xh=Δ Δ hheIn⁡ ⁡ ()1+λ λ h)xh=λ λ eIn⁡ ⁡ ()1+λ λ h)xh,{displaystyle {frac {Delta ¿Qué? {x} {h}={frac} {Delta ¿Qué? {x}}=lambda e^{ln(1+lambda h){frac {}}}}

y, por lo tanto, las sumas de Fourier de las funciones continuas se asignan fácilmente a las sumas de Fourier umbral fielmente, es decir, involucran los mismos coeficientes de Fourier que multiplican estos exponenciales de base umbral. Este exponencial umbral equivale así a la función generadora exponencial de los símbolos de Pochhammer.

Así, por ejemplo, la función delta de Dirac se asigna a su correspondiente umbral, la función del seno cardinal,

δ δ ()x)↦ ↦ pecado⁡ ⁡ [π π 2()1+xh)]π π ()x+h),{displaystyle delta (x)mapsto {frac {sin left[{frac {pi {fnMicrosoft Sans Serif} {fnMicroc {x}}}{right)}{pi (x+h)}}}}}}

y así sucesivamente. Las ecuaciones en diferencias a menudo se pueden resolver con técnicas muy similares a las que se usan para resolver ecuaciones diferenciales.

El operador inverso del operador de diferencia directa, entonces la integral umbral, es el operador de suma indefinida o antidiferencia.

Reglas para cálculo de operadores de diferencias finitas

Al igual que las reglas para encontrar la derivada, tenemos:

Δ Δ c=0{displaystyle Delta c=0}
Δ Δ ()af+bg)=aΔ Δ f+bΔ Δ g{displaystyle Delta (af+bg)=a,Delta f+b,Delta g}

Todas las reglas anteriores se aplican igualmente bien a cualquier operador de diferencia, incluido como a Δ.

Δ Δ ()fg)=fΔ Δ g+gΔ Δ f+Δ Δ fΔ Δ gSilencio Silencio ()fg)=fSilencio Silencio g+gSilencio Silencio f− − Silencio Silencio fSilencio Silencio g{displaystyle {begin{aligned}Delta (fg) recur=f,Delta g+g,Delta f+Delta f,Delta g\\nabla (fg) implica=f,nabla g+g,nabla f-nabla f,nabla galigned}
Silencio Silencio ()fg)=1gDet[Silencio Silencio fSilencio Silencio gfg]()Det[gSilencio Silencio g11])− − 1{displaystyle nabla left({frac {f}{g}right)={frac {1}{g}}det {begin{bmatrix}nabla f limitnabla gf recíprocagend{bmatrix}}det {begin{bmatrix}g}g {nablablablablabla] g11⁄41end{bmatrix}right)}{-1}
o
Silencio Silencio ()fg)=gSilencio Silencio f− − fSilencio Silencio gg⋅ ⋅ ()g− − Silencio Silencio g){displaystyle nabla left({frac {f}{g}right)={frac {g,nabla f,nabla g}{gcdot (g-nabla g)}}}
.. n=abΔ Δ f()n)=f()b+1)− − f()a).. n=abSilencio Silencio f()n)=f()b)− − f()a− − 1){displaystyle {begin{aligned}sum _{n=a}{b}Delta f(n) limit=f(b+1)-f(a)\sum _{n=a}b}nabla f(n) limit=f(b)-f(a-1)end{aligned}}}}}}

Ver referencias.

Generalizaciones

Diferencias finitas multivariadas

Se pueden considerar diferencias finitas en más de una variable. Son análogas a las derivadas parciales en varias variables.

Algunas aproximaciones de derivadas parciales son:

fx()x,Sí.).. f()x+h,Sí.)− − f()x− − h,Sí.)2hfSí.()x,Sí.).. f()x,Sí.+k)− − f()x,Sí.− − k)2kfxx()x,Sí.).. f()x+h,Sí.)− − 2f()x,Sí.)+f()x− − h,Sí.)h2fSí.Sí.()x,Sí.).. f()x,Sí.+k)− − 2f()x,Sí.)+f()x,Sí.− − k)k2fxSí.()x,Sí.).. f()x+h,Sí.+k)− − f()x+h,Sí.− − k)− − f()x− − h,Sí.+k)+f()x− − h,Sí.− − k)4hk.################################################################################################################################################################################################################################################################

Alternativamente, para aplicaciones en las que el cálculo de f es el paso más costoso, y tanto la primera como la segunda derivada deben ser calculado, una fórmula más eficiente para el último caso es

fxSí.()x,Sí.).. f()x+h,Sí.+k)− − f()x+h,Sí.)− − f()x,Sí.+k)+2f()x,Sí.)− − f()x− − h,Sí.)− − f()x,Sí.− − k)+f()x− − h,Sí.− − k)2hk,{displaystyle f_{xy}(x,y)approx {frac {f(x+h,y+k)-f(x+h,y)-f(x,y+k)+2f(x,y)-f(x-h,y)-f(x,y-k)+f(x-h,y-k)}{2hk}}}}}

dado que los únicos valores para calcular que no son necesarios para las cuatro ecuaciones anteriores son f (x + h , y + k) y f (xh, yk).