Regla del producto
En el cálculo, la regla de producto (o leibniz o leibniz de la regla del producto ) es una fórmula utilizada para encontrar los derivados de productos de dos o más funciones. Para dos funciones, se puede establecer en la notación de LaGrange como
La regla puede extenderse o generalizarse a productos de tres o más funciones, a una regla para derivadas de orden superior de un producto ya otros contextos.
Descubrimiento
El descubrimiento de esta regla se atribuye a Gottfried Leibniz, quien la demostró usando diferenciales. (Sin embargo, J. M. Child, un traductor de los artículos de Leibniz, argumenta que se debe a Isaac Barrow). Este es el argumento de Leibniz: Sea u(x) y v(x) dos funciones diferenciables de x. Entonces el diferencial de uv es
- d()u⋅ ⋅ v)=()u+du)⋅ ⋅ ()v+dv)− − u⋅ ⋅ v=u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dv.{displaystyle {begin{aligned}d(ucdot v) creciendo {}=(u+du)cdot (v+dv)-ucdot v\\cdot dv+vcdot du+ducdot dv.end{aligned}}}}}}
Dado que el término du·dv es "insignificante" (comparado con du y dv), Leibniz concluyó que
- d()u⋅ ⋅ v)=v⋅ ⋅ du+u⋅ ⋅ dv{displaystyle d(ucdot v)=vcdot du+ucdot dv}
y esta es de hecho la forma diferencial de la regla del producto. Si nos dividimos por el diferencial dx , obtenemos
- ddx()u⋅ ⋅ v)=v⋅ ⋅ dudx+u⋅ ⋅ dvdx{displaystyle {frac {dx}(ucdot v)=vcdot {frac} {} {dx}+ucdot {fnMicroc {dv}{dx}}
que también se puede escribir en la notación de Lagrange como
- ()u⋅ ⋅ v).=v⋅ ⋅ u.+u⋅ ⋅ v..{displaystyle (ucdot v)'=vcdot u'+ucdot v'.}
Ejemplos
- Supongamos que queremos diferenciar f()x) x2 pecado(x). Al utilizar la regla del producto, se obtiene el derivado f.()x) = 2x pecado(x) + x2 Porque...x(desde el derivado de x2 2x y el derivado de la función sine es la función cosine).
- Un caso especial de la regla del producto es la norma múltiple constante, que establece: c es un número y f()x) es una función diferenciable, entonces cf()x) es también diferente, y su derivado es (cf).()x) cf.()x). Esto se deriva de la regla del producto ya que el derivado de cualquier constante es cero. Esto, combinado con la regla sumaria de los derivados, muestra que la diferenciación es lineal.
- La regla para la integración por partes se deriva de la regla del producto, como es (una versión débil de) la regla del cociente. (Es una versión "mojada" en que no prueba que el cociente es diferente, pero sólo dice cuál es su derivativo si es diferente.)
Pruebas
Definición de límite de derivada
Vamos h()x) f()x)g()x) y suponer que f y g son cada diferenciable en x. Queremos probarlo. h es diferente en x y que su derivados, h.()x), se da por f.()x)g()x) + f()x)g.()x). Para hacer esto, f()x)g()x+Δ Δ x)− − f()x)g()x+Δ Δ x){displaystyle f(x)g(x+Delta x)-f(x)g(x+Delta x)} (que es cero, y por lo tanto no cambia el valor) se añade al numerador para permitir su factorización, y luego se utilizan las propiedades de los límites.
- h.()x)=limΔ Δ x→ → 0h()x+Δ Δ x)− − h()x)Δ Δ x=limΔ Δ x→ → 0f()x+Δ Δ x)g()x+Δ Δ x)− − f()x)g()x)Δ Δ x=limΔ Δ x→ → 0f()x+Δ Δ x)g()x+Δ Δ x)− − f()x)g()x+Δ Δ x)+f()x)g()x+Δ Δ x)− − f()x)g()x)Δ Δ x=limΔ Δ x→ → 0[f()x+Δ Δ x)− − f()x)]⋅ ⋅ g()x+Δ Δ x)+f()x)⋅ ⋅ [g()x+Δ Δ x)− − g()x)]Δ Δ x=limΔ Δ x→ → 0f()x+Δ Δ x)− − f()x)Δ Δ x⋅ ⋅ limΔ Δ x→ → 0g()x+Δ Δ x)⏟ ⏟ Véase la nota a continuación.+limΔ Δ x→ → 0f()x)⋅ ⋅ limΔ Δ x→ → 0g()x+Δ Δ x)− − g()x)Δ Δ x=f.()x)g()x)+f()x)g.()x).########
El hecho de que limΔ Δ x→ → 0g()x+Δ Δ x)=g()x){displaystyle lim _{Delta xto 0}g(x+Delta x)=g(x)} sigue el hecho de que las funciones diferenciables son continuas.
Aproximaciones lineales
Por definición, si f,g:R→ → R{displaystyle f,g:mathbb {R} to mathbb {R} son diferentes en x{displaystyle x}, entonces podemos escribir aproximaciones lineales:
Cuartos de cuadrados
Esta prueba utiliza la regla de cadena y la función cuadrada trimestral q()x)=14x2{displaystyle q(x)={4}x^{2} con derivados q.()x)=12x{displaystyle q'(x)={tfrac {1}{2}x}. Tenemos:
- uv=q()u+v)− − q()u− − v),{displaystyle uv=q(u+v)-q(u-v),}
y diferenciando ambos lados da:
- f.=q.()u+v)()u.+v.)− − q.()u− − v)()u.− − v.)=()12()u+v)()u.+v.))− − ()12()u− − v)()u.− − v.))=12()uu.+vu.+uv.+vv.)− − 12()uu.− − vu.− − uv.+vv.)=vu.+uv..{fnMicrosoft Sans Serif}
Regla de la cadena multivariable
La regla del producto puede considerarse un caso especial de la regla de cadena para varias variables, aplicada a la función de multiplicación m()u,v)=uv{displaystyle m(u,v)=uv}:
- d()uv)dx=∂ ∂ ()uv)∂ ∂ ududx+∂ ∂ ()uv)∂ ∂ vdvdx=vdudx+udvdx.{displaystyle {d(uv) over dx}={frac {partial (uv)}{partial u}{frac {fnK} {fnMicroc {fnMicrosoft Sans Serif} {fnMicroc {f}}=v{frac} {f} {fnMicroc}}} {fnMicroc}}}}}=v{f} {f}fnMicroc}} {f} {f}} {f}}}}}}}}}}}f}f}}f}f}f} {f} {f} {f}f}f}f}f}f}f}f}f}}f}f}f}f}f}f}f}f}f}}f}}f}f}}f}f}f}f}f}f}f}f}}fnh}f}f}f}f}f}}}f}fn {}{dx}+u {frac} {dv}{dx}}
Análisis no estándar
Sean u y v funciones continuas en x, y sean dx, du y dv sean infinitesimales en el marco del análisis no estándar, específicamente los números hiperreales. Usando st para denotar la función de parte estándar que asocia a un número hiperreal finito el real infinitamente cercano a él, esto da
- d()uv)dx=st ()()u+du)()v+dv)− − uvdx)=st ()uv+u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dv− − uvdx)=st ()u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dvdx)=st ()udvdx+()v+dv)dudx)=udvdx+vdudx.{displaystyle {begin{aligned}{frac {d(uv)}{dx} {=operatorname {st} left({frac {(u+du)(v+dv}{dx}right)\\cdotname {st} left({frac {fcdot dv+vcdot du+ducdot dv-uv} {dx}right)\cdot du+ducdot dv}{dx}right)\cdot {cdot dvcdot dv}cdot dv}right)\\cdot=cdot {st} left(u{fracdot dv}right) {dv}{dx}+(v+dv){frac {dx}right)\\fnuncio=u{frac] {dv} {dx}+v{frac {du} {dx}end{aligned}}}
Esta fue esencialmente la prueba de Leibniz explotando la ley trascendental de la homogeneidad (en lugar de la parte estándar anterior).
Análisis infinitesimal suave
En el contexto del enfoque de Lawvere hacia infinitesimals, déjese dx{displaystyle dx} ser un nilsquare infinitesimal. Entonces... du=u.dx{displaystyle du=u'dx} y dv=v.dx{displaystyle dv=v' dx}Así que
- d()uv)=()u+du)()v+dv)− − uv=uv+u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dv− − uv=u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dv=u⋅ ⋅ dv+v⋅ ⋅ du{displaystyle {begin{aligned}d(uv) sensible=(u+du)(v+dv)-uv\=uv+ucdot dv+vcdot du+ducdot dv-uv\\cdot dv+vcdotign du+ducdot dvdend=ucdot
desde entonces dudv=u.v.()dx)2=0.{displaystyle du,dv=u'v'(dx)}=0} Dividiendo por dx{displaystyle dx} entonces da d()uv)dx=udvdx+vdudx{displaystyle {frac {d(uv)}{dx}=u{frac {dv}{dx}+v{dx} {dx}} o ()uv).=u⋅ ⋅ v.+v⋅ ⋅ u.{displaystyle (uv)'=ucdot v'+vcdot u'}.
Diferenciación logarítmica
Vamos h()x)=f()x)g()x){displaystyle h(x)=f(x)g(x)}. Tomando el valor absoluto de cada función y el registro natural de ambos lados de la ecuación,
- In Silencioh()x)Silencio=In Silenciof()x)g()x)Silencio{displaystyle ln Silencioh(x)
Aplicando propiedades del valor absoluto y logaritmos,
- In Silencioh()x)Silencio=In Silenciof()x)Silencio+In Silenciog()x)Silencio{displaystyle ln Silencioh(x)
Tomar el derivado logarítmico de ambos lados y luego resolver para h.()x){displaystyle h'(x)}:
- h.()x)h()x)=f.()x)f()x)+g.()x)g()x){displaystyle {frac {h'(x)}{h(x)}={frac {f'(x)}{f(x)}}}+{frac {g'(x)}}}}}}}} {fnuncio)}
Solving for h.()x){displaystyle h'(x)} y sustitución f()x)g()x){displaystyle f(x)g(x)} para h()x){displaystyle h(x)} da:
- h.()x)=h()x)()f.()x)f()x)+g.()x)g()x))=f()x)g()x)()f.()x)f()x)+g.()x)g()x))=f.()x)g()x)+f()x)g.()x).{fnMicrosoft Sans Serif} {gnMicrosoft Sans Serif} {f} {gnMicrosoft}} {f}}}frac {g'(x)}{g} {g} {g} {g} {g}} {gg}} {ggnMicrox}} {f}}} {g}} {g}}}}}}}}}}} {ggggggggggggggggg]}gggggggggggggggggnMicrox]}}}}gnMicrox]}}}}}}}cggf}}}}}}}}}}}gnMicrox}cH0}}}}}}}}}}}}}}
Nota: Tomar el valor absoluto de las funciones es necesario para permitir la diferenciación logarítmica de funciones que pueden tener valores negativos, ya que los logaritmos sólo se definen para argumentos positivos. Esto funciona porque ddx()In SilenciouSilencio)=u.u{fnMicrosoft Sans Serif} {u} {u}}, que justifica tomar el valor absoluto de las funciones para la diferenciación logarítmica.
Generalizaciones
Producto de más de dos factores
La regla del producto se puede generalizar a productos de más de dos factores. Por ejemplo, para tres factores tenemos
- d()uvw)dx=dudxvw+udvdxw+uvdwdx.{displaystyle {frac {d(uvw)}{dx}={frac {du} {dx}vw+u{frac} {dv}{dx}w+uv{frac} {dw}{dx}}
Para una colección de funciones f1,...... ,fk{displaystyle F_{1},dotsf_{k}, tenemos
- ddx[∏ ∏ i=1kfi()x)]=.. i=1k()()ddxfi()x))∏ ∏ j=1,jل ل ikfj()x))=()∏ ∏ i=1kfi()x))().. i=1kfi.()x)fi()x)).{displaystyle {frac {dx}left[prod] ##{i=1} {k}f_{i}(x)right]=sum ¿Por qué? {d}{dx}f_{i}(x)right)prod _{j=1,jneq i}{k}f_{j}(x)right)=left(prod) ¿Por qué? ¿Qué? }
La derivada logarítmica proporciona una expresión más simple de la última forma, así como una prueba directa que no implica ninguna recursividad. La derivada logarítmica de una función f, indicada aquí Logder(f), es la derivada del logaritmo de la función. Resulta que
- Logder ()f)=f.f.{displaystyle operatorname {Logder} (f)={frac {f'}}}
Usando que el logaritmo de un producto es la suma de los logaritmos de los factores, la regla de la suma para derivadas da inmediatamente
- Logder ()f1⋯ ⋯ fk)=.. i=1kLogder ()fi).{displaystyle operatorname {Logder} (f_{1}cdots f_{k}=sum ################################################################################################################################################################################################################################################################ {Logder} (f_{i}). }
La última expresión anterior del derivado de un producto se obtiene multiplicando ambos miembros de esta ecuación por el producto del fi.{displaystyle F_{i}.
Derivados superiores
También se puede generalizar a la regla general de Leibniz para la nésima derivada de un producto de dos factores, desarrollando simbólicamente según el teorema del binomio:
- dn()uv)=.. k=0n()nk)⋅ ⋅ d()n− − k)()u)⋅ ⋅ d()k)()v).{displaystyle d^{n}(uv)=sum _{k=0}{n}{nchoose k}cdot d^{(n-k)}(u)cdot d^{(k)}(v).}
Aplicada en un punto específico x, la fórmula anterior da:
- ()uv)()n)()x)=.. k=0n()nk)⋅ ⋅ u()n− − k)()x)⋅ ⋅ v()k)()x).{displaystyle (uv)^{(n)}(x)=sum _{k=0}{n}{nchoose k}cdot u^{(n-k)}(x)cdot v^{(k)}(x). }
Además, para la nésima derivada de un número arbitrario de factores, se tiene una fórmula similar con coeficientes multinomiales:
- ()∏ ∏ i=1kfi)()n)=.. j1+j2+⋯ ⋯ +jk=n()nj1,j2,...... ,jk)∏ ∏ i=1kfi()ji).{displaystyle left(prod ################################################################################################################################################################################################################################################################ _{j_{1}+j_{2}+cdots ¿Qué? choose j_{1},j_{2},ldotsj_{k}prod ¿Por qué?
Derivadas parciales superiores
Para las derivadas parciales, tenemos
- ∂ ∂ n∂ ∂ x1⋯ ⋯ ∂ ∂ xn()uv)=.. S∂ ∂ SilencioSSilenciou∏ ∏ i▪ ▪ S∂ ∂ xi⋅ ⋅ ∂ ∂ n− − SilencioSSilenciov∏ ∏ i∉S∂ ∂ xi{displaystyle {partial ^{n} over partial x_{1},cdots ,partial x_{n}(uv)=sum ################################################################################################################################################################################################################################################################ S}partial x_{i}}cdot {partial ^{n-standing'v over prod _{inot in S}partial #
donde el índice S recorre todos los 2n subconjuntos de {1,..., n} y |S| es la cardinalidad de S. Por ejemplo, cuando n = 3,
- ∂ ∂ 3∂ ∂ x1∂ ∂ x2∂ ∂ x3()uv)=u⋅ ⋅ ∂ ∂ 3v∂ ∂ x1∂ ∂ x2∂ ∂ x3+∂ ∂ u∂ ∂ x1⋅ ⋅ ∂ ∂ 2v∂ ∂ x2∂ ∂ x3+∂ ∂ u∂ ∂ x2⋅ ⋅ ∂ ∂ 2v∂ ∂ x1∂ ∂ x3+∂ ∂ u∂ ∂ x3⋅ ⋅ ∂ ∂ 2v∂ ∂ x1∂ ∂ x2+∂ ∂ 2u∂ ∂ x1∂ ∂ x2⋅ ⋅ ∂ ∂ v∂ ∂ x3+∂ ∂ 2u∂ ∂ x1∂ ∂ x3⋅ ⋅ ∂ ∂ v∂ ∂ x2+∂ ∂ 2u∂ ∂ x2∂ ∂ x3⋅ ⋅ ∂ ∂ v∂ ∂ x1+∂ ∂ 3u∂ ∂ x1∂ ∂ x2∂ ∂ x3⋅ ⋅ v.{displaystyle {begin{aligned} limit{partial ^{3} over partial x_{1},partial x_{2},partial x_{3}(uv)\[6pt]={} {cdot {partial ^{3}v} over partial x_{1},partial x_{2},partial x_{3}}+{partial u over partial x_{1}cdot {partial ^{2}v over partial x_{2},partial x_{3}}+{partial u over partial x_{2}cdot {partial ^{2}v over partial x_{1},partial x_{3}}+{partial u over partial x_{3}cdot {partial ^{2}v over partial x_{1},partial x_{2}[6pt] x_{3}+{2}u over partial x_{1},partial x_{3}cdot {partial v over partial partial partial x_{2}+{2}u over partial x_{2},partial x_{3}cdot {partial v over partial partial partial x_{1}}+{partial ^{3}u over partial x_{1},partial x_{2},partial x_{3}}cdot v.end{aligned}}}}
Espacio Banach
Supongamos que X, Y y Z son espacios de Banach (que incluye el espacio euclidiano) y B: X × Y → Z es un operador bilineal continuo. Entonces B es derivable, y su derivada en el punto (x,y) en X × Y es el mapa lineal D(x,y)B: X × Y → Z dado por
- ()D()x,Sí.)B)()u,v)=B()u,Sí.)+B()x,v)О О ()u,v)▪ ▪ X× × Y.{displaystyle (D_{left(x,yright)},B)left(u,vright)=Bleft(u,yright)+Bleft(x,vright)qquad forall (u,v)in Xtimes Y.}
Este resultado se puede extender a espacios vectoriales topológicos más generales.
En cálculo vectorial
La regla del producto se extiende a diversas operaciones de producto de funciones vectoriales en Rn{displaystyle mathbb {R} {} {}} {fn}}:
- Para la multiplicación del escalar: ()f⋅ ⋅ g).=f.⋅ ⋅ g+f⋅ ⋅ g.{displaystyle (fcdot mathbf {g})'=f'cdot mathbf {g} +fcdot mathbf {g}
- Para el producto de punto: ()f⋅ ⋅ g).=f.⋅ ⋅ g+f⋅ ⋅ g.{displaystyle (mathbf {f} cdot mathbf {g}'=mathbf {f} ''cdot mathbf {g] # Mathbf {f} cdot mathbf {g} '
- Para el producto transversal de las funciones vectoriales en R3{displaystyle mathbb {R} {} {}}}: ()f× × g).=f.× × g+f× × g.{displaystyle (mathbf {f} times mathbf {g})=mathbf {f} 'times mathbf {g} # Mathbf {f} times mathbf {g}
También hay análogos para otros análogos de la derivada: si f y g son campos escalares entonces hay una regla del producto con el gradiente:
Tal regla se cumplirá para cualquier operación de producto bilineal continuo. Sea B: X × Y → Z un mapa bilineal continuo entre espacios vectoriales, y sea f y g funciones diferenciables en X y Y, respectivamente. Las únicas propiedades de la multiplicación usadas en la prueba usando la definición límite de derivada es que la multiplicación es continua y bilineal. Entonces, para cualquier operación bilineal continua,
Derivaciones en álgebra abstracta y geometría diferencial
En álgebra abstracta, la regla del producto es la propiedad definitoria de una derivación. En esta terminología, la regla del producto establece que el operador derivado es una derivación de funciones.
En geometría diferencial, un vector tangente a una variedad M en un punto p puede definirse abstractamente como un operador en funciones de valor real que se comporta como una derivada direccional en p: es decir, un funcional lineal v que es una derivación,
v()fg)=v()f)g()p)+f()p)v()g).{displaystyle v(fg)=v(f),g(p)+f(p),v(g). }
Generalizar (y dualizar) las fórmulas de cálculo vectorial a un n- manifold dimensional M, uno puede tomar formas diferenciales de grados k y l, denotado α α ▪ ▪ Ω Ω k()M),β β ▪ ▪ Ω Ω l l ()M){displaystyle alpha in Omega ^{k}(M),beta in Omega ^{ell }(M)}, con la cuña o operación de producto exterior α α ∧ ∧ β β ▪ ▪ Ω Ω k+l l ()M){displaystyle alpha wedge beta in Omega ^{k+ell }(M)}, así como el derivado exterior d:Ω Ω m()M)→ → Ω Ω m+1()M){displaystyle d:Omega ^{m}(M)to Omega ^{m+1}(M)}. Entonces uno tiene la regla de Leibniz de grado:
d()α α ∧ ∧ β β )=dα α ∧ ∧ β β +()− − 1)kα α ∧ ∧ dβ β .{displaystyle d(alpha wedge beta)=dalpha wedge beta +(-1)^{k}alpha wedge dbeta.}
Aplicaciones
Entre las aplicaciones de la regla del producto se encuentra una prueba de que
- ddxxn=nxn− − 1{displaystyle {d over dx}x^{nx^{n-1}
cuando n es un número entero positivo (esta regla es cierta incluso si n no es positivo o no es un número entero, pero la prueba de eso debe basarse en otros métodos). La demostración es por inducción matemática sobre el exponente n. Si n = 0 entonces xn es constante y nxn − 1 = 0. La regla se cumple en ese caso porque la derivada de una función constante es 0. Si la regla se cumple para cualquier exponente particular n, entonces para el siguiente valor, n + 1, tenemos
- ddxxn+1=ddx()xn⋅ ⋅ x)=xddxxn+xnddxx(la regla del producto se utiliza aquí)=x()nxn− − 1)+xn⋅ ⋅ 1(la hipótesis de inducción se utiliza aquí)=()n+1)xn.{displaystyle {begin{aligned}{d over dx}x^{n+1} {}={d} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fn} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft ] {fnMicrosoft Sans Serif} {fnMicrosoft ] {fnMicrosoft ] {fnMicrosoft}fnMicrosoft}f}fnMicrosoft ]}fnMinMicrosoft SansiguenMicrosoft Sans]
Por tanto, si la proposición es verdadera para n, lo es también para n + 1, y por tanto para todo n natural.