Regla del producto

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Fórmula para el derivado de un producto
Ilustración geométrica de una prueba de la regla del producto

En el cálculo, la regla de producto (o leibniz o leibniz de la regla del producto ) es una fórmula utilizada para encontrar los derivados de productos de dos o más funciones. Para dos funciones, se puede establecer en la notación de LaGrange como

()u⋅ ⋅ v).=u.⋅ ⋅ v+u⋅ ⋅ v.{displaystyle (ucdot v)'=u'cdot v+ucdot v'}
ddx()u⋅ ⋅ v)=dudx⋅ ⋅ v+u⋅ ⋅ dvdx.{displaystyle {frac {dx}(ucdot v)={frac {du}{dx}cdot v+ucdot {frac] {dv}{dx}}

La regla puede extenderse o generalizarse a productos de tres o más funciones, a una regla para derivadas de orden superior de un producto ya otros contextos.

Descubrimiento

El descubrimiento de esta regla se atribuye a Gottfried Leibniz, quien la demostró usando diferenciales. (Sin embargo, J. M. Child, un traductor de los artículos de Leibniz, argumenta que se debe a Isaac Barrow). Este es el argumento de Leibniz: Sea u(x) y v(x) dos funciones diferenciables de x. Entonces el diferencial de uv es

d()u⋅ ⋅ v)=()u+du)⋅ ⋅ ()v+dv)− − u⋅ ⋅ v=u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dv.{displaystyle {begin{aligned}d(ucdot v) creciendo {}=(u+du)cdot (v+dv)-ucdot v\\cdot dv+vcdot du+ducdot dv.end{aligned}}}}}}

Dado que el término du·dv es "insignificante" (comparado con du y dv), Leibniz concluyó que

d()u⋅ ⋅ v)=v⋅ ⋅ du+u⋅ ⋅ dv{displaystyle d(ucdot v)=vcdot du+ucdot dv}

y esta es de hecho la forma diferencial de la regla del producto. Si nos dividimos por el diferencial dx , obtenemos

ddx()u⋅ ⋅ v)=v⋅ ⋅ dudx+u⋅ ⋅ dvdx{displaystyle {frac {dx}(ucdot v)=vcdot {frac} {} {dx}+ucdot {fnMicroc {dv}{dx}}

que también se puede escribir en la notación de Lagrange como

()u⋅ ⋅ v).=v⋅ ⋅ u.+u⋅ ⋅ v..{displaystyle (ucdot v)'=vcdot u'+ucdot v'.}

Ejemplos

  • Supongamos que queremos diferenciar f()x) x2 pecado(x). Al utilizar la regla del producto, se obtiene el derivado f.()x) = 2x pecado(x) + x2 Porque...x(desde el derivado de x2 2x y el derivado de la función sine es la función cosine).
  • Un caso especial de la regla del producto es la norma múltiple constante, que establece: c es un número y f()x) es una función diferenciable, entonces cf()x) es también diferente, y su derivado es (cf).()x) cf.()x). Esto se deriva de la regla del producto ya que el derivado de cualquier constante es cero. Esto, combinado con la regla sumaria de los derivados, muestra que la diferenciación es lineal.
  • La regla para la integración por partes se deriva de la regla del producto, como es (una versión débil de) la regla del cociente. (Es una versión "mojada" en que no prueba que el cociente es diferente, pero sólo dice cuál es su derivativo si es diferente.)

Pruebas

Definición de límite de derivada

Vamos h()x) f()x)g()x) y suponer que f y g son cada diferenciable en x. Queremos probarlo. h es diferente en x y que su derivados, h.()x), se da por f.()x)g()x) + f()x)g.()x). Para hacer esto, f()x)g()x+Δ Δ x)− − f()x)g()x+Δ Δ x){displaystyle f(x)g(x+Delta x)-f(x)g(x+Delta x)} (que es cero, y por lo tanto no cambia el valor) se añade al numerador para permitir su factorización, y luego se utilizan las propiedades de los límites.

h.()x)=limΔ Δ x→ → 0h()x+Δ Δ x)− − h()x)Δ Δ x=limΔ Δ x→ → 0f()x+Δ Δ x)g()x+Δ Δ x)− − f()x)g()x)Δ Δ x=limΔ Δ x→ → 0f()x+Δ Δ x)g()x+Δ Δ x)− − f()x)g()x+Δ Δ x)+f()x)g()x+Δ Δ x)− − f()x)g()x)Δ Δ x=limΔ Δ x→ → 0[f()x+Δ Δ x)− − f()x)]⋅ ⋅ g()x+Δ Δ x)+f()x)⋅ ⋅ [g()x+Δ Δ x)− − g()x)]Δ Δ x=limΔ Δ x→ → 0f()x+Δ Δ x)− − f()x)Δ Δ x⋅ ⋅ limΔ Δ x→ → 0g()x+Δ Δ x)⏟ ⏟ Véase la nota a continuación.+limΔ Δ x→ → 0f()x)⋅ ⋅ limΔ Δ x→ → 0g()x+Δ Δ x)− − g()x)Δ Δ x=f.()x)g()x)+f()x)g.()x).########

El hecho de que limΔ Δ x→ → 0g()x+Δ Δ x)=g()x){displaystyle lim _{Delta xto 0}g(x+Delta x)=g(x)} sigue el hecho de que las funciones diferenciables son continuas.

Aproximaciones lineales

Por definición, si f,g:R→ → R{displaystyle f,g:mathbb {R} to mathbb {R} son diferentes en x{displaystyle x}, entonces podemos escribir aproximaciones lineales:

f()x+h)=f()x)+f.()x)h+ε ε 1()h){displaystyle f(x+h)=f(x)+f'(x)h+varepsilon _{1}(h)}
g()x+h)=g()x)+g.()x)h+ε ε 2()h),{displaystyle g(x+h)=g(x)+g'(x)h+varepsilon _{2}(h),}
hlimh→ → 0ε ε 1()h)h=limh→ → 0ε ε 2()h)h=0,{be1}{hto 0} {varepsilon _{1} {h}=lim _{hto 0}{hto 0}{frac {varepsilon _{2} {h} {h}=0,}} {f} {h}}=0}ε ε 1,ε ε 2♪ ♪ o()h){displaystyle varepsilon _{1},varepsilon _{2}sim o(h)}
f()x+h)g()x+h)− − f()x)g()x)=()f()x)+f.()x)h+ε ε 1()h))()g()x)+g.()x)h+ε ε 2()h))− − f()x)g()x)=f()x)g()x)+f.()x)g()x)h+f()x)g.()x)h− − f()x)g()x)+términos de error=f.()x)g()x)h+f()x)g.()x)h+o()h).{x}(x)}(g)(x)
f()x)ε ε 2()h),f.()x)g.()x)h2{displaystyle f(x)varepsilon _{2}(h),f'(x)g'(x)h^{2}hf.()x)ε ε 1()h){displaystyle hf'(x)varepsilon _{1}(h)}o()h).{displaystyle o(h).}h{displaystyle h}h→ → 0{displaystyle hto 0}

Cuartos de cuadrados

Esta prueba utiliza la regla de cadena y la función cuadrada trimestral q()x)=14x2{displaystyle q(x)={4}x^{2} con derivados q.()x)=12x{displaystyle q'(x)={tfrac {1}{2}x}. Tenemos:

uv=q()u+v)− − q()u− − v),{displaystyle uv=q(u+v)-q(u-v),}

y diferenciando ambos lados da:

f.=q.()u+v)()u.+v.)− − q.()u− − v)()u.− − v.)=()12()u+v)()u.+v.))− − ()12()u− − v)()u.− − v.))=12()uu.+vu.+uv.+vv.)− − 12()uu.− − vu.− − uv.+vv.)=vu.+uv..{fnMicrosoft Sans Serif}

Regla de la cadena multivariable

La regla del producto puede considerarse un caso especial de la regla de cadena para varias variables, aplicada a la función de multiplicación m()u,v)=uv{displaystyle m(u,v)=uv}:

d()uv)dx=∂ ∂ ()uv)∂ ∂ ududx+∂ ∂ ()uv)∂ ∂ vdvdx=vdudx+udvdx.{displaystyle {d(uv) over dx}={frac {partial (uv)}{partial u}{frac {fnK} {fnMicroc {fnMicrosoft Sans Serif} {fnMicroc {f}}=v{frac} {f} {fnMicroc}}} {fnMicroc}}}}}=v{f} {f}fnMicroc}} {f} {f}} {f}}}}}}}}}}}f}f}}f}f}f} {f} {f} {f}f}f}f}f}f}f}f}f}}f}f}f}f}f}f}f}f}f}}f}}f}f}}f}f}f}f}f}f}f}f}}fnh}f}f}f}f}f}}}f}fn {}{dx}+u {frac} {dv}{dx}}

Análisis no estándar

Sean u y v funciones continuas en x, y sean dx, du y dv sean infinitesimales en el marco del análisis no estándar, específicamente los números hiperreales. Usando st para denotar la función de parte estándar que asocia a un número hiperreal finito el real infinitamente cercano a él, esto da

d()uv)dx=st⁡ ⁡ ()()u+du)()v+dv)− − uvdx)=st⁡ ⁡ ()uv+u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dv− − uvdx)=st⁡ ⁡ ()u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dvdx)=st⁡ ⁡ ()udvdx+()v+dv)dudx)=udvdx+vdudx.{displaystyle {begin{aligned}{frac {d(uv)}{dx} {=operatorname {st} left({frac {(u+du)(v+dv}{dx}right)\\cdotname {st} left({frac {fcdot dv+vcdot du+ducdot dv-uv} {dx}right)\cdot du+ducdot dv}{dx}right)\cdot {cdot dvcdot dv}cdot dv}right)\\cdot=cdot {st} left(u{fracdot dv}right) {dv}{dx}+(v+dv){frac {dx}right)\\fnuncio=u{frac] {dv} {dx}+v{frac {du} {dx}end{aligned}}}

Esta fue esencialmente la prueba de Leibniz explotando la ley trascendental de la homogeneidad (en lugar de la parte estándar anterior).

Análisis infinitesimal suave

En el contexto del enfoque de Lawvere hacia infinitesimals, déjese dx{displaystyle dx} ser un nilsquare infinitesimal. Entonces... du=u.dx{displaystyle du=u'dx} y dv=v.dx{displaystyle dv=v' dx}Así que

d()uv)=()u+du)()v+dv)− − uv=uv+u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dv− − uv=u⋅ ⋅ dv+v⋅ ⋅ du+du⋅ ⋅ dv=u⋅ ⋅ dv+v⋅ ⋅ du{displaystyle {begin{aligned}d(uv) sensible=(u+du)(v+dv)-uv\=uv+ucdot dv+vcdot du+ducdot dv-uv\\cdot dv+vcdotign du+ducdot dvdend=ucdot

desde entonces dudv=u.v.()dx)2=0.{displaystyle du,dv=u'v'(dx)}=0} Dividiendo por dx{displaystyle dx} entonces da d()uv)dx=udvdx+vdudx{displaystyle {frac {d(uv)}{dx}=u{frac {dv}{dx}+v{dx} {dx}} o ()uv).=u⋅ ⋅ v.+v⋅ ⋅ u.{displaystyle (uv)'=ucdot v'+vcdot u'}.

Diferenciación logarítmica

Vamos h()x)=f()x)g()x){displaystyle h(x)=f(x)g(x)}. Tomando el valor absoluto de cada función y el registro natural de ambos lados de la ecuación,

In⁡ ⁡ Silencioh()x)Silencio=In⁡ ⁡ Silenciof()x)g()x)Silencio{displaystyle ln Silencioh(x)

Aplicando propiedades del valor absoluto y logaritmos,

In⁡ ⁡ Silencioh()x)Silencio=In⁡ ⁡ Silenciof()x)Silencio+In⁡ ⁡ Silenciog()x)Silencio{displaystyle ln Silencioh(x)

Tomar el derivado logarítmico de ambos lados y luego resolver para h.()x){displaystyle h'(x)}:

h.()x)h()x)=f.()x)f()x)+g.()x)g()x){displaystyle {frac {h'(x)}{h(x)}={frac {f'(x)}{f(x)}}}+{frac {g'(x)}}}}}}}} {fnuncio)}

Solving for h.()x){displaystyle h'(x)} y sustitución f()x)g()x){displaystyle f(x)g(x)} para h()x){displaystyle h(x)} da:

h.()x)=h()x)()f.()x)f()x)+g.()x)g()x))=f()x)g()x)()f.()x)f()x)+g.()x)g()x))=f.()x)g()x)+f()x)g.()x).{fnMicrosoft Sans Serif} {gnMicrosoft Sans Serif} {f} {gnMicrosoft}} {f}}}frac {g'(x)}{g} {g} {g} {g} {g}} {gg}} {ggnMicrox}} {f}}} {g}} {g}}}}}}}}}}} {ggggggggggggggggg]}gggggggggggggggggnMicrox]}}}}gnMicrox]}}}}}}}cggf}}}}}}}}}}}gnMicrox}cH0}}}}}}}}}}}}}}

Nota: Tomar el valor absoluto de las funciones es necesario para permitir la diferenciación logarítmica de funciones que pueden tener valores negativos, ya que los logaritmos sólo se definen para argumentos positivos. Esto funciona porque ddx()In⁡ ⁡ SilenciouSilencio)=u.u{fnMicrosoft Sans Serif} {u} {u}}, que justifica tomar el valor absoluto de las funciones para la diferenciación logarítmica.

Generalizaciones

Producto de más de dos factores

La regla del producto se puede generalizar a productos de más de dos factores. Por ejemplo, para tres factores tenemos

d()uvw)dx=dudxvw+udvdxw+uvdwdx.{displaystyle {frac {d(uvw)}{dx}={frac {du} {dx}vw+u{frac} {dv}{dx}w+uv{frac} {dw}{dx}}

Para una colección de funciones f1,...... ,fk{displaystyle F_{1},dotsf_{k}, tenemos

ddx[∏ ∏ i=1kfi()x)]=.. i=1k()()ddxfi()x))∏ ∏ j=1,jل ل ikfj()x))=()∏ ∏ i=1kfi()x))().. i=1kfi.()x)fi()x)).{displaystyle {frac {dx}left[prod] ##{i=1} {k}f_{i}(x)right]=sum ¿Por qué? {d}{dx}f_{i}(x)right)prod _{j=1,jneq i}{k}f_{j}(x)right)=left(prod) ¿Por qué? ¿Qué? }

La derivada logarítmica proporciona una expresión más simple de la última forma, así como una prueba directa que no implica ninguna recursividad. La derivada logarítmica de una función f, indicada aquí Logder(f), es la derivada del logaritmo de la función. Resulta que

Logder⁡ ⁡ ()f)=f.f.{displaystyle operatorname {Logder} (f)={frac {f'}}}

Usando que el logaritmo de un producto es la suma de los logaritmos de los factores, la regla de la suma para derivadas da inmediatamente

Logder⁡ ⁡ ()f1⋯ ⋯ fk)=.. i=1kLogder⁡ ⁡ ()fi).{displaystyle operatorname {Logder} (f_{1}cdots f_{k}=sum ################################################################################################################################################################################################################################################################ {Logder} (f_{i}). }

La última expresión anterior del derivado de un producto se obtiene multiplicando ambos miembros de esta ecuación por el producto del fi.{displaystyle F_{i}.

Derivados superiores

También se puede generalizar a la regla general de Leibniz para la nésima derivada de un producto de dos factores, desarrollando simbólicamente según el teorema del binomio:

dn()uv)=.. k=0n()nk)⋅ ⋅ d()n− − k)()u)⋅ ⋅ d()k)()v).{displaystyle d^{n}(uv)=sum _{k=0}{n}{nchoose k}cdot d^{(n-k)}(u)cdot d^{(k)}(v).}

Aplicada en un punto específico x, la fórmula anterior da:

()uv)()n)()x)=.. k=0n()nk)⋅ ⋅ u()n− − k)()x)⋅ ⋅ v()k)()x).{displaystyle (uv)^{(n)}(x)=sum _{k=0}{n}{nchoose k}cdot u^{(n-k)}(x)cdot v^{(k)}(x). }

Además, para la nésima derivada de un número arbitrario de factores, se tiene una fórmula similar con coeficientes multinomiales:

()∏ ∏ i=1kfi)()n)=.. j1+j2+⋯ ⋯ +jk=n()nj1,j2,...... ,jk)∏ ∏ i=1kfi()ji).{displaystyle left(prod ################################################################################################################################################################################################################################################################ _{j_{1}+j_{2}+cdots ¿Qué? choose j_{1},j_{2},ldotsj_{k}prod ¿Por qué?

Derivadas parciales superiores

Para las derivadas parciales, tenemos

∂ ∂ n∂ ∂ x1⋯ ⋯ ∂ ∂ xn()uv)=.. S∂ ∂ SilencioSSilenciou∏ ∏ i▪ ▪ S∂ ∂ xi⋅ ⋅ ∂ ∂ n− − SilencioSSilenciov∏ ∏ i∉S∂ ∂ xi{displaystyle {partial ^{n} over partial x_{1},cdots ,partial x_{n}(uv)=sum ################################################################################################################################################################################################################################################################ S}partial x_{i}}cdot {partial ^{n-standing'v over prod _{inot in S}partial #

donde el índice S recorre todos los 2n subconjuntos de {1,..., n} y |S| es la cardinalidad de S. Por ejemplo, cuando n = 3,

∂ ∂ 3∂ ∂ x1∂ ∂ x2∂ ∂ x3()uv)=u⋅ ⋅ ∂ ∂ 3v∂ ∂ x1∂ ∂ x2∂ ∂ x3+∂ ∂ u∂ ∂ x1⋅ ⋅ ∂ ∂ 2v∂ ∂ x2∂ ∂ x3+∂ ∂ u∂ ∂ x2⋅ ⋅ ∂ ∂ 2v∂ ∂ x1∂ ∂ x3+∂ ∂ u∂ ∂ x3⋅ ⋅ ∂ ∂ 2v∂ ∂ x1∂ ∂ x2+∂ ∂ 2u∂ ∂ x1∂ ∂ x2⋅ ⋅ ∂ ∂ v∂ ∂ x3+∂ ∂ 2u∂ ∂ x1∂ ∂ x3⋅ ⋅ ∂ ∂ v∂ ∂ x2+∂ ∂ 2u∂ ∂ x2∂ ∂ x3⋅ ⋅ ∂ ∂ v∂ ∂ x1+∂ ∂ 3u∂ ∂ x1∂ ∂ x2∂ ∂ x3⋅ ⋅ v.{displaystyle {begin{aligned} limit{partial ^{3} over partial x_{1},partial x_{2},partial x_{3}(uv)\[6pt]={} {cdot {partial ^{3}v} over partial x_{1},partial x_{2},partial x_{3}}+{partial u over partial x_{1}cdot {partial ^{2}v over partial x_{2},partial x_{3}}+{partial u over partial x_{2}cdot {partial ^{2}v over partial x_{1},partial x_{3}}+{partial u over partial x_{3}cdot {partial ^{2}v over partial x_{1},partial x_{2}[6pt] x_{3}+{2}u over partial x_{1},partial x_{3}cdot {partial v over partial partial partial x_{2}+{2}u over partial x_{2},partial x_{3}cdot {partial v over partial partial partial x_{1}}+{partial ^{3}u over partial x_{1},partial x_{2},partial x_{3}}cdot v.end{aligned}}}}

Espacio Banach

Supongamos que X, Y y Z son espacios de Banach (que incluye el espacio euclidiano) y B: X × YZ es un operador bilineal continuo. Entonces B es derivable, y su derivada en el punto (x,y) en X × Y es el mapa lineal D(x,y)B: X × YZ dado por

()D()x,Sí.)B)()u,v)=B()u,Sí.)+B()x,v)О О ()u,v)▪ ▪ X× × Y.{displaystyle (D_{left(x,yright)},B)left(u,vright)=Bleft(u,yright)+Bleft(x,vright)qquad forall (u,v)in Xtimes Y.}

Este resultado se puede extender a espacios vectoriales topológicos más generales.

En cálculo vectorial

La regla del producto se extiende a diversas operaciones de producto de funciones vectoriales en Rn{displaystyle mathbb {R} {} {}} {fn}}:

  • Para la multiplicación del escalar:
    ()f⋅ ⋅ g).=f.⋅ ⋅ g+f⋅ ⋅ g.{displaystyle (fcdot mathbf {g})'=f'cdot mathbf {g} +fcdot mathbf {g}
  • Para el producto de punto:
    ()f⋅ ⋅ g).=f.⋅ ⋅ g+f⋅ ⋅ g.{displaystyle (mathbf {f} cdot mathbf {g}'=mathbf {f} ''cdot mathbf {g] # Mathbf {f} cdot mathbf {g} '
  • Para el producto transversal de las funciones vectoriales en R3{displaystyle mathbb {R} {} {}}}:
    ()f× × g).=f.× × g+f× × g.{displaystyle (mathbf {f} times mathbf {g})=mathbf {f} 'times mathbf {g} # Mathbf {f} times mathbf {g}

También hay análogos para otros análogos de la derivada: si f y g son campos escalares entonces hay una regla del producto con el gradiente:

Silencio Silencio ()f⋅ ⋅ g)=Silencio Silencio f⋅ ⋅ g+f⋅ ⋅ Silencio Silencio g{displaystyle nabla (fcdot g)=nabla fcdot g+fcdot nabla g}

Tal regla se cumplirá para cualquier operación de producto bilineal continuo. Sea B: X × YZ un mapa bilineal continuo entre espacios vectoriales, y sea f y g funciones diferenciables en X y Y, respectivamente. Las únicas propiedades de la multiplicación usadas en la prueba usando la definición límite de derivada es que la multiplicación es continua y bilineal. Entonces, para cualquier operación bilineal continua,

H()f,g).=H()f.,g)+H()f,g.).{displaystyle H(f,g)'=H(f',g)+H(f,g'). }

Derivaciones en álgebra abstracta y geometría diferencial

En álgebra abstracta, la regla del producto es la propiedad definitoria de una derivación. En esta terminología, la regla del producto establece que el operador derivado es una derivación de funciones.

En geometría diferencial, un vector tangente a una variedad M en un punto p puede definirse abstractamente como un operador en funciones de valor real que se comporta como una derivada direccional en p: es decir, un funcional lineal v que es una derivación,

v()fg)=v()f)g()p)+f()p)v()g).{displaystyle v(fg)=v(f),g(p)+f(p),v(g). }

Generalizar (y dualizar) las fórmulas de cálculo vectorial a un n- manifold dimensional M, uno puede tomar formas diferenciales de grados k y l, denotado α α ▪ ▪ Ω Ω k()M),β β ▪ ▪ Ω Ω l l ()M){displaystyle alpha in Omega ^{k}(M),beta in Omega ^{ell }(M)}, con la cuña o operación de producto exterior α α ∧ ∧ β β ▪ ▪ Ω Ω k+l l ()M){displaystyle alpha wedge beta in Omega ^{k+ell }(M)}, así como el derivado exterior d:Ω Ω m()M)→ → Ω Ω m+1()M){displaystyle d:Omega ^{m}(M)to Omega ^{m+1}(M)}. Entonces uno tiene la regla de Leibniz de grado:

d()α α ∧ ∧ β β )=dα α ∧ ∧ β β +()− − 1)kα α ∧ ∧ dβ β .{displaystyle d(alpha wedge beta)=dalpha wedge beta +(-1)^{k}alpha wedge dbeta.}

Aplicaciones

Entre las aplicaciones de la regla del producto se encuentra una prueba de que

ddxxn=nxn− − 1{displaystyle {d over dx}x^{nx^{n-1}

cuando n es un número entero positivo (esta regla es cierta incluso si n no es positivo o no es un número entero, pero la prueba de eso debe basarse en otros métodos). La demostración es por inducción matemática sobre el exponente n. Si n = 0 entonces xn es constante y nxn − 1 = 0. La regla se cumple en ese caso porque la derivada de una función constante es 0. Si la regla se cumple para cualquier exponente particular n, entonces para el siguiente valor, n + 1, tenemos

ddxxn+1=ddx()xn⋅ ⋅ x)=xddxxn+xnddxx(la regla del producto se utiliza aquí)=x()nxn− − 1)+xn⋅ ⋅ 1(la hipótesis de inducción se utiliza aquí)=()n+1)xn.{displaystyle {begin{aligned}{d over dx}x^{n+1} {}={d} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fn} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft ] {fnMicrosoft Sans Serif} {fnMicrosoft ] {fnMicrosoft ] {fnMicrosoft}fnMicrosoft}f}fnMicrosoft ]}fnMinMicrosoft SansiguenMicrosoft Sans]

Por tanto, si la proposición es verdadera para n, lo es también para n + 1, y por tanto para todo n natural.

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save