Calculo diferencial

AjustarCompartirImprimirCitar
Área de matemáticas; subarea de cálculo
El gráfico de una función, dibujado en negro, y una línea tangente a esa función, dibujado en rojo. La pendiente de la línea tangente equivale al derivado de la función en el punto marcado.

En matemáticas, el cálculo diferencial es un subcampo del cálculo que estudia las tasas a las que cambian las cantidades. Es una de las dos divisiones tradicionales del cálculo, la otra es el cálculo integral, el estudio del área bajo una curva.

Los principales objetos de estudio del cálculo diferencial son la derivada de una función, nociones relacionadas como la diferencial y sus aplicaciones. La derivada de una función en un valor de entrada elegido describe la tasa de cambio de la función cerca de ese valor de entrada. El proceso de encontrar una derivada se llama diferenciación. Geométricamente, la derivada en un punto es la pendiente de la recta tangente a la gráfica de la función en ese punto, siempre que la derivada exista y esté definida en ese punto. Para una función de valor real de una sola variable real, la derivada de una función en un punto generalmente determina la mejor aproximación lineal a la función en ese punto.

El cálculo diferencial y el cálculo integral están conectados por el teorema fundamental del cálculo, que establece que la diferenciación es el proceso inverso a la integración.

La diferenciación tiene aplicaciones en casi todas las disciplinas cuantitativas. En física, la derivada del desplazamiento de un cuerpo en movimiento con respecto al tiempo es la velocidad del cuerpo, y la derivada de la velocidad con respecto al tiempo es la aceleración. La derivada del momento de un cuerpo con respecto al tiempo es igual a la fuerza aplicada al cuerpo; Reorganizar esta declaración derivada conduce a la famosa ecuación F = ma asociada con Newton&# 39;s segunda ley del movimiento. La velocidad de reacción de una reacción química es una derivada. En la investigación de operaciones, los derivados determinan las formas más eficientes de transportar materiales y diseñar fábricas.

Las derivadas se utilizan con frecuencia para encontrar los máximos y mínimos de una función. Las ecuaciones que involucran derivadas se denominan ecuaciones diferenciales y son fundamentales para describir fenómenos naturales. Las derivadas y sus generalizaciones aparecen en muchos campos de las matemáticas, como el análisis complejo, el análisis funcional, la geometría diferencial, la teoría de la medida y el álgebra abstracta.

Derivado

El gráfico de una función arbitraria Sí.=f()x){displaystyle y=f(x)}. La línea naranja es tangente x=a{displaystyle x=a}, significando en ese punto exacto, la pendiente de la curva y la línea recta son iguales.
El derivado en diferentes puntos de una función diferenciable

El derivado de f()x){displaystyle f(x)} en el punto x=a{displaystyle x=a} es la pendiente del tangente a ()a,f()a)){displaystyle (a,f(a)}. Para obtener una intuición para esto, primero hay que estar familiarizado con encontrar la pendiente de una ecuación lineal, escrita en la forma Sí.=mx+b{displaystyle Y=mx+b}. La pendiente de una ecuación es su empinada. Se puede encontrar eligiendo dos puntos y dividiendo el cambio en Sí.{displaystyle y} por el cambio en x{displaystyle x}, significa que pendiente=cambio enSí.cambio enx{displaystyle {text{slope}}={frac {text{ change in }y}{text{change in }x}}}. Para, el gráfico de Sí.=− − 2x+13{displaystyle y=-2x+13} tiene una pendiente − − 2{displaystyle -2}, como se muestra en el siguiente diagrama:

El gráfico de Sí.=− − 2x+13{displaystyle y=-2x+13}
cambio enSí.cambio enx=− − 6+3=− − 2{displaystyle {frac {text{change in }y}{text{change in }x}={frac} {-6}{+3}=-2}

Por brevedad, cambio enSí.cambio enx{displaystyle {frac {text{change in }y}{text{change in }x}}} a menudo escrito como Δ Δ Sí.Δ Δ x{displaystyle {frac {Delta y}{Delta x}}}, con Δ Δ {displaystyle Delta } ser la letra griega delta, que significa 'cambio'. La pendiente de una ecuación lineal es constante, lo que significa que la empinada es la misma en todas partes. Sin embargo, muchos gráficos como Sí.=x2{displaystyle y=x^{2} varían en su empinada. Esto significa que ya no puedes elegir dos puntos arbitrarios y calcular la pendiente. En cambio, la pendiente del gráfico se puede calcular considerando la línea tangente, una línea que 'sólo toca' un punto en particular. La pendiente de una curva en un punto particular es igual a la pendiente del tangente hasta ese punto. Por ejemplo, Sí.=x2{displaystyle y=x^{2} tiene una pendiente 4{displaystyle 4} a x=2{displaystyle x=2} porque la pendiente de la línea tangente a ese punto es igual a 4{displaystyle 4}:

El gráfico de Sí.=x2{displaystyle y=x^{2}, con una línea recta que es tangente a ()2,4){displaystyle (2,4)}. La pendiente de la línea tangente es igual a 4{displaystyle 4}. (Nota que los ejes del gráfico no usan una escala 1:1.)

La derivada de una función es simplemente la pendiente de esta recta tangente. Aunque la recta tangente solo toca un único punto en el punto de tangencia, se puede aproximar mediante una recta que pasa por dos puntos. Esto se conoce como línea secante. Si los dos puntos por los que pasa la secante están muy cerca, entonces la secante se parece mucho a la tangente y, como resultado, su pendiente también es muy similar:

La línea punteada pasa por los puntos ()2,4){displaystyle (2,4)} y ()3,9){displaystyle (3,9)}, que ambos se encuentran en la curva Sí.=x2{displaystyle y=x^{2}. Debido a que estos dos puntos están bastante unidos, la línea punteada y la línea tangente tienen una pendiente similar. A medida que los dos puntos se acercan, el error producido por la línea de secant se vuelve extremadamente pequeño.

La ventaja de utilizar una línea de secant es que su pendiente se puede calcular directamente. Considere los dos puntos en el gráfico ()x,f()x)){displaystyle (x,f(x)} y ()x+Δ Δ x,f()x+Δ Δ x)){displaystyle (x+Delta x,f(x+Delta x)}, donde Δ Δ x{displaystyle Delta x} es un pequeño número. Como antes, la pendiente de la línea que pasa a través de estos dos puntos se puede calcular con la fórmula pendiente=Δ Δ Sí.Δ Δ x{displaystyle {text{sslope }={frac {Delta y}{ Delta.. Esto da

pendiente=f()x+Δ Δ x)− − f()x)Δ Δ x{displaystyle {text{slope}}={frac {f(x+Delta x)-f(x)}{Delta x}}}}}

As Δ Δ x{displaystyle Delta x} se acerca más y más 0{displaystyle 0}, la pendiente de la línea secant se acerca más y más a la pendiente de la línea tangente. This is formally written as

limΔ Δ x→ → 0f()x+Δ Δ x)− − f()x)Δ Δ x{displaystyle lim _{Delta xto 0}{frac {f(x+Delta x)-f(x)}{Delta x}}}}

La expresión anterior significa "como Δ Δ x{displaystyle Delta x} se acerca y se acerca a 0, la pendiente de la línea de secant se acerca más y más a cierto valor'. El valor que se está abordando es el derivado de f()x){displaystyle f(x)}; esto puede ser escrito como f.()x){displaystyle f'(x)}. Si Sí.=f()x){displaystyle y=f(x)}, el derivado también se puede escribir como dSí.dx{displaystyle {frac {}{dx}}, con d{displaystyle d} representando un cambio infinitesimal. Por ejemplo, dx{displaystyle dx} representa un cambio infinitesimal en x. En resumen, si Sí.=f()x){displaystyle y=f(x)}, entonces el derivado de f()x){displaystyle f(x)} es

dSí.dx=f.()x)=limΔ Δ x→ → 0f()x+Δ Δ x)− − f()x)Δ Δ x{displaystyle {frac {}{dx}=f'(x)=lim _{Delta xto 0}{frac {f(x+Delta x)-f(x)}{Delta x}}}}}}}}} {Delta x}}}}}}}}} {

siempre que exista tal límite. Así hemos logrado definir correctamente el derivado de una función, lo que significa que la " pendiente de la línea tangente" ahora tiene un significado matemático preciso. Diferenciar una función usando la definición anterior se conoce como diferenciación de los primeros principios. Aquí hay una prueba, utilizando la diferenciación de los primeros principios, que el derivado de Sí.=x2{displaystyle y=x^{2} es 2x{displaystyle 2x}:

dSí.dx=limΔ Δ x→ → 0f()x+Δ Δ x)− − f()x)Δ Δ x=limΔ Δ x→ → 0()x+Δ Δ x)2− − x2Δ Δ x=limΔ Δ x→ → 0x2+2xΔ Δ x+()Δ Δ x)2− − x2Δ Δ x=limΔ Δ x→ → 02xΔ Δ x+()Δ Δ x)2Δ Δ x=limΔ Δ x→ → 02x+Δ Δ x{displaystyle {begin{aligned}{frac} {}{dx} {dx} {Delta xto 0}{frac {f(x+Delta x)-f(x)}{Delta x}\\}\\\\\cH00\\cH00}{2}}} {\f}{f}}}{f}}}}}}{f}}}}}}}}}}}}}{\\}}}}}}}}}}}}}}}}}}}{\\\\\}}}}}}}}}}}}}}}}}}}}}}}{\\\\\\\\\\}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} Delta x}\\\m2Delta xto 0}{frac {x^{2}+2xDelta x+(Delta x)^{2}-x^{2}{2}{ Delta x}\\\fnMicrosoft xnMicroc {2xDelta x+(Delta x)}{2}{ Delta x}\\cH0lim _{Delta xto 0}2x+ Delta.

As Δ Δ x{displaystyle Delta x} enfoques 0{displaystyle 0}, 2x+Δ Δ x{displaystyle 2x+ Delta. enfoques 2x{displaystyle 2x}. Por lo tanto, dSí.dx=2x{displaystyle {frac {}=2x}. Esta prueba se puede generalizar para demostrar que d()axn)dx=anxn− − 1{displaystyle {frac {d {fn}{dx}=anx^{n-1}} si a{displaystyle a} y n{displaystyle n} son constantes. Esto se conoce como la regla de poder. Por ejemplo, ddx()5x4)=5()4)x3=20x3{displaystyle {frac {dx}(5x^{4})=5(4)x^{3}=20x^{3}}. Sin embargo, muchas otras funciones no pueden diferenciarse tan fácilmente como funciones polinómicas, lo que significa que a veces se necesitan nuevas técnicas para encontrar el derivado de una función. Estas técnicas incluyen la regla de cadena, la regla de producto y la regla de cociente. Otras funciones no pueden diferenciarse en absoluto, dando lugar al concepto de diferenciabilidad.

Un concepto estrechamente relacionado con la derivada de una función es su diferencial. Cuando x y y son variables reales, la derivada de f en x es la pendiente de la recta tangente a la gráfica de f en x. Debido a que el origen y el destino de f son unidimensionales, la derivada de f es un número real. Si x y y son vectores, entonces la mejor aproximación lineal a la gráfica de f depende de cómo cambie f en varios direcciones a la vez. Tomar la mejor aproximación lineal en una sola dirección determina una derivada parcial, que generalmente se denota y/x. La linealización de f en todas las direcciones a la vez se denomina derivada total.

Historia de la diferenciación

El concepto de derivada en el sentido de una línea tangente es muy antiguo, familiar para los antiguos matemáticos griegos como Euclides (c. 300 a. C.), Arquímedes (c. 287–212 a. C.) y Apolonio de Perge (C. 262-190 aC). Arquímedes también hizo uso de los indivisibles, aunque estos se usaron principalmente para estudiar áreas y volúmenes en lugar de derivadas y tangentes (ver El método de los teoremas mecánicos).

El uso de infinitesimales para estudiar las tasas de cambio se puede encontrar en las matemáticas indias, tal vez ya en el año 500 d. C., cuando el astrónomo y matemático Aryabhata (476–550) usó infinitesimales para estudiar la órbita de la Luna. Bhāskara II (1114-1185) desarrolló significativamente el uso de infinitesimales para calcular tasas de cambio; de hecho, se ha argumentado que muchas de las nociones clave del cálculo diferencial se pueden encontrar en su trabajo, como el 'teorema de Rolle'.

El matemático Sharaf al-Dīn al-Tūsī (1135–1213), en su Tratado de ecuaciones, estableció condiciones para que algunas ecuaciones cúbicas tuvieran solución, encontrando los máximos de polinomios cúbicos apropiados.. Obtuvo, por ejemplo, que el máximo (para positivo x) de la cúbica ax2x3 ocurre cuando x = 2a / 3, y de allí concluyó que la ecuación ax2 = x3 + c tiene exactamente una solución positiva cuando c = 4 a3 / 27, y dos soluciones positivas siempre que 0 < c < 4a3 / 27. El historiador de la ciencia, Roshdi Rashed, ha argumentado que al-Tūsī debe haber usado la derivada de la cúbica para obtener este resultado. Sin embargo, la conclusión de Rashed ha sido cuestionada por otros estudiosos que argumentan que podría haber obtenido el resultado por otros métodos que no requieren que se conozca la derivada de la función.

El desarrollo moderno del cálculo generalmente se atribuye a Isaac Newton (1643–1727) y Gottfried Wilhelm Leibniz (1646–1716), quienes proporcionaron enfoques independientes y unificados para la diferenciación y las derivadas. Sin embargo, la idea clave que les valió este crédito fue el teorema fundamental del cálculo que relaciona la diferenciación y la integración: esto volvió obsoletos la mayoría de los métodos anteriores para calcular áreas y volúmenes, que no se habían ampliado significativamente desde la época de Ibn al-Haytham (Alhazén). Para sus ideas sobre derivadas, tanto Newton como Leibniz se basaron en importantes trabajos anteriores de matemáticos como Pierre de Fermat (1607-1665), Isaac Barrow (1630-1677), René Descartes (1596-1650), Christiaan Huygens (1629-1695), Blaise Pascal (1623–1662) y John Wallis (1616–1703). Con respecto a la influencia de Fermat, Newton escribió una vez en una carta que "tenía la pista de este método [de fluxiones] de la forma en que Fermat dibujaba tangentes, y al aplicarlo a formas abstractas ecuaciones, directa e inversamente, lo hice general." Isaac Barrow generalmente recibe crédito por el desarrollo temprano del derivado. No obstante, Newton y Leibniz siguen siendo figuras clave en la historia de la diferenciación, sobre todo porque Newton fue el primero en aplicar la diferenciación a la física teórica, mientras que Leibniz desarrolló sistemáticamente gran parte de la notación que todavía se usa en la actualidad.

Desde el siglo XVII, muchos matemáticos han contribuido a la teoría de la diferenciación. En el siglo XIX, matemáticos como Augustin Louis Cauchy (1789–1857), Bernhard Riemann (1826–1866) y Karl Weierstrass (1815–1897) pusieron el cálculo sobre una base mucho más rigurosa. Fue también durante este período que la diferenciación se generalizó al espacio euclidiano y al plano complejo.

Aplicaciones de derivados

Optimización

Si f es una función diferenciable en (o un intervalo abierto) y x es un máximo local o un mínimo local de f, entonces la derivada de f en x es cero. Los puntos donde f'(x) = 0 se denominan puntos críticos o puntos estacionarios (y el valor de f en x se denomina valor crítico). Si no se asume que f es diferenciable en todas partes, entonces los puntos en los que no es diferenciable también se designan como puntos críticos.

Si f es dos veces diferenciable, entonces a la inversa, un punto crítico x de f se puede analizar considerando la segunda derivada de f en x:

  • si es positivo, x es un mínimo local;
  • si es negativo, x es un máximo local;
  • si es cero, entonces x podría ser un mínimo local, un máximo local, o ninguno. (Por ejemplo, f()x) x3 tiene un punto crítico x = 0, pero no tiene ni un máximo ni un mínimo allí, mientras f()x± x4 tiene un punto crítico x = 0 y un mínimo y un máximo, respectivamente, allí.)

Esto se llama la prueba de la segunda derivada. Un enfoque alternativo, llamado prueba de la primera derivada, implica considerar el signo de la f' a cada lado del punto crítico.

Tomar derivadas y resolver los puntos críticos es, por lo tanto, una forma sencilla de encontrar mínimos o máximos locales, lo que puede ser útil en la optimización. Por el teorema del valor extremo, una función continua en un intervalo cerrado debe alcanzar sus valores mínimo y máximo al menos una vez. Si la función es diferenciable, los mínimos y máximos solo pueden ocurrir en puntos críticos o extremos.

Esto también tiene aplicaciones en la elaboración de gráficos: una vez que se han encontrado los mínimos y máximos locales de una función diferenciable, se puede obtener un gráfico aproximado del gráfico a partir de la observación de que será creciente o decreciente entre los puntos críticos.

En dimensiones superiores, un punto crítico de una función escalar es un punto en el que el gradiente es cero. La prueba de la segunda derivada aún se puede usar para analizar puntos críticos al considerar los valores propios de la matriz hessiana de las segundas derivadas parciales de la función en el punto crítico. Si todos los valores propios son positivos, entonces el punto es un mínimo local; si todos son negativos, es un máximo local. Si hay algunos valores propios positivos y algunos negativos, entonces el punto crítico se denomina "punto de silla", y si ninguno de estos casos se cumple (es decir, algunos de los valores propios son cero), entonces se considera que la prueba ser inconcluso.

Cálculo de variaciones

Un ejemplo de un problema de optimización es: encuentre la curva más corta entre dos puntos en una superficie, suponiendo que la curva también debe estar en la superficie. Si la superficie es un plano, entonces la curva más corta es una línea. Pero si la superficie tiene, por ejemplo, forma de huevo, entonces el camino más corto no está claro de inmediato. Estos caminos se llaman geodésicas, y uno de los problemas más fundamentales en el cálculo de variaciones es encontrar geodésicas. Otro ejemplo es: Encuentre la superficie de área más pequeña que llena una curva cerrada en el espacio. Esta superficie se llama superficie mínima y también se puede encontrar usando el cálculo de variaciones.

Física

El cálculo es de vital importancia en la física: muchos procesos físicos se describen mediante ecuaciones que involucran derivadas, llamadas ecuaciones diferenciales. La física se ocupa especialmente de la forma en que las cantidades cambian y se desarrollan con el tiempo, y el concepto de "derivada del tiempo" — la tasa de cambio en el tiempo — es esencial para la definición precisa de varios conceptos importantes. En particular, las derivadas temporales de la posición de un objeto son significativas en la física newtoniana:

  • velocidad es el derivado (con respecto al tiempo) del desplazamiento de un objeto (distancia de la posición original)
  • la aceleración es el derivado (con respecto al tiempo) de la velocidad de un objeto, es decir, el segundo derivado (con respecto al tiempo) de la posición de un objeto.

Por ejemplo, si la posición de un objeto en una línea viene dada por

x()t)=− − 16t2+16t+32,{displaystyle x(t)=-16t^{2}+16t+32,,!}

entonces la velocidad del objeto es

xÍ Í ()t)=x.()t)=− − 32t+16,{displaystyle {dot {x}(t)=x'(t)=-32t+16,,!}

y la aceleración del objeto es

x.. ()t)=x.()t)=− − 32,{displaystyle {ddot {x}(t)=x'(t)=-32,,!}

que es constante.

Ecuaciones diferenciales

Una ecuación diferencial es una relación entre un conjunto de funciones y sus derivadas. Una ecuación diferencial ordinaria es una ecuación diferencial que relaciona funciones de una variable con sus derivadas con respecto a esa variable. Una ecuación diferencial parcial es una ecuación diferencial que relaciona funciones de más de una variable con sus derivadas parciales. Las ecuaciones diferenciales surgen naturalmente en las ciencias físicas, en los modelos matemáticos y dentro de las propias matemáticas. Por ejemplo, la segunda ley de Newton, que describe la relación entre la aceleración y la fuerza, puede expresarse como la ecuación diferencial ordinaria

F()t)=md2xdt2.{displaystyle F(t)=m{2} {}{2}}} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}}} {fnMicroc} {f}}} {f}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}

La ecuación del calor en una variable espacial, que describe cómo se difunde el calor a través de una barra recta, es la ecuación diferencial parcial

∂ ∂ u∂ ∂ t=α α ∂ ∂ 2u∂ ∂ x2.{displaystyle {frac {partial u}{partial #=alpha {fracpartial ^{2}u}{partial #

Aquí u(x,t) es la temperatura de la varilla en posición x y hora t y α es una constante que depende de qué tan rápido se difunde el calor a través de la varilla.

Teorema del valor medio

El valor medio teorema: Para cada función diferenciable f:[a,b]→ → R{displaystyle f:[a,b]to mathbb {R} con <math alttext="{displaystyle aa.b{displaystyle a meantb}<img alt="a hay un c▪ ▪ ()a,b){displaystyle cin (a,b)} con f.()c)=f()b)− − f()a)b− − a{displaystyle f'(c)={tfrac {f(b)-f(a)}{b-a}}.

El teorema del valor medio proporciona una relación entre los valores de la derivada y los valores de la función original. Si f(x) es una función de valor real y a y b son números con a < b, entonces el teorema del valor medio dice que bajo hipótesis moderadas, la pendiente entre los dos puntos (a, f(a)) y (b, f(b)) es igual a la pendiente de la recta tangente a f en algún punto c entre a y b . En otras palabras,

f.()c)=f()b)− − f()a)b− − a.{displaystyle f'(c)={frac {f(b)-f(a)}{b-a}}

En la práctica, lo que hace el teorema del valor medio es controlar una función en términos de su derivada. Por ejemplo, suponga que f tiene una derivada igual a cero en cada punto. Esto significa que su recta tangente es horizontal en todos los puntos, por lo que la función también debería ser horizontal. El teorema del valor medio prueba que esto debe ser cierto: la pendiente entre dos puntos en el gráfico de f debe ser igual a la pendiente de una de las tangentes líneas de f. Todas esas pendientes son cero, por lo que cualquier línea desde un punto del gráfico hasta otro punto también tendrá pendiente cero. Pero eso dice que la función no se mueve hacia arriba o hacia abajo, por lo que debe ser una línea horizontal. Condiciones más complicadas sobre la derivada conducen a información menos precisa pero aún muy útil sobre la función original.

Polinomios de Taylor y series de Taylor

La derivada da la mejor aproximación lineal posible de una función en un punto dado, pero esto puede ser muy diferente de la función original. Una forma de mejorar la aproximación es tomar una aproximación cuadrática. Es decir, la linealización de una función de valor real f(x) en el punto x0 es un polinomio lineal a + b(xx0), y puede ser posible obtener una mejor aproximación considerando un polinomio cuadrático a + b(xx0) + c(xx0)2. Aún mejor podría ser un polinomio cúbico a + b(xx 0) + c(xx0)2 + d(xx0)3, y esta idea se puede extender a polinomios de grado arbitrariamente alto. Para cada uno de estos polinomios, debería haber la mejor elección posible de coeficientes a, b, c y d que hace que la aproximación sea lo mejor posible.

En la vecindad de x0, para a la mejor elección posible siempre es f(x0), y para b la mejor elección posible siempre es f'(x0). Para c, d y coeficientes de mayor grado, estos los coeficientes están determinados por derivadas superiores de f. c siempre debe ser f''(x0) //span>2 y d siempre deben ser f''' (x0)/3!. El uso de estos coeficientes da el polinomio de Taylor de f. El polinomio de Taylor de grado d es el polinomio de grado d que se aproxima mejor a f, y sus coeficientes se pueden encontrar mediante una generalización de las fórmulas anteriores. El teorema de Taylor da un límite preciso de qué tan buena es la aproximación. Si f es un polinomio de grado menor o igual que d, entonces el polinomio de Taylor de grado d es igual a f.

El límite de los polinomios de Taylor es una serie infinita llamada serie de Taylor. La serie de Taylor es frecuentemente una muy buena aproximación a la función original. Las funciones que son iguales a su serie de Taylor se llaman funciones analíticas. Es imposible que las funciones con discontinuidades o esquinas vivas sean analíticas; además, existen funciones suaves que tampoco son analíticas.

Teorema de la función implícita

Algunas formas geométricas naturales, como los círculos, no se pueden dibujar como la gráfica de una función. Por ejemplo, si f(x, y) = x2 + y2 − 1, entonces el círculo es el conjunto de todos los pares (x, y) tal que f(x, y) = 0. Este conjunto se llama el conjunto cero de f, y no es lo mismo que el gráfico de f , que es un paraboloide. El teorema de la función implícita convierte relaciones como f(x, y) = 0 en funciones Establece que si f es continuamente diferenciable, entonces alrededor de la mayoría de los puntos, el conjunto cero de f parece gráficos de funciones pegados. Los puntos en los que esto no es cierto están determinados por una condición sobre la derivada de f. El círculo, por ejemplo, se puede pegar a partir de los gráficos de las dos funciones ± 1 - x2. En una vecindad de cada punto del círculo excepto (−1, 0) y (1, 0), uno de estos dos funciones tiene una gráfica que se parece al círculo. (Estas dos funciones también cumplen (−1, 0) y (1, 0), pero esto no está garantizado por el teorema de la función implícita.)

El teorema de la función implícita está estrechamente relacionado con el teorema de la función inversa, que establece que una función se ve como gráficas de funciones invertibles pegadas.

Contenido relacionado

Matemático

Uno de los primeros matemáticos conocidos fue Tales de Mileto (c. 624–c. 546 a. C.); ha sido aclamado como el primer verdadero matemático y la primera...

Función elemental

En matemáticas, una función elemental es una función de una sola variable que se define como sumas, productos, raíces y composiciones de un número finito...

Combinación

En matemáticas, a combinación es una selección de elementos de un conjunto que tiene miembros distintos, de manera que el orden de selección no importa Si...
Más resultados...
Tamaño del texto: