En análisis matemático , la regla de la cadena es una regla de derivación que permite calcular la derivada de la función que consta de dos funciones derivables.
Definición
La derivada de la función compuesta es el producto entre la derivada de la función externa, teniendo como argumento la función interna, por la derivada de la función interna:
- {\ Displaystyle D [f (g (x))] = f '(g (x)) \ cdot g' (x)}
![D [f (g (x))] = f '(g (x)) \ cdot g' (x)](https://wikimedia.org/api/rest_v1/media/math/render/svg/c0e1f32c1c1e4687490aa6b34af65b612119124e)
Las notaciones {\ Displaystyle D [f (x)]}
Y {\ Displaystyle f '(x)}
indican el mismo significado de derivada.
La fórmula también es válida para funciones reales de varias variables y funciones vectoriales . El teorema de la derivación de funciones compuestas establece que si:
- {\ Displaystyle \ mathbf {x} (t) = (x_ {1} (t), x_ {2} (t), \ dots, x_ {n} (t)) \ quad t \ in \ mathbb {R} }

es un vector de {\ Displaystyle \ mathbb {R} ^ {n}}
cuyos componentes son funciones diferenciables:
- {\ Displaystyle \ mathbf {x} '(t) = (x' _ {1} (t), x '_ {2} (t), \ dots, x' _ {n} (t))}

y si {\ Displaystyle f}
Es una función diferenciable en {\ Displaystyle \ mathbf {x} (t)}
, luego la función compuesta:
- {\ Displaystyle F (t) = f (\ mathbf {x} (t))}

es diferenciable en la variable {\ Displaystyle t}
y tenemos:
- {\ Displaystyle F '(t) = \ sum _ {i = 1} ^ {n} {\ frac {\ parcial f (\ mathbf {x} (t))} {\ parcial x_ {i}}} x' _ {i} (t) = \ langle {\ mathbf {\ nabla} F (t)}, {\ mathbf {x} '(t)} \ rangle = \ langle {\ mathbf {\ nabla} f (\ mathbf {x} (t))}, {\ mathbf {\ mathbf {x}} '(t)} \ rangle}

Dónde está {\ Displaystyle \ nabla f}
Es el gradiente de {\ Displaystyle f}
Y {\ Displaystyle <\ cdot, \ cdot>}
Es el producto escalar euclidiano .
Por ejemplo, si {\ Displaystyle f}
es una función de dos variables compuesta después de la función vectorial {\ Displaystyle (g, h)}
, es decir {\ Displaystyle f (g (t), h (t))}
, asi que:
- {\ displaystyle {df \ sobre dt} = {\ f parcial \ sobre \ g parcial} {dg \ sobre dt} + {\ f parcial \ sobre \ h parcial} {dh \ sobre dt}}

También si {\ Displaystyle \ mathbf {f}}
Y {\ Displaystyle \ mathbf {g}}
son dos funciones vectoriales diferenciables componibles, entonces:
- {\ Displaystyle J [(\ mathbf {f} \ circ \ mathbf {g}) (x)] = J [\ mathbf {f} (\ mathbf {g} (x))] \ cdot J [\ mathbf {g } (X)]}
![J [({\ mathbf f} \ circ {\ mathbf g}) (x)] = J [{\ mathbf f} ({\ mathbf g} (x))] \ cdot J [{\ mathbf g} (x )]](https://wikimedia.org/api/rest_v1/media/math/render/svg/b83982973c5f93d619b4860616809eca81dae5cc)
Dónde está {\ Displaystyle \ cdot}
Es la multiplicación de matrices y {\ Displaystyle J [\ mathbf {f} (x)]}
Es la matriz jacobiana de {\ Displaystyle \ mathbf {f}}
.
Demostración
Dejemos, para no sobrecargar la notación, {\ Displaystyle \ Delta g: = g (x + h) -g (x)}
, a partir del cual {\ Displaystyle g (x + h) = g (x) + \ Delta g}
. Definamos ahora
- {\ Displaystyle \ omega (\ Delta g) = {\ begin {cases} {\ frac {f (g (x) + \ Delta g) -f (g (x))} {\ Delta g}} - f ' (g (x)) & {\ mbox {se}} \ Delta g \ neq 0 \\ 0 & {\ mbox {se}} \ Delta g = 0 \ end {cases}}}

Y entonces
- {\ Displaystyle f (g (x) + \ Delta g) -f (g (x)) = f '(g (x)) \ cdot \ Delta g + \ omega (\ Delta g) \ cdot \ Delta g}
.
Además, para la hipótesis de diferenciabilidad de {\ Displaystyle f}
, Y
- {\ Displaystyle \ lim _ {\ Delta g \ to 0} \ omega (\ Delta g) = 0}
.
Examinemos ahora la razón incremental de {\ Displaystyle f (g (x))}
:
- {\ Displaystyle D [f (g (x))] = \ lim _ {h \ to 0} {\ frac {f (g (x + h)) - f (g (x))} {h}} = \ lim _ {h \ to 0} {\ frac {f (g (x) + \ Delta g) -f (g (x))} {h}} =}
- {\ displaystyle = \ lim _ {h \ to 0} {\ frac {f '(g (x)) \ cdot \ Delta g + \ omega (\ Delta g) \ cdot \ Delta g} {h}}}
.
Al romper la fracción, tenemos
- {\ Displaystyle \ lim _ {h \ to 0} f '(g (x)) \ cdot {\ frac {g (x + h) -g (x)} {h}} + \ lim _ {h \ to 0} \ omega (\ Delta g) \ cdot {\ frac {g (x + h) -g (x)} {h}}}

Y luego yendo al limite
- {\ Displaystyle D [f (g (x))] = f '(g (x)) \ cdot g' (x) +0 \ cdot g '(x) = f' (g (x)) \ cdot g '(X)}
CVD .
Demostración con "o" pequeña
Considere dos funciones {\ Displaystyle f, g: [a, b] \ to \ mathbb {R}}
y la función compuesta {\ Displaystyle H (x) = g \ left (f (x) \ right)}
entonces es posible escribir los informes incrementales de las funciones de esta manera:
- {\ Displaystyle f (x + h) -f (x) = f '(x) h + o_ {1} (h) \}
- {\ Displaystyle g (y + k) -g (y) = g '(y) k-o_ {2} (k) \}
- {\ Displaystyle H (x + h) -H (x) = \ divideontimes h-o_ {3} (h)}

En este punto, pasamos a reescribir el {\ Displaystyle H (x + h) -H (x)}
teniendo en cuenta que {\ Displaystyle H (x) = g \ left (f (x) \ right)}
por lo tanto tenemos:
- {\ Displaystyle H (x + h) -H (x) = g (f (x + h)) - g (f (x)) \}

Por favor recuerda eso {\ Displaystyle f (x + h) = f (x) + f '(x) h + o_ {1} (h)}
por lo tanto tenemos:
- {\ Displaystyle H (x + h) -H (x) = g (f (x) + f '(x) h + o_ {1} (h)) - g (f (x)) \}

A partir del cual se hace un reemplazo {\ Displaystyle f (x) = y}
y {\ Displaystyle k = f '(x) h + o_ {1} (h)}
y escribes:
- {\ Displaystyle H (x + h) -H (x) = g (y + k) -g (y) = g '(y) k-o_ {2} (k) = g' (f (x)) \ cdot (f '(x) h + o_ {1} (h)) - o_ {2} (k) = g' (f (x)) f '(x) h + g' (f (x)) o_ {1} (h) -o_ {2} (k)}

Desde aqui llamo {\ Displaystyle \ divideontimes = g '(f (x)) f' (x)}
y también {\ Displaystyle o_ {3} (h) = g '(f (x)) o_ {1} (h) -o_ {2} (k)} 
Se demuestra el teorema
Observaciones
- {\ Displaystyle {\ frac {df} {dx}} = {\ frac {df} {dg}} \ cdot {\ frac {dg} {dx}}}

que es útil para fijar mnemotécnicamente el resultado (como si el {\ displaystyle dg}
se "simplificó" en las dos fracciones), aunque obviamente no constituye una demostración.
- Aplicando la fórmula de forma iterativa, se puede calcular la derivada de una composición de tres o más funciones. P.ej:
- {\ Displaystyle D [(f \ circ g \ circ h) (x)] = f '(g (h (x))) \ cdot g' (h (x)) \ cdot h '(x)}
![{\ Displaystyle D [(f \ circ g \ circ h) (x)] = f '(g (h (x))) \ cdot g' (h (x)) \ cdot h '(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7c16ee55efa0e1288ac62ff7d08ffbdd4a0e36f2)
etcétera.
Ejemplo
Es{\ Displaystyle f (x) = \ log x-3}
,{\ Displaystyle g (x) = x ^ {2} + 3x}
, {\ Displaystyle h (x) = {x \ over 2}}
. Luego:
- {\ Displaystyle (f \ circ g \ circ h) (x) = \ log \ left [\ left ({x \ over 2} \ right) ^ {2} +3 {x \ over 2} \ right] -3 }
![{\ Displaystyle (f \ circ g \ circ h) (x) = \ log \ left [\ left ({x \ over 2} \ right) ^ {2} +3 {x \ over 2} \ right] -3 }](https://wikimedia.org/api/rest_v1/media/math/render/svg/de820da76c1cbe4f2cbc981260d6234b57583f75)
Y
- {\ Displaystyle D [(f \ circ g \ circ h) (x)] = {1 \ over ({x \ over 2}) ^ {2} +3 {x \ over 2}} \ cdot \ left (2 {x \ over 2} +3 \ right) \ cdot {1 \ over 2}}
![{\ Displaystyle D [(f \ circ g \ circ h) (x)] = {1 \ over ({x \ over 2}) ^ {2} +3 {x \ over 2}} \ cdot \ left (2 {x \ over 2} +3 \ right) \ cdot {1 \ over 2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dad06019a55bbfe8dff1f83ece19cc94d9fecb6b)
Derivados posteriores
La extensión de la fórmula para el cálculo de derivadas de orden superior se debe a Faa di Bruno . En particular, si {\ Displaystyle f, g}
poseen todos los derivados necesarios, entonces resulta:
- {\ Displaystyle {\ frac {d ^ {2} f} {dx ^ {2}}} = {\ frac {d ^ {2} f} {dg ^ {2}}} \ left ({\ frac {dg } {dx}} \ right) ^ {2} + {\ frac {df} {dg}} {\ frac {d ^ {2} g} {dx ^ {2}}}}
- {\ Displaystyle {\ frac {d ^ {3} f} {dx ^ {3}}} = {\ frac {d ^ {3} f} {dg ^ {3}}} \ left ({\ frac {dg } {dx}} \ right) ^ {3} +3 {\ frac {d ^ {2} f} {dg ^ {2}}} {\ frac {dg} {dx}} {\ frac {d ^ { 2} g} {dx ^ {2}}} + {\ frac {df} {dg}} {\ frac {d ^ {3} g} {dx ^ {3}}}}

Artículos relacionados
enlaces externos