Derivada direcional

Em matemática, a derivada direcional de uma função multivariável diferenciável ao longo de um dado vetor v em um dado ponto x intuitivamente representa a taxa instantânea de variação da função, movendo-se através de x com uma velocidade especificada por v. Ela, portanto, generaliza a noção de derivada parcial, em que a taxa de mudança é tomada ao longo de uma curva em um sistema de coordenadas curvilíneo, com todas as outras coordenadas sendo constantes.

A derivada direcional é um caso especial da derivada de Gâteaux.

Notação

Seja τ uma curva cujo vetor tangente em algum ponto escolhido é v. A derivada  direcional de uma função f em relação a v pode ser representada das seguintes maneiras:

  • v f ( x ) , {\displaystyle \nabla _{\mathbf {v} }{f}(\mathbf {x} ),}
  • f v ( x ) , {\displaystyle f'_{\mathbf {v} }(\mathbf {x} ),}
  • D v f ( x ) , {\displaystyle D_{\mathbf {v} }f(\mathbf {x} ),}
  • D f ( x ) ( v ) , {\displaystyle Df(\mathbf {x} )(\mathbf {v} ),}
  • v f ( x ) , {\displaystyle \partial _{\mathbf {v} }f(\mathbf {x} ),}
  • f ( x ) τ , {\displaystyle {\frac {\partial {f(\mathbf {x} )}}{\partial {\tau }}},}
  • v f ( x ) , {\displaystyle \mathbf {v} \cdot {\nabla f(\mathbf {x} )},}
  • v f ( x ) x . {\displaystyle \mathbf {v} \cdot {\frac {\partial f(\mathbf {x} )}{\partial \mathbf {x} }}.}

Definição

A derivada direcional de uma função da forma z = f ( x , y ) {\displaystyle z=f(x,y)} na direção u {\displaystyle {\vec {u}}} tem por definição:

D u f ( x , y ) = d f d x u1 + d f d y u2 {\displaystyle D{\vec {u}}f(x,y)={df \over dx}{\scriptstyle {\text{u1}}}+{df \over dy}{\scriptstyle {\text{u2}}}}

Também pode ser escrita como o produto escalar: D u f ( x , y ) = f u {\displaystyle D{\vec {u}}f(x,y)={\vec {\nabla }}f\centerdot {\vec {u}}}

Essa definição foi estabelecida para duas dimensões, mas pode ser generalizada para três dimensões. Teremos, portanto, uma função de três variáveis, w = f (x, y, z), que pode ser representada graficamente num sistema de coordenadas retangulares.

Esse produto escalar entre o gradiente de f e um vetor unitário u {\displaystyle {\vec {u}}} tem grandes implicações na matemática. Sejam algumas delas:

  • A derivada direcional será máxima e igual ao módulo do gradiente se o ângulo θ entre os vetores f {\displaystyle {\vec {\nabla }}f} e u {\displaystyle {\vec {u}}} for igual a zero.

D u f ( x , y ) = | f | | u | cos 0 D u f ( x , y ) = | f | {\textstyle D{\vec {u}}f(x,y)=\left\vert {\vec {\nabla }}f\right\vert \left\vert {\vec {u}}\right\vert \cos 0^{\circ }\therefore D{\vec {u}}f(x,y)=\left\vert {\vec {\nabla }}f\right\vert }

  • A derivada direcional será mínima e igual a menos o módulo do gradiente se o ângulo θ entre os vetores f {\displaystyle {\vec {\nabla }}f} e u {\displaystyle {\vec {u}}} for igual a 180°.

D u f ( x , y ) = | f | | u | cos 180 D u f ( x , y ) = | f | {\displaystyle D{\vec {u}}f(x,y)=\left\vert {\vec {\nabla }}f\right\vert \left\vert {\vec {u}}\right\vert \cos 180^{\circ }\therefore D{\vec {u}}f(x,y)=-\left\vert {\vec {\nabla }}f\right\vert }

  • A derivada direcional será nula se f ( x , y ) {\displaystyle f(x,y)} for uma curva de nível representada por f ( x , y ) = k {\displaystyle f(x,y)=k} e u {\displaystyle {\vec {u}}} for um vetor tangente à curva de nível. Observando o produto escalar f u = 0 {\displaystyle {\vec {\nabla }}f\centerdot {\vec {u}}=0} temos uma condição de perpendicularidade entre f {\displaystyle {\vec {\nabla }}f} e u {\displaystyle {\vec {u}}} , o que prova que o gradiente será normal à curva de nível f ( x , y ) = k {\displaystyle f(x,y)=k} .

Usando apenas a direção do vetor

O ângulo α entre a tangente A e a horizontal será máximo se o plano de corte contém a direção do gradiente de A.

Em um espaço Euclidiano, alguns autores[1] definem a derivada direcional como sendo relacionada a um vetor v arbitrário e não nulo depois de normalizado, sendo, pois, independente de sua magnitude e dependendo apenas de sua direção.

Esta definição fornece a taxa de crescimento de f por unidade de distância movida na direção dada por v. Neste caso, tem-se que

v f ( x ) = lim h 0 f ( x + h v ) f ( x ) h | v | , {\displaystyle \nabla _{\mathbf {v} }{f}(\mathbf {x} )=\lim _{h\rightarrow 0}{\frac {f(\mathbf {x} +h\mathbf {v} )-f(\mathbf {x} )}{h|\mathbf {v} |}},}

ou no caso de f ser diferenciável em x,

v f ( x ) = f ( x ) v | v | . {\displaystyle \nabla _{\mathbf {v} }{f}(\mathbf {x} )=\nabla f(\mathbf {x} )\cdot {\frac {\mathbf {v} }{|\mathbf {v} |}}.}

Restrição para um vetor unitário

No contexto de uma função em um espaço Euclidiano, alguns textos restringem o vetor v a ser um vetor unitário. Com esta restrição, ambas as definições acima são equivalentes.[2]

Propriedades

Muitas das propriedades familiares da derivada ordinária são mantidas para a derivada direcional. Estes incluem, para quaisquer funções f e g definidas e diferenciáveis em um ponto p, bem como em sua vizinhança:

  1. regra da soma:
    v ( f + g ) = v f + v g . {\displaystyle \nabla _{\mathbf {v} }(f+g)=\nabla _{\mathbf {v} }f+\nabla _{\mathbf {v} }g.}
  2. regra do fator constante: para qualquer constante c,
    v ( c f ) = c v f . {\displaystyle \nabla _{\mathbf {v} }(cf)=c\nabla _{\mathbf {v} }f.}
  3. regra do produto (ou regra de Leibniz):
    v ( f g ) = g v f + f v g . {\displaystyle \nabla _{\mathbf {v} }(fg)=g\nabla _{\mathbf {v} }f+f\nabla _{\mathbf {v} }g.}
  4. regra da cadeia: se g é diferenciável em p e h é diferenciável em g(p), daí
    v ( h g ) ( p ) = h ( g ( p ) ) v g ( p ) . {\displaystyle \nabla _{\mathbf {v} }(h\circ g)(\mathbf {p} )=h'(g(\mathbf {p} ))\nabla _{\mathbf {v} }g(\mathbf {p} ).}

Em geometria diferencial

Seja M uma variedade diferenciável e p um ponto de M. Suponha que f é uma função definida em uma vizinhança de p, e diferenciável em p. Se v é um vetor tangente a M em p, então a derivada direcional de f ao longo de v, denotada alternativamente como df(v), (consulte a derivada Covariante), (consulte a Derivada de Lie), ou, pode ser definido como se segue. Deixe γ : [−1, 1] → M ser uma curva diferenciável com γ(0) = p e γ′(0) = v. Então a derivada direcional é definida por

v f ( p ) = d d τ f γ ( τ ) | τ = 0 . {\displaystyle \nabla _{\mathbf {v} }f(\mathbf {p} )=\left.{\frac {d}{d\tau }}f\circ \gamma (\tau )\right|_{\tau =0}.}

Esta definição pode ser comprovada independentemente da escolha de γ, desde que γ seja selecionado da maneira descrita de modo que γ′(0) = v.

A derivada de Lie

A derivada de Lie de um campo de vetores ao longo de um campo de vetores é dada pela diferença de duas derivadas direcionais:

L V W μ = ( V ) W μ ( W ) V μ . {\displaystyle {\mathcal {L}}_{V}W^{\mu }=(V\cdot \nabla )W^{\mu }-(W\cdot \nabla )V^{\mu }.}

Em particular, para um campo escalar a derivada de Lie reduz-se à derivada direcional padrão:

L V ϕ = ( V ) ϕ . {\displaystyle {\mathcal {L}}_{V}\phi =(V\cdot \nabla )\phi .}

O tensor de Riemann

Derivadas direcionais são usadas frequentemente em derivações introdutórias do tensor de curvatura de Riemann. Considere um retângulo curvado com um vetor infinitesimal δ ao longo de uma borda e δ′ ao longo da outra. Transladamos um covetor S ao longo de δ, em seguida, δ′ e, em seguida, subtraímos a translação ao longo de δ′ e, em seguida, de δ. Em vez de construir a derivada direcional usando derivadas parciais, usamos a derivada covariante. O operador de translação para δ é portanto

1 + ν δ ν D ν = 1 + δ D , {\displaystyle 1+\sum _{\nu }\delta ^{\nu }D_{\nu }=1+\delta \cdot D,}

e para δ′,

1 + μ δ μ D μ = 1 + δ D . {\displaystyle 1+\sum _{\mu }\delta '^{\mu }D_{\mu }=1+\delta '\cdot D.}

A diferença entre os dois caminhos é, então,

( 1 + δ D ) ( 1 + δ D ) S ρ ( 1 + δ D ) ( 1 + δ D ) S ρ = μ , ν δ μ δ ν [ D μ , D ν ] S ρ . {\displaystyle (1+\delta '\cdot D)(1+\delta \cdot D)S^{\rho }-(1+\delta \cdot D)(1+\delta '\cdot D)S^{\rho }=\sum _{\mu ,\nu }\delta '^{\mu }\delta ^{\nu }[D_{\mu },D_{\nu }]S_{\rho }.}

Pode-se argumentar[3] que a não comutatividade das derivadas covariantes mede a curvatura da variedade:

[ D μ , D ν ] S ρ = ± σ R σ ρ μ ν S σ , {\displaystyle [D_{\mu },D_{\nu }]S_{\rho }=\pm \sum _{\sigma }R^{\sigma }{}_{\rho \mu \nu }S_{\sigma },}

onde R é o tensor de curvatura de Riemann e o sinal depende da convenção de sinais do autor.

Na teoria dos grupos

Translações

Na álgebra de Poincaré, podemos definir um operador de translação infinitesimal P como

P = i . {\displaystyle \mathbf {P} =i\nabla .}

(o i assegura que P é um operador autoadjunto). Para um deslocamento finito λ, a representação  unitária do espaço de Hilbert para translações é[4]

U ( λ ) = exp ( i λ P ) . {\displaystyle U(\mathbf {\lambda } )=\exp \left(-i\mathbf {\lambda } \cdot \mathbf {P} \right).}

Usando a definição acima de operador de translação infinitesimal, vemos que o operador de translação finita é o exponencial de uma derivada direcional:

U ( λ ) = exp ( λ ) . {\displaystyle U(\mathbf {\lambda } )=\exp \left(\mathbf {\lambda } \cdot \nabla \right).}

Este é um operador de translação, no sentido em que ele atua sobre funções multivariadas f(x) como

U ( λ ) f ( x ) = exp ( λ ) f ( x ) = f ( x + λ ) . {\displaystyle U(\mathbf {\lambda } )f(\mathbf {x} )=\exp \left(\mathbf {\lambda } \cdot \nabla \right)f(\mathbf {x} )=f(\mathbf {x} +\mathbf {\lambda } ).}
Prova da última equação

A derivada de uma função suave f(x) é definida por (para um termo ε pequeno)

d f d x = f ( x + ϵ ) f ( x ) ϵ . {\displaystyle {\frac {df}{dx}}={\frac {f(x+\epsilon )-f(x)}{\epsilon }}.}

Isto pode ser rearranjado para encontrar f(x+ε):

f ( x + ϵ ) = f ( x ) + ϵ d f d x = ( 1 + ϵ d d x ) f ( x ) . {\displaystyle f(x+\epsilon )=f(x)+\epsilon \,{\frac {df}{dx}}=\left(1+\epsilon \,{\frac {d}{dx}}\right)f(x).}

Daí, [ 1 + ϵ ( d / d x ) ] {\displaystyle [1+\epsilon \,(d/dx)]} é uma operador de translação. Isto é instantaneamente generalizado[5] para de funções com diversas variáveis f(x)

f ( x + ϵ ) = ( 1 + ϵ ) f ( x ) . {\displaystyle f(\mathbf {x} +\mathbf {\epsilon } )=\left(1+\mathbf {\epsilon } \cdot \nabla \right)f(\mathbf {x} ).}

Aqui ϵ {\displaystyle \mathbf {\epsilon } \cdot \nabla } é a derivada direcional ao longo do deslocamento infinitesimal ε. Encontramos a versão infinitesimal do operador translacional:

U ( ϵ ) = 1 + ϵ . {\displaystyle U(\mathbf {\epsilon } )=1+\mathbf {\epsilon } \cdot \nabla .}

É evidente que a lei de multiplicação do grupo[6] U(g)U(f)=U(gf) assume a forma

U ( a ) U ( b ) = U ( a + b ) . {\displaystyle U(\mathbf {a} )U(\mathbf {b} )=U(\mathbf {a+b} ).}

Então, suponha-se que tomemos um deslocamento finito λ e dividamos em N partes (N→∞ é implicado em todos os lugares), assim λ/N=ε. Em outras palavras,

λ = N ϵ . {\displaystyle \mathbf {\lambda } =N\mathbf {\epsilon } .}

Então, aplicando U(ε) N vezes, podemos construir U(λ):

[ U ( ϵ ) ] N = U ( N ϵ ) = U ( λ ) . {\displaystyle [U(\mathbf {\epsilon } )]^{N}=U(N\mathbf {\epsilon } )=U(\mathbf {\lambda } ).}

Agora podemos conectar na expressão acima em U(ε):

[ U ( ϵ ) ] N = [ 1 + ϵ ] N = [ 1 + λ N ] N . {\displaystyle [U(\mathbf {\epsilon } )]^{N}=\left[1+\mathbf {\epsilon } \cdot \nabla \right]^{N}=\left[1+{\frac {\mathbf {\lambda } \cdot \nabla }{N}}\right]^{N}.}

Usando a identidade[7]

exp ( x ) = [ 1 + x N ] N , {\displaystyle \exp(x)=\left[1+{\frac {x}{N}}\right]^{N},}

obtemos

U ( λ ) = exp ( λ ) . {\displaystyle U(\mathbf {\lambda } )=\exp \left(\mathbf {\lambda } \cdot \nabla \right).}

Uma vez que U(ε)f(x)=f(x+ε), vamos encontrar

[ U ( ϵ ) ] N f ( x ) = f ( x + N ϵ ) = f ( x + λ ) = U ( λ ) f ( x ) = exp ( λ ) f ( x ) , {\displaystyle [U(\mathbf {\epsilon } )]^{N}f(\mathbf {x} )=f(\mathbf {x} +N\mathbf {\epsilon } )=f(\mathbf {x} +\mathbf {\lambda } )=U(\mathbf {\lambda } )f(\mathbf {x} )=\exp \left(\mathbf {\lambda } \cdot \nabla \right)f(\mathbf {x} ),}

Q.E.D.

Como uma nota técnica, este procedimento só é possível porque o grupo de translação forma um subgrupo abeliano (subálgebra de Cartan) na álgebra de Poincaré. Em particular, a lei multiplicativa do grupo U(a)U(b)=U(a+b) não deve ser considerada. Também podemos notar que Poincaré é um grupo de Lie conectado. É um grupo de transformação T(ξ) que é descrito por um conjunto contínuo de parâmetros reais ξ a {\displaystyle \scriptstyle \xi ^{a}} . A lei multiplicativa do grupo assume a foma

T ( ξ ¯ ) T ( ξ ) = T ( f ( ξ ¯ , ξ ) ) . {\displaystyle T({\bar {\xi }})T(\xi )=T(f({\bar {\xi }},\xi )).}

Tomando ξ a {\displaystyle \scriptstyle \xi ^{a}} =0 como as coordenadas da identidade, temos

f a ( ξ , 0 ) = f a ( 0 , ξ ) = ξ a . {\displaystyle f^{a}(\xi ,0)=f^{a}(0,\xi )=\xi ^{a}.}

Os operadores no espaço de Hilbert são representados pelos operadores unitários U(T(ξ)). Na notação acima, foi suprimido o T; agora vamos escrever U(λ) como U(P(λ)). Para as vizinhança próxima à identidade, a série de potências pode ser representada como

U ( T ( ξ ) ) = 1 + i a ξ a t a + 1 2 b , c ξ b ξ c t b c + {\displaystyle U(T(\xi ))=1+i\sum _{a}\xi ^{a}t_{a}+{\frac {1}{2}}\sum _{b,c}\xi ^{b}\xi ^{c}t_{bc}+\cdots }

Suponha que U(T(ξ)) forma uma representação sem projeção, isto é,

U ( T ( ξ ¯ ) ) U ( T ( ξ ) ) = U ( T ( f ( ξ ¯ , ξ ) ) ) . {\displaystyle U(T({\bar {\xi }}))U(T(\xi ))=U(T(f({\bar {\xi }},\xi ))).}

A expansão de f à segunda potência é

f a ( ξ ¯ , ξ ) = ξ a + ξ ¯ a + b , c f a b c ξ ¯ b ξ c . {\displaystyle f^{a}({\bar {\xi }},\xi )=\xi ^{a}+{\bar {\xi }}^{a}+\sum _{b,c}f^{abc}{\bar {\xi }}^{b}\xi ^{c}.}

Depois de expandir a equação de multiplicação de representação e equacionando os coeficientes, temos a condição não trivial

t b c = t b t c i a f a b c t a . {\displaystyle t_{bc}=-t_{b}t_{c}-i\sum _{a}f^{abc}t_{a}.}

Uma vez que t a b {\displaystyle \scriptstyle t_{ab}} é por definição simétrica em seus índices, nós vamos ter o comutador padrão da álgebra de Lie:

[ t b , t c ] = i a ( f a b c + f a c b ) t a = i a C a b c t a , {\displaystyle [t_{b},t_{c}]=i\sum _{a}(-f^{abc}+f^{acb})t_{a}=i\sum _{a}C^{abc}t_{a},}

sendo C a constante de estrutura. Os geradores para translação são operadores de derivadas parciais, que comutam:

[ x b , x c ] = 0. {\displaystyle \left[{\frac {\partial }{\partial x^{b}}},{\frac {\partial }{\partial x^{c}}}\right]=0.}

Isso implica que as constantes de estrutura somem e então os coeficientes quadráticos na expansão de f somem também, o que significa que f é simplesmente aditiva:

f abelian a ( ξ ¯ , ξ ) = ξ a + ξ ¯ a , {\displaystyle f_{\text{abelian}}^{a}({\bar {\xi }},\xi )=\xi ^{a}+{\bar {\xi }}^{a},}

e então para grupos abelianos,

U ( T ( ξ ¯ ) ) U ( T ( ξ ) ) = U ( T ( ξ ¯ + ξ ) ) . {\displaystyle U(T({\bar {\xi }}))U(T(\xi ))=U(T({\bar {\xi }}+\xi )).}

Q.E.D.

Rotações

O operador rotacional também contém uma derivada direcional. O operador rotacional de um ângulo θ, isto é, por uma quantidade θ=|θ| em torno de um eixo paralelo a =θ/θ é

U ( R ( θ ) ) = exp ( i θ L ) . {\displaystyle U(R(\mathbf {\theta } ))=\exp(-i\mathbf {\theta } \cdot \mathbf {L} ).}

Aqui L é o operador vetorial que gera SO(3):

L = ( 0 0 0 0 0 1 0 1 0 ) i + ( 0 0 1 0 0 0 1 0 0 ) j + ( 0 1 0 1 0 0 0 0 0 ) k . {\displaystyle \mathbf {L} ={\begin{pmatrix}0&0&0\\0&0&1\\0&-1&0\end{pmatrix}}\mathbf {i} +{\begin{pmatrix}0&0&-1\\0&0&0\\1&0&0\end{pmatrix}}\mathbf {j} +{\begin{pmatrix}0&1&0\\-1&0&0\\0&0&0\end{pmatrix}}\mathbf {k} .}

Pode ser demonstrado geometricamente que uma rotação infinitesimal dextrógira altera a posição do vetor x por

x x δ θ × x . {\displaystyle \mathbf {x} \rightarrow \mathbf {x} -\delta \mathbf {\theta } \times \mathbf {x} .}

Assim, nós esperaríamos de uma rotação infinitesimal:

U ( R ( δ θ ) ) f ( x ) = f ( x δ θ × x ) = f ( x ) ( δ θ × x ) f . {\displaystyle U(R(\delta \mathbf {\theta } ))f(\mathbf {x} )=f(\mathbf {x} -\delta \mathbf {\theta } \times \mathbf {x} )=f(\mathbf {x} )-(\delta \mathbf {\theta } \times \mathbf {x} )\cdot \nabla f.}

Segue que

U ( R ( δ θ ) ) = 1 ( δ θ × x ) . {\displaystyle U(R(\delta \mathbf {\theta } ))=1-(\delta \mathbf {\theta } \times \mathbf {x} )\cdot \nabla .}

Seguindo o mesmo procedimento de exponenciação acima, chegamos no operador rotacional na posição base, que é o exponencial de uma derivada direcional:[8]

U ( R ( θ ) ) = exp ( ( θ × x ) ) . {\displaystyle U(R(\mathbf {\theta } ))=\exp(-(\mathbf {\theta } \times \mathbf {x} )\cdot \nabla ).}

Derivada normal

Uma derivada normal é uma derivada direcional tomada na direção normal (isto é, ortogonal) a alguma superfície no espaço, ou, mais geralmente, ao longo de um campo vetorial normal a alguma hipersuperfície. Veja, por exemplo, a condição de contorno de Neumann. Se a direção normal é denotada por n {\displaystyle \mathbf {n} } , então a derivada direcional de uma função f é às vezes denotada por  f n {\displaystyle {\frac {\partial f}{\partial n}}} . Em outras notações,

f n = f ( x ) n = n f ( x ) = f x n = D f ( x ) [ n ] . {\displaystyle {\frac {\partial f}{\partial \mathbf {n} }}=\nabla f(\mathbf {x} )\cdot \mathbf {n} =\nabla _{\mathbf {n} }{f}(\mathbf {x} )={\frac {\partial f}{\partial \mathbf {x} }}\cdot \mathbf {n} =Df(\mathbf {x} )[\mathbf {n} ].}

Na mecânica contínua de sólidos

Vários resultados importantes em mecânica contínua exigem as derivadas de vetores em relação aos vetores e de tensores em relação aos vetores e tensores.[9] A derivada direcional proporciona uma forma sistemática de encontrar essas derivadas.

As definições de derivadas direcionais para várias situações são dadas abaixo. Presume-se que as funções são suficientemente suaves para que as derivadas possam ser tomadas.

Derivadas de funções vetoriais com imagem escalar

Seja f ( v ) {\displaystyle f(\mathbf {v} )} uma função com imagem real do vetor v {\displaystyle \mathbf {v} } . Então a derivada de f ( v ) {\displaystyle f(\mathbf {v} )} em relação a  v {\displaystyle \mathbf {v} }  na direção u {\displaystyle \mathbf {u} } é definida como

f v u = D f ( v ) [ u ] = [ d d α   f ( v + α   u ) ] α = 0 {\displaystyle {\frac {\partial f}{\partial \mathbf {v} }}\cdot \mathbf {u} =Df(\mathbf {v} )[\mathbf {u} ]=\left[{\frac {d}{d\alpha }}~f(\mathbf {v} +\alpha ~\mathbf {u} )\right]_{\alpha =0}}

para todos os vetores u {\displaystyle \mathbf {u} } .

Propriedades:

  1. Se f ( v ) = f 1 ( v ) + f 2 ( v ) {\displaystyle f(\mathbf {v} )=f_{1}(\mathbf {v} )+f_{2}(\mathbf {v} )} então f v u = ( f 1 v + f 2 v ) u . {\displaystyle {\frac {\partial f}{\partial \mathbf {v} }}\cdot \mathbf {u} =\left({\frac {\partial f_{1}}{\partial \mathbf {v} }}+{\frac {\partial f_{2}}{\partial \mathbf {v} }}\right)\cdot \mathbf {u} .}
  2. Se f ( v ) = f 1 ( v )   f 2 ( v ) {\displaystyle f(\mathbf {v} )=f_{1}(\mathbf {v} )~f_{2}(\mathbf {v} )} então f v u = ( f 1 v u )   f 2 ( v ) + f 1 ( v )   ( f 2 v u ) . {\displaystyle {\frac {\partial f}{\partial \mathbf {v} }}\cdot \mathbf {u} =\left({\frac {\partial f_{1}}{\partial \mathbf {v} }}\cdot \mathbf {u} \right)~f_{2}(\mathbf {v} )+f_{1}(\mathbf {v} )~\left({\frac {\partial f_{2}}{\partial \mathbf {v} }}\cdot \mathbf {u} \right).}
  3. Se f ( v ) = f 1 ( f 2 ( v ) ) {\displaystyle f(\mathbf {v} )=f_{1}(f_{2}(\mathbf {v} ))} então f v u = f 1 f 2   f 2 v u . {\displaystyle {\frac {\partial f}{\partial \mathbf {v} }}\cdot \mathbf {u} ={\frac {\partial f_{1}}{\partial f_{2}}}~{\frac {\partial f_{2}}{\partial \mathbf {v} }}\cdot \mathbf {u} .}

Derivadas funções vetoriais com imagem vetorial

Seja f ( v ) {\displaystyle \mathbf {f} (\mathbf {v} )} uma função, com imagem vetorial, do vetor  v {\displaystyle \mathbf {v} } . Então a derivada de f ( v ) {\displaystyle \mathbf {f} (\mathbf {v} )} em relação a  v {\displaystyle \mathbf {v} }  na direção u {\displaystyle \mathbf {u} } é o tensor de segunda ordem definido como

f v u = D f ( v ) [ u ] = [ d d α   f ( v + α   u ) ] α = 0 {\displaystyle {\frac {\partial \mathbf {f} }{\partial \mathbf {v} }}\cdot \mathbf {u} =D\mathbf {f} (\mathbf {v} )[\mathbf {u} ]=\left[{\frac {d}{d\alpha }}~\mathbf {f} (\mathbf {v} +\alpha ~\mathbf {u} )\right]_{\alpha =0}}

para todos os vetores u {\displaystyle \mathbf {u} } .

Propriedades:

  1. Se f ( v ) = f 1 ( v ) + f 2 ( v ) {\displaystyle \mathbf {f} (\mathbf {v} )=\mathbf {f} _{1}(\mathbf {v} )+\mathbf {f} _{2}(\mathbf {v} )} então f v u = ( f 1 v + f 2 v ) u . {\displaystyle {\frac {\partial \mathbf {f} }{\partial \mathbf {v} }}\cdot \mathbf {u} =\left({\frac {\partial \mathbf {f} _{1}}{\partial \mathbf {v} }}+{\frac {\partial \mathbf {f} _{2}}{\partial \mathbf {v} }}\right)\cdot \mathbf {u} .}
  2. Se f ( v ) = f 1 ( v ) × f 2 ( v ) {\displaystyle \mathbf {f} (\mathbf {v} )=\mathbf {f} _{1}(\mathbf {v} )\times \mathbf {f} _{2}(\mathbf {v} )} então f v u = ( f 1 v u ) × f 2 ( v ) + f 1 ( v ) × ( f 2 v u ) . {\displaystyle {\frac {\partial \mathbf {f} }{\partial \mathbf {v} }}\cdot \mathbf {u} =\left({\frac {\partial \mathbf {f} _{1}}{\partial \mathbf {v} }}\cdot \mathbf {u} \right)\times \mathbf {f} _{2}(\mathbf {v} )+\mathbf {f} _{1}(\mathbf {v} )\times \left({\frac {\partial \mathbf {f} _{2}}{\partial \mathbf {v} }}\cdot \mathbf {u} \right).}
  3. Se f ( v ) = f 1 ( f 2 ( v ) ) {\displaystyle \mathbf {f} (\mathbf {v} )=\mathbf {f} _{1}(\mathbf {f} _{2}(\mathbf {v} ))} então f v u = f 1 f 2 ( f 2 v u ) . {\displaystyle {\frac {\partial \mathbf {f} }{\partial \mathbf {v} }}\cdot \mathbf {u} ={\frac {\partial \mathbf {f} _{1}}{\partial \mathbf {f} _{2}}}\cdot \left({\frac {\partial \mathbf {f} _{2}}{\partial \mathbf {v} }}\cdot \mathbf {u} \right).}

Derivadas de funções de tensores de segunda ordem com imagem escalar

Seja f ( S ) {\displaystyle f(\mathbf {S} )} uma função com imagem real do tensor de segunda ordem S {\displaystyle \mathbf {S} } . Então a derivada de f ( S ) {\displaystyle f(\mathbf {S} )} em relação à S {\displaystyle \mathbf {S} } na direção T {\displaystyle \mathbf {T} } é o tensor de segunda ordem definido como

f S : T = D f ( S ) [ T ] = [ d d α   f ( S + α T ) ] α = 0 {\displaystyle {\frac {\partial f}{\partial \mathbf {S} }}:\mathbf {T} =Df(\mathbf {S} )[\mathbf {T} ]=\left[{\frac {d}{d\alpha }}~f(\mathbf {S} +\alpha \mathbf {T} )\right]_{\alpha =0}}

para todos os tensores de segunda ordem T {\displaystyle \mathbf {T} } .

Propriedades:

  1. Se f ( S ) = f 1 ( S ) + f 2 ( S ) {\displaystyle f(\mathbf {S} )=f_{1}(\mathbf {S} )+f_{2}(\mathbf {S} )} então f S : T = ( f 1 S + f 2 S ) : T . {\displaystyle {\frac {\partial f}{\partial \mathbf {S} }}:\mathbf {T} =\left({\frac {\partial f_{1}}{\partial \mathbf {S} }}+{\frac {\partial f_{2}}{\partial \mathbf {S} }}\right):\mathbf {T} .}
  2. Se f ( S ) = f 1 ( S )   f 2 ( S ) {\displaystyle f(\mathbf {S} )=f_{1}(\mathbf {S} )~f_{2}(\mathbf {S} )} então f S : T = ( f 1 S : T )   f 2 ( S ) + f 1 ( S )   ( f 2 S : T ) . {\displaystyle {\frac {\partial f}{\partial \mathbf {S} }}:\mathbf {T} =\left({\frac {\partial f_{1}}{\partial \mathbf {S} }}:\mathbf {T} \right)~f_{2}(\mathbf {S} )+f_{1}(\mathbf {S} )~\left({\frac {\partial f_{2}}{\partial \mathbf {S} }}:\mathbf {T} \right).}
  3. Se f ( S ) = f 1 ( f 2 ( S ) ) {\displaystyle f(\mathbf {S} )=f_{1}(f_{2}(\mathbf {S} ))} então f S : T = f 1 f 2   ( f 2 S : T ) . {\displaystyle {\frac {\partial f}{\partial \mathbf {S} }}:\mathbf {T} ={\frac {\partial f_{1}}{\partial f_{2}}}~\left({\frac {\partial f_{2}}{\partial \mathbf {S} }}:\mathbf {T} \right).}

Derivadas de funções de tensores de segunda ordem com imagem tensorial

Seja F ( S ) {\displaystyle \mathbf {F} (\mathbf {S} )} uma função com imagem tensorial de segunda ordem do tensor de segunda ordem S {\displaystyle \mathbf {S} } . Então a derivada de F ( S ) {\displaystyle \mathbf {F} (\mathbf {S} )} em relação à  S {\displaystyle \mathbf {S} } na direção T {\displaystyle \mathbf {T} } é o tensor de quarta ordem definido como

F S : T = D F ( S ) [ T ] = [ d d α   F ( S + α T ) ] α = 0 {\displaystyle {\frac {\partial \mathbf {F} }{\partial \mathbf {S} }}:\mathbf {T} =D\mathbf {F} (\mathbf {S} )[\mathbf {T} ]=\left[{\frac {d}{d\alpha }}~\mathbf {F} (\mathbf {S} +\alpha \mathbf {T} )\right]_{\alpha =0}}

para todos os tensores de segunda ordem T {\displaystyle \mathbf {T} } .

Propriedades:

  1. Se F ( S ) = F 1 ( S ) + F 2 ( S ) {\displaystyle \mathbf {F} (\mathbf {S} )=\mathbf {F} _{1}(\mathbf {S} )+\mathbf {F} _{2}(\mathbf {S} )} então F S : T = ( F 1 S + F 2 S ) : T . {\displaystyle {\frac {\partial \mathbf {F} }{\partial \mathbf {S} }}:\mathbf {T} =\left({\frac {\partial \mathbf {F} _{1}}{\partial \mathbf {S} }}+{\frac {\partial \mathbf {F} _{2}}{\partial \mathbf {S} }}\right):\mathbf {T} .}
  2. Se F ( S ) = F 1 ( S ) F 2 ( S ) {\displaystyle \mathbf {F} (\mathbf {S} )=\mathbf {F} _{1}(\mathbf {S} )\cdot \mathbf {F} _{2}(\mathbf {S} )} então F S : T = ( F 1 S : T ) F 2 ( S ) + F 1 ( S ) ( F 2 S : T ) . {\displaystyle {\frac {\partial \mathbf {F} }{\partial \mathbf {S} }}:\mathbf {T} =\left({\frac {\partial \mathbf {F} _{1}}{\partial \mathbf {S} }}:\mathbf {T} \right)\cdot \mathbf {F} _{2}(\mathbf {S} )+\mathbf {F} _{1}(\mathbf {S} )\cdot \left({\frac {\partial \mathbf {F} _{2}}{\partial \mathbf {S} }}:\mathbf {T} \right).}
  3. Se F ( S ) = F 1 ( F 2 ( S ) ) {\displaystyle \mathbf {F} (\mathbf {S} )=\mathbf {F} _{1}(\mathbf {F} _{2}(\mathbf {S} ))} então F S : T = F 1 F 2 : ( F 2 S : T ) . {\displaystyle {\frac {\partial \mathbf {F} }{\partial \mathbf {S} }}:\mathbf {T} ={\frac {\partial \mathbf {F} _{1}}{\partial \mathbf {F} _{2}}}:\left({\frac {\partial \mathbf {F} _{2}}{\partial \mathbf {S} }}:\mathbf {T} \right).}
  4. Se f ( S ) = f 1 ( F 2 ( S ) ) {\displaystyle f(\mathbf {S} )=f_{1}(\mathbf {F} _{2}(\mathbf {S} ))} então f S : T = f 1 F 2 : ( F 2 S : T ) . {\displaystyle {\frac {\partial f}{\partial \mathbf {S} }}:\mathbf {T} ={\frac {\partial f_{1}}{\partial \mathbf {F} _{2}}}:\left({\frac {\partial \mathbf {F} _{2}}{\partial \mathbf {S} }}:\mathbf {T} \right).}

Veja também

Bibliografia

  • Hildebrand, F. B. Advanced Calculus for Applications. [S.l.: s.n.] ISBN 0-13-011189-9 
  • K.F. Riley; M.P. Hobson; S.J. Bence. Mathematical methods for physics and engineering. [S.l.: s.n.] ISBN 978-0-521-86153-3 
  • Strauch, I. Análise Vetorial em Dez Aulas.

Referências

  1. Thomas, George B. Jr.; and Finney, Ross L. (1979) Calculus and Analytic Geometry, Addison-Wesley Publ. Co., fifth edition, p. 593.
  2. Hughes-Hallet, Deborah; McCallum, William G.; Gleason, Andrew M. (1 de janeiro de 2012). Calculus : Single and multivariable. [S.l.]: John wiley. 780 páginas. ISBN 9780470888612. OCLC 828768012 
  3. Zee, A. (2013). Einstein gravity in a nutshell. Princeton: Princeton University Press. p. 341. ISBN 9780691145587 
  4. Weinberg, Steven (1999). The quantum theory of fields Reprinted (with corr.). ed. Cambridge [u.a.]: Cambridge Univ. Press. ISBN 9780521550017 
  5. Zee, A. (2013). Einstein gravity in a nutshell. Princeton: Princeton University Press. ISBN 9780691145587 
  6. Mexico, Kevin Cahill, University of New (2013). Physical mathematics Repr. ed. Cambridge: Cambridge University Press. ISBN 978-1107005211 
  7. Edwards, Ron Larson, Robert, Bruce H. (2010). Calculus of a single variable 9th ed. Belmont: Brooks/Cole. ISBN 9780547209982 
  8. Shankar, R. (1994). Principles of quantum mechanics 2nd ed. New York: Kluwer Academic / Plenum. p. 318. ISBN 9780306447907 
  9. J. E. Marsden and T. J. R. Hughes, 2000, Mathematical Foundations of Elasticity, Dover.

Ligações externas

O Commons possui uma categoria com imagens e outros ficheiros sobre Directional derivative