Diferenciação numérica

Na análise numérica, diferenciação numérica descreve algoritmos para calcular a derivada de uma função matemática ou uma função de valores de sub-rotina usando a função e talvez outros conhecimentos sobre a função.

Fórmula das Diferenças Finitas editar

O método mais simples para aproximar a derivada é usar o método de diferenças finitas.

Uma simples estimação de dois pontos é computar a inclinação de uma reta secantes vizinha através dos pontos (x,f(x)) e (x+h,f(x+h)).[1] A inclinação dessa reta é dada por:

 

Onde h um número suficientemente pequeno que representa uma leve mudança em x, podendo ser tanto positivo quanto negativo. Esta expressão é conhecida como quociente das diferenças de Newton ou fórmula de diferenças finitas (progressivas para h > 0 e regressivas, se h < 0).

A inclinação dessa reta secante difere da inclinação da reta tangente por um valor que é aproximadamente proporcional a h. A inclinação da reta secante tende a inclinação da reta tangente quando h tende a zero. Portanto, a verdadeira derivada de f com relação a x é o limite do valor do quociente das diferenças quando a reta secante se aproxima da reta tangente:

 

Como a imediata substituição de 0 por h resulta numa divisão por zero, calcular a derivada diretamente pode não ser intuitivo.

Analogamente, a inclinação pode ser estimada empregando posições (x - h) e x.

Outra fórmula de dois pontos é computar a inclinação de uma reta secante vizinha através dos pontos (x-h, f(x-h)) e (x+h, f(x+h)). A inclinação dessa reta é:

 

Nesse caso, os erros de primeira ordem se cancelam, portanto a inclinação dessa reta secantes difere da inclinação da reta tangente por um valor que é aproximadamente proporcional a  . Assim, para pequenos valor de h, esta é uma forma mais precisa de aproximar a reta tangente do que a estimativa unilateral. Contudo note que apesar da inclinação ser computada em x, o valor da função em x não é envolvido.

A estimação do erro é dada por:

 ,

onde   é algum ponto entre   e  . Este erro não inclui o erro de arredondamento devido aos números serem representados e os cálculos serem executados no limite de precisão.

Exemplos editar

  •  
  •  

Neste caso, as funções   e   expressam o chamado erro de truncamento. É imediato da definição de derivada de um função real que:

  •  

Contanto que a função   seja diferenciável no ponto   e, portanto, espera-se que esses métodos produzam boas aproximações quando h é pequeno.


Dado um intervalo [a,b], e uma função f(x) derivável neste intervalo. Seja h um incremento de valor reduzido e diferente de 0, a aproximação da derivada da função f(x) em x = xk é dada por:

 

Um exemplo pego no site UFSJ [2] fará com que tenhamos uma facilidade na compreensão

Ex: calcular a derivada da função f(x) = ln(x) para x=1,8 com h=0,1 e 0,01 e compare com o valor real da derivada:

Valor real:  

para h = 0,1  

para h=0,01  

Na medida em que h diminui, o valor da derivada numérica se aproxima do valor real. Porém, por menor que seja h, este método ainda apresentará um erro de arredondamento grande. Uma maneira de reduzir este erro é utilizar vários pontos.

Quanto maior o número de pontos melhor será o resultado. Porém, por praticidade, utiliza-se fórmulas de 3 a 5 pontos

Erro de truncamento editar

Para a primeira aproximação, é bastante simples encontrar um cota para o erro   supondo   uma função de classe C2, usando o teorema de Taylor (sem perda de generalidade, supõe-se  ):

  •  

logo:

  •  

e, portanto vale a estimativa:

  •  

Considerações práticas usando aritmética de ponto flutuante editar

 
Exemplo mostrando a dificuldade na escolha de h por conta de erros no arredondamento e de fórmula.

Uma importante consideração - na prática - quando a função é aproximada usando aritmética de ponto flutuante é o quão pequeno deve ser o valor de h. Se for escolhido um valor muito pequeno, a subtração vai produzir um grande erro de arredondamento. Na verdade, todas as fórmulas de diferenças finitas são mal condicionadas[3] e devido ao cancelamento catastrófico vai gerar um valor de zero se h é pequeno o suficiente.[4] Porém, se o valor escolhido para h for muito grande, o cálculo da inclinação da reta secante será mais preciso, porém a inclinação da tangente estimada usando a reta secante pode ser pior.

Uma escolha para h que é pequeno o suficiente, sem produzir grandes erros de arredondamento, é:  , onde o épsilon de máquina ε é tipicamente da ordem de 2.2×10−16. [5]Esse épsilon é para variáveis de dupla precisão (64-bit): tais cálculos para precisão simples são raramente úteis. O valor resultante provavelmente não será um número "arredondado" em binário, portanto é importante perceber que apesar de x ser o número representado na máquina, x + h quase certamente não será. Isso significa que x + h será substituído (via arredondamento e truncamento) pelo número mais próximo que é possível de ser representado na máquina, com a consequência de que um passo aparentemente redondo, como h = 0.1, não será um número redondo em binário (é uma série recorrente, assim como   em decimal), porém pode ser aproximado por:

 h:=sqrt(eps)*x;
 xph:=x + h;
 dx:=xph - x;
 slope:=(F(xph) - F(x))/dx;

Todavia, com computadores, as facilidades de otimização do compilador pode falhar ao atender os detalhes da atual aritmética computacional e, em vez disso, aplicar os axiomas da matemática para deduzir que dx e h são o mesmo. Com C e linguagens similares, a diretiva que xph é uma variável volátil vai prevenir isso.

Erro mínimo editar

Quando estes esquemas numéricos são implementados em algoritmos com precisão finita, existe uma segunda fonte de erro devido ao arredondamento do algoritmo. Para fins de uma análise simplificada, considera-se que todo o erro de arredondamento se concentra na avaliação do valor da função   e que sua ordem de grandeza não depende de  . Denotando-o por  , temos:

  •  

ou seja:

  •  

Neste caso, o erro total é dado por:

  •  

Observe que o termo relativo ao erro de truncamente diminui quando   diminui mas o termo relativo ao erro de arredondamento cresce quando   diminui. Esta estimativa é mínima quando:

  •  

o que implica o seguinte erro mínimo para o esquema:

  •  

Métodos de maior ordem editar

Métodos de maior ordem para aproximar a derivada, assim como métodos para o cálculo de maiores derivadas existem.

Abaixo é o método de cinco pontos para a primeira derivada.[6]

 

onde  .

Quadratura diferencial editar

Quadratura diferencial é a aproximação da derivada usando valores ponderados para os valores da função.[7][8] O nome é uma analogia a quadratura da Integração numérica onde somas ponderadas são usadas em métodos como o Método de Simpson ou a Regra do Trapézio. Existem vários métodos para determinar os coeficientes de peso. Quadratura diferencial é usada para resolver Equações diferenciais parciais.

Método das variáveis complexas editar

A clássica aproximação por diferenças finitas para diferenciação numérica é mal condicionada. No entanto, se   é uma função holomorfa, com valor real sobre a linha real, que pode ser avaliada em pontos no plano complexo perto de  , assim tem-se métodos estáveis. Por exemplo,[4] a primeira derivada pode ser calculada por uma fórmula com passo complexo:[9]

 .

A fórmula acima só é válida para calcular uma derivada de primeira ordem. A generalização dessa para calcular derivadas de qualquer ordem implica números multicomplexos, resultando em derivadas multicomplexas.[10]

No geral, derivadas de qualquer ordem podem ser calculadas usando a fórmula integral de Cauchy:

 

onde a integração é feita numericamente

Usar variáveis complexas para diferenciação numérica foi iniciado por Lyness e Moler em 1967.[11] Um método baseado na inversão numérica de uma transformada de Laplace complexa foi desenvolvido por Abate e Dubner.[12] Um algoritmo que pode ser usado sem requerer conhecimento sobre o método ou as características da função foi desenvolvido por Fornberg.[3]

Referências

  1. Richard L. Burden, J. Douglas Faires (2000), Numerical Analysis, (7th Ed), Brooks/Cole. ISBN 0-534-38216-9
  2. Nepomuceno, DERIVAÇÃO NUMÉRICA
  3. a b Numerical Differentiation of Analytic Functions, B Fornberg - ACM Transactions on Mathematical Software (TOMS), 1981
  4. a b Using Complex Variables to Estimate Derivatives of Real Functions, W Squire, G Trapp - SIAM REVIEW, 1998
  5. Following Numerical Recipes in C, Chapter 5.7
  6. Abramowitz & Stegun, Table 25.2
  7. Differential Quadrature and Its Application in Engineering: Engineering Applications, Chang Shu, Springer, 2000, ISBN 978-1-85233-209-9
  8. Advanced Differential Quadrature Methods, Yingyan Zhang, CRC Press, 2009, ISBN 978-1-4200-8248-7
  9. Martins, JRRA; Sturdza, P; Alonso, JJ (2003). «The Complex-Step Derivative Approximation». ACM Transactions on Mathematical Software. 29 (3): 245–262. Predefinição:Citeseerx 
  10. «Cópia arquivada» (PDF). Consultado em 4 de julho de 2013. Arquivado do original (PDF) em 9 de janeiro de 2014 
  11. Lyness, J. N.; Moler, C. B. (1967). «Numerical differentiation of analytic functions». SIAM J.Numer. Anal. 4: 202–210 
  12. Abate, J; Dubner, H (1968). «A New Method for Generating Power Series Expansions of Functions». SIAM J. Numer. Anal. 5 (1): 102–112 

Ligações externas editar