Método de Newton–Raphson: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
Revertida edição que inseriu conteúdo sem citar as fontes.
Etiqueta: Desfazer
Alterações nas considerações sobre o método
Etiquetas: Revertida Possível conteúdo ofensivo Editor Visual
Linha 131:
 
Um ponto importante a ser observado diz respeito a praticidade do método de Newton. Caso a função ''f'' seja complicada, encontrar sua derivada pode ser muito trabalhoso e o método torna-se improdutivo. Nesses casos, o [[método das secantes]] é mais produtivo de ser utilizado, porque não exige que a derivada de ''f'' seja conhecida.
 
Apesar de método de Newton ser muito eficiente, em geral a convergência é quadrática: conforme o método converge na raiz, a diferença entre a raiz e a aproximação é ao quadrado (o número de dígitos precisos quase dobra) em cada etapa. No entanto, existem algumas dificuldades com o método:
 
 
'''Dificuldade no cálculo derivado de uma função'''
 
 
O método de Newton requer que a derivada possa ser calculada diretamente. Caso a função F seja complicada, encontrar sua derivada pode ser muito trabalhoso e o método torna-se improdutivo. Nesse sentido, pode ser apropriado aproximar a derivada usando a inclinação de uma reta através de dois pontos próximos na função. O uso dessa aproximação resultaria em algo como o método da secante, cuja convergência é mais lenta do que a do método de Newton.
 
 
'''A falha do método convergir para a raiz'''
 
 
É importante revisar a prova de convergência quadrática do método de Newton antes de implementá-lo. Especificamente, deve-se revisar as suposições feitas na prova. Para situações em que o método não consegue convergir, é porque as suposições feitas nesta prova não são atendidas.
 
 
'''Overshoot'''
 
 
Se a primeira derivada não se comportar bem na vizinhança de uma determinada raiz, o método pode ultrapassar e divergir dessa raiz. Um exemplo de função com uma raiz, para a qual a derivada não se comporta bem na vizinhança da raiz, é:
 
<math>f(x)=|x|^a,\quad 0 < a < \tfrac{1}{2}</math>
 
 
para o qual a raiz será ultrapassada e a sequência de x irá divergir.
 
Para a = 1/2, a raiz ainda será ultrapassada, mas a sequência oscilará entre dois valores.
 
Pra 1/2 < a <1, a raiz ainda será ultrapassada, mas a sequência irá convergir, e para a ≥ 1 a raiz não será ultrapassada de forma alguma.
 
Em alguns casos, o método de Newton pode ser estabilizado utilizando a relação sucessiva ou a velocidade de convergência pode ser aumentada usando o mesmo método.
 
 
'''Ponto estacionário'''
 
Se um ponto estacionário da função for encontrado, a derivada dele será zero. Então, devido à [[divisão por zero]], o método terminará.
 
 
'''Estimativa inicial ruim'''
 
 
Alguns fatores podem constribuir para a não convergência do algoritmo, sendo que uma dela é a indicação de um grande erro na estimativa inicial. Por isso, para contornar esse problema, muitas vezes pode-se linearizar a função que está sendo otimizada, usando cálculos, registros, diferenciais ou até mesmo utilizando de algoritmos evolutivos, como o tunelamento estocástico. A resolução deste problema é importante, pois as estimativas iniciais boas estão próximas da estimativa final do parâmetro globalmente ideal.
 
Na regressão não linear, a soma dos erros quadráticos (SEQ) está apenas "perto da" parabólica, na região das estimativas dos parâmetros finais. As estimativas iniciais encontradas aqui permitirão que o método de Newton-Raphson convirja rapidamente. É apenas aqui que a matriz Hessiana do SEQ é positiva e a primeira derivada do SEQ é próxima de zero.
 
 
'''Mitigação de não convergência'''
 
 
Em uma implementação robusta do método de Newton, é comum colocar limites no número de iterações, limitar a solução a um intervalo conhecido para conter a raiz. Além disso, combinar o método com um método de localização de raiz mais robusto.
 
 
'''Convergência lenta para raízes de multiplicidade maior que 1'''
 
 
Se a raiz buscada tem [[multiplicidade]] maior que um, a taxa de convergência é meramente linear (erros reduzidos por um fator constante em cada etapa), a menos que etapas especiais sejam tomadas. Quando há duas ou mais raízes próximas, podem ser necessárias muitas iterações antes que as interações se aproximem o suficiente de uma delas para que a convergência quadrática seja aparente.
 
No entanto, se a multiplicidade m da raiz é conhecido, o seguinte algoritmo modificado preserva a taxa de convergência quadrática:<ref>{{Citar web |url=https://web.archive.org/web/20190524083302/http://mathfaculty.fullerton.edu/mathews/n2003/NewtonAccelerateMod.html |titulo=Accelerated and Modified Newton Methods |data=2019-05-24 |acessodata=2021-04-09 |website=web.archive.org}}</ref>
 
<math>x_{n+1} = x_n - m\frac{f(x_n)}{f'(x_n)}.</math>
 
Isso é equivalente ao uso de super-relaxamento sucessivo.
 
Por outro lado, se a multiplicidade m da raiz não for conhecida, é possível estimar m depois de realizar uma ou duas iterações e, em seguida, use esse valor para aumentar a taxa de convergência.
 
{{Referências}}