Nonlinear Conjugate Gradient (NLCG). La base de un gradiente conjugado no lineal es aplicar el conjugado lineal y después reemplazar el residuo por el gradiente. Todo empieza con la necesidad de obtener el mínimo de una función no lineal, es el problema de optimización sin restricciones y sabemos que encontrar, de forma directa, el mínimo o máximo global de una función no lineal es un problema no resuelto.
Dada f: ℜn→ ℜ , es una función continua diferenciable y su gradiente g(x) es asequible. Debemos encontrar
min f (x), x ∈ ℜn
x es el mínimo global de f sobre ℜn
El método genera una secuencia iterada {xk} por:
xk+1 = xk + αkdk , k = 0, 1, …,
donde xk es la iteración actual de, αk> 0 (es el tamaño del paso) y se calcula mediante la búsqueda lineal y dk es la dirección de búsqueda definida por:
donde gk = g(xk) y βk es un escalar.
Uno de los métodos más utilizados es el de Fletcher y Reeves, este sustituye al cálculo de la matriz de Hess por búsquedas lineales (Strong Wolfe-Powell-SWP- o Weak Wolfe-Powell -WWP-) a lo largo de direcciones mutuamente conjugadas para minimizar la función objetivo. Es un método eficiente para funciones no cuadráticas, pero para las que lo son es más conveniente el método de Polak y Ribiere. De todas formas existe una gran cantidad de variaciones de los métodos iniciales que en ocasiones tienen un rendimiento excelente, pero que cambian en función de las condiciones iniciales, de tal forma que lo único que nos queda es realizar un comparativo. A continuación algunos de los métodos existentes, y lo dicho, si alguien se atreve a realizar el comparativo que nos lo envíe, gracias.