Algoritmo de Gauss-Newton

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Fijar una curva ruidosa por un modelo de pico asimétrico, utilizando el algoritmo Gauss–Newton con factor de amortiguación variable α.
Top: Datos y modelo brutos.
Tema: Evolución de la suma normalizada de los cuadrados de los errores.

El algoritmo de Gauss-Newton se utiliza para resolver problemas de mínimos cuadrados no lineales, lo que equivale a minimizar una suma de valores de función al cuadrado. Es una extensión del método de Newton para encontrar el mínimo de una función no lineal. Dado que una suma de cuadrados no debe ser negativa, se puede considerar que el algoritmo utiliza el método de Newton para aproximar iterativamente los ceros de los componentes de la suma y, por lo tanto, minimizar la suma. En este sentido, el algoritmo también es un método eficaz para resolver sistemas de ecuaciones sobredeterminados. Tiene la ventaja de que no se requieren segundas derivadas, que pueden resultar difíciles de calcular.

Los problemas de mínimos cuadrados no lineales surgen, por ejemplo, en la regresión no lineal, donde se buscan parámetros en un modelo de modo que el modelo concuerde bien con las observaciones disponibles.

El método lleva el nombre de los matemáticos Carl Friedrich Gauss e Isaac Newton, y apareció por primera vez en Gauss' 1809 obra Theoria motus corporum coelestium in sectionibus conicis solem ambientum.

Descripción

Dado funciones (a menudo llamados residuos) de variables con el algoritmo Gauss–Newton encuentra iterativamente el valor que minimiza la suma de cuadrados

Empezando con una suposición inicial para el mínimo, el método procede por las iteraciones

donde, si r y β son vectores columna, las entradas de la matriz jacobiana son

y el símbolo denota la matriz transpose.

En cada iteración, la actualización se puede encontrar reorganizando la ecuación anterior en los siguientes dos pasos:

Con sustituciones , , y , esto se convierte en la ecuación de forma de matriz convencional , que puede ser resuelto en una variedad de métodos (ver Notas).

Si m = n, la iteración se simplifica a

que es una generalización directa del método de Newton en una dimensión.

En el ajuste de datos, donde el objetivo es encontrar los parámetros tal que una función modelo dada mejor se ajusta a algunos puntos de datos , las funciones son los residuos:

Entonces, el método Gauss–Newton se puede expresar en términos del Jacobiano de la función como

Note que es el seudoinverso izquierdo .

Ejemplo

Curva calculada obtenida con y (en azul) contra los datos observados (en rojo)

Propiedades de convergencia

La iteración Gauss-Newton está garantizada a converger hacia un punto mínimo local en 4 condiciones: Funciones son dos veces continuamente diferenciables en un conjunto de convex abierto , el Jacobiano es de rango de columna completa, el itinerario inicial está cerca , y el valor mínimo local es pequeño. La convergencia es cuadrática si .

Resolver sistemas de ecuaciones sobredeterminados

La iteración de Gauss-Newton

Derivación del método de Newton

A continuación, el algoritmo de Gauss-Newton se derivará del método de Newton para la optimización de funciones mediante una aproximación. Como consecuencia, la tasa de convergencia del algoritmo de Gauss-Newton puede ser cuadrática bajo ciertas condiciones de regularidad. En general (en condiciones más débiles), la tasa de convergencia es lineal.

Versiones mejoradas

Con el método Gauss–Newton la suma de los cuadrados de los residuos S puede no disminuir en cada iteración. Sin embargo, dado que Δ es una dirección de descenso, a menos que es un punto estacionario, sostiene que para todo lo suficientemente pequeño . Así, si ocurre la divergencia, una solución es emplear una fracción del vector de aumento Δ en la fórmula de actualización:

Optimización a gran escala

Para la optimización a gran escala, el método Gauss–Newton es de especial interés porque a menudo (aunque ciertamente no siempre) es cierto que la matriz es más escaso que el Hessiano aproximado . En tales casos, el cálculo del paso en sí normalmente tendrá que hacerse con un método iterativo aproximado apropiado para problemas grandes y escasos, como el método conjugado de gradiente.

Algoritmos relacionados

En un método cuasi-Newton, como el debido a Davidon, Fletcher y Powell o Broyden–Fletcher–Goldfarb–Shanno (método BFGS) una estimación del Hessian completo se construye numéricamente utilizando los primeros derivados sólo para que después n El método de refinamiento se aproxima estrechamente al método de Newton en el rendimiento. Tenga en cuenta que los métodos cuasi-Newton pueden minimizar las funciones reales generales, mientras que Gauss–Newton, Levenberg–Marquardt, etc. se ajusta sólo a los problemas no lineales de las menos cuadras.

Implementaciones de ejemplo

Julia

Notas

  1. ^ Mittelhammer, Ron C.; Miller, Douglas J.; Judge, George G. (2000). Econometric Foundations. Cambridge: Cambridge University Press. pp. 197–198. ISBN 0-521-62394-4.
  2. ^ Floudas, Christodoulos A.; Pardalos, Panos M. (2008). Enciclopedia de Optimización. Springer. p. 1130. ISBN 9780387747583.
  3. ^ a b Björck (1996)
  4. ^ a b J.E. Dennis, Jr. and R.B. Schnabel (1983). Numerical Methods for Unconstrained Optimization and Nonlinear Equations. SIAM 1996 reproducción de la edición de Prentice-Hall 1983. p. 222.
  5. ^ Björck (1996), pág. 260.
  6. ^ Mascarenhas (2013), "La divergencia de los Métodos BFGS y Gauss Newton", Programación matemática, 147 (1): 253–276, arXiv:1309.7922, doi:10.1007/s10107-013-0720-6, S2CID 14700106
  7. ^ Björck (1996), pág. 341, 342.
  8. ^ Fletcher (1987), pág. 113.
  9. ^ "Copia fija" (PDF). Archivado desde el original (PDF) on 2016-08-04. Retrieved 2014-04-25.{{cite web}}: CS1 maint: copia archivada como título (link)
  10. ^ Nocedal (1999), pág. 259.
  11. ^ Nocedal, Jorge. (1999). Optimización numérica. Wright, Stephen J., 1960- Nueva York: Springer. ISBN 0387227423. OCLC 54849297.

Contenido relacionado

Conjunto vacío

En matemáticas, el conjunto vacío es el conjunto único que no tiene elementos; su tamaño o cardinalidad es cero. Algunas teorías axiomáticas de...

Historia de la lógica

La historia de la lógica se ocupa del estudio del desarrollo de la ciencia de la inferencia válida tal como se encuentran en el Organon, encontraron una...

Menor que <

El signo menor que es un símbolo matemático que denota una desigualdad entre dos valores. La forma ampliamente adoptada de dos trazos de igual longitud que...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save