Método iterativo
En matemática computacional, un método iterativo es un procedimiento matemático que utiliza un valor inicial para generar una secuencia de soluciones aproximadas mejoradas para una clase de problemas, en los que n-ésima aproximación se deriva de las anteriores. Una implementación específica de un método iterativo, incluidos los criterios de terminación, es un algoritmo del método iterativo. Un método iterativo se llama convergente si la secuencia correspondiente converge para las aproximaciones iniciales dadas. Por lo general, se realiza un análisis de convergencia matemáticamente riguroso de un método iterativo; sin embargo, los métodos iterativos basados en heurística también son comunes.
En cambio, métodos directos tratar de resolver el problema por una secuencia finita de operaciones. En ausencia de errores de redondeo, los métodos directos darían una solución exacta (por ejemplo, resolver un sistema lineal de ecuaciones) Ax=b{displaystyle Amathbf {x} =mathbf {b} por eliminación gaussiana). Los métodos iterativos son a menudo la única opción para las ecuaciones no lineales. Sin embargo, los métodos iterativos son a menudo útiles incluso para problemas lineales que implican muchas variables (a veces en el orden de millones), donde los métodos directos serían prohibitivamente costosos (y en algunos casos imposibles) incluso con el mejor poder de cálculo disponible.
Atractivos puntos fijos
Si una ecuación se puede poner en la forma f(x) = x, y una solución x es un punto fijo atractivo de la función f, entonces uno puede comenzar con un punto x1 en la cuenca de atracción de x, y sea xn+1 = f(xn) para n ≥ 1, y la secuencia {xn}n ≥ 1 convergerá a la solución x. Aquí xn es la nésima aproximación o iteración de x y xn+1 es la siguiente o n + 1 iteración de x. Alternativamente, los superíndices entre paréntesis a menudo se usan en métodos numéricos, para no interferir con los subíndices con otros significados. (Por ejemplo, x(n+1) = f(x(n)).) Si la función f es continuamente diferenciable, una condición suficiente para la convergencia es que el radio espectral de la derivada esté estrictamente acotado por uno en una vecindad del punto fijo. Si esta condición se cumple en el punto fijo, entonces debe existir una vecindad suficientemente pequeña (cuenca de atracción).
Sistemas lineales
En el caso de un sistema de ecuaciones lineales, las dos clases principales de métodos iterativos son los métodos iterativos estacionarios y los métodos más generales del subespacio de Krylov.
Métodos iterativos estacionarios
Introducción
Los métodos iterativos estacionarios resuelven un sistema lineal con un operador que se aproxima al original; y en base a una medición del error en el resultado (el residuo), forme una "ecuación de corrección" por lo que se repite este proceso. Si bien estos métodos son simples de derivar, implementar y analizar, la convergencia solo está garantizada para una clase limitada de matrices.
Definición
Un método iterativo se define por
- xk+1:=Ψ Ψ ()xk),k≥ ≥ 0{displaystyle mathbf {x} ^{k+1}:= Psi (mathbf {x}),quad kgeq 0}
y para un sistema lineal dado Ax=b{displaystyle Amathbf {x} =mathbf {b} con solución exacta xAlternativa Alternativa {displaystyle mathbf {x} el error por
- ek:=xk− − xAlternativa Alternativa ,k≥ ≥ 0.{displaystyle mathbf {e} ^{k}:=mathbf {x}-mathbf {x} ^{*},quad kgeq 0,}
Un método iterativo se llama lineal si existe una matriz C▪ ▪ Rn× × n{displaystyle Cin mathbb {R} {ntimes n} tales que
- ek+1=CekО О k≥ ≥ 0{displaystyle mathbf {e} ^{k+1}= Cmathbf {e}quad forall ,kgeq 0}
y esta matriz se llama matriz de iteración. Un método iterativo con una matriz de iteración dada C{displaystyle C} se llama convergente si los siguientes sostienen
- limk→ → JUEGO JUEGO Ck=0.{displaystyle lim _{krightarrow infty }C^{k}=0,}
Un teorema importante establece que para un método iterante dado y su matriz de iteración C{displaystyle C} es convergente si y sólo si su radio espectral *** *** ()C){displaystyle rho (C)} es más pequeño que la unidad, es decir,
- <math alttext="{displaystyle rho (C)*** *** ()C).1.{displaystyle rho (C)traducido1,}<img alt="{displaystyle rho (C)
Los métodos iterativos básicos funcionan dividiendo la matriz A{displaystyle A} en
- A=M− − N{displaystyle A=M-N
y aquí la matriz M{displaystyle M} debe ser fácilmente invertible. Los métodos iterativos se definen ahora como
- Mxk+1=Nxk+b,k≥ ≥ 0.{displaystyle Mmathbf {x} Nmathbf {x}+b,quad kgeq 0,}
De esto se deduce que la matriz de iteraciones viene dada por
- C=I− − M− − 1A=M− − 1N.{displaystyle C=I-M^{-1}A=M^{-1}N,}
Ejemplos
Ejemplos básicos de métodos iterativos estacionarios utilizan una división de la matriz A{displaystyle A} tales como
- A=D+L+U,D:=diag()()aii)i){displaystyle A=D+L+U,quad D:={text{diag}(a_{ii})_{i})}
Donde D{displaystyle D} es sólo la parte diagonal de A{displaystyle A}, y L{displaystyle L. es la parte triangular inferior estricta A{displaystyle A}. Respetuosamente, U{displaystyle U} es la parte superior estricta triangular A{displaystyle A}.
- método Richardson: M:=1⋅ ⋅ I()⋅ ⋅ ل ل 0){displaystyle M:={frac {1}{omega }Iquad (omega neq 0)}
- Método Jacobi: M:=D{displaystyle M:=D}
- Método Jacobi dañado: M:=1⋅ ⋅ D()⋅ ⋅ ل ل 0){displaystyle M:={frac {1}{omega }Dquad (omega neq 0)}
- Método Gauss-Seidel: M:=D+L{displaystyle M:=D+L}
- Método de sobre-relajación (SOR): M:=1⋅ ⋅ D+L()⋅ ⋅ ل ل 0){displaystyle M:={frac {1}{omega }D+Lquad (omega neq 0)}
- Sobre-relaxación sucesiva simétrica (SSOR): M:=1⋅ ⋅ ()2− − ⋅ ⋅ )()D+⋅ ⋅ L)D− − 1()D+⋅ ⋅ U)()⋅ ⋅ ∉{}0,2}){displaystyle M:={frac {1}{omega (2-omega)}}(D+omega L)D^{-1}(D+omega U)quad (omega not in ,2})}
Los métodos iterativos estacionarios lineales también se denominan métodos de relajación.
Métodos del subespacio de Krylov
Los métodos subespaciales de Krylov funcionan formando una base de la secuencia de sucesivos poderes matrices tiempos el residual inicial (el Secuencia de Krylov). Las aproximaciones a la solución se forman entonces minimizando el residual sobre el subespacio formado. El método prototípico en esta clase es el método de gradiente conjugado (CG) que asume que la matriz del sistema A{displaystyle A} es simétrico positivo-definido. Para simétrica (y posiblemente indefinida) A{displaystyle A} uno trabaja con el método residual mínimo (MINRES). En el caso de las matrices no simétricas, se han derivado métodos como el método residual mínimo generalizado (GMRES) y el método gradiente biconyugado (BiCG).
Convergencia de los métodos del subespacio de Krylov
Dado que estos métodos forman una base, es evidente que el método converge en N iteraciones, donde N es el tamaño del sistema. Sin embargo, en presencia de errores de redondeo, esta afirmación no se cumple; además, en la práctica, N puede ser muy grande, y el proceso iterativo alcanza la precisión suficiente mucho antes. El análisis de estos métodos es difícil, dependiendo de una función complicada del espectro del operador.
Preacondicionadores
El operador de aproximación que aparece en los métodos iterativos estacionarios también se puede incorporar en los métodos subespaciales de Krylov como GMRES (alternativamente, los métodos de Krylov precondicionados se pueden considerar como aceleraciones de los métodos iterativos estacionarios), donde se convierten en transformaciones del operador original en un presumiblemente mejor acondicionado uno. La construcción de preacondicionadores es una gran área de investigación.
Historia
Jamshīd al-Kāshī usó métodos iterativos para calcular el seno de 1° y π en The Treatise of Chord y Seno de alta precisión. Uno de los primeros métodos iterativos para resolver un sistema lineal apareció en una carta de Gauss a un alumno suyo. Propuso resolver un sistema de ecuaciones de 4 por 4 resolviendo repetidamente el componente en el que el residuo era mayor.
La teoría de los métodos iterativos estacionarios quedó sólidamente establecida con el trabajo de D.M. Joven a partir de la década de 1950. El método del gradiente conjugado también se inventó en la década de 1950, con desarrollos independientes de Cornelius Lanczos, Magnus Hestenes y Eduard Stiefel, pero su naturaleza y aplicabilidad se malinterpretaron en ese momento. Solo en la década de 1970 se dio cuenta de que los métodos basados en la conjugación funcionan muy bien para ecuaciones diferenciales parciales, especialmente del tipo elíptico.
Contenido relacionado
ROT13
Paraboloide
Johnson sólido