Método iterativo

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Algoritmo en el que cada aproximación de la solución se deriva de aproximaciones anteriores

En matemática computacional, un método iterativo es un procedimiento matemático que utiliza un valor inicial para generar una secuencia de soluciones aproximadas mejoradas para una clase de problemas, en los que n-ésima aproximación se deriva de las anteriores. Una implementación específica de un método iterativo, incluidos los criterios de terminación, es un algoritmo del método iterativo. Un método iterativo se llama convergente si la secuencia correspondiente converge para las aproximaciones iniciales dadas. Por lo general, se realiza un análisis de convergencia matemáticamente riguroso de un método iterativo; sin embargo, los métodos iterativos basados en heurística también son comunes.

En cambio, métodos directos tratar de resolver el problema por una secuencia finita de operaciones. En ausencia de errores de redondeo, los métodos directos darían una solución exacta (por ejemplo, resolver un sistema lineal de ecuaciones) Ax=b{displaystyle Amathbf {x} =mathbf {b} por eliminación gaussiana). Los métodos iterativos son a menudo la única opción para las ecuaciones no lineales. Sin embargo, los métodos iterativos son a menudo útiles incluso para problemas lineales que implican muchas variables (a veces en el orden de millones), donde los métodos directos serían prohibitivamente costosos (y en algunos casos imposibles) incluso con el mejor poder de cálculo disponible.

Atractivos puntos fijos

Si una ecuación se puede poner en la forma f(x) = x, y una solución x es un punto fijo atractivo de la función f, entonces uno puede comenzar con un punto x1 en la cuenca de atracción de x, y sea xn+1 = f(xn) para n ≥ 1, y la secuencia {xn}n ≥ 1 convergerá a la solución x. Aquí xn es la nésima aproximación o iteración de x y xn+1 es la siguiente o n + 1 iteración de x. Alternativamente, los superíndices entre paréntesis a menudo se usan en métodos numéricos, para no interferir con los subíndices con otros significados. (Por ejemplo, x(n+1) = f(x(n)).) Si la función f es continuamente diferenciable, una condición suficiente para la convergencia es que el radio espectral de la derivada esté estrictamente acotado por uno en una vecindad del punto fijo. Si esta condición se cumple en el punto fijo, entonces debe existir una vecindad suficientemente pequeña (cuenca de atracción).

Sistemas lineales

En el caso de un sistema de ecuaciones lineales, las dos clases principales de métodos iterativos son los métodos iterativos estacionarios y los métodos más generales del subespacio de Krylov.

Métodos iterativos estacionarios

Introducción

Los métodos iterativos estacionarios resuelven un sistema lineal con un operador que se aproxima al original; y en base a una medición del error en el resultado (el residuo), forme una "ecuación de corrección" por lo que se repite este proceso. Si bien estos métodos son simples de derivar, implementar y analizar, la convergencia solo está garantizada para una clase limitada de matrices.

Definición

Un método iterativo se define por

xk+1:=Ψ Ψ ()xk),k≥ ≥ 0{displaystyle mathbf {x} ^{k+1}:= Psi (mathbf {x}),quad kgeq 0}

y para un sistema lineal dado Ax=b{displaystyle Amathbf {x} =mathbf {b} con solución exacta xAlternativa Alternativa {displaystyle mathbf {x} el error por

ek:=xk− − xAlternativa Alternativa ,k≥ ≥ 0.{displaystyle mathbf {e} ^{k}:=mathbf {x}-mathbf {x} ^{*},quad kgeq 0,}

Un método iterativo se llama lineal si existe una matriz C▪ ▪ Rn× × n{displaystyle Cin mathbb {R} {ntimes n} tales que

ek+1=CekО О k≥ ≥ 0{displaystyle mathbf {e} ^{k+1}= Cmathbf {e}quad forall ,kgeq 0}

y esta matriz se llama matriz de iteración. Un método iterativo con una matriz de iteración dada C{displaystyle C} se llama convergente si los siguientes sostienen

limk→ → JUEGO JUEGO Ck=0.{displaystyle lim _{krightarrow infty }C^{k}=0,}

Un teorema importante establece que para un método iterante dado y su matriz de iteración C{displaystyle C} es convergente si y sólo si su radio espectral *** *** ()C){displaystyle rho (C)} es más pequeño que la unidad, es decir,

<math alttext="{displaystyle rho (C)*** *** ()C).1.{displaystyle rho (C)traducido1,}<img alt="{displaystyle rho (C)

Los métodos iterativos básicos funcionan dividiendo la matriz A{displaystyle A} en

A=M− − N{displaystyle A=M-N

y aquí la matriz M{displaystyle M} debe ser fácilmente invertible. Los métodos iterativos se definen ahora como

Mxk+1=Nxk+b,k≥ ≥ 0.{displaystyle Mmathbf {x} Nmathbf {x}+b,quad kgeq 0,}

De esto se deduce que la matriz de iteraciones viene dada por

C=I− − M− − 1A=M− − 1N.{displaystyle C=I-M^{-1}A=M^{-1}N,}

Ejemplos

Ejemplos básicos de métodos iterativos estacionarios utilizan una división de la matriz A{displaystyle A} tales como

A=D+L+U,D:=diag()()aii)i){displaystyle A=D+L+U,quad D:={text{diag}(a_{ii})_{i})}

Donde D{displaystyle D} es sólo la parte diagonal de A{displaystyle A}, y L{displaystyle L. es la parte triangular inferior estricta A{displaystyle A}. Respetuosamente, U{displaystyle U} es la parte superior estricta triangular A{displaystyle A}.

  • método Richardson: M:=1⋅ ⋅ I()⋅ ⋅ ل ل 0){displaystyle M:={frac {1}{omega }Iquad (omega neq 0)}
  • Método Jacobi: M:=D{displaystyle M:=D}
  • Método Jacobi dañado: M:=1⋅ ⋅ D()⋅ ⋅ ل ل 0){displaystyle M:={frac {1}{omega }Dquad (omega neq 0)}
  • Método Gauss-Seidel: M:=D+L{displaystyle M:=D+L}
  • Método de sobre-relajación (SOR): M:=1⋅ ⋅ D+L()⋅ ⋅ ل ل 0){displaystyle M:={frac {1}{omega }D+Lquad (omega neq 0)}
  • Sobre-relaxación sucesiva simétrica (SSOR): M:=1⋅ ⋅ ()2− − ⋅ ⋅ )()D+⋅ ⋅ L)D− − 1()D+⋅ ⋅ U)()⋅ ⋅ ∉{}0,2}){displaystyle M:={frac {1}{omega (2-omega)}}(D+omega L)D^{-1}(D+omega U)quad (omega not in ,2})}

Los métodos iterativos estacionarios lineales también se denominan métodos de relajación.

Métodos del subespacio de Krylov

Los métodos subespaciales de Krylov funcionan formando una base de la secuencia de sucesivos poderes matrices tiempos el residual inicial (el Secuencia de Krylov). Las aproximaciones a la solución se forman entonces minimizando el residual sobre el subespacio formado. El método prototípico en esta clase es el método de gradiente conjugado (CG) que asume que la matriz del sistema A{displaystyle A} es simétrico positivo-definido. Para simétrica (y posiblemente indefinida) A{displaystyle A} uno trabaja con el método residual mínimo (MINRES). En el caso de las matrices no simétricas, se han derivado métodos como el método residual mínimo generalizado (GMRES) y el método gradiente biconyugado (BiCG).

Convergencia de los métodos del subespacio de Krylov

Dado que estos métodos forman una base, es evidente que el método converge en N iteraciones, donde N es el tamaño del sistema. Sin embargo, en presencia de errores de redondeo, esta afirmación no se cumple; además, en la práctica, N puede ser muy grande, y el proceso iterativo alcanza la precisión suficiente mucho antes. El análisis de estos métodos es difícil, dependiendo de una función complicada del espectro del operador.

Preacondicionadores

El operador de aproximación que aparece en los métodos iterativos estacionarios también se puede incorporar en los métodos subespaciales de Krylov como GMRES (alternativamente, los métodos de Krylov precondicionados se pueden considerar como aceleraciones de los métodos iterativos estacionarios), donde se convierten en transformaciones del operador original en un presumiblemente mejor acondicionado uno. La construcción de preacondicionadores es una gran área de investigación.

Historia

Jamshīd al-Kāshī usó métodos iterativos para calcular el seno de 1° y π en The Treatise of Chord y Seno de alta precisión. Uno de los primeros métodos iterativos para resolver un sistema lineal apareció en una carta de Gauss a un alumno suyo. Propuso resolver un sistema de ecuaciones de 4 por 4 resolviendo repetidamente el componente en el que el residuo era mayor.

La teoría de los métodos iterativos estacionarios quedó sólidamente establecida con el trabajo de D.M. Joven a partir de la década de 1950. El método del gradiente conjugado también se inventó en la década de 1950, con desarrollos independientes de Cornelius Lanczos, Magnus Hestenes y Eduard Stiefel, pero su naturaleza y aplicabilidad se malinterpretaron en ese momento. Solo en la década de 1970 se dio cuenta de que los métodos basados en la conjugación funcionan muy bien para ecuaciones diferenciales parciales, especialmente del tipo elíptico.

Contenido relacionado

ROT13

ROT13 es una simple sustitución de letras cifra que reemplaza una letra con la letra 13 después de ella en el alfabeto. ROT13 es un caso especial del...

Paraboloide

En geometría, un paraboloide es una superficie cuádrica que tiene exactamente un eje de simetría y ningún centro de simetría. El término...

Johnson sólido

En geometría, un sólido de Johnson es un poliedro estrictamente convexo cuya cara es un polígono regular. No hay ningún requisito de que cada cara deba...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save