El principio máximo de Pontryagin

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
El

principio máximo de Pontryagin se utiliza en la teoría del control óptimo para encontrar el mejor control posible para llevar un sistema dinámico de un estado a otro, especialmente en presencia de restricciones para el estado o controles de entrada. Afirma que es necesario para cualquier control óptimo junto con la trayectoria del estado óptimo resolver el llamado sistema hamiltoniano, que es un problema de valor límite de dos puntos, más una condición máxima del control hamiltoniano. Estas condiciones necesarias se vuelven suficientes bajo ciertas condiciones de convexidad en las funciones objetivo y de restricción.

El principio de máxima fue formulado en 1956 por el matemático ruso Lev Pontryagin y sus estudiantes, y su aplicación inicial fue para la maximización de la velocidad terminal de un cohete. El resultado se obtuvo utilizando ideas del cálculo de variaciones clásico. Después de una ligera perturbación del control óptimo, se considera el término de primer orden de una expansión de Taylor con respecto a la perturbación; enviar la perturbación a cero conduce a una desigualdad variacional de la que se sigue el principio máximo.

Ampliamente considerado como un hito en la teoría del control óptimo, la importancia del principio de máximo radica en el hecho de que maximizar el hamiltoniano es mucho más fácil que el problema de control de dimensión infinita original; en lugar de maximizar en un espacio funcional, el problema se convierte en una optimización puntual. Una lógica similar conduce al principio de optimización de Bellman, un enfoque relacionado con los problemas de control óptimo que establece que la trayectoria óptima sigue siendo óptima en puntos intermedios en el tiempo. La ecuación resultante de Hamilton-Jacobi-Bellman proporciona una condición necesaria y suficiente para un óptimo y admite una extensión directa a problemas de control óptimo estocástico, mientras que el principio de máximo no. Sin embargo, a diferencia de la ecuación de Hamilton-Jacobi-Bellman, que necesita ser válida en todo el espacio de estados para ser válida, el Principio Máximo de Pontryagin es potencialmente más eficiente computacionalmente en el sentido de que las condiciones que especifica sólo necesitan ser válidas en una trayectoria determinada.

Notación

Para el set y funciones

,
,
,
,

usamos la siguiente notación:

,
,
,
,
.

Declaración formal de las condiciones necesarias para los problemas de minimización

Aquí se muestran las condiciones necesarias para la minimización de un funcional.

Considere un sistema dinámico n-dimensional, con variable estatal , y variable de control , donde es el conjunto de controles admisibles. La evolución del sistema es determinada por el estado y el control, según la ecuación diferencial . Que el estado inicial del sistema sea y dejar que la evolución del sistema sea controlada durante el período de tiempo con valores . Este último está determinado por la siguiente ecuación diferencial:

La trayectoria del control es ser elegido según un objetivo. El objetivo es funcional definidas por

,

Donde puede ser interpretado como Tasa del costo para ejercer control en estado , y puede ser interpretado como el costo para terminar en estado . La elección específica de depende de la aplicación.

Las limitaciones de la dinámica del sistema pueden unirse al Lagrangian introduciendo el tiempo-varying Lagrange multiplier vector , cuyos elementos se llaman costates del sistema. Esto motiva la construcción del Hamiltonian definida para todos por:

Donde es la transposición de .

El principio mínimo de Pontryagin establece que la trayectoria óptima del estado , control óptimo , y el vector de multiplicador Lagrange correspondiente debe minimizar el Hamiltonian así

()1)

para siempre y para todas las entradas de control admisibles . Aquí, la trayectoria del vector multiplicador lagrangiano es la solución a la ecuación costate y sus condiciones terminales:

()2)

()3)

Si se fija, entonces estas tres condiciones en (1)-(3) son las condiciones necesarias para un control óptimo.

Si el estado final no se fija (es decir, su variación diferencial no es cero), hay una condición adicional

()4)

Estas cuatro condiciones en (1)-(4) son las condiciones necesarias para un control óptimo.

Contenido relacionado

Conjunto vacío

En matemáticas, el conjunto vacío es el conjunto único que no tiene elementos; su tamaño o cardinalidad es cero. Algunas teorías axiomáticas de...

Precisión y exactitud

En un conjunto de medidas, la exactitud es la cercanía de las medidas a un valor específico, mientras que la precisión es la cercanía de las medidas entre...

Historia de la lógica

La historia de la lógica se ocupa del estudio del desarrollo de la ciencia de la inferencia válida tal como se encuentran en el Organon, encontraron una...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save