Principio en la teoría de control óptima para la mejor manera de cambiar el estado en un sistema dinámico
El
principio máximo de Pontryagin se utiliza en la teoría del control óptimo para encontrar el mejor control posible para llevar un sistema dinámico de un estado a otro, especialmente en presencia de restricciones para el estado o controles de entrada. Afirma que es necesario para cualquier control óptimo junto con la trayectoria del estado óptimo resolver el llamado sistema hamiltoniano, que es un problema de valor límite de dos puntos, más una condición máxima del control hamiltoniano. Estas condiciones necesarias se vuelven suficientes bajo ciertas condiciones de convexidad en las funciones objetivo y de restricción.
El principio de máxima fue formulado en 1956 por el matemático ruso Lev Pontryagin y sus estudiantes, y su aplicación inicial fue para la maximización de la velocidad terminal de un cohete. El resultado se obtuvo utilizando ideas del cálculo de variaciones clásico. Después de una ligera perturbación del control óptimo, se considera el término de primer orden de una expansión de Taylor con respecto a la perturbación; enviar la perturbación a cero conduce a una desigualdad variacional de la que se sigue el principio máximo.
Ampliamente considerado como un hito en la teoría del control óptimo, la importancia del principio de máximo radica en el hecho de que maximizar el hamiltoniano es mucho más fácil que el problema de control de dimensión infinita original; en lugar de maximizar en un espacio funcional, el problema se convierte en una optimización puntual. Una lógica similar conduce al principio de optimización de Bellman, un enfoque relacionado con los problemas de control óptimo que establece que la trayectoria óptima sigue siendo óptima en puntos intermedios en el tiempo. La ecuación resultante de Hamilton-Jacobi-Bellman proporciona una condición necesaria y suficiente para un óptimo y admite una extensión directa a problemas de control óptimo estocástico, mientras que el principio de máximo no. Sin embargo, a diferencia de la ecuación de Hamilton-Jacobi-Bellman, que necesita ser válida en todo el espacio de estados para ser válida, el Principio Máximo de Pontryagin es potencialmente más eficiente computacionalmente en el sentido de que las condiciones que especifica sólo necesitan ser válidas en una trayectoria determinada.
Notación
Para el set
y funciones
,
,
,
,
usamos la siguiente notación:
,
,
,
,
.
Declaración formal de las condiciones necesarias para los problemas de minimización
Aquí se muestran las condiciones necesarias para la minimización de un funcional.
Considere un sistema dinámico n-dimensional, con variable estatal
, y variable de control
, donde
es el conjunto de controles admisibles. La evolución del sistema es determinada por el estado y el control, según la ecuación diferencial
. Que el estado inicial del sistema sea
y dejar que la evolución del sistema sea controlada durante el período de tiempo con valores
. Este último está determinado por la siguiente ecuación diferencial:
![{displaystyle {dot {x}}=f(x,u),quad x(0)=x_{0},quad u(t)in {mathcal {U}},quad tin [0,T]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ace09d9ccc09a44d71e8dbfb7ba810c9d954ca35)
La trayectoria del control
es ser elegido según un objetivo. El objetivo es funcional
definidas por
,
Donde
puede ser interpretado como Tasa del costo para ejercer control
en estado
, y
puede ser interpretado como el costo para terminar en estado
. La elección específica de
depende de la aplicación.
Las limitaciones de la dinámica del sistema pueden unirse al Lagrangian
introduciendo el tiempo-varying Lagrange multiplier vector
, cuyos elementos se llaman costates del sistema. Esto motiva la construcción del Hamiltonian
definida para todos
por:

Donde
es la transposición de
.
El principio mínimo de Pontryagin establece que la trayectoria óptima del estado
, control óptimo
, y el vector de multiplicador Lagrange correspondiente
debe minimizar el Hamiltonian
así
 | | ()1) |
para siempre
y para todas las entradas de control admisibles
. Aquí, la trayectoria del vector multiplicador lagrangiano
es la solución a la ecuación costate y sus condiciones terminales:
 | | ()2) |
 | | ()3) |
Si
se fija, entonces estas tres condiciones en (1)-(3) son las condiciones necesarias para un control óptimo.
Si el estado final
no se fija (es decir, su variación diferencial no es cero), hay una condición adicional
 | | ()4) |
Estas cuatro condiciones en (1)-(4) son las condiciones necesarias para un control óptimo.
Más resultados...