Condiciones de Karush-Kuhn-Tucker
En optimización matemática, las condiciones de Karush–Kuhn–Tucker (KKT), también conocidas como condiciones de Kuhn–Tucker , son pruebas de primera derivada (a veces llamadas condiciones necesarias de primer orden) para que una solución en programación no lineal sea óptima, siempre que se cumplan algunas condiciones de regularidad.
Al permitir restricciones de desigualdad, el enfoque KKT para la programación no lineal generaliza el método de los multiplicadores de Lagrange, que solo permite restricciones de igualdad. De manera similar al enfoque de Lagrange, el problema de maximización (minimización) restringida se reescribe como una función de Lagrange cuyo punto óptimo es un máximo o mínimo global sobre el dominio de las variables de elección y un mínimo (máximo) global sobre los multiplicadores. El teorema de Karush-Kuhn-Tucker a veces se denomina teorema del punto de silla.
Las condiciones KKT recibieron originalmente el nombre de Harold W. Kuhn y Albert W. Tucker, quienes publicaron las condiciones por primera vez en 1951. Los estudiosos posteriores descubrieron que las condiciones necesarias para este problema habían sido establecidas por William Karush en su obra maestra. s tesis en 1939.
Problema de optimización no lineal
Considere el siguiente problema de optimización no lineal en forma estándar:
- minimizar
- sujeto a
Donde es la variable de optimización elegida de un subconjunto convexo de , es la función objetiva o de utilidad, son las funciones de limitación de la desigualdad y son las funciones de limitación de la igualdad. El número de desigualdades e igualdades se denota por y respectivamente. Correspondiendo al problema de optimización limitada se puede formar la función lagrangia
dónde
Theorem — (suficiencia) Si es un punto de silla dentro , Entonces es un vector óptimo para el problema de optimización anterior.
(necesidad) Supongamos que y , , son convex en y que existe tales que (es decir, la condición de Slater sostiene). Luego con un vector óptimo para el problema de optimización anterior se asocia un vector satisfacción tales que es un punto de silla .
Puesto que la idea de este enfoque es encontrar un hiperplano de apoyo en el conjunto factible , la prueba del teorema Karush-Kuhn-Tucker hace uso del teorema de separación hiperplano.
El sistema de ecuaciones y desigualdades correspondientes a las condiciones KKT generalmente no se resuelve directamente, excepto en los pocos casos especiales en los que se puede derivar analíticamente una solución de forma cerrada. En general, muchos algoritmos de optimización pueden interpretarse como métodos para resolver numéricamente el sistema de ecuaciones y desigualdades KKT.
Condiciones necesarias
Supongamos que la función objetiva y las funciones de limitación y tienen subderivativos en un punto . Si es un óptimo local y el problema de optimización satisface algunas condiciones de regularidad (ver abajo), entonces existen constantes y , llamados multiplicadores KKT, de tal manera que los siguientes cuatro grupos de condiciones sostienen:

- Estabilidad
- Para minimizar :
- Para maximizar :
- Viabilidad primordial
- Doble viabilidad
- Slackness complementario
La última condición se escribe a veces en la forma equivalente:
En el caso particular , es decir, cuando no hay restricciones de desigualdad, las condiciones KKT se convierten en las condiciones de Lagrange, y los multiplicadores KKT se llaman multiplicadores Lagrange.
Prueba
Theorem — (suficiencia) Si existe una solución al problema primario, una solución al doble problema, de tal manera que juntos satisfacen las condiciones KKT, entonces el par de problemas tiene una fuerte dualidad, y es una solución par a los problemas primarios y duales.
(necesidad) Si el par de problemas tiene una fuerte dualidad, entonces para cualquier solución el problema primario y cualquier solución al doble problema, el par debe satisfacer las condiciones de KKT.
Primero, para el para satisfacer las condiciones de KKT es equivalente a que sean un equilibrio de Nash.
Corrección , y variar : equilibrio es equivalente a la estacionaridad primaria.
Corrección , y variar : equilibrio es equivalente a la factibilidad primaria y la correa complementaria.
Suficiencia: el par de solución satisface las condiciones de KKT, por lo tanto es un equilibrio de Nash, y por lo tanto cierra la brecha de dualidad.
Necesidad: cualquier par de solución debe cerrar la brecha de la dualidad, por lo que deben constituir un equilibrio de Nash (ya que ninguna de las partes puede hacer mejor), así que satisfacen las condiciones de KKT.
Interpretación: Condiciones KKT como fuerzas de restricción de equilibrio en el espacio de estados
El problema primario se puede interpretar como mover una partícula en el espacio de , y sometiéndolo a tres tipos de campos de fuerza:
- es un campo potencial que la partícula está minimizando. La fuerza generada por es .
- son superficies limitadas unilaterales. Se permite que la partícula se mueva dentro , pero cuando toca Es empujado hacia adentro.
- son superficies de restricción de dos caras. Se permite que la partícula se mueva solamente en la superficie .
La estacionaridad primaria declara que la "fuerza" de es exactamente equilibrado por una suma lineal de fuerzas y .
La doble viabilidad afirma además que todo las fuerzas deben ser unilaterales, señalando hacia dentro el conjunto factible .
La doble slackness declara que si , entonces el la fuerza debe ser cero, ya que la partícula no está en el límite, la fuerza de restricción unilateral no puede activarse.
Representación matricial
Las condiciones necesarias se pueden escribir con matrices jacobinas de las funciones de restricción. Vamos. se define como y dejar se define como . Vamos. y . Entonces las condiciones necesarias pueden ser escritas como:
- Estabilidad
- Para maximizar :
- Para minimizar :
- Viabilidad primordial
- Doble viabilidad
- Slackness complementario
Condiciones de regularidad (o calificaciones de restricción)
Uno puede preguntar si un punto de minimización del problema original de optimización limitada (asumiendo que existe) tiene que satisfacer las condiciones de KKT anteriores. Esto es similar a preguntar en qué condiciones el minimizador de una función en un problema sin restricciones tiene que satisfacer la condición . Para el caso limitado, la situación es más complicada, y se puede indicar una variedad de condiciones de "regularidad" cada vez más complicadas bajo las cuales un minimizador limitado también satisface las condiciones KKT. Algunos ejemplos comunes de condiciones que garantizan esto se tabulan en los siguientes, con el LICQ el más utilizado:
Constraint | Acrónimos | Estado |
---|---|---|
Obligación por limitaciones de la línea | LCQ | Si y son funciones afines, entonces no se necesita otra condición. |
Limitación de la independencia lineal | LICQ | Los gradientes de las restricciones de desigualdad activas y los gradientes de las limitaciones de igualdad son linealmente independientes . |
Obstáculos Mangasarian-Desdeovitz | MFCQ | Los gradientes de las limitaciones de igualdad son linealmente independientes en y existe un vector tales que para todas las restricciones de desigualdad activas para todas las limitaciones de igualdad. |
Posibilidades de restricción de rango constante | CRCQ | Para cada subconjunto de los gradientes de las restricciones de desigualdad activas y los gradientes de las limitaciones de igualdad, el rango en una vecindad es constante. |
Requisitos constantes de dependencia lineal | CPLD | Para cada subconjunto de gradientes de restricciones de desigualdad activas y de gradientes de restricciones de igualdad, si el subconjunto de vectores depende linealmente de con escalares no negativos asociados a las limitaciones de desigualdad, entonces sigue dependiendo linealmente en un barrio . |
Cuasi-normalidad | QNCQ | Si los gradientes de las restricciones de desigualdad activas y los gradientes de las limitaciones de igualdad dependen linealmente de con multiplicadores asociados para la igualdad y para las desigualdades, entonces no hay secuencia tales que y |
La condición de Slater | SC | Para un problema convexo (es decir, suponiendo minimización, son convex y es afine), existe un punto tales que y |
Se pueden mostrar las implicaciones estrictas
- ⇒ MFCQ ⇒ CPLD ⇒ QNCQ
y
- ⇒ ⇒ CRCQ ⇒ CPLD ⇒ QNCQ
En la práctica, se prefieren las calificaciones de restricciones más débiles ya que se aplican a una selección más amplia de problemas.
Condiciones suficientes
En algunos casos, las condiciones necesarias también son suficientes para lograr la optimización. En general, las condiciones necesarias no son suficientes para la optimización y se requiere información adicional, como las Condiciones Suficientes de Segundo Orden (SOSC). Para funciones suaves, SOSC involucra segundas derivadas, lo que explica su nombre.
Las condiciones necesarias son suficientes para la optimización si la función objetiva de un problema de maximización es una función de concave diferenciable, las limitaciones de desigualdad son funciones convexas diferenciables, las limitaciones de igualdad son funciones de afinidad, y la condición de Slater tiene. Del mismo modo, si la función objetiva de un problema de minimización es una función convexa diferenciable, las condiciones necesarias también son suficientes para la óptimabilidad.
Martin demostró en 1985 que la clase más amplia de funciones en las que las condiciones KKT garantizan la optimización global son las llamadas funciones invex de Tipo 1.
Condiciones suficientes de segundo orden
Para problemas de optimización no lineales y fluidos, se proporciona una condición suficiente de segundo orden de la siguiente manera.
La solución encontrado en la sección anterior es un mínimo local limitado si para el lagrangiano,
entonces,
Donde es un vector que satisface lo siguiente,
donde sólo las restricciones de desigualdad activas correspondiente a la complementariedad estricta (es decir, dónde ) se aplican. La solución es un mínimo local restringido estricto en el caso de que la desigualdad sea también estricta.
Si , la tercera orden Taylor ampliación del Lagrangian debe ser utilizado para verificar si es un mínimo local. La minimización de es un buen contra-ejemplo, ver también la superficie de Peano.
Economía
A menudo en la economía matemática el enfoque KKT se utiliza en modelos teóricos para obtener resultados cualitativos. Por ejemplo, considere una empresa que maximice sus ingresos de ventas sujetos a una limitación mínima de ganancia. Letting ser la cantidad de producción (a elegir), ser ingresos de ventas con un primer derivado positivo y con un valor cero en la salida cero, ser costos de producción con un primer derivado positivo y con un valor no negativo a cero salida, y ser el nivel mínimo aceptable positivo de ganancia, entonces el problema es significativo si la función de ingresos se nivela así que eventualmente es menos empinado que la función de costo. El problema expresado en la forma de minimización previamente dada es
- Minimize
- sujeto a
y las condiciones KKT son
Desde violaría la limitación mínima de ganancia, tenemos y por lo tanto la tercera condición implica que la primera condición tiene igualdad. Resolver que la igualdad da
Porque se le dio eso y son estrictamente positivas, esta desigualdad junto con la condición de no negativa garantías es positivo y por lo tanto la empresa que maximiza los ingresos opera a un nivel de producción en el que los ingresos marginales es menor que el costo marginal — un resultado que es de interés porque contrasta con el comportamiento de una empresa que maximiza el beneficio, que opera a un nivel en el que son iguales.
Función de valor
Si reconsideramos el problema de optimización como un problema de maximización con constantes limitaciones de desigualdad:
La función de valor se define como
así el dominio de es
Dada esta definición, cada coeficiente es la tasa a la que aumenta la función de valor aumenta. Así si cada uno se interpreta como una limitación de recursos, los coeficientes le dicen cuánto aumento de un recurso aumentará el valor óptimo de nuestra función . Esta interpretación es especialmente importante en la economía y se utiliza, por ejemplo, en los problemas de maximización de la utilidad.
Generalizaciones
Con un multiplicador adicional , que puede ser cero (hasta ), en frente de las condiciones de estabilidad KKT se convierten en
que se llaman condiciones de Fritz John. Esta condición de optimización se cumple sin restricciones y es equivalente a la condición de optimización KKT o (no-MFCQ).
Las condiciones KKT pertenecen a una clase más amplia de condiciones necesarias de primer orden (FONC), que permiten funciones no suaves utilizando subderivadas.