Capítulo 5 Teoría Lagrangiana 5.1. Condiciones para problemas con restricciones de igualdad. Se desea resolver el problema P : mı́n s.a : (5.1) f (x) hi (x) = 0 i = 1, 2 . . . , m donde f : IR n −→ IR y hi : IR n −→ IR m son funciones diferenciables con continuidad. Por simplicidad h(x) = (h1 (x), . . . , hm (x)). Nótese que la intersección de las restricciones hi (x) = 0 formarán un recinto convexo entonces podemos utilizar las técnicas presentadas en el capitulo 3 y 4. Lo que se va a desarrollar es una herramienta alternativa a los métodos iterados del tema anterior que permitirá identicar los mínimos locales del problema (5.1). 1o ) Sea x∗ un mínimo local del problema (P) y sea α > 0. Consideremos la familia de funciones k α F k (x) = f (x) + kh(x)k2 + kx − x∗ k2 , 2 2 k = 1, 2, . . . Por ser x∗ mínimo local existe un > 0 tal que f (x∗ ) ≤ f (x) para todo x factible y con x ∈ S(x∗ ) = {x : kx − x∗ k ≤ }. Nótese que el conjunto S(x∗ ) es acotado y cerrado. Tomemos los problemas P k : mı́n s.a : F k (x) ∗ x ∈ S(x ) (5.2) (5.3) La norma kh(x)k y la función f (x) son continuas por tanto la función F k (x) es continua y además S(x∗ ) es compacto entonces existe un mínimo en el 5.1 Condiciones para problemas con restricciones de igualdad. 68 problema P k . Sea xk solución de P k , y {xk }k sucesión de soluciones de (P k )k . Como {xk } ⊂ S(x∗ ) entonces contiene una subsucesión convergente que por comodidad denominaremos igual. Por tanto {xk } −→ x̄ ∈ S(x∗ ) 2o Puesto que x∗ ∈ S(x∗ ), se tiene que F k (xk ) ≤ F k (x∗ ) = f (x∗ ) ∀k donde F k (x∗ ) = f (x∗ ) + k2 kh(x∗ )k2 + α2 kx∗ − x∗ k2 . Como F k (xk ) está acotada ∀k entonces kh(xk )k2 −→ 0 cuando k −→ ∞ y por continuidad se obtiene que h(x̄) = 0. Así pues cuando k −→ ∞ se tiene que f (x̄) + α2 kx̄ − x∗ k2 ≤ f (x∗ ). Ahora bien como x∗ es el mínimo local debería ocurrir que f (x∗ ) ≤ f (x̄) + α2 kx̄ − x∗ k2 en consecuencia tenemos que kx̄ − x∗ k2 = 0 y esto ocurre si y sólo si x̄ = x∗ . Como consecuencia de esto para k sucientemente grande xk ∈ intS(x∗ ). Como puede observarse este razonamiento nos permite obtener el mínimo local del problema original como límite de las soluciones de problemas perturbados irrestringidos. Teorema 5.1.1 Sea x∗ un mínimo local de f con h(x) = 0. Supongamos que las restricciones verican 5h1 (x∗ ), . . . , 5hm (x∗ ) son linealmente independientes (x∗ es regular). Entonces existe un único vector λ∗ = (λ∗1 , . . . , λ∗m ) tal que: 5f (x∗ ) + m X λ∗i 5 hi (x∗ ) = 0. i=1 Si f y h son dos veces diferenciables con continuidad se tiene 0 2 ∗ y (5 f (x ) + m X λ∗i 52 hi (x∗ ))y ≥ 0 ∀i = 1, . . . , m ∀y ∈ V (x∗ ) i=1 V (x∗ ) = {y : 5hi (x∗ )0 y = 0, ∀i = 1, . . . , m}. Demostración. Puesto que los mínimos de xk de F k son interiores para k sucientemente grande, la condición necesaria de optimalidad en xk para F k es: 0 = 5F k (xk ) = 5f (xk ) + k 5 h(xk )h(xk ) + α(xk − x∗ ). (5.4) Dado que 5hi (x∗ ) son linealmente independientes, la matriz ∇h(x∗ ) es de rango total. Por tanto, la matriz (5h(x∗ )0 5 h(x∗ )) tiene inversa. Por tanto existe un 5.1 Condiciones para problemas con restricciones de igualdad. 69 entorno de x∗ en la que la matriz (5h(x)0 5 h(x)) también tiene inversa. Así pues, tiene sentido considerar 0 0 (5h(xk ) 5 h(xk ))−1 5h(xk ) . Ahora multiplicamos por la izquierda la expresión (5.4) 0 0 0 = k(5h(xk ) 5 h(xk ))−1 5h(xk ) 5 h(xk )h(xk ) 0 +(5h(xk ) 5 h(xk ))−1 5 h(xk )[5f (xk ) + α(xk − x∗ )] luego 0 0 k.h(xk ) = −(5h(xk ) 5 h(xk ))−1 5h(xk ) [5f (xk ) + α(xk − x∗ )]. 0 Tomando límite a ambas partes de la igualdad −(5h(xk ) 5h(xk ))−1 es diferenciable y continua entonces tomar límite en esa expresión es tomar limite dentro de ella) como el límite de la derecha existe podemos escribir λ∗ = lı́m k.h(xk ) = −(5h(x∗ )0 5 h(x∗ ))−1 5h(x∗ )0 [5f (x∗ )]; k−→∞ es decir existe un λ∗ = lı́m k.h(xk ). Ahora tomemos límite en la expresión (5.4) k−→∞ cuando k −→ ∞ 0 = 5f (x∗ ) + λ∗ 5 h(x∗ ) + α(x∗ − x∗ ) 0 = 5f (x∗ ) + λ∗ 5 h(x∗ ) m X 0 = 5f (x∗ ) + (λ∗i ) 5 hi (x∗ ) i=1 Luego hemos probado que existe un único λ tal que ∗ 0 = 5f (x ) + m X λi 5 hi (x∗ ). i=1 Observar que se ha llegado a una expresión exacta de los multiplicadores de Lagrange que depende del mínimo local x∗ que es desconocido, pero resolviendo el sistema dado anteriormente se obtienen a la vez x∗ y λ. Nótese que el hessiano de F k (xk ) viene dado por 0 52 F k (xk ) = 52 f (xk ) + k5h(xk ) 5 h(xk ) + m X k · h(xk ) · 52 hi (xk ) + α · I. i=1 5.1 Condiciones para problemas con restricciones de igualdad. 70 Tomemos en forma arbitraria y ∈ V (x∗ ) y sea y k la proyección de y sobre V (xk ) = 0 {z : 5h(xk ) z = 0 }. Si queremos proyectar un vector sobre la variedad lineal Az = 0 aplicamos la fórmula 0 0 y k = y − 5h(xk )(5h(xk ) 5 h(xk ))−1 5h(xk ) y. Tomamos límite cuando k −→ ∞; por la continuidad y la diferenciabilidad de 0 5h(xk )(5h(xk ) 5 h(xk ))−1 se tiene lı́m y k = y − 5h(x∗ )(5h(x∗ )0 5 h(x∗ ))−1 5h(x∗ )0 y k pero cuando k −→ ∞ se obtiene 5h(x∗ )0 y = 0 por tanto y k tiende a y .(i.e. lı́mk y k = y) Aplicando la condición necesaria de segundo orden ∀k 0 0 ≤ y k 52 F k (xk )y k m X k0 2 k = y [5 f (x ) + khi (xk ) 52 hi (xk )]y k + i=1 k0 k 2 0 αky k + y 5 h(xk )5h(xk ) y k 0 Sea y ∗ es la proyección de y sobre {z : 5hi (x∗ )0 z = 0, ∀i}. Puesto que y k 5h(xk ) = 0 0 y 5h(xk ) y k = 0 entonces para todo y k 0 0 ≤ y k 52 F k (xk )y k k0 2 k = y [5 f (x ) + m X khi (xk ) 52 hi (xk )]y k + αky k k2 i=1 luego como y k −→ y y xk −→ x∗ cuando k −→ ∞, si tomamos límite tenemos 0 2 ∗ 0 ≤ y [5 f (x ) + m X λ∗i 52 hi (x∗ )]y + αkyk2 , ∀y ∈ V (x∗ ), ∀α > 0 i=1 Si esta expresión es cierta ∀α > 0 también es cierta cuando α −→ 0 con lo que 0 2 ∗ 0 ≤ y [5 f (x ) + m X λ∗i 52 hi (x∗ )]y ∀y ∈ V (x∗ ). i=1 La interpretación geométrica de la condición del teorema de multiplicadores es que en un mínimo local x∗ , el gradiente de la función objetivo debe pertenecer al subespacio generado por los gradientes de las restricciones en x∗ . Esto es, ∇f (x∗ ) + ∇h(x∗ )λ∗0 = 0. Igualmente se puede interpretar como que el gradiente de la función 5.1 Condiciones para problemas con restricciones de igualdad. 71 objetivo en el óptimo debe ser ortogonal al espacio de variaciones factibles de primer orden V (x∗ ). Para continuar introducimos un problema auxiliar, cuyas soluciones coinciden con el problema original (P), y que se utilizará en la demostración de la condición suciente. Consideremos mı́n s.a f (x) h(x) = 0 construimos funciones Lagrangianas Lc (x, λ) = f (x) + 2c kh(x)k2 + λ0 h(x). Su gradiente tiene la forma 5x L(x∗ , λ∗ ) = 5x f (x∗ ) + λ0 5x h(x∗ ) puesto que h(x∗ ) = 0. Entonces x∗ es un mínimo local si 5x L(x∗ , λ∗ ) = 0, 5λ L(x∗ , λ∗ ) = 0, y 0 52xx L(x∗ , λ∗ )y ≥ 0 ∀y ∈ V ∈ (x∗ ) Las condiciones necesarias las pueden vericar mínimos, máximos u otros puntos. A continuación desarrollaremos condiciones sucientes. Para ello nos basaremos en un resultado técnico sobre matrices. Lema 5.1.2 Sean P y Q matrices simétricas, Q semidenida positiva y P denida positiva sobre el subespacio {x : x0 Qx = 0}. (x0 P x > 0 ∀x/x0 Qx = 0). Entonces existe un c̄ > 0 tal que la matriz P + cQ es denida positiva para todo c > c̄. Observación: Si es denida positiva debe ocurrir que x0 (P + cQ)x > 0 ∀x 6= 0 La condición suciente nos la da el siguiente teorema Teorema 5.1.3 Sean f y h dos veces diferenciables con continuidad y sean x∗ y λ∗ tales que i) 5x L(x∗ , λ∗ ) = 0, 5λ L(x∗ , λ∗ ) = 0 ii) y 0 52xx L(x∗ , λ∗ )y > 0, ∀y 6= 0, 5h(x∗ )0 y = 0 entonces x∗ es un mínimo local estricto de f sujeto a h(x) = 0. De hecho, existen γ > 0, > 0 tales que: γ f (x) ≥ f (x∗ ) + kx − x∗ k2 2 y kx − x∗ k < . ∀x, h(x) = 0 5.1 Condiciones para problemas con restricciones de igualdad. 72 Demostración. Consideremos la función c Lc (x, λ) = f (x) + λ0 h(x) + kh(x)k2 , 2 c ∈ IR . Esta es la función Lagrangiana del problema: mı́n s.a : c f (x) + kh(x)k2 2 h(x) = 0 que tiene el mismo mínimo del problema original. Los gradientes de Lc son 5x Lc (x, λ) = 5f (x) + 5h(x)(λ + ch(x)) 52xx Lc (x, λ) = 52 f (x) + m X (λi + chi (x)) 52 hi (x) + c 5 h(x)5h(x)0 i=1 Ahora por (i) e (ii) 5x Lc (x∗ , λ∗ ) = 5f (x∗ ) + 5h(x∗ )λ∗ = 5x L(x∗ , λ∗ ) = 0 52xx Lc (x∗ , λ∗ ) = 52xx f (x∗) + = m X λ∗i 52 hi (x∗ ) + c 5 h(x∗ )5h(x∗ )0 i=1 2 ∗ 5xx L(x , λ∗ ) + (5.5) (5.6) c 5 h(x∗ )∇h(x∗ )0 . Entonces por (5.6) y (5.5) tenemos que: y 0 52xx L(x∗ , λ∗ )y > 0 ∀y 6= 0 tal que y 0 5 h(x∗ )5h(x∗ )0 y = 0, luego aplicando el lema anterior existe un c̄ tal que: 52xx Lc (x∗ , λ∗ ) es denida positiva ∀c > c̄. (5.7) Ahora aplicamos la condición suciente de optimalidad a Lc (., λ∗ ) para c > c̄. Por (5.2), (5.5)y(5.6) deducimos que x∗ es un mínimo local estricto de Lc (., λ∗ ) y además existen γ > 0, > 0 tales que: γ Lc (x, λ∗ ) ≥ Lc (x∗ , λ∗ ) + kx − x∗ k2 2 ∀x, kx − x∗ k < . Puesto que para todo x con h(x) = 0, Lc (x, λ∗ ) = f (x) sigue que: γ f (x) ≥ f (x∗ ) + kx − x∗ k2 2 ∀x, h(x) = 0, kx − x∗ k ≤ 5.2 Condiciones para problemas con desigualdades 73 Con lo que x∗ es un mínimo local estricto de f (x) sujeto a h(x) = 0. Los multiplicadores tienen una interpretación económica muy interesante. Se pueden entender como la tasa de cambio del valor objetivo como función del lado derecho de las restricciones (nivel de las restricciones). Lo veremos en el caso de un problema con una única restricción lineal. mı́n sa f (x) (5.8) a0 x = b. Supongamos que x∗ , λ∗ son la solución óptima y el multiplicador óptimo. Si cambiamos b a b + 4b el mínimo cambiará a x∗ + 4x. 4b y 4x están relacionados mediante a0 (x∗ + 4x) = b + 4b, entonces como a0 x∗ = b se tiene a0 4 x = 4b. Usemos la condición de Lagrange 5f (x∗ ) = −λ∗ a0 4coste = f (x∗ + 4x) − f (x∗ ) = 5f (x∗ )0 4 x + o(k 4 xk) = −λ∗ a0 4 x + o(k 4 xk) = −λ∗ 4 b + o(k 4 xk) por tanto λ∗ = − 4 coste 4b hasta el orden 1. Este resultado es cierto en general para restricciones no necesariamente lineales, como puede verse en la proposición 5.2.3. 5.2. Condiciones para problemas con desigualdades mı́n f (x) sa : h1 (x) = 0, . . . , hm (x) = 0 g1 (x) ≤ 0, . . . , gr (x) ≤ 0 (5.9) 5.2 Condiciones para problemas con desigualdades 74 que es equivalente al problema (5.10) mı́n f (x) sa : h(x) = 0 g(x) ≤ 0 En un punto x, A(x) = {j : gj (x) = 0} es el conjunto de restricciones activas. Si x∗ es un mínimo local de (5.10) es también un mínimo local del problema en el que las restricciones inactivas en x∗ se han eliminado. Por otra parte en el entorno de x∗ las restricciones activas se pueden considerar como igualdades de manera que x∗ será un mínimo local de: (5.11) mı́n f (x) sa : h(x) = 0 ∀j ∈ A(x∗ ) gj (x) = 0, Por tanto si x∗ es regular (los gradientes son l.i.) existirán multiplicadores λ∗ = (λ∗1 , . . . , λ∗m ) y µ∗j ∀j ∈ A(x∗ ) tales que: ∗ 5f (x ) + m X X λ∗i 5 hi (x∗ ) + µ∗j 5 gj (x∗ ) = 0 j∈A(x∗ ) i=1 y si asociamos µ∗j = 0 ∀j ∈ / A(x∗ ) tendríamos una denición similar a la del caso con igualdades. ∗ 5f (x ) + m X λ∗i ∗ 5 hi (x ) + i=1 r X µ∗j 5 gj (x∗ ) = 0 j=1 µ∗j = 0 ∀j ∈ / A(x∗ ) Además se puede argumentar intuitivamente que los µ∗j son no negativos. En efecto, si consideramos las restricciones gj (x) ≤ bj con bj > 0 el valor óptimo del problema será menor pues la región factible ha crecido. Por tanto como sabemos que −4 coste debido a bj µ∗j = > 0( pues ( 4 coste debido a bj ) ≤ 0 y los bj > 0) bj A continuación daremos la demostración rigurosa Teorema 5.2.1 Sea x∗ un mínimo local de (5.10) y x∗ es regular. Entonces existen multiplicadores únicos λ∗ = (λ∗1 , . . . , λ∗m ), µ∗ = (µ∗1 , . . . , µ∗r ) tales que 5x L(x∗ , λ∗ , µ∗ ) = 0, µ∗j ≥ 0 ∀j µ∗j = 0, ∀j ∈ / A(x∗ ) 5.2 Condiciones para problemas con desigualdades 75 donde A(x∗ ) = {j : gj (x∗ ) = 0}. Si además las funciones son dos veces diferenciables con continuidad se verica que y 0 52xx L(x∗ , λ∗ , µ∗ )y ≥ 0, donde V (x∗ ) = {y|5hi (x∗ )0 y = 0 ∀i, ∀y ∈ V (x∗ ) 5gj (x∗ )0 y = 0 ∀j ∈ A(x∗ )} Demostración. La demostración es consecuencia de la discusión del resultado para igualdades. Solo queda por probar que µ∗j ≥ 0 ∀j. Consideremos las funciones gj+ (x) = máx{gj (x), 0} ∀j y para cada k = 1, 2, . . . el problema mı́n s.a : k F k (x) = f (x) + kh(x)k2 + 2 r X k 1 (gj+ (x))2 + kx − x∗ k2 2 j=1 2 x ∈ S = {x : kx − x∗ k ≤ }; >0 Nos damos cuenta que (gj+ (x))2 es diferenciable y su gradiente es 2gj+ (x) 5 gj (x). Si xk minimiza F k (xk ) sobre S un argumento similar al del teorema (5.1.1) prueba que xk −→ x∗ y que los multiplicadores λ∗ , µ∗ están dados por : λ∗i = µ∗j = lı́m khi (xk ), ∀i = 1, . . . , m lı́m kgj+ (xk ), ∀j = 1, 2, . . . , r k−→∞ k−→∞ puesto que gj+ (x) ≥ 0 esto prueba que µ∗j ≥ 0 ∀j. Proposición 5.2.2 (Condición suciente de segundo orden) Supongamos que f , h, y g son dos veces diferenciables con continuidad, y sean x∗ ∈ IR n , λ∗ ∈ IR m y µ∗ ∈ IR r satisfaciendo 5x L(x∗ , λ∗ , µ∗ ) = 0, h(x∗ ) = 0, g(x∗ ) ≤ 0, (5.12) µ∗j ≥ 0, j = 1, . . . , r (5.13) µ∗j = 0, j∈ / A(x∗ ), (5.14) y 0 52xx L(x∗ , λ∗ , µ∗ )y > 0, para todo y 6= 0 con y ∈ V (x∗ ) (5.15) 5.2 Condiciones para problemas con desigualdades 76 donde V (x∗ ) = {y| 5 hi (x∗ )y 0 = 0, i = 1, . . . , m, 5gj (x∗ )0 y = 0, j ∈ A(x∗ )}. (5.16) Asumimos también que µ∗j > 0, ∀j ∈ A(x∗ ). (5.17) Entonces x∗ es un mínimo local estricto de f sujeto a h(x) = 0, g(x) ≤ 0. Demostración. Esto es sencillo de vericar usando nuestra suposición, que para el problema equivalente de restricciones de igualdad mı́n f (x) s.a. h1 (x) = 0, . . . , hm (x) = 0, (5.18) (5.19) g1 (x) + z1 2 = 0, . . . , gr (x) + zr 2 = 0, donde nosotros hemos introducido variables adicionales z1 , . . . , zr . La condición suciente de segundo orden es satisfecha por donde zj∗ = (−gj (x∗ ))1/2 . Por tanto (x∗ , z1∗ , . . . , zr∗ ), λ∗ , µ∗ es un mínimo local estricto para el problema (5.17) y el siguiente resultado. La condición (5.17) es conocida como la condición de complementariedad estricta. Proposición 5.2.3 (Sensibilidad) Sean f , h, y g dos veces diferenciables con con- tinuidad y consideremos la familia de problemas: mı́n f (x) s.a. h(x) = u, (5.20) g(x) ≤ v, parametrizada por los vectores u ∈ IR m y v ∈ IR r . Suponemos que para (u, v) = (0, 0) este problema tiene un mínimo local x∗ , que es regular y que satisface junto con sus vectores de multiplicadores de lagrange asociados λ∗ y µ∗ , la condición suciente de segundo orden de (5.2.2) entonces existe una esfera abierta S centrada en (u, v) = (0, 0) tal que para todo (u, v) ∈ S existen x(u, v) ∈ Rn y λ(u, v) ∈ IR m , µ(u, v) ∈ IR r , que son un mínimo local y su vector de multiplicadores de Lagrange asociado (5.20). Además, x(.), λ(.) y µ(.) son diferenciables con continuidad en S y x(0, 0) = x∗ , λ(0, 0) = λ∗ y µ(0, 0) = µ∗ . Además, para todo (u, v) ∈ S , se verica que 5u p(u, v) = −λ(u, v) y 5v p(u, v) = −µ(u, v), (5.21) donde p(u, v) es la función de valor parametrizada por (u, v) p(u, v) = f (x(u, v)). (5.22) 5.3 El caso de restricciones lineales 5.3. 77 El caso de restricciones lineales Este caso es especialmente interesante pues los mínimos locales siempre poseen multiplicadores incluso en el caso en el que los puntos no son regulares. Consideremos el problema: (5.23) mı́n f (x) s.a : aj 0 x ≤ b j ∀j = 1, 2, . . . , r Los resultados en este caso son consecuencia del lema de Farkas, este establece que: r X C = {x : x = µj aj , µj ≥ 0 ∀j} (5.24) j=1 es cerrado y acotado y coincide con {x : x0 y ≤ 0 para todo y tal que a0j y ≤ 0 ∀j} Proposición 5.3.1 Sea x∗ un mínimo local de f. Entonces existen multiplicadores µ∗1 , . . . , µ∗r , µ∗j ≥ 0 tales que: ∗ 5f (x ) + r X (5.25) µ∗j aj = 0 j=1 µ∗j = 0 ∀j ∈ / A(x∗ ) donde A(x∗ ) = {j : a0j x∗ = bj } Demostración. El mínimo local también lo es del problema: mı́n f (x) s.a : aj 0 x ≤ b j , (5.26) ∀j ∈ A(x∗ ) La condición de optimalidad es: 5f (x∗ )0 (x − x∗ ) ≥ 0 ∀x/aj 0 x ≤ bj , j ∈ A(x∗ ) (5.27) Puesto que aj 0 x ≤ bj para todo j ∈ A(x∗ ) si y sólo si aj (x − x∗ ) ≤ 0 para todo j ∈ A(x∗ ), la condición de optimalidad es: ∀j ∈ A(x∗ ). (5.28) P Aplicando el lema de Farkas sigue que : − 5 f (x∗ ) = j∈A(x∗ ) µj aj , µj ≥ 0 ∀j ∈ A(x∗ ) y µj = 0 ∀j ∈ / A(x∗ ). 5f (x∗ )0 y ≥ 0 ∀y/aj 0 y ≤ 0, Si además la función objetivo es convexa se obtienen unas condiciones necesarias y sucientes más potentes que en el caso restringido usual. 5.3 El caso de restricciones lineales 78 Proposición 5.3.2 Sea f convexa y diferenciable con continuidad y J ⊂ {1, 2, . . . , r} entonces x∗ es un mínimo global si y sólo sí x∗ es factible y existen escalares µ∗j , / A(x∗ ) j ∈ J , µ∗j ≥ 0 j ∈ J, µ∗j = 0 ∀j ∈ J j ∈ X x∗ = arg 0 mı́n {f (x) + µ∗j (aj 0 x − bj )} (5.29) aj x≤bj ,j ∈J / j∈J Demostración. Supongamos que x∗ es mínimo local. Aplicamos Lagrange, y existen µ∗1 , . . . , µ∗r ≥ 0 µ∗j (aj 0 x∗ − bj ) = 0, i = 1, . . . , r r X ∗ 5f (x ) + µ∗j aj = 0 j=1 Por la convexidad de f , de esta última ecuación deducimos que: ∗ x ∈ arg mı́nn f (x) + x∈IR ∗ f (x ) = mı́nn f (x) + x∈IR r X µ∗j (aj 0 x − bj ) j=1 r X µ∗j (aj 0 x − bj ) i=1 a su vez implica f (x∗ ) ≤ mı́n 0 aj x≤bj ,j ∈J / {f (x) + X µj (aj 0 x − bj )}. Recíprocamente supongamos que x∗ es factible y existen escalares µ∗1 , . . . , µ∗j ≥ 0, j ∈ J vericando las condiciones del teorema. De la condición (5.29) se deduce que: (5f (x∗ ) + X µ∗j aj )0 (x − x∗ ) ≥ 0 x, aj 0 x ≤ bj , j∈J si x es un vector factible y j ∈ A(x∗ ) se tiene aj 0 x ≤ b j = aj 0 x ∗ y como µ∗j = 0 ∀j ∈ J y j ∈ / A(x∗ ) X µ∗j (aj 0 (x − x∗ )) ≤ 0; j∈J por lo tanto junto con (5.30) deducimos: 5f (x∗ )(x − x∗ ) ≥ 0 ∀x factible. j∈ /J (5.30) 5.3 El caso de restricciones lineales 79 Lo que con la convexidad de f implica mínimo global. Importante notar que dado x∗ los vectores µ∗ no dependen del conjunto J . Para establecer las relaciones de dualidad necesitamos introducir el problema dual de un problema dado. Consideremos el problema siguiente, que llamaremos primal (P): mı́n f (x) s.a: e0i x = di i = 1, . . . , m, a0j x ≤ bj j = 1, . . . , r, x ∈ X siendo X un conjunto poliédrico y f una función convexa, continuamente diferenciable. Denimos la función lagrangiana: L(x, λ, µ) = f (x) + m X λi (e0i x − di ) + i=1 r X µj (a0j x − bj ). (5.31) j=1 Esta función da lugar a la función dual q : R(m+r) 7→ R: q(λ, µ) = ı́nf L(x, λ, µ). x∈X (5.32) El problema dual (D) es: máx q(λ, µ) s.a: λ ∈ Rm , µ ≥ 0. Es claro que si X es acotado entonces la función dual (5.32) toma valores reales. En general podría tomar el valor −∞. Para evitar este hecho se dene el conjunto factible de (D) como: Q = {(λ, µ) : µ ≥ 0, q(λ, µ) > −∞}. El resultado básico de dualidad es el siguiente teorema. Teorema 5.3.3 1. Si el problema primal (P) tiene una solución óptima, el correspondiente dual (D) también y los valores óptimos de ambos problemas coinciden. 2. Para que x∗ y (λ∗ , µ∗ ) sean soluciones óptimas primales y duales, respectivamente, es necesario y suciente que x∗ sea factible en (P), µ∗ > 0 y f (x∗ ) = L(x∗ , λ∗ , µ∗ ) = mı́n L(x, λ∗ , µ∗ ). x∈X (5.33) 5.3 El caso de restricciones lineales 80 Demostración. 1. Para todo x factible de (P) y todo λ y µ ≥ 0 tenemos que q(λ, µ) ≤ f (x) + m X λi (e0i x − di ) + i=1 r X µj (a0j x − bj ) ≤ f (x). (5.34) j=1 Tomando mínimo en el lado derecho de la expresión anterior para todo x ∈ X obtenemos: q(λ, µ) ≤ f (x∗ ), ∀λ, µ ≥ 0, siendo x∗ la solución óptima de (P). Por la proposición anterior, existen λ∗ y µ∗ ≥ 0 tales que µ∗j (a0j x∗ − bj ) = 0 para todo j , y x∗ = arg mı́n L(x, λ∗ , µ∗ ), x∈X entonces utilizando la denición de (5.32) se tiene: q(λ∗ , µ∗ ) = L(x∗ , λ∗ ,P µ∗ ) Pr ∗ 0 ∗ ∗ 0 ∗ ∗ = f (x ) + m j=1 µj (aj x − bj ) i=1 λi (ei x − di ) + = f (x∗ ). Combinando las relaciones anteriores se deduce que (λ∗ , µ∗ ) es una solución de (D) y q(λ∗ , µ∗ ) = f (x∗ ). 2. Si x∗ y (λ∗ , µ∗ ) son óptimas en (P) y (D) respectivamente, se tiene: f (x∗ ) = q(λ∗ , µ∗ ), lo que al combinarse con (5.34), da: f (x∗ ) = L(x∗ , λ∗ , µ∗ ) = q(λ∗ , µ∗ ) = mı́n L(x∗ , λ, µ). x∈X Recíprocamente, la relación f (x∗ ) = mı́nx∈X L(x, λ∗ , µ∗ ) se puede reescribir como f (x∗ ) = q(λ∗ , µ∗ ) y puesto que x∗ es factible en (P) y µ∗ ≥ 0, la ecuación (5.34) implica que x∗ y (λ∗ , µ∗ ) son óptimas en (P) y (D) respectivamente. Las hipótesis del teorema anterior se puede debilitar para funciones no necesariamente diferenciables exigiendo solamente convexidad a la función f .