Title: Universidad de los Andes-CODENSA
1Métodos de Búsqueda basados en el Gradiente y el
Gradiente Conjugado.Métodos de Búsqueda Directa.
- Universidad de los Andes-CODENSA
2Algoritmos de Optimización sin Restricciones
- Los métodos para obtener la solución de un PPNL
se basan en obtener una sucesión de puntos tales
que su límite sea una solución óptima del
problema que se considera. Para asegurar la
convergencia debe suponerse que el PPNL es un
problema convexo diferenciable. Sin embargo,
estos algoritmos se aplican aún cuando no se
satisfacen estas condiciones. - El criterio de parada se basa en las CKKT. Cuando
éstas se satisfacen con una cierta tolerancia, se
para el proceso iterativo y se toma como mínimo
el punto correspondiente. - Considere el problema
- Minimizar
- donde y es una función
diferenciable para cada .
3- Los métodos se dividen en dos categorías
- Los que usan información sobre las derivadas. Se
basan en aplicar métodos numéricos para resolver
las condiciones necesarias de KKT - donde x es la solución que se busca.
- Los que sólo usan evaluaciones de la función
objetivo. - Utilizan fórmulas de interpolación para estimar
iterativamente el mínimo de un problema
unidimensional. - Si f es convexa, el problema de obtener un óptimo
es equivalente al de resolver la anterior
ecuación. Pueden usarse métodos de búsqueda de
raíces para resolverlo.
4Búsquedas Lineales con Derivadas Método de Newton
- Puesto que se tiene
- Si se quiere que sea cero se obtiene
- Considerando que obtenemos
- Que utiliza las derivadas primera y segunda de f.
5Método quasi-Newton o de la Secante
- Reemplazando en la expresión anterior
por la aproximación - Se llega a
- Con lo que
- Que solo requiere derivadas primeras.
6- Ejemplo Método de Newton/Método quasi-Newton
- Minimizar
- Realizando el análisis mediante el método de
Newton tenemos - Las derivadas primera y segunda son
- y la sucesión asociada al método de Newton
resulta - Nótese que si la sucesión converge al punto
entonces, tomando límites en ambos lados de la
relación se obtiene , y
esta ecuación tiene como su única solución
.
7- Si realizamos el análisis mediante el método
quasi-Newton obtenemos - El método de Newton requiere sólo un punto
inicial, pero el quasi-Newton necesita dos puntos
para comenzar. La siguiente tabla muestra las
algunas iteraciones de ambos métodos, cuando se
utiliza como punto inicial x1 0, para el método
de Newton, y x1 0 y x2 1/3 para el
quasi-Newton.
8- Tabla 1. Resultados de los Métodos de Newton y
quasi-Newton.
9Búsquedas Lineales sin Derivadas Ajuste Cuadrático
- Figura 1. Función objetivo a minimizar junto a
una parábola interpolante. - El método de ajuste cuadrático usa una
interpolación parabólica de f, basada en tres
puntos. Supóngase que se trata de minimizar una
función convexa f(x), y que se tienen tres puntos
a lt b lt c tales que
10- Sin pérdida de generalidad se puede suponer que
una de las desigualdades es estricta.
Seguidamente se ajusta una parábola pasando por
los tres puntos (a, f(a)), (b, f(b)) y (c, f(c)).
Su vértice es - Si los tres puntos están alineados, el
denominador degenera a cero y la expresión
anterior no es válida. Sin embargo, esto no
ocurre si se cumple al menos una de las
condiciones f(a)gtf(b) y f(b)ltf(c). - Ahora se tiene un conjunto de cuatro puntos (a,
b, c, v) para elegir los tres nuevos puntos
necesarios para continuar con el proceso. El
criterio de selección de estos tres puntos se
basa en satisfacer la condición inicial. - Hay tres casos a considerar
- Caso 1 v lt b. Hay dos posibilidades Si
el mínimo de f está en el intervalo (a,
b), entonces el nuevo conjunto de tres puntos es
. Por otra parte, si
f(b)ltf(v), el mínimo de f está en el intervalo
(v, c), por ello, el nuevo conjunto de tres
puntos resulta .
11- Figura 2. Ilustración de los casos 1a y 1b de la
búsqueda lineal mediante interpolación cuadrática - Caso 2 v gt b. Similarmente,
, se elige , y
si - , se elige
. - Caso 3 v c. En este caso se recobran los tres
puntos iniciales, y no se puede decidir cuál es
el nuevo intervalo reducido. Para evitar este
problema, se reemplaza b por (a b)/2 y se
repite el proceso de nuevo, con la garantía de
que la nueva situación estará en los Casos 1 ó 2.
12Optimización Multidimensional sin Restricciones
- Sea el problema
- Minimizar
- Donde y es
diferenciable. Este problema se puede resolver
por el método de descenso, que genera un sucesión
de puntos tales que -
hasta que se satisface una condición de
parada. - El método consiste en iterar las etapas
- Problema de generación de una dirección de
descenso Dado x(t), el problema consiste en
obtener una dirección d(t) tal que un ligero
desplazamiento a partir de x(t) en tal dirección
disminuya el valor de la función objetivo. d es
una dirección descendente de f en x si existe un
número positivo tal que
13- Problema de búsqueda lineal Una vez obtenida la
dirección descendente d(t) de f en el punto x(t),
el problema consiste en decidir el tamaño del
desplazamiento, , tal que el nuevo punto
tenga un valor asociado de la
función objetivo menor que el del punto
original x(t), es decir, elegir - tal que
para generar el
nuevo punto - . En muchos
casos, el desplazamiento se calcula de forma
que se minimice la función objetivo en esa
dirección d(t). - Lema 1 Sea diferenciable en
. Sea d un vector de . Si - , entonces d es una
dirección de descenso de f en x. - Figura 3. Ilustración de las direcciones de
descenso en R2.
14- Los algoritmos que se basan en direcciones
descendentes tienen la siguiente estructura - Algoritmo 1 (Dirección descendente)
- Etapa 1 (Valor inicial). Elegir un punto inicial
, y hacer t 1. - Etapa 2 (Generación de la dirección de
búsqueda). Obtener una dirección descendente
d(t). - Etapa 3 (Comprobación de la Optimalidad). Si
d(t) 0, entonces parar (x(t) es un punto KTT
del problema). En otro caso, continuar. - Etapa 4 (Búsqueda lineal). Encontrar el salto,
,que resuelve el problema unidimensional - Minimizar
- sujeto a
15- Etapa 5 (Actualizar el punto). Hacer
- Etapa 6 (Criterio de parada). Si
, entonces parar. En otro caso, hacer t
t 1, e ir a la Etapa 2. - Algoritmo 2 (Regla de Armijo)
- Figura 4. Ilustración gráfica de la regla de
Armijo.
16- Etapa 1 (Valor inicial). Elegir
y . Valores típicos son - y ó . Se toma .
- Etapa 2 Si ir a la Etapa
3. En otro caso, ir a la Etapa 4. - Etapa 3 Si parar, y
hacer . En otro caso, hacer
- e ir a la Etapa 2.
- Etapa 4 Si parar.
En otro caso, hacer e ir a la
Etapa 3.
17Determinación de las Direcciones de Descenso
- El criterio de parada suele ser
, que se basa en la condición necesaria de
optimalidad y en la
continuidad de . - Los métodos más importantes para seleccionar la
dirección de descenso son - Método de la máxima pendiente. Este método usa ,
como dirección de
descenso en x(t). Si se
cumple - Método de Newton. Este método usa
- Si es definida positiva y
su inversa también lo es, y
entonces d(t) es descendente
18- Métodos quasi-Newton. La dirección de búsqueda
del método de Newton resulta indefinida si la
matriz hesiana es singular. Además, el esfuerzo
computacional puede resultar muy grande para
problemas de dimensión modesta. Para resolver
este problema se aproxima por una
matriz definida positiva B(t),que se actualiza
sucesivamente para que converja a la matriz
hesiana en el punto solución. - La dirección de búsqueda se calcula así
- Un ejemplo es la fórmula de Davidon-Fletcher-Powe
ll (DFP), que actualiza mediante -
- donde p(t) x(t1)-x(t),
, y H(1) es la matriz
identidad In, y la de Broyden- Goldfarb-Shanno
(BFGS) que actualiza mediante - donde .
19- Un Método general. Los métodos anteriores son
casos particulares de considerar una
transformación del gradiente cambiado de signo
mediante una matriz definida positiva A(t), es
decir, para todo x?0. - Sea ,entonces
- Método del gradiente conjugado. Este método
utiliza -
- que es descendente, ya que, si
,se puede demostrar que - Hay varias variantes de este método La de
Fletcher-Reeves, que usa la fórmula
20- El método de Polak-Ribière define este parámetro
como
21- Ejemplo Método de la Máxima Pendiente
- Minimizar
- Etapa 1 (Punto inicial). Se toma x(1) (0, 0)T.
- Etapa 2 (Generación de la dirección de
búsqueda). En la iteración t, se usa la dirección
de búsqueda - En la primera iteración
- Etapa 3 (Comprobación de optimalidad). Como
d(1)?0 se trata de una dirección de descenso. - Etapa 4 (Búsqueda lineal). Para calcular el
salto, se resuelve el problema - Minimizar
22- Puesto que
, la función objetivo
de este problema es
. Como
es convexa, la condición suficiente
de optimalidad es . Por tanto, se
resuelve y
se obtiene a11/4. - Etapa 5 (Actualización). Sea
-
- Figura 5. Progreso del método del gradiente.
- Etapa 6(Comprobación de convergencia). Puesto
que es grande, se repite con
, y t2.
23- Etapa 2 (Generación de la dirección de
búsqueda). - Etapa 3 (Comprobación de optimalidad). Como
d(2)?0 se trata de una dirección de descenso. - Etapa 4 (Búsqueda lineal). Como
- se tiene
, y el
problema lineal es -
- Minimizar
- Como es
convexa, se resuelve
y se obtiene . - Etapa 5 (Actualización). Se hace t 3,
entonces
24- Ejemplo Método de Newton
- La matriz hesiana y su inversa son
- Etapa 1 (Punto inicial). Se toma x(1) (0, 0)T
. - Etapa 2 (Generación de la dirección de
búsqueda). Puesto que -
resulta - Etapa 3 (Comprobación de optimalidad). Como
d(1)?0 y f es estrictamente convexa, se trata de
una dirección de descenso.
25- Etapa 4 (Búsqueda lineal). El problema lineal
es - Minimizar
- Puesto que
se obtiene
y el óptimo se alcanza en
. - Etapa 5 (Actualización). Se hace
. - Etapa 6 (Comprobación de convergencia). Puesto
que se trata del óptimo.
26- Ejemplo Método quasi-Newton
- Etapa 1 (Punto inicial). Se toma
- Por tanto coincide con el método de la máxima
pendiente, resultando t 2 y - .
-
- Etapa 2 (Generación de la dirección de
búsqueda). Para usar la fórmula de DFP se
necesitan los vectores y matrices
27 28- Ejemplo Método del Gradiente Conjugado.
- Etapa 1 (Punto inicial). Se toma x(1) (0, 0)T.
De nuevo, la dirección de búsqueda es
, por lo que no se repite, y se
hace - t2 y x2 (0,1/2)T.
- Etapa 2 (Generación de la dirección de
búsqueda). Se obtiene - y se calcula la dirección de búsqueda como
29- Etapa 3 (Comprobación de optimalidad). Como d(2)
?0, se trata de una dirección de descenso. - Etapa 4 (Búsqueda lineal). Para calcular el
salto, se resuelve el problema - Minimizar
-
- puesto que
- Se obtiene
-
- el valor óptimo de la búsqueda lineal es a21 gt
0. - Etapa 5 (Actualización). Se hace
30- Etapa 6 (Comprobación de optimalidad). Puesto
que x(3) satisface - se ha alcanzado el óptimo, y el algoritmo para.
- Para el caso de funciones cuadráticas convexas,
el óptimo se alcanza tras un número de
iteraciones igual a la dimensión de la matriz
hesiana.
31Algoritmos para la Optimización con Restricciones
- El problema de la optimización con restricciones
puede resolverse mediante los siguientes métodos - Métodos duales Resuelven el problema dual en vez
del problema primal. - Métodos de penalización Transforman el problema
restringido en uno nuevo en el que las
restricciones e incorporan a la función objetivo
por medio de una selección adecuada de parámetros
de penalización. Estos algoritmos transforman el
problema restringido en una sucesión de problemas
sin restricciones. - Métodos de linealización parcial Extienden los
algoritmos de dirección descendente al caso de
restricciones. Ahora se fuerza a que las
direcciones sean admisibles. - Método de los multiplicadores o del lagrangiano
aumentado Son métodos de penalización cuadrática
que usan el lagrangiano aumentado como función
objetivo.
32- Métodos de programación secuencial cuadrática
Resuelven una secuencia de problemas de
programación cuadrática que aproximan el problema
original. Cuanto mayor sea el número de
iteraciones mayor será la aproximación obtenida.
33Métodos Duales
- La principal razón para usar los métodos duales
es que en la mayoría de los casos resulta una
función cóncava en un conjunto convexo muy
sencillo, por lo que no tiene máximos locales no
globales. Deben plantearse dos cuestiones - Cómo obtener la solución del primal tras
resolver el dual. - Cómo resolver el problema dual.
- Sea el problema
- Minimizar
- Sujeto a
- Donde
son continuas.
34- El problema dual es
- Maximizar
- Donde la función dual es
- Con dominio de definición
- Para evaluar la función dual para ?(t) y µ(t) es
necesario resolver el problema - que se llama Problema lagrangiano.
- Para discutir la primera cuestión, se define el
conjunto
35- Si no existe la holgura dual, es decir, ,
y somos capaces de resolver el problema dual y
obtener como valores óptimos ,
entonces cualquier punto factible
resuelve el problema primal. El teorema
que sigue justifica que para los problemas
convexos no existe la holgura dual, y que se
puede obtener una solución primal basándose en
las soluciones del problema dual. - Teorema 1 (Condición suficiente para una solución
primal basada en la dual.) - Sea una solución del problema dual
y supóngase que es diferenciable en
. Entonces, cualquier elemento
resuelve el problema primal.
36Métodos de Penalización
- Los métodos de penalización transforman el
problema restringido original en una secuencia de
problemas sin restringir mediante funciones de
penalización. La idea de convertirlos en
problemas no restringidos es muy atractiva, pues
éstos se resuelven muy fácil y eficientemente. - Puesto que todos los métodos tratan las
igualdades de la misma forma, éstos se clasifican
por la forma de tratar las desigualdades. Hay dos
tipos de métodos - Métodos del punto exterior. La secuencia de
soluciones de los problemas sin restricciones
contiene sólo puntos no factibles (exteriores a
la región factible). - Métodos del punto interior o métodos barrera. La
secuencia de soluciones de los problemas sin
restricciones contiene sólo puntos factibles
(interiores a la región factible). Un caso
particular interesante es el método del punto
interior que se analiza posteriormente.
37Método del Punto Exterior
- En el método del punto exterior la penalización
impuesta al punto x aumenta cundo éste se desvía
de la región factible. - De nuevo, al actualizar los parámetros de
penalización, la sucesión correspondiente de
puntos mínimos de los problemas penalizados
converge a la solución óptima del problema
inicial. En este caso los puntos de la sucesión
están fuera de la región factible.
38- Ejemplo Método del Punto Exterior
- Considere el problema
- Minimizar
- Sujeto a
- Donde
son continuas. La función
de penalización exterior es -
- donde r es el parámetro de penalización y
es la función de
penalización que satisface
39- Teorema 2 (Convergencia del método del punto
exterior.) - Sea una sucesión divergente de números
positivos, y - una función de penalización continua exterior.
Se define la secuencia - y se supone que para cada rt, existe una
solución óptima de este problema. Todo punto
límite de la sucesión generada por este
método exterior es un mínimo global del problema
original con restricciones. En particular, si el
problema original tiene una única solución
óptima, entonces es el punto límite de . - La función de penalización mas común es
- Donde . Dos casos
particulares son
40- Algoritmo 3 (Método del punto exterior)
-
- Etapa 1 (Iniciación). Hacer x(0), r1 gt 0 y t
1. Sea e gt 0 una tolerancia dada, y ? gt 1 un
número dado. - Etapa 2 (Sub-problema). Resolver por un método
de descenso, con x(t-1) como punto inicial, el
problema -
- Minimizar
- cuya solución es x(t).
- Etapa 3 (Criterio de parada). Si
, parar y salir. En otro caso, ir a la
Etapa 4. - Etapa 4 Hacer rt1 ?rt, t t 1, e ir a la
Etapa 2.
41- Los métodos de penalización tienen las siguientes
propiedades - , donde x(r)
minimiza P(x,r), son funciones no decrecientes en
r. - es una función no creciente en
r. - Se cumplen las siguientes condiciones límites
-
42- Ejemplo Método de Penalización Exterior
- Considere el problema
- Minimizar
- Sujeto a
- Nótese que en la iteración t, el problema a
resolver para obtener x(t) es -
- La siguiente tabla resume los cálculos realizados
para ß1 y ß2. El punto de partida es x(0)
(0,0). El valor inicial del parámetro de
penalización se ha tomado como r1 0.001 y ?
10.
43- Tabla 2. Resultados del ejemplo Método de
penalización exterior.
44Método Interior o Barrera
- Sea el problema
- Minimizar
- Sujeta a
- donde
son funciones continuas, y
es la región factible. Se supone que
es no vacía, y el cierre de
S- es el conjunto S. - Se considera la función objetivo
- donde r es el parámetro de penalización y f es la
función de penalización. Esta función forma una
barrera infinita a lo largo del contorno de la
región factible, que favorece la selección de los
puntos factibles frente a los que no lo son.
45- Las funciones de penalización son funciones
definidas en
, - que satisfacen las condiciones siguientes
- Son positivas en el interior de la región
factible - Tienden a 8 en la frontera de la región factible
- Ejemplos del término de penalización válidos para
la región factible g(x) 0, son - La barrera logarítmica
- La barrera inversa
46- Teorema 3 (Convergencia de los métodos barrera)
- Sea una sucesión de números positivos que
convergen a cero, y sea - una función de penalización interior, se define
- Todo punto límite de una sucesión
generada por un método barrera por medio de la
anterior ecuación es un mínimo global del
problema original con restricciones. En
particular, si el problema original tiene una
única solución óptima, entonces es el punto
límite de .
47- Algoritmo 4 (Método de Barrera)
-
- Etapa 1 (Iniciación). Elegir un punto inicial
x(0) tal que , un parámetro de
penalización inicial r1 gt 0 y hacer t 1. Sean e
gt 0, un número pequeño, y dados. - Etapa 2 (Solución del problema sin
restricciones). Resolver por un método de
descenso, con x(t-1) como punto inicial, el
problema -
- Minimizar
- sujeto a
- cuya solución óptima es x(t).
- Etapa 3 (Criterio de parada). Si
, parar y salir. En otro caso, se va a
la Etapa 4. - Etapa 4 Se hace rt1 ?rt, t t 1, se va al
paso 2.
48- Ejemplo Método Interior o de Barrera
- Considere el problema
- Minimizar
- Sujeto a
- La función barrera logarítmica es
-
- Los puntos estacionarios de P(x,r), como
funciones de r, son
49- lo que conduce a .
Por lo tanto - que es equivalente a
- La solución del anterior sistema da los puntos
estacionarios como una función de r
50- donde las otras dos raíces has sido rechazadas
porque son no factibles. La figura muestra las
curvas de nivel de la función objetivo, así como
la región factible. Nótese que la solución óptima
se alcanza en la frontera de la región factible,
y que la trayectoria hacia el óptimo está
contenida en la región factible. - Nótese también que
51El Método del Punto Interior
- Sea el problema
- Minimizar
- sujeta a
- Donde
. Su dual es - Maximizar
- sujeta a
- que usando variables de holgura equivale a
52- Maximizar
- sujeta a
- con variables .
Usando barreras logarítmicas, resulta - Maximizar
- sujeta a
- Debe notarse que Zj nunca es cero, por lo que el
problema está bien planteado. - El método del punto interior aborda la solución
del problema anterior para diferentes valores del
parámetro barrera µ, de forma tal que - µ0gtµ1gtµ2gtgtµ8 0.
53- Teorema 4 (Convergencia)
- La sucesión de parámetros genera una
secuencia de problemas como el mostrado
anteriormente, tal que la sucesión de las
soluciones , de éstos converge a la
solución de las ecuaciones. - El lagrangiano del problema tiene la forma
- Nótese que los multiplicadores de Lagrange, x,
son las variables del problema original (primal).
Utilizando dicho lagrangiano, las condiciones de
optimalidad de primer orden del problema son - Donde
- y la dimensión de e es nx1.
54- Ejemplo del Método del Punto Interior
- Considere el problema primal
- Minimizar
- Sujeto a
- La región factible del problema se da en la
siguiente figura.
55- Figura 6. Progreso del método del gradiente.
- Su dual es
- Maximizar
- Sujeto a
56- La función Lagrangiana es
- y las condiciones de optimalidad son
57- Para resolver el sistema por el método de Newton,
se sustituyen x, y y z por x?x, y? y z?z,
respectivamente, que despreciando términos de
segundo orden conducen al sistema incremental - Las direcciones de búsqueda primales-duales se
obtienen resolviendo el anterior sistema de
ecuaciones en ?x, ?y y ?z, es decir - donde v(µ)µe-Xze.
58- Se procede a una iteración de Newton para obtener
el punto - Donde son
los saltos primales y duales, respectivos. El
salto primal se aplica a las variables primales
x, mientras que el salto dual, a las duales y y
z. La selección de ap y ad se hace de forma tal
que x y z permanezcan estrictamente positivas (y
no tiene por qué ser positiva). Se usa el
parámetro s(0 ltslt 1) para asegurar la
positividad. Por tanto - donde es una tolerancia (e.g. 0.0001) y
s 0.999959.
59- Holgura Dual
- Para x e y factibles, la holgura dual es
- que se usa para medir la cercanía al óptimo.
- Infactibilidad inicial.
- Si el punto inicial no es factible, aplicando el
método de Newton al sistema (condiciones de
primer orden) se obtiene el sistema incremental - Cuya solución es
60- donde
- son los residuos primales y duales,
respectivamente. Factibilidad y optimalidad se
obtienen simultáneamente (residuos y holgura dual
tienden a cero simultáneamente). - Actualización del parámetro barrera.
- Una posible selección de µ es la que sigue. De
las condiciones de optimalidad se obtiene - Para conseguir un camino central, es decir,
para evitar un aproximación prematura a la
frontera, se introduce el parámetro ?. Entonces - Los valores del parámetro ? se ajustan
experimentalmente por prueba y error.
61- Una elección razonable es
- Si , la solución óptima ha sido
encontrada. - Criterio de parada.
- El algoritmo para cuando la holgura dual es
suficientemente pequeña, es decir, cuando - donde e es una tolerancia en tanto por uno.
- El numerador de esta fracción representa la
holgura dual en curso, mientras que el
denominador es el máximo entre 1 y el valor de la
función objetivo primal. Esta forma de
denominador evita la división por cero.
62- Cotas.
- Considérese un problema primal que incluya cotas
inferiores y superiores de las variables x, es
decir, - Minimizar
- Sujeto a
- donde algunas de las componentes de u pueden ser
infinitas y algunas de las de l pueden ser nulas.
Con variables de holgura, s y v, el problema
puede escribirse - Minimizar
- Sujeto a
63- Y usando barreras logarítmicas
- Minimizar
- Sujeto a
- Y su lagrangiano tiene la forma
- donde las variables duales asociadas a las
restricciones Ax b son y, las variables duales
asociadas a las restricciones x s u son w, y
las variables duales asociadas a las
restricciones x-v l son z.
64- Las condiciones de optimalidad son
- Para el caso usual en que l 0, que implica x
v, se tiene - Las direcciones de búsqueda (método de Newton)
son
65- donde
- Selección del punto inicial.
- Si no se dispone de un punto factible, el método
de Vanderbei suministra un buen - punto de comienzo. Primero se calcula el vector
mediante - donde Ai es la columna j de la matriz de
restricciones A, y es la norma cuadrática.
66- Después, se calcula el escalar ß mediante
- y se corrige el vector inicial x(0) con
- Si alguna componente del vector x es mayor que la
mitad de su cota superior, se fija a ese valor.
El vector de las variables duales y se hace cero.
El vector de las variables duales z se inicia
como una función del vector x, como sigue. - Si xj tiene una cota superior finita, se hace
- Si, por otra parte, la cota superior de xj es
infinita, se hace
67- Algoritmo 5 (Barrera logarítmica primal-dual)
- Entrada Un problema de programación lineal.
- Salida Su solución o un mensaje indicando que es
no acotado o no tiene solución. - Etapa 0. Hacer t0 y seleccionar un punto inicial
.Calcular el vector de holgura
dual . - Etapa 1. Calcular las matrices
diagonales - .
- Etapa 2. Calcular el vector
, y los residuos - . Si el punto es
factible primal y dual, los residuos son cero. - Etapa 3. Resolver el sistema de Newton
para encontrar las direcciones - .
68- Etapa 4. Calcular los saltos .
- Etapa 5. Actualizar las variables primales y
duales. - Etapa 6. Si la holgura dual es suficientemente
pequeña, parar, se ha encontrado un e- óptimo. En
otro caso, hacer t? t 1 y continuar. - Etapa 7. Actualizar el parámetro barrera µt e ir
a la Etapa 1.
69Bibliografía
- Formulación y Resolución de Modelos de
Programación Matemática en Ingeniería y Ciencia,
Enrique Castillo, Antonio J. Conejo, Pablo
Pedregal, Ricardo García, Natalia Alguacil, 2002.