Universidad de los Andes-CODENSA - PowerPoint PPT Presentation

About This Presentation
Title:

Universidad de los Andes-CODENSA

Description:

M todos de B squeda basados en el Gradiente y el Gradiente Conjugado. M todos de B squeda Directa. Universidad de los Andes-CODENSA ... – PowerPoint PPT presentation

Number of Views:169
Avg rating:3.0/5.0
Slides: 70
Provided by: Own280
Category:

less

Transcript and Presenter's Notes

Title: Universidad de los Andes-CODENSA


1
Métodos de Búsqueda basados en el Gradiente y el
Gradiente Conjugado.Métodos de Búsqueda Directa.
  • Universidad de los Andes-CODENSA

2
Algoritmos de Optimización sin Restricciones
  • Los métodos para obtener la solución de un PPNL
    se basan en obtener una sucesión de puntos tales
    que su límite sea una solución óptima del
    problema que se considera. Para asegurar la
    convergencia debe suponerse que el PPNL es un
    problema convexo diferenciable. Sin embargo,
    estos algoritmos se aplican aún cuando no se
    satisfacen estas condiciones.
  • El criterio de parada se basa en las CKKT. Cuando
    éstas se satisfacen con una cierta tolerancia, se
    para el proceso iterativo y se toma como mínimo
    el punto correspondiente.
  • Considere el problema
  • Minimizar
  • donde y es una función
    diferenciable para cada .

3
  • Los métodos se dividen en dos categorías
  • Los que usan información sobre las derivadas. Se
    basan en aplicar métodos numéricos para resolver
    las condiciones necesarias de KKT
  • donde x es la solución que se busca.
  • Los que sólo usan evaluaciones de la función
    objetivo.
  • Utilizan fórmulas de interpolación para estimar
    iterativamente el mínimo de un problema
    unidimensional.
  • Si f es convexa, el problema de obtener un óptimo
    es equivalente al de resolver la anterior
    ecuación. Pueden usarse métodos de búsqueda de
    raíces para resolverlo.

4
Búsquedas Lineales con Derivadas Método de Newton
  • Puesto que se tiene
  • Si se quiere que sea cero se obtiene
  • Considerando que obtenemos
  • Que utiliza las derivadas primera y segunda de f.

5
Método quasi-Newton o de la Secante
  • Reemplazando en la expresión anterior
    por la aproximación
  • Se llega a
  • Con lo que
  • Que solo requiere derivadas primeras.

6
  • Ejemplo Método de Newton/Método quasi-Newton
  • Minimizar
  • Realizando el análisis mediante el método de
    Newton tenemos
  • Las derivadas primera y segunda son
  • y la sucesión asociada al método de Newton
    resulta
  • Nótese que si la sucesión converge al punto
    entonces, tomando límites en ambos lados de la
    relación se obtiene , y
    esta ecuación tiene como su única solución
    .

7
  • Si realizamos el análisis mediante el método
    quasi-Newton obtenemos
  • El método de Newton requiere sólo un punto
    inicial, pero el quasi-Newton necesita dos puntos
    para comenzar. La siguiente tabla muestra las
    algunas iteraciones de ambos métodos, cuando se
    utiliza como punto inicial x1 0, para el método
    de Newton, y x1 0 y x2 1/3 para el
    quasi-Newton.

8
  • Tabla 1. Resultados de los Métodos de Newton y
    quasi-Newton.

9
Búsquedas Lineales sin Derivadas Ajuste Cuadrático
  • Figura 1. Función objetivo a minimizar junto a
    una parábola interpolante.
  • El método de ajuste cuadrático usa una
    interpolación parabólica de f, basada en tres
    puntos. Supóngase que se trata de minimizar una
    función convexa f(x), y que se tienen tres puntos
    a lt b lt c tales que

10
  • Sin pérdida de generalidad se puede suponer que
    una de las desigualdades es estricta.
    Seguidamente se ajusta una parábola pasando por
    los tres puntos (a, f(a)), (b, f(b)) y (c, f(c)).
    Su vértice es
  • Si los tres puntos están alineados, el
    denominador degenera a cero y la expresión
    anterior no es válida. Sin embargo, esto no
    ocurre si se cumple al menos una de las
    condiciones f(a)gtf(b) y f(b)ltf(c).
  • Ahora se tiene un conjunto de cuatro puntos (a,
    b, c, v) para elegir los tres nuevos puntos
    necesarios para continuar con el proceso. El
    criterio de selección de estos tres puntos se
    basa en satisfacer la condición inicial.
  • Hay tres casos a considerar
  • Caso 1 v lt b. Hay dos posibilidades Si
    el mínimo de f está en el intervalo (a,
    b), entonces el nuevo conjunto de tres puntos es
    . Por otra parte, si
    f(b)ltf(v), el mínimo de f está en el intervalo
    (v, c), por ello, el nuevo conjunto de tres
    puntos resulta .

11
  • Figura 2. Ilustración de los casos 1a y 1b de la
    búsqueda lineal mediante interpolación cuadrática
  • Caso 2 v gt b. Similarmente,
    , se elige , y
    si
  • , se elige
    .
  • Caso 3 v c. En este caso se recobran los tres
    puntos iniciales, y no se puede decidir cuál es
    el nuevo intervalo reducido. Para evitar este
    problema, se reemplaza b por (a b)/2 y se
    repite el proceso de nuevo, con la garantía de
    que la nueva situación estará en los Casos 1 ó 2.

12
Optimización Multidimensional sin Restricciones
  • Sea el problema
  • Minimizar
  • Donde y es
    diferenciable. Este problema se puede resolver
    por el método de descenso, que genera un sucesión
    de puntos tales que

  • hasta que se satisface una condición de
    parada.
  • El método consiste en iterar las etapas
  • Problema de generación de una dirección de
    descenso Dado x(t), el problema consiste en
    obtener una dirección d(t) tal que un ligero
    desplazamiento a partir de x(t) en tal dirección
    disminuya el valor de la función objetivo. d es
    una dirección descendente de f en x si existe un
    número positivo tal que

13
  • Problema de búsqueda lineal Una vez obtenida la
    dirección descendente d(t) de f en el punto x(t),
    el problema consiste en decidir el tamaño del
    desplazamiento, , tal que el nuevo punto
    tenga un valor asociado de la
    función objetivo menor que el del punto
    original x(t), es decir, elegir
  • tal que
    para generar el
    nuevo punto
  • . En muchos
    casos, el desplazamiento se calcula de forma
    que se minimice la función objetivo en esa
    dirección d(t).
  • Lema 1 Sea diferenciable en
    . Sea d un vector de . Si
  • , entonces d es una
    dirección de descenso de f en x.
  • Figura 3. Ilustración de las direcciones de
    descenso en R2.

14
  • Los algoritmos que se basan en direcciones
    descendentes tienen la siguiente estructura
  • Algoritmo 1 (Dirección descendente)
  • Etapa 1 (Valor inicial). Elegir un punto inicial
    , y hacer t 1.
  • Etapa 2 (Generación de la dirección de
    búsqueda). Obtener una dirección descendente
    d(t).
  • Etapa 3 (Comprobación de la Optimalidad). Si
    d(t) 0, entonces parar (x(t) es un punto KTT
    del problema). En otro caso, continuar.
  • Etapa 4 (Búsqueda lineal). Encontrar el salto,
    ,que resuelve el problema unidimensional
  • Minimizar
  • sujeto a

15
  • Etapa 5 (Actualizar el punto). Hacer
  • Etapa 6 (Criterio de parada). Si
    , entonces parar. En otro caso, hacer t
    t 1, e ir a la Etapa 2.
  • Algoritmo 2 (Regla de Armijo)
  • Figura 4. Ilustración gráfica de la regla de
    Armijo.

16
  • Etapa 1 (Valor inicial). Elegir
    y . Valores típicos son
  • y ó . Se toma .
  • Etapa 2 Si ir a la Etapa
    3. En otro caso, ir a la Etapa 4.
  • Etapa 3 Si parar, y
    hacer . En otro caso, hacer
  • e ir a la Etapa 2.
  • Etapa 4 Si parar.
    En otro caso, hacer e ir a la
    Etapa 3.

17
Determinación de las Direcciones de Descenso
  • El criterio de parada suele ser
    , que se basa en la condición necesaria de
    optimalidad y en la
    continuidad de .
  • Los métodos más importantes para seleccionar la
    dirección de descenso son
  • Método de la máxima pendiente. Este método usa ,
    como dirección de
    descenso en x(t). Si se
    cumple
  • Método de Newton. Este método usa
  • Si es definida positiva y
    su inversa también lo es, y
    entonces d(t) es descendente

18
  • Métodos quasi-Newton. La dirección de búsqueda
    del método de Newton resulta indefinida si la
    matriz hesiana es singular. Además, el esfuerzo
    computacional puede resultar muy grande para
    problemas de dimensión modesta. Para resolver
    este problema se aproxima por una
    matriz definida positiva B(t),que se actualiza
    sucesivamente para que converja a la matriz
    hesiana en el punto solución.
  • La dirección de búsqueda se calcula así
  • Un ejemplo es la fórmula de Davidon-Fletcher-Powe
    ll (DFP), que actualiza mediante
  • donde p(t) x(t1)-x(t),
    , y H(1) es la matriz
    identidad In, y la de Broyden- Goldfarb-Shanno
    (BFGS) que actualiza mediante
  • donde .

19
  • Un Método general. Los métodos anteriores son
    casos particulares de considerar una
    transformación del gradiente cambiado de signo
    mediante una matriz definida positiva A(t), es
    decir, para todo x?0.
  • Sea ,entonces
  • Método del gradiente conjugado. Este método
    utiliza
  • que es descendente, ya que, si
    ,se puede demostrar que
  • Hay varias variantes de este método La de
    Fletcher-Reeves, que usa la fórmula

20
  • El método de Polak-Ribière define este parámetro
    como

21
  • Ejemplo Método de la Máxima Pendiente
  • Minimizar
  • Etapa 1 (Punto inicial). Se toma x(1) (0, 0)T.
  • Etapa 2 (Generación de la dirección de
    búsqueda). En la iteración t, se usa la dirección
    de búsqueda
  • En la primera iteración
  • Etapa 3 (Comprobación de optimalidad). Como
    d(1)?0 se trata de una dirección de descenso.
  • Etapa 4 (Búsqueda lineal). Para calcular el
    salto, se resuelve el problema
  • Minimizar

22
  • Puesto que
    , la función objetivo
    de este problema es
    . Como
    es convexa, la condición suficiente
    de optimalidad es . Por tanto, se
    resuelve y
    se obtiene a11/4.
  • Etapa 5 (Actualización). Sea
  • Figura 5. Progreso del método del gradiente.
  • Etapa 6(Comprobación de convergencia). Puesto
    que es grande, se repite con
    , y t2.

23
  • Etapa 2 (Generación de la dirección de
    búsqueda).
  • Etapa 3 (Comprobación de optimalidad). Como
    d(2)?0 se trata de una dirección de descenso.
  • Etapa 4 (Búsqueda lineal). Como
  • se tiene
    , y el
    problema lineal es
  • Minimizar
  • Como es
    convexa, se resuelve
    y se obtiene .
  • Etapa 5 (Actualización). Se hace t 3,
    entonces

24
  • Ejemplo Método de Newton
  • La matriz hesiana y su inversa son
  • Etapa 1 (Punto inicial). Se toma x(1) (0, 0)T
    .
  • Etapa 2 (Generación de la dirección de
    búsqueda). Puesto que

  • resulta
  • Etapa 3 (Comprobación de optimalidad). Como
    d(1)?0 y f es estrictamente convexa, se trata de
    una dirección de descenso.

25
  • Etapa 4 (Búsqueda lineal). El problema lineal
    es
  • Minimizar
  • Puesto que
    se obtiene
    y el óptimo se alcanza en
    .
  • Etapa 5 (Actualización). Se hace

    .
  • Etapa 6 (Comprobación de convergencia). Puesto
    que se trata del óptimo.

26
  • Ejemplo Método quasi-Newton
  • Etapa 1 (Punto inicial). Se toma
  • Por tanto coincide con el método de la máxima
    pendiente, resultando t 2 y
  • .
  • Etapa 2 (Generación de la dirección de
    búsqueda). Para usar la fórmula de DFP se
    necesitan los vectores y matrices

27

28
  • Ejemplo Método del Gradiente Conjugado.
  • Etapa 1 (Punto inicial). Se toma x(1) (0, 0)T.
    De nuevo, la dirección de búsqueda es
    , por lo que no se repite, y se
    hace
  • t2 y x2 (0,1/2)T.
  • Etapa 2 (Generación de la dirección de
    búsqueda). Se obtiene
  • y se calcula la dirección de búsqueda como

29
  • Etapa 3 (Comprobación de optimalidad). Como d(2)
    ?0, se trata de una dirección de descenso.
  • Etapa 4 (Búsqueda lineal). Para calcular el
    salto, se resuelve el problema
  • Minimizar
  • puesto que
  • Se obtiene
  • el valor óptimo de la búsqueda lineal es a21 gt
    0.
  • Etapa 5 (Actualización). Se hace

30
  • Etapa 6 (Comprobación de optimalidad). Puesto
    que x(3) satisface
  • se ha alcanzado el óptimo, y el algoritmo para.
  • Para el caso de funciones cuadráticas convexas,
    el óptimo se alcanza tras un número de
    iteraciones igual a la dimensión de la matriz
    hesiana.

31
Algoritmos para la Optimización con Restricciones
  • El problema de la optimización con restricciones
    puede resolverse mediante los siguientes métodos
  • Métodos duales Resuelven el problema dual en vez
    del problema primal.
  • Métodos de penalización Transforman el problema
    restringido en uno nuevo en el que las
    restricciones e incorporan a la función objetivo
    por medio de una selección adecuada de parámetros
    de penalización. Estos algoritmos transforman el
    problema restringido en una sucesión de problemas
    sin restricciones.
  • Métodos de linealización parcial Extienden los
    algoritmos de dirección descendente al caso de
    restricciones. Ahora se fuerza a que las
    direcciones sean admisibles.
  • Método de los multiplicadores o del lagrangiano
    aumentado Son métodos de penalización cuadrática
    que usan el lagrangiano aumentado como función
    objetivo.

32
  • Métodos de programación secuencial cuadrática
    Resuelven una secuencia de problemas de
    programación cuadrática que aproximan el problema
    original. Cuanto mayor sea el número de
    iteraciones mayor será la aproximación obtenida.

33
Métodos Duales
  • La principal razón para usar los métodos duales
    es que en la mayoría de los casos resulta una
    función cóncava en un conjunto convexo muy
    sencillo, por lo que no tiene máximos locales no
    globales. Deben plantearse dos cuestiones
  • Cómo obtener la solución del primal tras
    resolver el dual.
  • Cómo resolver el problema dual.
  • Sea el problema
  • Minimizar
  • Sujeto a
  • Donde
    son continuas.

34
  • El problema dual es
  • Maximizar
  • Donde la función dual es
  • Con dominio de definición
  • Para evaluar la función dual para ?(t) y µ(t) es
    necesario resolver el problema
  • que se llama Problema lagrangiano.
  • Para discutir la primera cuestión, se define el
    conjunto

35
  • Si no existe la holgura dual, es decir, ,
    y somos capaces de resolver el problema dual y
    obtener como valores óptimos ,
    entonces cualquier punto factible
    resuelve el problema primal. El teorema
    que sigue justifica que para los problemas
    convexos no existe la holgura dual, y que se
    puede obtener una solución primal basándose en
    las soluciones del problema dual.
  • Teorema 1 (Condición suficiente para una solución
    primal basada en la dual.)
  • Sea una solución del problema dual
    y supóngase que es diferenciable en
    . Entonces, cualquier elemento
    resuelve el problema primal.

36
Métodos de Penalización
  • Los métodos de penalización transforman el
    problema restringido original en una secuencia de
    problemas sin restringir mediante funciones de
    penalización. La idea de convertirlos en
    problemas no restringidos es muy atractiva, pues
    éstos se resuelven muy fácil y eficientemente.
  • Puesto que todos los métodos tratan las
    igualdades de la misma forma, éstos se clasifican
    por la forma de tratar las desigualdades. Hay dos
    tipos de métodos
  • Métodos del punto exterior. La secuencia de
    soluciones de los problemas sin restricciones
    contiene sólo puntos no factibles (exteriores a
    la región factible).
  • Métodos del punto interior o métodos barrera. La
    secuencia de soluciones de los problemas sin
    restricciones contiene sólo puntos factibles
    (interiores a la región factible). Un caso
    particular interesante es el método del punto
    interior que se analiza posteriormente.

37
Método del Punto Exterior
  • En el método del punto exterior la penalización
    impuesta al punto x aumenta cundo éste se desvía
    de la región factible.
  • De nuevo, al actualizar los parámetros de
    penalización, la sucesión correspondiente de
    puntos mínimos de los problemas penalizados
    converge a la solución óptima del problema
    inicial. En este caso los puntos de la sucesión
    están fuera de la región factible.

38
  • Ejemplo Método del Punto Exterior
  • Considere el problema
  • Minimizar
  • Sujeto a
  • Donde
    son continuas. La función
    de penalización exterior es
  • donde r es el parámetro de penalización y
    es la función de
    penalización que satisface

39
  • Teorema 2 (Convergencia del método del punto
    exterior.)
  • Sea una sucesión divergente de números
    positivos, y
  • una función de penalización continua exterior.
    Se define la secuencia
  • y se supone que para cada rt, existe una
    solución óptima de este problema. Todo punto
    límite de la sucesión generada por este
    método exterior es un mínimo global del problema
    original con restricciones. En particular, si el
    problema original tiene una única solución
    óptima, entonces es el punto límite de .
  • La función de penalización mas común es
  • Donde . Dos casos
    particulares son

40
  • Algoritmo 3 (Método del punto exterior)
  • Etapa 1 (Iniciación). Hacer x(0), r1 gt 0 y t
    1. Sea e gt 0 una tolerancia dada, y ? gt 1 un
    número dado.
  • Etapa 2 (Sub-problema). Resolver por un método
    de descenso, con x(t-1) como punto inicial, el
    problema
  • Minimizar
  • cuya solución es x(t).
  • Etapa 3 (Criterio de parada). Si
    , parar y salir. En otro caso, ir a la
    Etapa 4.
  • Etapa 4 Hacer rt1 ?rt, t t 1, e ir a la
    Etapa 2.

41
  • Los métodos de penalización tienen las siguientes
    propiedades
  • , donde x(r)
    minimiza P(x,r), son funciones no decrecientes en
    r.
  • es una función no creciente en
    r.
  • Se cumplen las siguientes condiciones límites

42
  • Ejemplo Método de Penalización Exterior
  • Considere el problema
  • Minimizar
  • Sujeto a
  • Nótese que en la iteración t, el problema a
    resolver para obtener x(t) es
  • La siguiente tabla resume los cálculos realizados
    para ß1 y ß2. El punto de partida es x(0)
    (0,0). El valor inicial del parámetro de
    penalización se ha tomado como r1 0.001 y ?
    10.

43
  • Tabla 2. Resultados del ejemplo Método de
    penalización exterior.

44
Método Interior o Barrera
  • Sea el problema
  • Minimizar
  • Sujeta a
  • donde
    son funciones continuas, y
    es la región factible. Se supone que
    es no vacía, y el cierre de
    S- es el conjunto S.
  • Se considera la función objetivo
  • donde r es el parámetro de penalización y f es la
    función de penalización. Esta función forma una
    barrera infinita a lo largo del contorno de la
    región factible, que favorece la selección de los
    puntos factibles frente a los que no lo son.

45
  • Las funciones de penalización son funciones
    definidas en
    ,
  • que satisfacen las condiciones siguientes
  • Son positivas en el interior de la región
    factible
  • Tienden a 8 en la frontera de la región factible
  • Ejemplos del término de penalización válidos para
    la región factible g(x) 0, son
  • La barrera logarítmica
  • La barrera inversa

46
  • Teorema 3 (Convergencia de los métodos barrera)
  • Sea una sucesión de números positivos que
    convergen a cero, y sea
  • una función de penalización interior, se define
  • Todo punto límite de una sucesión
    generada por un método barrera por medio de la
    anterior ecuación es un mínimo global del
    problema original con restricciones. En
    particular, si el problema original tiene una
    única solución óptima, entonces es el punto
    límite de .

47
  • Algoritmo 4 (Método de Barrera)
  • Etapa 1 (Iniciación). Elegir un punto inicial
    x(0) tal que , un parámetro de
    penalización inicial r1 gt 0 y hacer t 1. Sean e
    gt 0, un número pequeño, y dados.
  • Etapa 2 (Solución del problema sin
    restricciones). Resolver por un método de
    descenso, con x(t-1) como punto inicial, el
    problema
  • Minimizar
  • sujeto a
  • cuya solución óptima es x(t).
  • Etapa 3 (Criterio de parada). Si
    , parar y salir. En otro caso, se va a
    la Etapa 4.
  • Etapa 4 Se hace rt1 ?rt, t t 1, se va al
    paso 2.

48
  • Ejemplo Método Interior o de Barrera
  • Considere el problema
  • Minimizar
  • Sujeto a
  • La función barrera logarítmica es
  • Los puntos estacionarios de P(x,r), como
    funciones de r, son

49
  • lo que conduce a .
    Por lo tanto
  • que es equivalente a
  • La solución del anterior sistema da los puntos
    estacionarios como una función de r

50
  • donde las otras dos raíces has sido rechazadas
    porque son no factibles. La figura muestra las
    curvas de nivel de la función objetivo, así como
    la región factible. Nótese que la solución óptima
    se alcanza en la frontera de la región factible,
    y que la trayectoria hacia el óptimo está
    contenida en la región factible.
  • Nótese también que

51
El Método del Punto Interior
  • Sea el problema
  • Minimizar
  • sujeta a
  • Donde
    . Su dual es
  • Maximizar
  • sujeta a
  • que usando variables de holgura equivale a

52
  • Maximizar
  • sujeta a
  • con variables .
    Usando barreras logarítmicas, resulta
  • Maximizar
  • sujeta a
  • Debe notarse que Zj nunca es cero, por lo que el
    problema está bien planteado.
  • El método del punto interior aborda la solución
    del problema anterior para diferentes valores del
    parámetro barrera µ, de forma tal que
  • µ0gtµ1gtµ2gtgtµ8 0.

53
  • Teorema 4 (Convergencia)
  • La sucesión de parámetros genera una
    secuencia de problemas como el mostrado
    anteriormente, tal que la sucesión de las
    soluciones , de éstos converge a la
    solución de las ecuaciones.
  • El lagrangiano del problema tiene la forma
  • Nótese que los multiplicadores de Lagrange, x,
    son las variables del problema original (primal).
    Utilizando dicho lagrangiano, las condiciones de
    optimalidad de primer orden del problema son
  • Donde
  • y la dimensión de e es nx1.

54
  • Ejemplo del Método del Punto Interior
  • Considere el problema primal
  • Minimizar
  • Sujeto a
  • La región factible del problema se da en la
    siguiente figura.

55
  • Figura 6. Progreso del método del gradiente.
  • Su dual es
  • Maximizar
  • Sujeto a

56
  • La función Lagrangiana es
  • y las condiciones de optimalidad son

57
  • Para resolver el sistema por el método de Newton,
    se sustituyen x, y y z por x?x, y? y z?z,
    respectivamente, que despreciando términos de
    segundo orden conducen al sistema incremental
  • Las direcciones de búsqueda primales-duales se
    obtienen resolviendo el anterior sistema de
    ecuaciones en ?x, ?y y ?z, es decir
  • donde v(µ)µe-Xze.

58
  • Se procede a una iteración de Newton para obtener
    el punto
  • Donde son
    los saltos primales y duales, respectivos. El
    salto primal se aplica a las variables primales
    x, mientras que el salto dual, a las duales y y
    z. La selección de ap y ad se hace de forma tal
    que x y z permanezcan estrictamente positivas (y
    no tiene por qué ser positiva). Se usa el
    parámetro s(0 ltslt 1) para asegurar la
    positividad. Por tanto
  • donde es una tolerancia (e.g. 0.0001) y
    s 0.999959.

59
  • Holgura Dual
  • Para x e y factibles, la holgura dual es
  • que se usa para medir la cercanía al óptimo.
  • Infactibilidad inicial.
  • Si el punto inicial no es factible, aplicando el
    método de Newton al sistema (condiciones de
    primer orden) se obtiene el sistema incremental
  • Cuya solución es

60
  • donde
  • son los residuos primales y duales,
    respectivamente. Factibilidad y optimalidad se
    obtienen simultáneamente (residuos y holgura dual
    tienden a cero simultáneamente).
  • Actualización del parámetro barrera.
  • Una posible selección de µ es la que sigue. De
    las condiciones de optimalidad se obtiene
  • Para conseguir un camino central, es decir,
    para evitar un aproximación prematura a la
    frontera, se introduce el parámetro ?. Entonces
  • Los valores del parámetro ? se ajustan
    experimentalmente por prueba y error.

61
  • Una elección razonable es
  • Si , la solución óptima ha sido
    encontrada.
  • Criterio de parada.
  • El algoritmo para cuando la holgura dual es
    suficientemente pequeña, es decir, cuando
  • donde e es una tolerancia en tanto por uno.
  • El numerador de esta fracción representa la
    holgura dual en curso, mientras que el
    denominador es el máximo entre 1 y el valor de la
    función objetivo primal. Esta forma de
    denominador evita la división por cero.

62
  • Cotas.
  • Considérese un problema primal que incluya cotas
    inferiores y superiores de las variables x, es
    decir,
  • Minimizar
  • Sujeto a
  • donde algunas de las componentes de u pueden ser
    infinitas y algunas de las de l pueden ser nulas.
    Con variables de holgura, s y v, el problema
    puede escribirse
  • Minimizar
  • Sujeto a

63
  • Y usando barreras logarítmicas
  • Minimizar
  • Sujeto a
  • Y su lagrangiano tiene la forma
  • donde las variables duales asociadas a las
    restricciones Ax b son y, las variables duales
    asociadas a las restricciones x s u son w, y
    las variables duales asociadas a las
    restricciones x-v l son z.

64
  • Las condiciones de optimalidad son
  • Para el caso usual en que l 0, que implica x
    v, se tiene
  • Las direcciones de búsqueda (método de Newton)
    son

65
  • donde
  • Selección del punto inicial.
  • Si no se dispone de un punto factible, el método
    de Vanderbei suministra un buen
  • punto de comienzo. Primero se calcula el vector
    mediante
  • donde Ai es la columna j de la matriz de
    restricciones A, y es la norma cuadrática.

66
  • Después, se calcula el escalar ß mediante
  • y se corrige el vector inicial x(0) con
  • Si alguna componente del vector x es mayor que la
    mitad de su cota superior, se fija a ese valor.
    El vector de las variables duales y se hace cero.
    El vector de las variables duales z se inicia
    como una función del vector x, como sigue.
  • Si xj tiene una cota superior finita, se hace
  • Si, por otra parte, la cota superior de xj es
    infinita, se hace

67
  • Algoritmo 5 (Barrera logarítmica primal-dual)
  • Entrada Un problema de programación lineal.
  • Salida Su solución o un mensaje indicando que es
    no acotado o no tiene solución.
  • Etapa 0. Hacer t0 y seleccionar un punto inicial
    .Calcular el vector de holgura
    dual .
  • Etapa 1. Calcular las matrices
    diagonales
  • .
  • Etapa 2. Calcular el vector
    , y los residuos
  • . Si el punto es
    factible primal y dual, los residuos son cero.
  • Etapa 3. Resolver el sistema de Newton
    para encontrar las direcciones
  • .

68
  • Etapa 4. Calcular los saltos .
  • Etapa 5. Actualizar las variables primales y
    duales.
  • Etapa 6. Si la holgura dual es suficientemente
    pequeña, parar, se ha encontrado un e- óptimo. En
    otro caso, hacer t? t 1 y continuar.
  • Etapa 7. Actualizar el parámetro barrera µt e ir
    a la Etapa 1.

69
Bibliografía
  • Formulación y Resolución de Modelos de
    Programación Matemática en Ingeniería y Ciencia,
    Enrique Castillo, Antonio J. Conejo, Pablo
    Pedregal, Ricardo García, Natalia Alguacil, 2002.
Write a Comment
User Comments (0)
About PowerShow.com