Multikriterielle Optimierung - PowerPoint PPT Presentation

1 / 52
About This Presentation
Title:

Multikriterielle Optimierung

Description:

Multikriterielle Optimierung Lars Boshold Inhaltsverzeichniss 1. Optimierung unter Nebenbedingungen 2. Multikriterielle Optimierung 3. Pareto-Optimierung 4. – PowerPoint PPT presentation

Number of Views:80
Avg rating:3.0/5.0
Slides: 53
Provided by: Lars2160
Category:

less

Transcript and Presenter's Notes

Title: Multikriterielle Optimierung


1
Multikriterielle Optimierung
  • Lars Boshold

2
Inhaltsverzeichniss
  • 1. Optimierung unter Nebenbedingungen
  • 2. Multikriterielle Optimierung
  • 3. Pareto-Optimierung
  • 4. Quellenverzeichnis

3
Optimierung unter Nebenbedingungen
  • Optimierung unter Nebenbedingungen
  • Problemstellung
  • Minimiere Funktion f(x) unter Nebenbedingungen
    gi(x) 0 und hj(x) 0

4
Optimierung unter Nebenbedingungen
  • Praktischer Hinweis
  • In der Praxis müssen die Nebenbedingungen nicht
    zwingend mit Maschinengenauigkeit eingehalten
    werden.

5
Optimierung unter Nebenbedingungen
  • Erster Ansatz Transformation
  • Transformiere ursprüngliches Problem in eines
    ohne Nebenbedingungen
  • min(f(x)), hj(x) 0
  • gt min(f2(x))
  • Aber Eine solche Transformation ist in der
    Praxis oftmals nicht durchführbar

6
Optimierung unter Nebenbedingungen
  • Beispiel
  • Minimiere Oberfläche einer Kiste bei festem
    Volumen
  • min(2(lbhblb)) unter Vlghconst
  • gt min(lb(lb)V/(lb))

7
Optimierung unter Nebenbedingungen
  • Klassischer Ansatz Lagrange Multiplikatoren
  • Bilde F(x, ?) f(x) S?ihi(x) und löse grad
    F0
  • Gewisse Voraussetzungen an f(x) müssen erfüllt
    sein
  • Lagrange Multiplikatoren vergrößern Dimension des
    Problems

8
Optimierung unter Nebenbedingungen
  • Beispiel
  • minimiere f(x)x2
  • unter der Nebenbedingung x1(d.h. h(x)x-1)
  • gtF(x, ?) x2 ?(x-1)

9
Optimierung unter Nebenbedingungen
  • Wie geht man vor, wenn als Nebenbedingungen
    ebenfalls ein Satz von Ungleichungen gj(x) 0
    vorliegt?
  • Lösung Führe sogenannte slack variables ein,
    d.h. schreibe Nebenbed. In der Form
  • gj(x)- aj20
  • gt F(x, ?, a)f(x) S?ihi(x) S?j (
    gj(x)-aj2)

10
Optimierung unter Nebenbedingungen
  • Um Gleichungen für die aj zu erhalten,
    differentiere F nach aj und setze gleich Null,
    man erhält 2 ?j aj 0
  • - ?j 0 gt NB ist inaktiv
  • - aj 0 gt NB auf Gleichung reduziert

11
Optimierung unter Nebenbedingungen
  • Schlussfolgerung
  • Bei Verwendung von Lagrangen Multiplikatoren
    können Nebenbedingungen der Form gj(x) 0 stets
    als Gleichung aufgefasst bzw., falls nicht
    verletzt, ignoriert werden.

12
Optimierung unter Nebenbedingungen
  • Großer Nachteil der Lagrange Multiplikatoren
  • Minimierung der Lagrange-Funktion löst nicht
    zwingend das Ausgangsproblem. (z.B. stationäre
    Punkte mit positiver Hesse-Matrix)
  • Mögliche Lösung Verwende Newton-Verfahren, um
    richtige Lösung zu suchen.
  • Aber Funktioniert nur, wenn Suche in Nähe des
    gesuchten Minimums beginnt.

13
Optimierung unter Nebenbedingungen
  • Sequentielle Quadratische Programmierung
  • (nur Grundidee)
  • Verwende quadratische Approximation der
    Lagrange-Fkt., um eben erwähntes Problem zu
    umgehen und nähere sich der gesuchten Lösung
    iterativ an, indem in jedem Schritt das
    quadratische Minimierungsproblem gelöst wird.

14
Optimierung unter Nebenbedingungen
  • Je nach Problemstellung kann es erwünscht sein,
    dass die Nebenbedingungen möglichst gut erfüllt
    sind, d.h. dass Lösungen erwünscht sind, welche
    sich im Inneren des zulässigen Bereiches
    befinden.
  • Beispiel Nebenbedingung, welche maximale
    Kostenobergrenze vorgibt

15
Optimierung unter Nebenbedingungen
  • Methode der zulässigen Richtungen
  • (Feasible Directions Method, FDM)
  • Im Gegensatz zu den Lagrange Mult. hält sich die
    FDM möglichst weit von den Grenzen des zulässigen
    Bereichs entfernt, funktioniert folglich nur bei
    Ungleichungen.
  • Grundidee Starte an aktiver Grenze und folge
    der besten Richtung in den zulässigen
    Wertebereich.
  • Die beste Richtung wird anhand zweier
    Kriterien bestimmt

16
Optimierung unter Nebenbedingungen
  • möglichst rasche Minimierung der Fkt.
  • man möchte die NBen möglichst gut erfüllen
  • Vorgehensweise
  • b maximiere -sTDgi(x) ?ib 0,
  • sTDf(x) b 0
  • si² 1, s definiert die Suchrichtung, ?i 0
    sind die sogenannten push-off Faktoren, d.h. sie
    bestimmen, wie weit die Suche von der Grenze des
    zuläs. Bereichs entfernt bleibt

17
Optimierung unter Nebenbedingungen
  • Sobald die Suchrichtung s bestimmt ist, führe
    eine eindim. Suche in eben diese Richtung aus bis
  • 1.) ein Minimum gefunden werden konnte
  • oder
  • 2.) eine Nebenbedingung verletzt wurde.
  • Im ersten Falle fahre fort mit Minimumssuche
    ohne Beachtung der NB, im 2. wiederhole
    Berechnung der zulässigen Richtung und iteriere
    Prozedur.

18
Optimierung unter Nebenbedingungen
  • Vorteil der FDM
  • Lineare Maximierungsproblem können sehr
    effizient und robust gelöst werden.
  • Nachteil der FDM
  • Je nachdem, welche Form die Grenzlinie des
    zulässigen Bereiches hat, kann die Suchrichtung
    weg von der Grenze kontraproduktiv sein.

19
Optimierung unter Nebenbedingungen
  • Penalty Function Methods
  • Einfachste Variante
  • Führe nicht-restringierte Minimumssuche durch,
  • addiere jedes mal eine große Konstante zum
    Funktionwert, wenn eine NB nicht erfüllt wird.

20
Optimierung unter Nebenbedingungen
  • Genauer
  • Arbeite statt mit f(x) mit Funktion
  • fP(x) f(x)P, wenn NB nicht erfüllt ist
  • fP(x) f(x), sonst

21
Optimierung unter Nebenbedingungen
  • Entscheidende Nachteile dieser Methode
  • fP(x) nicht glatt
  • Anzahl verletzter NBen bleibt unberücksichtigt
  • Suche führt nicht zwingend in den zulässigen
    Bereich

22
Optimierung unter Nebenbedingungen
  • Erweiterter Ansatz
  • anstatt eines Penalty P nehme einen für jede
    verletzte Nebenbedingung fP(x) f(x)mP
  • multipliziere P mit einem Wert, welcher abhängt
    vom Grade der Verletzung der Nebenbedingung
    fP(x) f(x) SPltgi(x) gt SPlthj(x) gt

23
Optimierung unter Nebenbedingungen
  • nehme seperate Penaltys für jede NB, d.h.
  • fP(x) f(x) SPiltgi(x) gt SPjlthj(x) gt
  • (Skalierung)
  • füge weiteres Set von Penalties hinzu
  • fP(x) f(x)SPiltgi(x) gtSPjlthj(x) gtSSi/gis(x)
  • (interior warning)

24
Optimierung unter Nebenbedingungen
  • Vorteil/Nachteil dieser Modifikation
  • Minima, welche sich an der Grenze des zulässigen
    Bereiches befinden, werden nicht gefunden.

25
Optimierung unter Nebenbedingungen
  • Kombination aus Lagrange und Penalty Methoden
  • Funktionen fP(x) unstetig, daher viele Methoden
    zur Minimumssuche nicht oder nur schwer
    anwendbar.
  • Idee Kombiniere Lagrange und Penalty Methoden

26
Optimierung unter Nebenbedingungen
  • gt fm(x) f(x) - S?ihi(x) cShj(x)2
  • Vorgehensweise
  • 0.) wähle ?i beliebig, c0c, ck1 2ck
  • 1.) minimiere fm (x)
  • 2.) ?jk1 ?jk - 2ckhj (x)k h,
  • ck1 2ck d

27
Optimierung unter Nebenbedingungen
  • Vorteile/Nachteile der vorgestellten Methoden
  • Transformation starke Simplifizierung des
    Problems
  • - praktisch kaum anwendbar
  • Penalty robust
  • - resultierende Fkt. Unstetig
  • FDM effizient robust
  • - bei schmalem zulässigen
    Bereich können Probleme auftreten
  • SQP effektiv, allgemeingültig
  • - Probleme bei
    Unstetigkeiten

28
Optimierung unter Nebenbedingungen
  • Insbesondere FDM und SQP werden in der Praxis
    recht häufig verwendet, FDM für einfachere, SQP
    durchaus auch für komplexere restringierte
    Optimierungsprobleme, da recht effektiv und
    allgemein anwendbar.

29
Multikriterielle Optimierung
  • Multikriterielle Optimierung
  • Problemstellung Behandlung von
    Optimierungsproblemen, bei denen mehrere, sich
    u.U. widersprechende Zielsetzungen, vorliegen

30
Multikriterielle Optimierung
  • Beispiele
  • Portfolio-Optimierung Gewinnmaximierung
    Risikominimierung
  • MKOP min(x2-4x4)
  • min(-x24x2)

31
Multikriterielle Optimierung
  • Idee zur Lösung von MKOP
  • Versuche, den verschiedenen Zielfunktionen
    Gewichte/Wertigkeiten zuzuordnen.
  • Dies würde z.B. insbesondere dann Sinn machen,
    wenn das Erreichen eines bestimmten Ziels als
    wesentlich wichtiger eingestuft werden kann als
    das eines anderen.

32
Multikriterielle Optimierung
  • Direct Weight Assignment
  • bewerte die versch. Ziele auf einer Skala, z.B.
    sehr wichtig, wichtig, neutral, unwichtig, sehr
    unwichtig
  • addiere die so gewichteten Funktionen (Ziele) nun
    zu einer über den zulässigen Bereich zu
    optimierenden Funktion
  • gt F(x)S?ifi(x)

33
Multikriterielle Optimierung
  • Beispiel
  • f(x)x2-2x4
  • f(x)-x2 4x-2
  • ?1 0.8, ?20.2
  • F(x)0.6x2-0.8x2.8
  • F(x) hat min bei x2/3

34
Multikriterielle Optimierung
  • Eigenvektor Methode
  • Bewerte paarweise die Relevanz der einzelnen
    Zielsetzungen in Relation zueinander Ziel i ist
    x mal wichtiger als Ziel y, setze pij x.
  • Sind alle pij konsistent zueinander, so ergibt
    sich eine Matrix Ppik mit pik 1/ pki
  • Löse Pw?maxw

35
Multikriterielle Optimierung
  • Beispiel 3 versch. Ziele,
  • 1 3 6
  • P 1/3 1 2
  • 1/6 ½ 1
  • ?max3, w0.667, 0.222, 0.111 T

36
Multikriterielle Optimierung
  • Nachteile dieser Methode
  • nur für Probleme mit kleiner Anzahl Zielsetzungen
    anwendbar(lt10)
  • Konsistenz ist in der Praxis meist nicht gegeben

37
Pareto-Optimierung
  • Pareto-Optimierung
  • Ein Pareto-Optimum, ist ein Zustand, in dem es
    nicht möglich ist, ein Individuum besser zu
    stellen, ohne zugleich ein anderes Individuum
    schlechter zu stellen.

38
Pareto-Optimierung
  • Definition Gegeben sei das MKOP min f1 (x),.,
    min fN (x). Eine Lösung x heißt
    Pareto optimal, falls gilt Gibt es
    eine Lösung y, so dass fk (y)ltfk (x) für
    ein k, so existiert ein l mit
    fl (y)gtfl (x).
  • Die Menge der Pareto-optimalen Punkte
    heißt Pareto-Front.

39
Pareto-Optimierung
  • Bei einem MKOP ist es stets das Ziel, die
    beste Lösung zu finden. Die DWA Methoden finden
    jedoch nicht zwingend alle Pareto-optimalen
    Lösungen
  • gt Verwendung nicht-linearer Funktionen

40
Pareto-Optimierung
  • Eine Möglichkeit besteht zum Beispiel darin,
    anstelle von F(x)S?ifi(x) die Funktion
    G(x)S?ifik (x) oder gegebenenfalls eine noch
    komplexere Fkt. zu verwenden.
  • Einen anderen Ansatz liefert folgende Methode,
    die zum Ziel hat, mit dem Problem ungünstig
    geformter Pareto-Fronten umzugehen, indem sie die
    gewichteten Funktion nicht-linear kombiniert

41
Pareto-Optimierung
  • Fuzzy Logic
  • Anstatt jeder Zielsetzung eine feste Wertigkeit
    zuzuordnen, verwende Funktionen wie in Abbildung.

42
Pareto-Optimierung
  • mögliche weitere Vorgehensweisen
  • analog wie bei DWA, dividiere durch Anzahl der
    Funktionen
  • verwende Produkt statt Summe
  • etc
  • Als Ergebnis erhalte Funktion, deren Werte in
    0,1 liegen

43
Pareto-Optimierung
  • Vorteile
  • Designer kann Wertigkeit der einzelnen Ziele mit
    größerer Toleranz angeben
  • Resultierende Funktion nicht mehr linear
  • Nachteile
  • Resultierende Funktion kann zwingend noch immer
    nicht komplette Pareto-Front erreichen
  • Resultierende Funktion oszilliert stark.

44
Pareto-Optimierung
  • Die bisherigen Methoden hatten alle gemein, dass
    den einzelnen Zielsetzungen gewisse Wertigkeiten
    zugeteilt wurden.
  • Oftmals ist dies jedoch nicht möglich. Ein
    weiterer Nachteil besteht dass u.U. sehr komplex
    zusammengesetzte Funktionen verwendet werden
    müssen, um die Pareto-Front zu lokalisieren
  • Finde Ansatz, welcher obige Problematik umgeht

45
Pareto-Optimierung
  • Naheliegende Idee
  • DWA wiederholt ausgeführt mit verschiedenen
    Gewichtungen
  • Aber
  • - Anzahl gegebener Funktionen in der Regel groß
  • (sehr hoher Rechenaufwand)
  • - konvexe Pareto-Fronten können nicht gefunden
  • werden

46
Pareto-Optimierung
  • Ziel ist aber, die Pareto-Front ausfindig zu
    machen.
  • Dazu
  • 1.) Ein Satz Pareto-optimaler Punkte muss
    gefunden werden
  • 2.) diese müssen gleichmäßig angeordnet
    sein

47
Pareto-Optimierung
  • Effektive Vorgehensweise
  • suche nicht-dominierte Punkte und archiviere
    diese
  • n-d Punkte werden solange abgespeichert, bis die
    gewünschte Anzahl gefunden ist
  • ab dann werden neue n-d Punkte nur dann
    abgespeichert, wenn sie entweder einen anderen
    dominieren oder aber zu einer besseren Verteilung
    der Punkte im Archiv beitragen

48
Pareto-Optimierung
  • Eine weitere Möglichkeit, mit welcher man die
    Pareto-Front eines MKOP ausfindig machen kann,
    liefert die Methode Nash Equlibria

49
Pareto-Optimierung
  • Nash Equilibria
  • Geg. MKOP - min f1 (x),, min fN (x)
  • Spielemodell
  • Jeder Spieler bekommt ein fi und eine
    Teilmenge der Variablen zugewiesen, welche er
    kontrollieren kann.
  • Reihum versuchen die Spieler, ihr fi zu
    minimieren, wobei sie nur ihre Variablen ändern
    können

50
Pareto-Optimierung
  • Gleichgewichtszustand
  • Wenn zu Ende gespielt ergibt sich ein
    Ergebnis, welches auf der Pareto-Front liegt, des
    weiteren ist dieses Verfahren parallelisierbar,
    schnell und robust.
  • Aber
  • Unterschiedliche Startpunkte, Verteilung der
    Variablen führen zu unterschiedlichen Ergebnissen.

51
Pareto-Optimierung
  • Zwar ist es mit diesem Verfahren möglich, die
    Pareto-Front zu lokalisieren, jedoch ist dies nur
    auf bedingt kontrollierbarem Wege möglich.
  • Aufgrund der vorher beschriebenen positiven
    Eigenschaften wird dieses Verfahren in der Praxis
    recht häufig verwendet.

52
Quellenverzeichnis
  • -Keane, Nair Computional Approaches for
    Aerospace Design
  • -wikipedia
  • -eos.tuwien.ac.at
  • -Räbiger, Theis Optimierung von
    Mehrkörpersystemen
Write a Comment
User Comments (0)
About PowerShow.com