Title: Un algorithme de Nelder-Mead globalis
1Un algorithme de Nelder-Mead globalisé et borné
pour les problèmes de l'ingénieur GBNM
- Marco Luersen
- - Centre Fédéral dEducation Technologique du
Paraná - CEFET-PR - Brésil
- - Doctorant au Lab. de Mécanique INSA de Rouen
- Rodolphe Le Riche
- CNRS URA 1884 et SMS, Ecole des Mines de Saint
Etienne
2Motivation
- Caractéristiques des problèmes doptimisation en
conception mécanique - plusieurs optima locaux
- variables bornées
- calcul de sensibilités souvent laborieux, coûteux
où nexistent pas - temps de calcul limité à quelques milliers
danalyses de la fonction coût - ? optimisation globale souhaitée, mais sa
faisabilité est incertaine.
3La méthode de Nelder-Mead classique
- Proposée par Nelder Mead (1965)
- (variables
continues) - Méthode dordre zéro ne requiert pas le calcul
du gradient - Méthode rapide, relativement aux méthodes dordre
zéro - Méthode locale
4La méthode de Nelder-Mead classique (2)
- Basée sur la comparaison des valeurs de la
fonction aux (n1) sommets dun simplexe - Le minimum est cherché en modifiant le simplexe à
travers des opérations réflexion,
réflexion/expansion et contractions
réflexion
plus haut coût
réflexion/expansion
plus bas coût
contractions
(2 variables, n2)
5La méthode de Nelder-Mead classique (3)
- Inconvénients
- Sapplique à des problèmes sans bornes
- Dégénérescence du simplexe (perte dune
dimension), est un cas déchec de la méthode - Méthode locale sarrête quand un minimum local
est trouvé
6Amélioration de la méthode de Nelder-Mead
- Prise en compte des bornes
- Détection des simplexes dégénérés et
ré-initialisation - Test doptimalité sur les bornes
7Prise en compte des bornes
- Prise en compte de bornes par projection
-
Si xi lt xi min ? xi xi min (i 1, n) Si
xi gt xi max ? xi xi max (i 1, n)
Dégénérescence
- Dans le domaine ? ré-initialisation au point
courant - Si la dégénérescence est sur les bornes on
laccepte
8Dégénérescence (2)
Cas 1
Cas 2
c2
c2
c1
c1
Si ou
Si ? simplexe dégénéré
9Test doptimalité sur les bornes
- Ex. Fonction test de Rosenbrock bidimensionnel
min
- fonction uni-modale
- le minimum se trouve en x1 x21
- sans le test doptimalité, souvent la recherche
sarrête sur les bornes (point x1 x20) car
dégénérescence sur les bornes
10Test doptimalité sur les bornes (2)
Sans test doptimalité
3
4
6
2
1
simplexe initial
5
789
Point de convergence, mais pas un minimum
? UN TEST DOPTIMALITÉ EST NÉCESSAIRE !
11Test doptimalité sur les bornes (3)
- les conditions de Kuhn et Tucker ne sont pas
applicables fonctions pas dérivables - conditions de point-col numériquement non
vérifiables - test doptimalité une recherche locale, avec un
petit simplexe initial - on considère que le simplexe initial est plus
petit que le bassin dattraction - coût pour la fonction de Rosenbrock 20
(ça marche toujours !)
12Globalisation recherche du minimum global
- Point de vue Ré-initialisation GBNM
Évolutionnaire
1
2
1
1
1
3
2
2
2
3
3
Hybridation Recherche globale/locale
3
Pas de recherche locale
13Globalisation par ré-initialisation probabilisée
- chaque fois qun minimum local est trouvé il est
enregistré - le prochain point initial est choisit de tel
sorte à ne pas échantillonner des régions déjà
connues visiter différents bassins
dattraction, sans connaître le nombre de
redémarrages à priori - travail à coût fixé
- redémarrage avec une caractéristique
aléatoire-biaisée
14Estimation de la probabilité de ne pas avoir
échantillonné un point f(x)
Noyaux de Parzen gaussiens
N nombre de points déjà échantillonnés n
dimension (nombre de variables)
15Estimation de la probabilité de ne pas avoir
échantillonné un point f(x) (2)
S matrice de covariance a paramètre qui
contrôle létalement des gaussiennes
Dans les exemples présentés on utilisera a
0,01, ce qui veut dire quun écart-type de la
gaussienne couvre 20 du domaine.
16Ré-initialisation probabilisée
- pour le calcul de la probabilité pi , on ne garde
comme xi que les points initiaux - maximisation de f par tirage aléatoire de
nb_random_points parmi nb_random_points
aléatoires, trouver celui qui a la plus haute
probabilité de navoir pas été échantillonné
auparavant
17Ré-initialisation probabilisée (2)
- si nb_random_points1 aléatoire
- si nb_random_pointsgrand motif régulier
- (si on connaît le nb. de redémarrages ? grille)
- si nb_random_points petit, gt 1 (3 à 10)
aléatoire/biaisée
Points initiaux
nb_random_points 1000
10
1
motif régulier (grille)
aléatoire
18GBNM Globalized Bounded Nelder-Mead Method
- Articulation de
- 3 tests de convergence
- Small
- Flat
- Degenerated
- 3 formes de ré-initialisation
- Probabilistic
- Large Test
- Small Test
19GBNM Résumé (sans prise en compte de
contraintes)
- Caractéristiques des recherches locales
vitesse, précision ? Nelder-Mead - Amélioration de la méthode de N-M
- Prise en compte de bornes par projection
- Détection et traitement des dégénérescences du
simplexe pendant la recherche - Test doptimalité sur les bornes
- Globalisée par ré-initialisation ? stratégie
hybride en série local-global
20Applications Fonctions tests multi-modales
bidimensionnelles (3)
f1
f2
f3
4 minima
6 minima
3 minima
21Fonctions tests multi-modales bidimensionnelles
(4)
Par la suite, on utilisera nb_random_points 10
22Fonction test de Griewank (n 12)(fonction très
multi-modale)
min
le minimum global est 1, et se trouve en xi0
Graphique de la fonction de Griewank
uni-dimensionnel (n1) dans le domaine -20,20
23Fonction test de Griewank (n 12)
Comparaison GBNM / Algorithme Evolutionnaire
(EA)
GBNM avec nb_random_points 10
() probabilité de croisement 0,5 prob. de
mutation 0,15 taille de la population
500 () critère pour considérer que le EA
converge sur le minimum global
24Prise en compte des contraintes parpénalisation
linéaire adaptative
Soit le problème
- f(x) est modifiée par pénalisation
- ? problème sans
contraintes
25Prise en compte des contraintes parpénalisation
adaptative (2)
Les sont actualisés à chaque itération de
N-M, Si
, mise à jour de . s incrément
de pas.
... ?
(stabilisé)
26Prise en compte des contraintes par pénalisation
adaptative (3)
- Interprétation de la pénalisation adaptative
linéaire - Un Lagrangien généralisé, qui possède un
point-col plus souvent que les Lagrangiens
ordinaires - Mise à jour des un gradient à pas fixe
pour maximiser la fonction duale, calcul du
gradient approché - Convergence possible pour des finis
(contrairement aux pénalisations quadratiques).
27Applications aux composites
- Séquence dempilement de couches
- Critères
- - max (Ex, Ey, Gxy, charge de rupture, charge de
flambement, etc.) - - min (def. x, def. y, coef. dilatation
thermique, etc.) - Contraintes
- - Ex, Ey, Gxy, rupture, def. x, def. y, coef.
dilatation thermique, etc.
28Applications aux composites
- Maximisation du module délasticité Ex ? min (1
Ex/Ex_ref) - plaque composite symétrique et équilibrée à 16
couches - 4 variables les orientations des fibres
-
- matériau verre-époxyde
- contraintes
- utilisation de la théorie classique des
stratifiés (CLT)
29Maximisation de Ex plaque composite stratifiée
- Paramètres stabilisés de pénalisation
en 44 (min) à 431 (max) analyses, avec s 1
30Maximisation de Ex plaque composite stratifiée
(2)
Exemples doptima locaux possibles trouvés par le
GBNM, 2000 évaluations de la fonction coût, 1
exécution
31Maximisation de la charge critique de flambement
- plaque rectangulaire simplement supportée
- 48 couches,
- symétrique et équilibré,
- chargement de membrane Nx et Ny
- matériau carbone-époxyde
32Maximisation de la charge critique de flambement
(2)
- contraintes
- - critère de rupture de Hoffman
- - coef. de dilatation thermique
- théorie classique des stratifiés et flambement
linéaire
33Maximisation de charge critique de flambement 48
couches 12 variables
- Paramètres stabilisés de pénalisation
- en 116 (min) à 978 (max) analyses, avec s
0,001
34Conclusions
- GBNM un algorithme pratique pour les problèmes
de lingénieur - travail à coût fixé nombre danalyses défini a
priori - globalisation par ré-initialisation
probabilisées, pour ne pas échantillonner des
régions déjà connues, sans connaître le nombre de
redémarrages à priori - Nelder-Mead amélioré pour les recherches locales
- méthode dordre zéro, locale et sans bornes ?
vitesse, précision - détection et ré-initialisation en cas de
dégénérescence - prise en compte des bornes par projection et des
contraintes par pénalisation adaptative - test doptimalité, sur les bornes.
35Conclusions (2)
- La stratégie la plus robuste de ré-initialisation
probabilisée est un compromis entre
ré-initialisation aléatoire et ré-initialisation
à intervalles réguliers - Pour les problèmes de taille moyenne à bas coût,
la méthode GBNM a une plus haute précision que
les algorithmes évolutionnaires - La globalisation par ré-initialisation
probabilisée n'est pas restrictive à lalgorithme
de Nelder-Mead. Elle peut être appliquée à
dautres optimiseurs locaux.