métaheuristiques en optimisation continue · patrick siarry, univ. de paris-est créteil (lissi,...
TRANSCRIPT
Quelques travaux sur les
métaheuristiques en optimisation continue
Patrick SIARRY, Univ. de Paris-Est Créteil (LiSSi, E.A. 3956)
Cadre général de l’optimisation continue « difficile »
Adaptation du recuit simulé et des colonies de fourmis
Optimisation par essaim particulaire
Optimisation dynamique
1
2
Cadre général de
l’optimisation
continue « difficile »
3
Problèmes « difficiles » en variables continues :
Exemple : optimisation des performances d’un circuit électronique
Générateur de courant
constant (CEA)
objectif : i = Cte, V1
8 variables : dimensions (wi, li) des canaux des 4 transistors MOS
(1) Optimisation
4
(2) Caractérisation, ou identification :
Exemple : caractérisation d’un modèle de moteur électrique synchrone (CEGELY, Lyon)
objectif : faire coïncider au mieux les courbes calculées
(sorties du modèle) et les courbes expérimentales
(mesures relevées sur le moteur)
19 variables : tous les « paramètres » du modèle numérique
5
(3) Apprentissage (réseau de neurones, base de règles floues)
Nombreuses applications continues, dans tous les
domaines de l’ingénierie (électronique, mécanique, …)
Exemple : apprentissage d’un réseau de neurones analogique (CEA)
objectif : reproduire au mieux la fonction « sinus » sous forme câblée
16 variables : les résistances (coefficients synaptiques) du réseau de neurones
R2 R2
1N5233B
12 V
470
TL07412 V+
-
TL07412 V+
-
R1
R1
TL07412 V+
-
TL07412 V+
-
R1
R1
TL07412 V+
-
TL07412 V+
-
R1
R1
+
-
+
-
+
-
+
-
+
-
+
-
R1,1,1
R1,1,2
R1,2,1
R1,2,2
R1,3,1
R1,3,2
R1,4,1
R1,4,2
R1,5,1
R1,5,2
N1,1
N1,2
N1,3
N1,4
N1,5
N2,1
R2,1,1
R2,1,2
R2,1,3
R2,1,4
R2,1,5
R2,1,6
R1
ENTREE X
-3.14 V to +3.14 V
Outnet(X)
VCLAM P +
VCLAM P -
avec R1 = 10 k
et R2 = 20 k
Source constante
+1V
-1V
-
+
TL074
12V
-
+
TL074
12V
-
+
TL074
12V
élément de calcul
R 1
R 1
R 1
R 1
a v e c R 1 = 1 0 k
VCL AM P +
VCL AM P -
1 N 9 1 4
1 N 9 1 4
So rti e +
So rti e -
6
Existence de problèmes mixtes discrets / continus :
Détermination automatique de la topologie et des valeurs
des paramètres : « recuit simulé logarithmique »
(J.P. Courat, G. Raynaud, I. Mrad & P. Siarry : Electronic component model minimization
based on Log Simulated Annealing, IEEE Trans. on Circuits and Systems 41 (1994) 790-795)
Exemple :
inductance MMIC Thomson
7
• problème mono-objectif
• fonction objectif f(x), à minimiser
• seules contraintes : « contraintes de boîte » :
xiMIN < xi < xi
MAX
Hypothèses
Difficultés spécifiques aux problèmes continus :
(on parle aussi de « problèmes difficiles », mais sans référence ici
à la théorie de la complexité…)
• pas d’expression analytique de f
• f « bruitée » :
- bruit expérimental (exploitation de mesures)
- « bruit de calcul » numérique
(utilisation d’un simulateur de circuits électroniques)
gradients
de f non
accessibles
8
• f comporte des non-linéarités
• existence de corrélations
(non précisément localisées) entre variables
nombreux
minimums locaux
besoin d’une méthode d’optimisation : - « directe » (i.e. sans gradients) : interdit l’emploi de méthodes classiques puissantes, de « type Newton » - « globale » (dans le sens suivant : méthode non piégée, en principe, dans un minimum local)
N.B. : les termes « global » / « local » ne caractérisent pas ici le
type de mouvement utilisé ( par exemple, recuit simulé : à la fois
local, par son mécanisme, et global, par sa finalité…)
9
recours aux métaheuristiques, qui sont toutes à la fois « directes » et « globales »
- l’aspect « direct » des métaheuristiques, lié à
leur origine combinatoire, n’a pas d’attrait
particulier dans le cas discret
- c’est, au contraire, un avantage très important,
dans le cas continu « difficile »
sauf exception (Essaims particulaires),
métaheuristiques conçues / cadre discret
nécessité d’une « adaptation »
aux problèmes continus
10
Quelques écueils de cette adaptation
- d’ordre « culturel » :
• applications continues le plus souvent du ressort des sections
61 & 63 du CNU
• savoir-faire / métaheuristiques : plutôt section 27
• informaticiens moins intéressés par les problèmes continus,
peu standardisés peu de résultats théoriques
- d’ordre « technique » :
• hétérogénéité des domaines de définition des différentes
variables
• variables de gammes très étendues (plus de 10 décades)
11
Confrontation avec les études empiriques des concurrents
périlleuse :
codes concurrents rarement publics
grand intérêt pour les travaux d’E. Taillard : « A statistical test for comparing success rates » :
http://www.optimization-online.org/DB_HTML/2003/11/784.html
confrontation facilitée, si les concurrents jouent le jeu !
délicat de programmer soi-même les méthodes concurrentes
résultats publiés difficilement comparables :
- jeux de fonctions de test
de domaines d’évolution des variables
- choix du mode de sélection du point initial
du nb d’exécutions moyennées / résultat
- définitions du « succès » (approche de x*)
de l’« erreur finale » (en f ? en x ?)
du temps de calcul
12
La plupart des techniques développées pour adapter
une métaheuristique ne sont pas applicables aux
autres métaheuristiques…
En continu, comme en discret, aucune métaheuristique
ne semble surpasser ses concurrentes…
Adaptation / 2 métaheuristiques :
- recuit simulé
- colonie de fourmis
13
Problème d’optimisation Système physique
Fonction objectif énergie libre
Paramètres du problème coordonnées des particules
Trouver une bonne configuration trouver les états de basse énergie
Recuit simulé
CONFIGURATION INITIALE
TEMPERATURE INITIALE T
MODIFICATION élémentaire
REGLE D'ACCEPTATION de Metropolis
- si 0 : modification acceptée
- si
équilibre thermodynamique
?
OUI système figé
?
PROGRAMME DE RECUIT diminution lente de T
NON NON
variation d'énergie E
E
E 0 : modification acceptée avec la probabilité exp ( - E / T )
STOP
OUI
14
Recuit simulé : cas continu
- Il faut gérer la « discrétisation » de l’espace de recherche
- Procédure (intuitive) possible :
• variable xi « pas » de discrétisation STEPi :
STEPi : variation maximale de xi en un seul « mouvement »
STEPi est différent pour chaque variable xi
• pour STEPi donné, « mouvement » de xi :
xi’ = F (xi , STEPi) loi F ?
15
• STEPi doit être ajusté périodiquement, pour « maintenir
constante l’efficacité » de l’optimisation, lorsque T diminue :
fréquence d’ajustement du pas ?
loi d’ajustement du pas ?
• Choix des variables xi concernées par un mvt donné ?
efficacité : peut être évaluée à l’aide :
- du taux d’acceptation des mvts tentés ?
- de l’amplitude moyenne des mvts déjà effectués ?
16
Pas de résultats théoriques :
- pour valider cette procédure intuitive
- pour préciser ses diverses options
approche empirique systématique,
au moyen d’une batterie de fonctions
de test publiées :
17
Michalewicz (MZ) (n variables) :
domaine de recherche : 0 xi , i= 1, n
n = 2 , 1 minimum global : MZ(x*) = - 1.80
n = 5 , 1 minimum global : MZ(x*) = - 4.687
n =10, 1 minimum global : MZ(x*) = - 9.68
Goldstein-Price (GP) (2 variables) :
GP(x) = [1 + (x1 + x2 + 1)2 (19 - 14x1 + 13x12 - 14x2 + 6x1x2 + 3x2
2] .
[30 + (2x1 - 3x2)2 (18 - 32x1 + 12x1
2 - 48x2 - 36x1x2 + 27x22]
domaine de recherche : -2 xi 2, i = 1,2 ;
4 minimums locaux
1 minimum global : x* = (-1 , 0) ; GP(x*) = 3.
De Jong F6 (DJ F6) (2 variables) :
Xi= [16(i mod 5)-2] & Yi= 16 [integer(i/5)-2]
domaine de recherché : -65 xi 65, i = 1,2 ;
25 minimums : (32j, 32k) , j , k = -1, - 0.5, 0, 0.5, 1
minimum global : x* = (-32, -32) ; F6(x*) 0.9980
24
06
26
111002.0
16
i ii YxXxi
xF
202
1
.sin).sin()(
in
i
ixixxMZ
18
Réglage retenu :
(P. Siarry, G. Berthiau, F. Durbin, J. Haussy, ACM Trans. on Math. Softw. 23
(1997) 209-228)
code disponible
STEPi modifié à l’issue de chaque palier de T
On exploite le taux d’acceptation Ai des mvts tentés, au
cours du palier, pour xi :
- si Ai > 20%, STEPi est doublé
- si Ai < 5%, STEPi est divisé par 2
STEPi initial : ¼ du domaine de variation de xi
19
Si le domaine de variation de xi est « peu étendu » :
xi’ = xi y . STEPi (y : nb. réel aléatoire [0,1])
Sinon (cas de plusieurs décades) : loi logarithmique
4 critères complémentaires pour l’arrêt du programme
Les n variables du problème sont modifiées par groupes de p,
formés aléatoirement : typiquement, p n/3
Les fréquences de mvt des différentes variables sont égalisées
20
Variante, non « directe »
Succès, tout particulièrement en électronique (Exemple :
IRCOM, Limoges) d’une variante du recuit simulé continu :
la « diffusion simulée »
(« Simulated Diffusion » : Aluffi-Pentini et al., J. Optimiz. Theory Appl.
47 (1985) 1-16)
Cette méthode a recours, toutefois, aux gradients de f
21
- La convergence peut être accélérée, en ayant recours à l’algo.
du polytope de Nelder & Mead :
Variante hybride
(R. Chelouah & P. Siarry, EJOR 161 (2005) 636-654)
x r
x 3
x b
x 2
b) réflexion
x e
x 3
x b
x 2
c) extension
x 3
x b
x c
x 2
x' c
d) contraction (xc interne, x’c
externe)
xb sommet où la valeur de la
fonction objectif est MIN
xh sommet où la valeur de la
fonction objectif est MAX
x 3
x b
x h
x 2
a) Polytope initial
22
Décroissance adaptative de la température
- Etude théorique
et expérimentale
(E. Triki, Y. Collette & P. Siarry,
EJOR 166 (2005) 77-92)
- Principaux résultats :
• plusieurs lois adaptatives classiques,
ayant des origines et des expressions
mathématiques bien différentes, sont,
en pratique, équivalentes :
23
• le choix le plus simple : (Tk) = Cte ne correspond à aucune
loi classique
• nous avons montré que ce choix peut être formateur, face à
un problème nouveau
• on montre que ce sont des cas particuliers de la loi générique :
Tk+1 = Tk . [ 1 – Tk . (Tk) / s2(Tk) ]
où : s2(Tk) = < fTk2 > - < fTk >
2
(Tk) : dépend de la loi adaptative choisie
24
Colonies de fourmis : cas continu
2 premiers algorithmes en variables continues :
CACO (1995, Bilchev & Parmee)
API (2000, Monmarché & al.)
diversification :
fourmis « globales », chargées de délimiter de grandes « régions »
création et évaluation des régions : utilisent les mêmes opérateurs
qu’un AG
intensification :
fourmis « locales », affectées aux diverses « régions »
dépôt de phéromone : proportionné à l’amélioration de f
-Principe de CACO (« Continuous Ant Colony Optimization ») :
25
Inconvénients de CACO :
- complexe : AG + fourmis
- trop de paramètres
S’inspire du comportement d’une fourmi primitive :
« Pachycondyla apicalis »
Simule une forme de communication directe entre 2 fourmis :
le « tandem-running » amène à rassembler les individus dans
les meilleurs sites de chasse
Inconvénient de API :
N’exploite pas de pistes de phéromone pas de « stigmergie »
(communication indirecte, via l’environnement)
-Principe de API :
26
Nouvel algorithme : CIAC
« Continuous Interacting Ant Colony » (J. Dréo & P. Siarry, Future Generation Computer Systems 20 (2004) 841-856)
l’idée est :
- de préserver le cadre des colonies de fourmis
- d’exploiter plusieurs formes de communication
Insectes sociaux et communication :
(Hölldobler &Wilson : « The Ants ». Springer, 1990)
« Recrutement » : forme de communication , qui entraîne les
individus à se regrouper en un endroit où un travail est nécessaire
27
- recrutement indirect par pistes :
suivi de piste dépôt de phéromone
Nid
Nourriture
- recrutement direct interindividuel :
exemple : mobilisation
Procède par « trophallaxies » :
échanges de nourriture liquide
entre 2 individus
?
28
« Hétérarchie dense » :
Hiérarchie Hétérarchie dense
Wilson & Hölldobler, “Dense Heterarchy and mass communication as the basis of organization in ant colonies”. Trends in Ecology and Evolution, 3 (1988) 65-68
29
Principale particularité de CIAC :
2 canaux de communication
1) spots de phéromone
2) messages entre
2 individus
mémoire interne / individuelle = NIVEAU LOCAL
mémoire externe / collective = NIVEAU GLOBAL
30
Diffusion de phéromone
Recrutement = f(proximité)
Recrutement = f(quantité)
Niveau global
Toutes les fourmis impliquées
31
Envoi de messages
Niveau local
Informations :
Amélioration fonction objectif
Position zone d’intérêt
32
Résultats
La synergie entre les deux canaux de communication a été
observée empiriquement :
En présence des 2 canaux, l’écart-type des valeurs de f
est plus grand, et présente de plus amples oscillations
« auto-organisation », avec alternance :
- de phases de diversification (s grand)
- de phases d’intensification (s petit)
33
Validation sur un jeu de 13 fonctions de test « statiques »
performances généralement inférieures / meilleures métaheuristiques
2 orientations :
- (classique) hybridation
- application en optimisation continue « dynamique »
En optimisation dynamique, on a une meilleure exploitation de la
flexibilité et de l’auto-organisation inhérentes à un algorithme de
colonie de fourmis
34
• L'OEP est aussi une technique fondée sur la coopération entre
des agents : les « particules ».
• Ces agents peuvent être vus comme des « animaux » aux
capacités individuelles limitées : peu de mémoire et de facultés
de raisonnement.
• L’échange direct d'information entre ces agents rudimentaires
permet néanmoins de résoudre des problèmes difficiles.
L’optimisation par essaim particulaire (OEP, ou PSO en anglais)
35
Schéma de principe du déplacement d’une particule
Pour réaliser son prochain
mouvement, chaque particule
combine trois tendances :
Nouvelle
position Vitesse
actuelle
Position
actuelle
Vers la meilleure
performance de mes
informatrices
Vers ma
meilleure
performance
compromis psycho-social,
entre confiance en soi et
influence de ses relations
sociales… suivre sa propre vitesse
revenir vers sa meilleure
performance
aller vers la meilleure
performance de ses
informatrices
36
algorithme OEP standard
Pour chaque particule (solution candidate) :
i = numéro de la particule
j = numéro de la composante vectorielle
t = numéro de l’itération
v = « vitesse » de la particule
x = position de la particule
w = coefficient d’inertie
p = meilleure position connue de la particule elle-même
g = meilleure position connue au sein de l’essaim c1 , c2 = coefficients d’attraction
r1 , r2 = nombres aléatoires, de distribution uniforme en [0,1]
vi,j(t+1) = w vi,j(t) + c1 r1i,j [pi,j(t)–xi,j(t)] + c2 r2i,j
[gj(t)-xi,j(t)]
xi,j(t+1) = xi,j(t) + vi,j(t+1)
37
Deux types de paramètres de contrôle
Les paramètres de topologie de l’essaim :
1) la taille de l’essaim
2) la taille maximale du voisinage d’une particule
Individualisme / Collectivisme
Intensification / Diversification
Les paramètres de déplacement :
1) l’inertie des particules ( w )
2) les coefficients d’attraction ( c1 et c2 )
3) la vitesse maximale d’une particule
38
Notions de voisinage et de topologie
Le voisinage d’une particule est le sous-ensemble de particules qu’elle peut
interroger pour récupérer des informations.
La structure de voisinage entre les particules forme le réseau de communication, appelé topologie de l’OEP.
39
Plusieurs questions se posent sur la coopération entre les particules :
qui échange avec qui ?
quelle est l’information échangée ?
quand se fait l’échange ?
à quoi sert l’information échangée ?
40
X
Y
voisinage géographique
voisinage social
voisinage géographique / voisinage social
41
, ,, , 1 1 , , 2 2 ,
, , ,
( 1) ( ) ( ) ( ) ( ) ( ) (1)
( 1) ( ) (t+1) (2)
i j i ji j i j i j i j j i j
i j i j i j
v t wv t c r p t x t c r g t x t
x t x t v
Quelle est l’influence de la topologie dans l’OEP ?
la meilleure position dans le voisinage de la particule la composante sociale
42
autres topologies de l’OEP
Pyramid Four-Cluster Von Neumann Wheel
statiques :
dynamiques :
Fitness
Geometric
Hierarchy
Random topology (utilisée dans SPSO’2006, SPSO’2007 et SPSO’2011)
...
[Parsopoulos et al., 02] Approche agrégée
Agrégation linéaire
Agrégation dynamique
[Parsopoulos et al., 02] Approche non agrégée
non Pareto
Ordre lexicographique
Génération dynamique des voisinages
[Parsopoulos et al., 04] Approche non agréée
non Pareto (VEPSO)
Adaptation de VEGA
Un essaim pour chaque objectif
[Pulido et al., 04] Approche Pareto
élitiste
Essaim divisé en sous-essaims
Variation des fonctions de sélection des guides
[Alvarez-Benitez et al., 05] Approche Pareto
élitiste (MOPSO-pd)
Variation des fonctions de sélection des guides
Utilisation d’un facteur de turbulence
[Sierra et al., 05]
Approche Pareto
élitiste (OMOPSO)
Essaim divisé en sous-essaims
Variation des techniques de mutation
Etude de l’héritage et de l’approximation
[Durillo et al., 09] Approche Pareto
élitiste (SMPSO)
Amélioration de OMOPSO
Limitation de la vitesse
[Cooren et al., 09] Approche Pareto
élitiste (MO-TRIBES)
Adaptation de TRIBES
Algorithme sans paramètres de contrôle
[Cabrera et al., 10] Approche Pareto
élitiste (Micro-MOPSO)
Essaim de petite taille
Réinitialisation + deux archives externes
[Bartz-Beielstein et al., 03] Approche Pareto
élitiste (DOPS)
Variation des fonctions de mise à jour des guides et de l’archive
[Quintero et al., 08]
Approche Pareto
élitiste
Essaim de petite taille + un petit nombre d’évaluations
Hybridation avec des techniques de rech. locale
Manque de
diversité
Convergence prématurée
Nombreuses versions multiobjectif
Algorithme TRIBES (M. Clerc)
44
Un algorithme d’OEP sans réglage de paramètres.
Optimisation mono-objectif, adaptable au cas multiobjectif.
L’essaim est divisé en tribus :
au début, l’essaim est formé d’une seule particule, constituant une tribu.
la qualité de chaque tribu induit une suppression ou un ajout de particule.
la qualité de chaque particule détermine la stratégie de déplacement.
chaque particule est guidée par sa meilleure performance et par la meilleure performance de ses particules informatrices.
45
Les adaptations structurelles :
Suppression d’une particule : on élimine la plus mauvaise particule d’une bonne tribu.
Ajout d’une particule : on ajoute de nouvelles particules aux mauvaises tribus, pour obtenir de nouvelles informations.
Les adaptations comportementales :
La stratégie de déplacement d’une particule est fonction de ses deux dernières performances.
46
47
Livre de Maurice Clerc paru en 2005
Maurice Clerc a créé et met à jour régulièrement ce site dédié à l’OEP :
http://www.particleswarm.info/
conférence ICSIBO’2016 :
résumés et transparents en ligne :
http://www.mage.fst.uha.fr/icsibo2016/
Optimisation dynamique
Le problème d’affectation de tâches
machine 2
machine 1
charge
machine 3
charge
ajout retrait
panne
Compression du signal
nouveau modèle
à chaque battement peu de différences entre
les décalages consécutifs
Estimation du mouvement dans une séquence
Le problème de tournées de véhicules
dépôt
ajout
retrait
En optimisation dynamique, la fonction objectif change au cours du temps :
soit :
• un espace de recherche S
• une fonction objectif f
• le temps t
Dans le cas d’une minimisation, on cherche s*(t) telle que :
s* (t) = arg min f(s, t)
s S
s*(t)
f(s, t)
s
Formulation d’un pb. d’optimisation dynamique (mono-objectif)
Moving Peaks Benchmark [Branke, 1999]
Beaucoup d’auteurs l’utilisent encore
Generalized Dynamic Benchmark Generator [Li et al., 2008]
Utilisé depuis la compétition organisée lors de
IEEE Congress on Evolutionary Computation (CEC’2009)
Jeux de tests
50
Moving Peaks Benchmark (1 / 2)
MPB consiste en un ensemble de pics, dont la hauteur, la largeur et la position peuvent varier au cours du temps, après un certain nb d’évaluations de la fonction.
MPB est paramétrable.
(a) Avant un changement (b) Après un changement
x x y y
f(x, y) f(x, y)
51
Moving Peaks Benchmark (2 / 2)
* time span : plage d’évaluations de f durant laquelle la fonction objectif ne change pas. Un changement de la fonction objectif se produit ici toutes les 5000 itérations.
Paramètre Scénario 2
Nombre de pics 10
Dimension 5
Hauteur des pics [30, 70]
Largeur des pics [1, 12]
Nombre d’évaluations d’un time span* 5000
Sévérité des déplacements des pics 1
Sévérité des changements de hauteur des pics 7
Sévérité des changements de largeur des pics 1
Coefficient d’autocorrélation des déplacements des pics 0
c eN
j
jN
i
jij
ec
ffjNN
oe1
)(
1
**
)(
11Offline error : moyenne des écarts entre l'optimum global et la meilleure solution trouvée à chaque évaluation (une erreur de 0 signifie un suivi parfait de l'optimum) :
Generalized Dynamic Benchmark Generator (1 / 2)
Le jeu de tests GDBG est constitué de 49 fonctions dynamiques. Il y a un score global, le maximum possible est de 100.
L’ensemble de ces fonctions est supposé être représentatif de la plupart des problèmes d’optimisation dynamique réels.
Divers types de changements, plus ou moins chaotiques et brutaux, ont lieu après un certain nombre d’évaluations de la fonction (time span, comme pour MPB).
Ce problème est paramétrable, et a été utilisé lors de la compétition de CEC’2009.
Composition of Ackley’s function Composition of Rastrigin’s function Composition of Griewank’s function
Chaque fonction dynamique est basée sur une fonction statique.
A chaque time span, une opération de changement lui est appliquée.
Il y a 6 fonctions statiques :
F1: Rotation peak function
F2: Composition of Sphere's function
F3: Composition of Rastrigin's function
F4: Composition of Griewank's function
F5: Composition of Ackley's function
F6: Hybrid Composition function
Il y a 7 opérations de changement :
T1: Small step
T2: Large step
T3: Random
T4: Chaotic
T5: Recurrent
T6: Recurrent change with noise
T7: Random change with changed dimension
Generalized Dynamic Benchmark Generator (2 / 2)
54
Adaptation des métaheuristiques d’optimisation statique
Introduire de la diversité après un changement [Cobb, 1990]
Maintenir la diversité tout au long de la recherche [Grefenstette, 1992]
Mémoriser des informations sur les « états » passés [Yang & Yao, 2008]
Plusieurs populations de solutions [Branke et al., 2000 ; Parrott & Li, 2004]
Prédire les futurs changements [Rossi et al., 2008]
Etat de l’art : techniques
55
Multi-Agent based algorithm for Dynamic Optimization
Economiser les évaluations de la fonction objectif
utilisation d’une recherche locale
spécialisée
Maintenir la diversité tout au long de la
recherche
utilisation d’une population d’agents
coordonnés
Mémoriser des informations sur les
« états » passés
archiver les optima locaux trouvés
suivre les déplacements des optima archivés
Objectifs à atteindre :
56
J. Lepagnot, A. Nakib, H. Oulhadj & P. Siarry,
A multiple local search algorithm for continuous dynamic optimization,
Journal of Heuristics 19 (2013) 35-76.
Performances sur GDBG (jeu de tests de CEC’2009)
0
10
20
30
40
50
60
70
80
90
100
MLSDO MADO Brest et al.
2009
Korosec et
al. 2009
Yu et al.
2009
Li et al.
2009
França et
al. 2009
Score
81,28
70,76 69,73 65,21
58,09 57,57
38,29
AIS EAs ACO OEP EAs Multi-agent Multi-agent
57
58
Quelques pages de publicité
pour finir….
59
CEC’05 Single Objective Optimization
CEC’06 Constrained Single Objective Optimization
CEC’07 Multi-Objective Optimization
CEC’08 Large-Scale Global Optimization
CEC’09 Dynamic and Uncertain Environments
CEC’09 Constrained Multi-Objective Optimization
Quelques sessions organisées dans le cadre
de conférences CEC successives
60
commun aux GdR MACS et RO du CNRS
Animateurs : L. Deroussi [email protected]
P. Siarry [email protected]
E.G. Talbi [email protected]
Groupe META
2014 2012