optimisation multiobjectif

Upload: tetq-fsjes

Post on 17-Oct-2015

270 views

Category:

Documents


3 download

DESCRIPTION

a

TRANSCRIPT

  • Optimisation multiobjectif

  • DANS LA MME COLLECTIONG. DREYFUS et al. Rseaux de neurones.Mthodologie et applications.N11019, 2002, 380 pages.

    A. CORNUJOLS, L. MICLET. Apprentissage artificiel.Concepts et algorithmes.N11020, 2002, 638 pages.

    C. GURET, C. PRINS, M. SEVAUX. Programmation linaire.65 problmes doptimisation modliss et rsolus avec Visual XPress. N9202, 2000, 365 pages, avec CD-ROM.

    CHEZ LE MME DITEUR

    M. GONDRAN, M. MINOUX. Graphes et algorithmes.N1571, 1995, 622 pages.

    A. CARDON. Conscience artificielle et systmes adaptatifs. N9124, 2000, 384 pages.

    W. MINKER, S. BENNACEF. Parole et dialogue homme-machine. N5824, 2000, 212 pages.

    BOURDA. Introduction linformatique thorique.N1642, 1994, 236 pages.

  • Optimisation multiobjectif

    Yann Collette - Patrick Siarry

  • DITIONS EYROLLES61, Bld Saint-Germain75240 Paris Cedex 05

    www.editions-eyrolles.com

    Le code de la proprit intellectuelle du 1er juillet 1992 interdit en effet expres-sment la photocopie usage collectif sans autorisation des ayants droit. Or, cettepratique sest gnralise notamment dans les tablissement denseignement,provoquant une baisse brutale des achats de livres, au point que la possibilitmme pour les auteurs de crer des uvres nouvelles et de les faire diter cor-rectement est aujourdhui menace.

    En application de la loi du 11 mars 1957, il est interdit de reproduire intgralement ou partielle-ment le prsent ouvrage, sur quelque support que ce soit, sans autorisation de lditeur ou duCentre Franais dExploitation du Droit de Copie, 20, rue des Grands-Augustins, 75006 Paris. Groupe Eyrolles, 2002, ISBN 2-212-11168-1

    DANGER

    LEPHOTOCOPILLAGE

    TUE LE LIVRE

  • Optimisation Multiobjectif

    Yann Collette1, Patrick Siarry2

    1 Professeur agrg,ancien lve de lENS de Cachandoctorant Electricit de France,Clamart

    2 Professeur lUniversit deParis XII Val-de-Marne

  • Table des matires

    Avant-propos 1

    I Principe des mthodes doptimisation multiobjectif 131 Introduction : optimisation multiobjectif et dominance 15

    1.1 Quest-ce quun problme doptimisation ? . . . . . . . . . . . . . . . . . . . 151.2 Vocabulaire et dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.3 La classification des problmes doptimisation . . . . . . . . . . . . . . . . . 171.4 Loptimisation multiobjectif . . . . . . . . . . . . . . . . . . . . . . . . . . 181.5 La multiplicit des solutions . . . . . . . . . . . . . . . . . . . . . . . . . . 181.6 La dominance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

    1.6.1 Introduction et dfinitions . . . . . . . . . . . . . . . . . . . . . . . 191.6.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.6.3 Le dimensionnement dune barre . . . . . . . . . . . . . . . . . . . 24

    1.6.3.1 Une barre pleine de section carre . . . . . . . . . . . . . . 241.6.3.2 Une barre creuse de section carre . . . . . . . . . . . . . 26

    1.7 Illustration de lintrt de loptimisation multiobjectif . . . . . . . . . . . . 281.8 Les relations drives de la dominance . . . . . . . . . . . . . . . . . . . . . 30

    1.8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301.8.2 Optimalit lexicographique . . . . . . . . . . . . . . . . . . . . . . . 301.8.3 Optimalit extrme . . . . . . . . . . . . . . . . . . . . . . . . . . . 301.8.4 Optimalit maximale . . . . . . . . . . . . . . . . . . . . . . . . . . 311.8.5 La cne optimalit . . . . . . . . . . . . . . . . . . . . . . . . . . . 321.8.6 La a-dominance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341.8.7 La dominance au sens de Geoffrion . . . . . . . . . . . . . . . . . . 351.8.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

    1.9 La surface de compromis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361.10 La convexit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371.11 La reprsentation de la surface de compromis . . . . . . . . . . . . . . . . . 381.12 Les mthodes de rsolution des problmes doptimisation multiobjectif . . . 391.13 Bibliographie commente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

    2 Les mthodes scalaires 412.1 La mthode de pondration des fonctions objectif . . . . . . . . . . . . . . . 412.2 La mthode de Keeney-Raiffa . . . . . . . . . . . . . . . . . . . . . . . . . 472.3 La mthode de la distance un objectif de rfrence . . . . . . . . . . . . . . 482.4 La mthode du compromis . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

  • Table des matires

    2.5 Les mthodes hybrides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552.6 La mthode dite du but atteindre . . . . . . . . . . . . . . . . . . . . . . 572.7 La mthode dite du but programm . . . . . . . . . . . . . . . . . . . . . 612.8 Lordonnancement lexicographique . . . . . . . . . . . . . . . . . . . . . . . 632.9 La mthode des contraintes dgalit propres . . . . . . . . . . . . . . . . . 642.10 La mthode des contraintes dingalit propres . . . . . . . . . . . . . . . . 672.11 Lalgorithme de Lin-Tabak . . . . . . . . . . . . . . . . . . . . . . . . . . . 692.12 Lalgorithme de Lin-Giesy . . . . . . . . . . . . . . . . . . . . . . . . . . . 702.13 Bibliographie commente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

    3 Les mthodes interactives 733.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.2 La mthode du compromis par substitution . . . . . . . . . . . . . . . . . . . 733.3 La mthode de Fandel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.4 La mthode STEP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 823.5 La mthode de Jahn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 843.6 La mthode de Geoffrion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 883.7 La mthode du simplex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 913.8 Bibliographie commente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

    4 Les mthodes floues 954.1 Introduction la logique floue . . . . . . . . . . . . . . . . . . . . . . . . . 95

    4.1.1 Parallle avec la logique classique . . . . . . . . . . . . . . . . . . . 954.1.2 La fonction dappartenance . . . . . . . . . . . . . . . . . . . . . . . 96

    4.2 La mthode de Sakawa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 984.3 La mthode de Reardon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

    5 Les mthodes exploitant une mtaheuristique 1055.1 Quest-ce quune mtaheuristique ? . . . . . . . . . . . . . . . . . . . . . . . 1055.2 Dcomposition des tches en optimisation . . . . . . . . . . . . . . . . . . . 1055.3 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1055.4 Le recuit simul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

    5.4.1 La mthode P.A.S.A (Pareto Archived Simulated Annealing) . . . . . 1085.4.2 La mthode M.O.S.A (Multiple Objective Simulated Annealing) . . . 110

    5.5 La recherche Tabou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1145.6 Les algorithmes gntiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 1145.7 Loptimisation multiobjectif et les algorithmes gntiques . . . . . . . . . . . 118

    5.7.1 Les mthodes non agrgatives . . . . . . . . . . . . . . . . . . . . 1195.7.2 Les mthodes agrgatives . . . . . . . . . . . . . . . . . . . . . . 121

    5.8 Bibliographie commente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

    6 Les mthodes daide la dcision 1316.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1316.2 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

    6.2.1 Les relations dordre et dquivalence . . . . . . . . . . . . . . . . . 1336.2.2 Les relations de prfrence . . . . . . . . . . . . . . . . . . . . . . . 1346.2.3 Dfinition dun critre . . . . . . . . . . . . . . . . . . . . . . . . . 1356.2.4 Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

    6.3 Les diffrentes mthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1356.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

    II

  • 6.3.1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . 1366.3.1.2 La reprsentation . . . . . . . . . . . . . . . . . . . . . . 136

    6.3.2 La mthode ELECTRE I . . . . . . . . . . . . . . . . . . . . . . . . 1386.3.3 La mthode ELECTRE IS . . . . . . . . . . . . . . . . . . . . . . . 1456.3.4 La mthode ELECTRE II . . . . . . . . . . . . . . . . . . . . . . . 1466.3.5 La mthode ELECTRE III . . . . . . . . . . . . . . . . . . . . . . . 1536.3.6 La mthode ELECTRE IV . . . . . . . . . . . . . . . . . . . . . . . 1596.3.7 La mthode ELECTRE TRI . . . . . . . . . . . . . . . . . . . . . . 1616.3.8 La mthode PROMETHEE I . . . . . . . . . . . . . . . . . . . . . . 1646.3.9 La mthode PROMETHEE II . . . . . . . . . . . . . . . . . . . . . 168

    6.4 Bibliographie commente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

    II Evaluation des mthodes et critres de choix 171

    7 La mesure des performances 1737.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1737.2 Rapport derreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1747.3 Distance gnrationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1767.4 Mtrique STDGD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1777.5 Erreur maximale la surface de compromis . . . . . . . . . . . . . . . . . . 1787.6 Hypersurface et rapport dhypersurface . . . . . . . . . . . . . . . . . . . . 1807.7 Espacement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1827.8 Mtrique HRS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1847.9 Ensemble des vecteurs non domins ultimes . . . . . . . . . . . . . . . . . . 1847.10 Mesure de la progression . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1857.11 Gnration de vecteurs non domins . . . . . . . . . . . . . . . . . . . . . . 1867.12 Ajout de vecteurs non domins . . . . . . . . . . . . . . . . . . . . . . . . . 1867.13 Vagues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1877.14 Mtriques de Zitzler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

    7.14.1 Les mtriques relatives . . . . . . . . . . . . . . . . . . . . . . . . . 1887.14.2 Les mtriques absolues . . . . . . . . . . . . . . . . . . . . . . . . 190

    7.15 Mtrique de Laumanns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1917.16 Bibliographie commente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192

    8 Les fonctions de test des mthodes doptimisation multiobjectif 1938.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1938.2 Les problmes tests de Deb . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

    8.2.1 La fonction non convexe de Deb . . . . . . . . . . . . . . . . . . . . 1948.2.2 La fonction discontinue de Deb . . . . . . . . . . . . . . . . . . . . 1968.2.3 La fonction multifrontale de Deb . . . . . . . . . . . . . . . . . . . . 1978.2.4 La fonction non uniforme de Deb . . . . . . . . . . . . . . . . . . . 198

    8.3 Les problmes tests de Hanne . . . . . . . . . . . . . . . . . . . . . . . . . . 1998.3.1 La fonction linaire de Hanne . . . . . . . . . . . . . . . . . . . . . 1998.3.2 La fonction convexe de Hanne . . . . . . . . . . . . . . . . . . . . . 2018.3.3 La fonction non convexe de Hanne . . . . . . . . . . . . . . . . . . . 2038.3.4 La fonction discontinue de Hanne . . . . . . . . . . . . . . . . . . . 2058.3.5 La fonction plusieurs zones efficaces de Hanne . . . . . . . . . . . 206

    8.4 Bibliographie commente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207

    Table des matires

  • 9 Tentatives de classification des mthodes doptimisation multiobjectif 2099.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2099.2 Classification mathmatique des mthodes doptimisation . . . . . . . . . 210

    9.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2109.2.2 La formule de classification de Erghott . . . . . . . . . . . . . . . . 2109.2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212

    9.3 La classification hirarchique des mthodes doptimisation multiobjectif . . . 2129.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2129.3.2 Une hirarchie graphique . . . . . . . . . . . . . . . . . . . . . . . . 213

    9.3.2.1 Une hirarchie pour le traitement du problme multiobjectif 2139.3.2.2 Une hirarchie pour les interactions . . . . . . . . . . . . . 2159.3.2.3 Une hirarchie pour les mthodes doptimisation . . . . . . 2159.3.2.4 Comment exploiter cette hirarchie . . . . . . . . . . . . . 217

    9.3.3 Classification de quelques mthodes . . . . . . . . . . . . . . . . . . 2189.3.4 Comment choisir une mthode . . . . . . . . . . . . . . . . . . . . . 219

    III Etudes de cas 223

    10 Etude de cas n1 : qualification de code scientifique 22510.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22510.2 Description du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22510.3 Reprsenter la surface de compromis . . . . . . . . . . . . . . . . . . . . . . 22710.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229

    11 Etude de cas n2 : tude de lextension dun rseau de tlcommunications 23311.1 Rseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23411.2 Critres de choix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234

    11.2.1 Paramtres permettant la modlisation de la disponibilit . . . . . . . 23411.2.2 Lien entre la disponibilit et le cot . . . . . . . . . . . . . . . . . . 23511.2.3 Cots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

    11.2.3.1 Les cots dinvestissement . . . . . . . . . . . . . . . . . 23511.2.3.2 Les cots de maintenance/gestion . . . . . . . . . . . . . . 23511.2.3.3 Les cots lis lactivit conomique du rseau (rentabi-

    lit, pnalits) . . . . . . . . . . . . . . . . . . . . . . . . 23611.3 Etude dune extension du rseau . . . . . . . . . . . . . . . . . . . . . . . . 236

    11.3.1 Problmatique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23611.3.2 Modlisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236

    11.3.2.1 Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . 23611.3.2.2 Critres . . . . . . . . . . . . . . . . . . . . . . . . . . . 23611.3.2.3 Contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . 237

    11.3.3 Donnes ncessaires . . . . . . . . . . . . . . . . . . . . . . . . . . 23711.3.3.1 Infrastructure fige du rseau . . . . . . . . . . . . . . . . 23711.3.3.2 Infrastructure variable du rseau . . . . . . . . . . . . . . 23711.3.3.3 Matrice de demandes . . . . . . . . . . . . . . . . . . . . 238

    11.4 Mthodologie de rsolution . . . . . . . . . . . . . . . . . . . . . . . . . . . 23811.4.1 Dfinition dune solution admissible . . . . . . . . . . . . . . . . . . 23911.4.2 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239

    11.4.2.1 Initialisation 1 : codage . . . . . . . . . . . . . . . . . . . 23911.4.2.2 Initialisation 2 : gnration dune solution initiale . . . . . 239

    Table des matires

  • Table des matires

    11.4.2.3 Evaluation 1 : calcul de la solution courante . . . . . . . . 23911.4.2.4 Evaluation 2 : situation de cette solution par rapport au

    front de Pareto courant . . . . . . . . . . . . . . . . . . . 24111.4.2.5 Slection . . . . . . . . . . . . . . . . . . . . . . . . . . . 24211.4.2.6 Reproduction . . . . . . . . . . . . . . . . . . . . . . . . 24211.4.2.7 Critre darrt . . . . . . . . . . . . . . . . . . . . . . . . 24211.4.2.8 Algorithme global . . . . . . . . . . . . . . . . . . . . . . 243

    11.5 Rsultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24411.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244

    12 Etude de cas n3 : outils dcisionnels multicritres pour le traitement des appelsdoffres 24712.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24712.2 Modle de premire gnration . . . . . . . . . . . . . . . . . . . . . . . . . 247

    12.2.1 Mission du modle . . . . . . . . . . . . . . . . . . . . . . . . . . . 24712.2.2 Les critres du modle de premire gnration . . . . . . . . . . . . 24812.2.3 Evolution du modle de premire gnration . . . . . . . . . . . . . 250

    12.3 Comprendre les insuffisances du modle de premire gnration . . . . . . . 25112.3.1 Exemples de critres non discriminants . . . . . . . . . . . . . . . . 25212.3.2 Critres inoprants de par la mthode de notation . . . . . . . . . . . 25312.3.3 Critres qui sont en fait des contraintes . . . . . . . . . . . . . . . . 254

    12.4 Modle de deuxime gnration . . . . . . . . . . . . . . . . . . . . . . . . 25612.4.1 Principe de reconstruction du modle . . . . . . . . . . . . . . . . . 25612.4.2 Abandon du principe de modle unique . . . . . . . . . . . . . . . . 25712.4.3 Architecture des familles de modles . . . . . . . . . . . . . . . . . 25712.4.4 Critres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25812.4.5 Paramtrage du modle . . . . . . . . . . . . . . . . . . . . . . . . . 26012.4.6 Performance du modle . . . . . . . . . . . . . . . . . . . . . . . . 260

    12.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261

    Conclusion 263

    Bibliographie 267

    Index 280

  • Avant-propos

    Les ingnieurs se heurtent quotidiennement des problmes technologiques de com-plexit grandissante, qui surgissent dans des secteurs trs divers, comme dans le traitementdes images, la conception de systmes mcaniques, la recherche oprationnelle et llectro-nique. Le problme rsoudre peut frquemment tre exprim sous la forme gnrale dunproblme doptimisation, dans lequel on dfinit une fonction objectif, ou fonction de cot(voire plusieurs), que lon cherche minimiser par rapport tous les paramtres concerns.Par exemple, dans le clbre problme du voyageur de commerce, on cherche minimiserla longueur de la tourne dun voyageur de commerce, qui doit visiter un certain nombrede villes, avant de retourner la ville de dpart. La dfinition du problme doptimisationest souvent complte par la donne de contraintes : tous les paramtres (ou variables dedcision) de la solution propose doivent respecter ces contraintes, faute de quoi la solutionnest pas ralisable.

    Il existe de nombreuses mthodes doptimisation classiques pour rsoudre de tels pro-blmes, applicables lorsque certaines conditions mathmatiques sont satisfaites : ainsi, la pro-grammation linaire traite efficacement le cas o la fonction objectif, ainsi que les contraintes,sexpriment linairement en fonction des variables de dcision. Malheureusement, les situa-tions rencontres en pratique comportent souvent une ou plusieurs complications, qui mettenten dfaut ces mthodes : par exemple, la fonction objectif peut tre non linaire, ou mmene pas sexprimer analytiquement en fonction des paramtres ; ou encore, le problme peutexiger la considration simultane de plusieurs objectifs contradictoires.

    Pour clarifier lanalyse, on peut sintresser sparment deux domaines, loptimisationmultiobjectif et loptimisation difficile, qui mettent laccent sur deux sources diffrentes decomplications. Le premier domaine, auquel cet ouvrage est consacr, traite le cas de la pr-sence simultane de plusieurs objectifs, tandis que le second analyse les difficults inhrentesaux proprits mmes de chaque fonction objectif. Nous verrons que les deux aspects sontsouvent lis en pratique. Avant de se focaliser sur loptimisation multiobjectif, il est nces-saire dexpliciter maintenant davantage le cadre de loptimisation difficile.

    Optimisation difficileOn distingue en ralit deux types de problmes doptimisation : les problmes combina-

    toires (ou problmes discrets) et les problmes variables continues. Pour clarifier, citonsquelques exemples : parmi les problmes combinatoires, on trouve le problme du voyageurde commerce mentionn plus haut, ou encore celui de lordonnancement de tches concourant un mme projet. Deux exemples de problmes continus sont les suivants : lidentificationdes paramtres dun modle associ un composant lectronique, partir de donnes exp-rimentales caractrisant celui-ci ; la restauration optimale dune image, partir dune imagebrouille.

    1

  • Avant-propos

    Cette diffrenciation est ncessaire pour cerner le domaine de loptimisation difficile. Eneffet, deux sortes de problmes reoivent, dans la littrature, cette appellation, non dfiniestrictement (et lie, en fait, ltat de lart en matire doptimisation) :

    certains problmes doptimisation combinatoire, pour lesquels on ne connat pas dal-gorithme exact rapide. Cest le cas, en particulier, des problmes dits NP-difficiles,cest--dire - schmatiquement - dont la rsolution exacte nest pas possible en untemps de calcul proportionnel Nn, o N dsigne le nombre de paramtres inconnusdu problme, et n est un entier.

    certains problmes doptimisation variables continues, pour lesquels on ne connatpas dalgorithme permettant de reprer un optimum global coup sr et en un nombrefini de calculs.

    Des efforts ont longtemps t mens, sparment, pour rsoudre ces deux types de problmesdifficiles. Dans le domaine de loptimisation continue, il existe ainsi un arsenal importantde mthodes classiques dites doptimisation globale, mais ces techniques sont souvent ineffi-caces si la fonction objectif ne possde pas une proprit structurelle particulire, telle que laconvexit. Dans le domaine de loptimisation combinatoire, un grand nombre dheuristiques,qui produisent des solutions proches de loptimum, ont t dveloppes ; mais la plupartdentre elles ont t conues spcifiquement pour un problme donn.

    MtaheuristiquesLarrive dune nouvelle classe de mthodes, nommes mtaheuristiques, marque une r-

    conciliation des deux domaines : en effet, celles-ci sappliquent toutes sortes de problmescombinatoires, et elles peuvent galement sadapter aux problmes continus. Ces mthodes,qui comprennent notamment la mthode du recuit simul, les algorithmes gntiques, la m-thode de recherche tabou, les algorithmes de colonies de fourmis, etc. sont apparues, partirdes annes 1980, avec une ambition commune : rsoudre au mieux les problmes doptimi-sation difficile. Elles ont en commun, en outre, les caractristiques suivantes :

    elles sont, au moins pour partie, stochastiques : cette approche permet de faire face lexplosion combinatoire des possibilits ;

    elles sont dorigine combinatoire : elles ont lavantage, dcisif dans le cas continu,dtre directes, cest--dire quelles ne recourent pas au calcul, souvent problmatique,des gradients de la fonction objectif ;

    elles sont inspires par des analogies : avec la physique (recuit simul, diffusion si-mule, etc.), avec la biologie (algorithmes gntiques, recherche tabou, etc.) ou aveclthologie (colonies de fourmis, essaims de particules, etc.) ;

    elles sont capables de guider, dans une tche particulire, une autre mthode de re-cherche spcialise (par exemple, une autre heuristique, ou une mthode dexplorationlocale) ;

    elles partagent aussi les mmes inconvnients : les difficults de rglage des paramtresmmes de la mthode, et le temps de calcul lev.

    Les mtaheuristiques ne sexcluent pas mutuellement : en effet, dans ltat actuel de la re-cherche, il est le plus souvent impossible de prvoir avec certitude lefficacit dune mthodedonne, quand elle est applique un problme donn. De plus, la tendance actuelle estlmergence de mthodes hybrides, qui sefforcent de tirer parti des avantages spcifiquesdapproches diffrentes en les combinant. Nous verrons que les mtaheuristiques jouent unrle important dans cet ouvrage, car elles ont largement contribu au renouvellement de lop-timisation multiobjectif.

    2

  • Avant-propos

    Il nous parat intressant, pour clore ces considrations prliminaires sur loptimisationmonobjectif difficile, danalyser brivement la source de lefficacit des mtaheuristiques,puis de souligner quelques unes des extensions de ces mthodes. Cette tude nous permettradesquisser une classification gnrale des mthodes doptimisation monobjectif.

    Source de lefficacit des mtaheuristiquesPour faciliter lexpos, prenons un exemple simple de problme doptimisation : celui du

    placement des composants dun circuit lectronique. La fonction objectif minimiser est lalongueur des connexions, et les variables de dcision sont les emplacements des composantsdu circuit. Lallure de la fonction objectif de ce problme peut tre schmatiquement repr-sente comme sur la figure 1, en fonction de la configuration : chaque configuration est unplacement particulier, associ un choix de valeur pour chacune des variables de dcision.

    Lorsque lespace des configurations possibles prsente une structure aussi tourmente, ilest difficile de reprer le minimum global c. Nous expliquons ci-dessous lchec dun algo-rithme itratif classique, avant de commenter la dmarche fructueuse des mtaheuristiques.

    ccnc0 cnc1

    Fonction objectif

    Configuration

    FIG. 1 Allure de la fonction objectif dun problme doptimisation difficile en fonction dela configuration.

    Pigeage dun algorithme itratif classique dans un minimum localLe principe dun algorithme classique d amlioration itrative est le suivant : on part

    dune configuration initiale c0, qui peut tre choisie au hasard, ou bien - par exemple dansle cas du placement dun circuit lectronique - qui peut tre celle dun concepteur. On essaiealors une modification lmentaire, souvent appele mouvement (par exemple, on permutedeux composants choisis au hasard, ou bien on translate lun dentre eux), et lon compareles valeurs de la fonction objectif, avant et aprs cette modification. Si le changement conduit une diminution de la fonction objectif, il est accept, et la configuration c1 obtenue, qui estvoisine de la prcdente, sert de point de dpart pour un nouvel essai. Dans le cas contraire,on revient la configuration prcdente avant de faire une autre tentative. Le processus estitr jusqu ce que toute modification rende le rsultat moins bon. La figure 1 montre que cetalgorithme damlioration itrative (dsign aussi sous les termes de mthode de descente)ne conduit pas, en gnral, au minimum absolu, mais seulement un minimum local cn, quiconstitue la meilleure des solutions accessibles compte tenu de lhypothse initiale.

    3

  • Avant-propos

    Pour amliorer lefficacit de la mthode, on peut, bien entendu, lappliquer plusieursfois, avec des conditions initiales diffrentes choisies arbitrairement, et retenir comme so-lution finale le meilleur des minima locaux obtenus ; cependant, cette procdure augmentesensiblement le temps de calcul de lalgorithme, et ne garantit pas de trouver la configurationoptimale c.

    Capacit des mtaheuristiques sextraire dun minimum localPour surmonter lobstacle des minima locaux, une autre ide sest montre trs fruc-

    tueuse, au point quelle est la base de toutes les mtaheuristiques dites de voisinage (recuitsimul, mthode tabou) : il sagit dautoriser, de temps en temps, des mouvements de remon-te, autrement dit daccepter une dgradation temporaire de la situation, lors du changementde la configuration courante. Cest le cas si lon passe de cn c

    n (figure 1). Un mcanisme

    de contrle des dgradations - spcifique chaque mtaheuristique - permet dviter la di-vergence du procd. Il devient, ds lors, possible de sextraire du pige que reprsente unminimum local, pour partir explorer une autre valle plus prometteuse.

    Les mtaheuristiques distribues (telles que les algorithmes gntiques) ont elles aussides mcanismes permettant la sortie hors dun puits local de la fonction objectif. Ces mca-nismes (comme la mutation dans les algorithmes gntiques) affectant une solution viennent,dans ce cas, seconder le mcanisme collectif de lutte contre les minima locaux, que reprsentele contrle en parallle de toute une population de solutions.

    Extensions des mtaheuristiquesNous passons en revue quelques-unes des extensions qui ont t proposes pour faire face

    des particularits de loptimisation.

    Adaptation aux problmes variables continuesCes problmes, de loin les plus courants en ingnierie, intressent moins les informati-

    ciens. La plupart des mtaheuristiques, dorigine combinatoire, ont t cependant adaptesau cas continu, ce qui suppose notamment le recours une stratgie de discrtisation des va-riables : le pas de discrtisation doit sadapter en cours doptimisation, pour garantir la foisla rgularit de la progression vers loptimum et la prcision du rsultat.

    ParalllisationDe multiples modes de paralllisation ont t proposs pour les diffrentes mtaheuris-

    tiques. Certaines techniques se veulent gnrales ; dautres, en revanche, tirent avantage desparticularits du problme. Ainsi, dans les problmes de placement de composants, les tchespeuvent tre rparties naturellement entre plusieurs processeurs : chacun deux est chargdoptimiser une zone gographique donne et des informations sont changes priodique-ment entre processeurs voisins.

    Optimisation multimodaleIl sagit cette fois de dterminer tout un jeu de solutions optimales, au lieu dun opti-

    mum unique. Les algorithmes gntiques sont particulirement bien adapts cette tche,de par leur nature distribue. Les variantes de type multipopulation exploitent en parallleplusieurs populations, qui sattachent reprer des optima diffrents.

    4

  • Avant-propos

    Les mthodes hybridesAprs le triomphalisme des dbuts des tenants de telle ou telle mtaheuristique, lheure

    est venue de faire un bilan raliste et daccepter la complmentarit de ces nouvelles m-thodes entre elles, ainsi quavec dautres approches : do lmergence actuelle de mthodeshybrides.

    Classification gnrale des mthodes doptimisationmonobjectif

    Pour tenter de rcapituler les considrations prcdentes, nous proposons la figure 2 uneclassification gnrale des mthodes doptimisation monobjectif.

    5

  • Avant-propos

    On retrouve, dans ce graphe, les principales distinctions opres plus haut : On diffrencie, en premier lieu, loptimisation combinatoire de loptimisation continue. Pour loptimisation combinatoire, on a recours aux mthodes approches lorsquon est

    confront un problme difficile ; dans ce cas, le choix est parfois possible entre uneheuristique spcialise, entirement ddie au problme considr, et une mtaheu-ristique.

    Pour loptimisation continue, on spare sommairement le cas linaire (qui relve no-tamment de la programmation linaire) du cas non linaire, o lon retrouve le cadrede loptimisation difficile ; dans ce cas, une solution pragmatique peut tre de recourir lapplication rpte dune mthode locale qui exploite, ou non, les gradients de lafonction objectif. Si le nombre de minima locaux est trs lev, le recours une m-thode globale simpose : on retrouve alors les mtaheuristiques, qui offrent une alterna-tive aux mthodes classiques doptimisation globale, celles-ci requrant des propritsmathmatiques restrictives de la fonction objectif.

    Parmi les mtaheuristiques, on peut diffrencier les mtaheuristiques de voisinage,qui font progresser une seule solution la fois (recuit simul, recherche tabou, etc.), etles mtaheuristiques distribues, qui manipulent en parallle toute une population desolutions (algorithmes gntiques, etc.).

    Enfin, les mthodes hybrides associent souvent une mtaheuristique et une mthodelocale. Cette coopration peut prendre la simple forme dun passage de relais entrela mtaheuristique et la technique locale, charge daffiner la solution. Mais les deuxapproches peuvent aussi tre entremles de manire plus complexe.

    Citons quelques exemples de mthodes illustrant ces diffrentes catgories :Mthode exacte : cette mthode va rechercher loptimum global. Pour cela, elle effectue, en

    gnral, une numration des solutions de lespace de recherche. Par exemple lamthode de Branch and Bound (voir [Hillier et al. 95]) dans laquelle on effec-tue les tapes suivantes : on divise lespace de recherche en sous-espaces, on cherche une borne minimale en terme de fonction objectif associe chaque

    sous-espace de recherche, on limine les mauvais sous-espaces, on reproduit les tapes prcdentes jusqu obtention de loptimum global.Cette mthode permet dobtenir loptimum global de manire exacte, sur cer-tains types de problmes. Il nest pas possible dappliquer cette mthode desproblmes dont lespace de recherche est de taille trop importante.

    Mthodes approches : Mthodes Heuristiques : elles sont dveloppes pour rsoudre un type de pro-

    blme en particulier. Elles ne fonctionnent que sur le type de problme pour le-quel elles ont t dveloppes, par exemple (voir[Ausiello et al. 99]) lalgorithme de type First Fit ddi au problme de Binpacking (ou problme de rangement).

    Mthodes Mtaheuristiques : elles sont fondes sur une ide gnrale (le pa-rallle avec un processus naturel, comme le recuit dun mtal, dans le cas durecuit simul). Elles peuvent sadapter nimporte quel type de problme etdonnent de bons rsultats. Par exemple : le recuit simul ou les algorithmesgntiques, qui seront prsents plus loin dans cet ouvrage.

    Mthodes non-linaires : Globale :

    6

  • Avant-propos

    Minimisation Identification Caractrisation Problmeinverse

    Optimisation

    Combinatoire Continue

    MthodeAPPROCHEE

    NON LINEAIRE

    analytiquementProgrammation

    linaire

    LINEAIRE

    MthodeGLOBALE

    HEURISTIQUEspcialise (souvent avec gradients)

    CLASSIQUE

    MthodeLOCALE

    AVECGRADIENTS

    SANSGRADIENTS

    de VOISINAGE DISTRIBUEE

    HYBRIDE

    SIMPLE COMPLEXE

    Mthode

    optimisation difficile

    MthodeEXACTE

    (spcialise)et souvent non connue

    METAHEURISTIQUE

    dun cout^

    FIG. 2 Classification gnrale des mthodes doptimisation monobjectif.

    Mtaheuristiques : lide directrice sur laquelle repose une mtaheuristiqueest suffisamment gnrale pour tre transposable facilement aux problmesdoptimisation continus.

    Classiques : ces mthodes peuvent tre considres comme les mthodesde base de loptimisation. Dans cette famille, on trouve la mthode dedescente du gradient. Cette mthode, quand elle est applique une fonctionconvexe, permet de trouver un optimum global.

    Locale : Avec gradient : ces mthodes exploitent le gradient dune fonction pour

    effectuer la recherche de loptimum. Quand cette technique est applique un problme doptimisation continue de forme gnrale, il nest en gnralpas possible de trouver loptimum global du problme. On obtient alors unoptimum local.

    Sans gradient : cette famille regroupe une grande diversit de mthodes.Parmi ces mthodes, on peut citer : Les mthodes constructives : on construit la solution une variable aprs

    lautre, en interdisant de modifier une variable dj affecte. Par exemple,la mthode glouton fait partie des mthodes constructives.

    7

  • Avant-propos

    Les mthodes stochastiques : elles reposent sur un processus alatoire.Par exemple, on peut citer la mthode de marche alatoire. Dans cettemthode, on tire un point situ dans le voisinage dun point courant etce point devient alors le point courant, quelle que soit la valeur de lafonction objectif.

    Optimisation multiobjectifLa principale difficult que lon rencontre en optimisation monobjectif vient du fait que

    modliser un problme sous la forme dune quation unique peut tre une tche difficile.Avoir comme but de se ramener une seule fonction objectif peut aussi biaiser la modlisa-tion.

    Loptimisation multiobjectif autorise ces degrs de libert qui manquaient en optimisa-tion monobjectif. Cette souplesse nest pas sans consquences sur la dmarche suivre pourchercher un optimum notre problme enfin modlis. La recherche ne nous donnera plusune solution unique mais une multitude de solutions. Ces solutions sont appeles solutionsde Pareto et lensemble de solutions que lon obtient la fin de la recherche est la surface decompromis.

    Cest aprs avoir trouv les solutions du problme multiobjectif que dautres difficultssurviennent : il faut slectionner une solution dans cet ensemble. La solution qui sera choisiepar lutilisateur va reflter les compromis oprs par le dcideur vis--vis des diffrentesfonctions objectif.

    Le dcideur tant humain, il va faire des choix et lun des buts de loptimisation mul-tiobjectif va tre de modliser les choix du dcideur ou plutt ses prfrences. Pour modliserces choix, on pourra sappuyer sur deux grandes thories :

    la thorie de lutilit multi-attribut (voir [Keeney et al. 93]) ; la thorie de laide la dcision (voir [Roy et al. 93]).

    Ces deux thories ont des approches diffrentes.La premire approche va chercher modliser les prfrences du dcideur, en postulant

    quimplicitement chaque dcideur cherche maximiser une fonction appele fonction duti-lit. Cette approche naccepte pas quil y ait, en fin de slection, des solutions ex-aequo.

    La seconde approche, elle, va chercher reproduire le processus de slection du ou desdcideurs. Pour cela, on sappuiera sur des outils permettant doprer des slections de solu-tions parmi un ensemble de solutions. Cette approche accepte que lon obtienne des solutionsex-aequo.

    Lautre difficult laquelle on sera confront avant deffectuer une optimisation sera laslection de la mthode doptimisation. En effet, on peut rpartir les mthodes doptimisationmultiobjectif en trois grandes familles. Ces familles sont dfinies en fonction de linstant olon prend la dcision deffectuer ou non un compromis entre fonctions objectif. Nous avonsles familles suivantes :

    Les mthodes doptimisation a priori :Dans ces mthodes, le compromis que lon dsire effectuer entre les diffrentes fonc-tions objectif a t dtermin avant lexcution de la mthode doptimisation. Pourobtenir la solution de notre problme, il suffira de faire une et une seule rechercheet, en fin doptimisation, la solution obtenue refltera le compromis que lon dsiraiteffectuer entre les fonctions objectif avant de lancer la recherche.Cette mthode est intressante dans le sens o il suffit dune seule recherche pour trou-ver la solution. Cependant, il ne faut pas oublier le travail de modlisation du compro-mis qui a t effectu avant dobtenir ce rsultat. Il ne faut pas, non plus, oublier que le

    8

  • Avant-propos

    dcideur est humain et quil sera susceptible de constater que la solution obtenue enfin doptimisation ne le satisfait finalement pas et quil souhaite maintenant, aprs avoirexamin cette solution, une solution qui opre un autre compromis entre les fonctionsobjectif.

    Les mthodes doptimisation progressive :Dans ces mthodes, on cherchera questionner le dcideur au cours de loptimisationafin que celui-ci puisse rorienter la recherche vers des zones susceptibles de contenirdes solutions qui satisfassent les compromis quil souhaite oprer entre les fonctionsobjectif.Ces mthodes, bien quappliquant une technique originale pour modliser les prf-rences du dcideur, prsentent linconvnient de monopoliser lattention du dcideurtout au long de loptimisation.Cet inconvnient nest pas majeur lorsque lon a affaire des problmes doptimisa-tion pour lesquels la dure dune valuation de la fonction objectif nest pas impor-tante. Pour les autres problmes, lutilisation dune telle mthode peut tre dlicate. Ilest en effet difficile de monopoliser lattention du dcideur pendant une priode quipeut stendre sur plusieurs heures en lui posant, de plus, des questions toutes les dixminutes, voire mme toutes les heures.

    Les mthodes a posteriori :Dans ces mthodes, on va chercher un ensemble de solutions bien rparties dans les-pace de solutions. Le but sera ensuite de proposer ces solutions au dcideur pour quilpuisse slectionner la solution qui le satisfait le plus en jugeant les diffrentes solutionsproposes.Ici, il nest plus ncessaire de modliser les prfrences du dcideur. On se contente deproduire un ensemble de solutions que lon transmettra au dcideur. Il y a donc un gainde temps non ngligeable vis--vis de la phase de modlisation des prfrences de lafamille des mthodes a priori.Linconvnient quil nous faut souligner est que, maintenant, il faut gnrer un en-semble de solutions bien rparties. Cette tche est non seulement difficile, mais, enplus, peut requrir un temps dexcution prohibitif.

    Par rapport loptimisation monobjectif, on remarque que lon a gagn des degrs de libertsupplmentaires pour modliser notre problme. Par contre, alors que la slection dune m-thode doptimisation monobjectif tait dj difficile du fait de la diversit des mthodes dop-timisation disponibles, nous nous trouvons, en optimisation multiobjectif, face une difficultencore plus importante.

    Ce nouveau type doptimisation a cependant permis de rsoudre avec succs de nombreuxproblmes doptimisation :

    dimensionnement de rseaux, optimisation de structure, problmes dordonnancement, etc.

    Le dynamisme de la communaut de loptimisation multiobjectif montre que le domaine esten pleine expansion :

    de nouvelles confrences ddies loptimisation multiobjectif voient le jour ; le nombre de publications relatives loptimisation multiobjectif crot rapidement ; lintrt port ce domaine par les industriels est dsormais patent.

    Dans cet ouvrage, nous prsentons un panorama dtaill, mais non exhaustif, des mthodesdoptimisation multiobjectif et de la thorie sy rapportant, et nous prsentons quelques ap-plications.

    9

  • Avant-propos

    Plan de louvragePartie I : Principe des mthodes doptimisation multiobjectifChapitre 1 : Introduction : optimisation multiobjectif et dominance.

    Nous exposons les diffrentes notions relatives loptimisation multiobjectif travers des exemples simples. La lecture de ce chapitre cl est indispensable lalecture du reste de louvrage.

    Chapitre 2 : Les mthodes scalaires.Dans ce chapitre sont exposes les mthodes les plus connues de loptimisa-tion multiobjectif. Nous avons cherch illustrer ces mthodes travers desproblmes multiobjectifs analytiques trs simples. Quand la rsolution de cesexemples ne permet pas dapprofondir la connaissance de la mthode ( causede calculs trop lourds par exemple), ces exemples nont pas t traits en dtail.

    Chapitre 3 : Les mthodes interactives.Les mthodes exposes dans ce chapitre sont certainement les plus difficiles apprhender. Elles sont composes de squences faisant appel des mthodesdu chapitre 2 et interagissent avec lutilisateur dune manire qui nest pas tou-jours simple. Ces mthodes tant aujourdhui beaucoup moins utilises dans ledomaine des sciences de lingnieur, la lecture de ce chapitre nest pas indispen-sable. Cependant, les lecteurs intresss par laide la dcision pourront lire cechapitre car, dans ce domaine, les mthodes interactives ont encore une bonneaudience.

    Chapitre 4 : Les mthodes floues.La logique floue a un certain succs dans le domaine de loptimisation mul-tiobjectif. Elle permet de modliser un dcideur dune manire moins contrai-gnante quavec les outils traditionnels de loptimisation multiobjectif et de laide la dcision. Les notions requises pour la comprhension de ces mthodes sontprsentes en dbut de chapitre.

    Chapitre 5 : Les mthodes exploitant une mtaheuristique.Ce chapitre mriterait une prsentation plus dtaille qui occuperait un plu-sieurs volumes. Nous avons pris le parti de prsenter les lments indispensables la comprhension de ce sujet. Nous avons aussi prsent les approches les plusrpandues dans le domaine des sciences de lingnieur. Le lecteur intress trou-vera dans la bibliographie une liste de rfrences avec, pour certains articles, desliens permettant leur tlchargement.

    Chapitre 6 : Les mthodes daide la dcision.Encore un thme qui ncessiterait un plusieurs volumes pour une prsenta-tion exhaustive. Nous avons choisi encore une fois de prsenter les mthodes lesplus reprsentatives de ce domaine. La prsentation de ces mthodes sinspire dequelques ouvrages de rfrence. Cependant, le lecteur intress pourra consulterces ouvrages pour une prsentation dtaille des mthodes.

    Partie II : Evaluation des mthodes et critres de choixChapitre 7 : La mesure des performances.

    Nous avons collect dans ce chapitre des outils permettant de mesurer les per-formances des mthodes doptimisation multiobjectif. Le fonctionnement de cesoutils est illustr sur des exemples simples.

    10

  • Avant-propos

    Chapitre 8 : Les fonctions de test des mthodes doptimisation multiobjectif.Tout comme loptimisation monobjectif, loptimisation multiobjectif a besoinde problmes permettant dvaluer lefficacit des mthodes. Nous prsentonsdabord la famille des problmes tests de Deb. Ceux-ci, trs rpandus, permettentde rgler de nombreux paramtres de lespace de recherche et illustrent trsbien les difficults spcifiques que lon est susceptible de rencontrer en opti-misation multiobjectif. Nous prsentons aussi une famille de problmes testscontraints qui est, lheure actuelle, la seule famille cohrente de problmestests contraints.

    Chapitre 9 : Tentatives de classification des mthodes doptimisation multiobjectif.La diversit des mthodes est un atout. Cependant, elle soulve la question sui-vante : comment choisir une mthode adapte la rsolution dun problmedonn ?Ce chapitre propose quelques techniques permettant de lever partiellementcette difficult.

    Partie III : Etudes de casChapitre 10 : Etude de cas n1 : qualification de code scientifique par optimisation multiob-

    jectif.Nous commenons ici une prsentation dapplications illustrant lutilisation concrtedes mthodes doptimisation multiobjectif dans divers domaines.Ce chapitre traite de la qualification des codes scientifiques, cest--dire de lamanire de rgler les paramtres dun code scientifique pour que les rsultatsfournis par celui-ci soient le plus proches possible de la ralit. Le problmeest ici rsolu dans lespace des paramtres et non dans lespace des fonctionsobjectif comme on le fait classiquement.Ce chapitre a t rdig en collaboration avec M. Dumas du CEA.

    Chapitre 11 : Etude de cas n2 : tude multicritre de lextension dun rseau de tlcommu-nications.Lapplication illustre dans ce chapitre concerne le dimensionnement dun r-seau de tlcommunications. Cest un champ dapplication majeur de loptimi-sation multiobjectif et particulirement dactualit.Ce chapitre a t rdig par C. Decouchon-Brochet, France Tlcom - Rechercheet Dveloppement.

    Chapitre 12 : Etude de cas n3 : outils dcisionnels multicritres utiliss par EADS LaunchVehicles pour traiter les appels doffres.Dans ce chapitre, une application dune mthode daide la dcision (la mthodeELECTRE TRI) est prsente. Cette application concerne le classement dappelsdoffres en diffrentes catgories : les appels doffres que lon est sr de gagner, les appels doffres dont lissue est incertaine, les appels doffres que lon est sr de perdre.Ce chapitre a t rdig par J.-M. Contant, J.-L. Bussire et G. Piffaretti de lasocit EADS Launch Vehicles.

    Conclusions : En conclusion, nous rcapitulons les atouts et les difficults de loptimisa-tion multiobjectif, avant de passer en revue quelques perspectives dvolution dudomaine.

    11

  • Avant-propos

    Plan de lecturePlusieurs lectures sont possibles : La lecture linaire de louvrage.

    Nous conseillons ce mode de lecture aux lecteurs dsirant dcouvrir le domaine deloptimisation multiobjectif.

    La lecture spcifique de certaines parties de louvrage.Si le lecteur est plutt intress par certains domaines particuliers comme loptimisa-tion interactive, ou les mthodes doptimisation multiobjectif utilisant des mtaheu-ristiques, il est possible de faire une lecture au plus court de cet ouvrage. Certainschapitres sont toutefois ncessaires la bonne comprhension dautres chapitres. Nousavons reprsent les plus courts chemins de lecture possibles sur la figure suivante :

    Chapitre 1

    Chapitre 2

    Section 2.9 la finChapitre 2 Chapitre 3 Chapitre 4 Chapitre 5 Chapitre 6 Chapitre 7 Chapitre 8

    Chapitre 11 Chapitre 12

    Sections 2.1 2.8

    Chapitre 10

    Chapitre 9

    RemerciementsLes auteurs tiennent remercier Electricit de France, Recherche et Dveloppement, qui a

    accueilli Yann Collette pour la prparation de son doctorat, et qui a autoris la publication decet ouvrage. Ils adressent galement leurs remerciements toutes les personnes qui ont permisdillustrer louvrage par la prsentation de trois applications industrielles : en particulier, M.Dumas, du CEA, pour sa contribution la rdaction du chapitre 10 ; C. Decouchon-Brochet,de France Tlcom, pour sa rdaction complte du chapitre 11 ; J.-M. Contant, J.-L. Bussireet G. Piffaretti, dEADS Launch Vehicles, pour leur rdaction complte du chapitre 12.

    Yann Collette tient galement remercier Isabelle et Marie Collette qui lont soutenuconstamment, et ont accept avec le sourire les longues heures consacres louvrage. Ilsouhaite aussi remercier ses collgues de travail de lquipe SINETICS/I29 dEdF R&D, Clamart, pour leur constante bonne humeur, ainsi que pour leurs commentaires toujourspertinents.

    12

  • Premire partie

    Principe des mthodesdoptimisation multiobjectif

  • Chapitre 1

    Introduction : optimisationmultiobjectif et dominance

    1.1 Quest-ce quun problme doptimisation ?Un problme doptimisation se dfinit comme la recherche du minimum ou du maximum

    (de loptimum donc) dune fonction donne. On peut aussi trouver des problmes doptimi-sation pour lesquels les variables de la fonction optimiser sont contraintes dvoluer dansune certaine partie de lespace de recherche. Dans ce cas, on a une forme particulire de ceque lon appelle un problme doptimisation sous contraintes.

    Ce besoin doptimisation vient de la ncessit de lingnieur de fournir lutilisateurun systme qui rponde au mieux au cahier des charges. Ce systme devra tre calibr demanire :

    occuper le volume minimum ncessaire son bon fonctionnement (cot des matirespremires),

    consommer le minimum dnergie (cot de fonctionnement), rpondre la demande de lutilisateur (cahier des charges).

    Mathmatiquement parlant, un problme doptimisation se prsentera sous la forme suivante :

    minimiser f (x ) (fonction optimiser)avec g (x ) 0 (m contraintes dingalit)et

    h (x ) = 0 (p contraintes dgalit)

    On a x Rn, g (x ) Rm et h (x ) Rp.Ici, les vecteurs g (x ) et h (x ) reprsentent respectivement m contraintes dingalit

    et p contraintes dgalit.Cet ensemble de contraintes dlimite un espace restreint de recherche de la solution opti-

    male.En gnral, on trouve deux types de contraintes dingalit : Des contraintes du type Biin f xi Bisup : les valeurs dex qui vrifient ces contraintes

    dfinissent l espace de recherche. Cet espace est reprsent la figure 1.1-a (n = 2). Des contraintes du type c(x ) 0 ou c(x ) 0 : les valeurs de x qui vrifient ces

    contraintes dfinissent l espace des valeurs ralisables. Cet espace est reprsent la figure 1.1-b (n = 2).

    15

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    x1

    S1

    B1in f B1sup

    B2sup

    B2in f

    x2

    (a) Lespace de recherche

    x1B1in f B1sup

    S2B2sup

    B2in f

    x2

    (b) Lespace des valeurs ralisables

    FIG. 1.1 Les diffrents espaces de recherche.

    1.2 Vocabulaire et dfinitions

    Fonction objectif :Cest le nom donn la fonction f (on lappelle encore fonction de cot ou cri-tre doptimisation). Cest cette fonction que lalgorithme doptimisation va devoiroptimiser (trouver un optimum).

    Sauf mention explicite contraire, on supposera dans la suite que la fonction objectif est minimiser.

    Variables de dcision :Elles sont regroupes dans le vecteur x . Cest en faisant varier ce vecteur que lonrecherche un optimum de la fonction f .

    Minimum global :Un point x est un minimum global de la fonction f si on a :f (x ) < f (x ) quel que soit x tel que x 6= x . Cette dfinition correspond aupoint M3 de la figure 1.2.

    Minimum local fort :Un point x est un minimum local fort de la fonction f si on a :f (x ) < f (x ) quel que soit x V (x ) et x 6=x , o V (x ) dfinit un voisi-nage de x . Cette dfinition correspond aux points M2 et M4 de la figure 1.2.

    Minimum local faible :Un point x est un minimum local faible de la fonction f si on a :f (x ) f (x ) quel que soit x V (x ) et x 6=x , o V (x ) dfinit un voisi-nage de x . Cette dfinition correspond au point M1 de la figure 1.2.

    16

  • 1.3 La classification des problmes doptimisation

    x

    M1

    M2

    M3

    M4

    f (x)

    FIG. 1.2 Les diffrents minima.

    1.3 La classification des problmes doptimisationOn peut classer les diffrents problmes doptimisation que lon rencontre dans la vie

    courante en fonction de leurs caractristiques :1. Nombre de variables de dcision :

    Une monovariable. Plusieurs multivariable.

    2. Type de la variable de dcision : Nombre rel continu continu. Nombre entier entier ou discret. Permutation sur un ensemble fini de nombres combinatoire.

    3. Type de la fonction objectif : Fonction linaire des variables de dcision linaire. Fonction quadratique des variables de dcision quadratique. Fonction non linaire des variables de dcision non linaire.

    4. Formulation du problme : Avec des contraintes contraint. Sans contraintes non contraint.

    Voici un exemple dutilisation de cette classification. Si lon considre le problme de lop-timisation des plans de rechargement de combustible nuclaire, on constate que ce problmeest :

    non linaire on na pas de reprsentation explicite du problme. On est oblig duti-liser un code de calcul numrique pour calculer le plus prcisment possible les diff-rentes valeurs optimiser ;

    contraint les lments de combustible ne peuvent pas tre placs nimporte o ; multivariable un plan de rechargement est compos de plusieurs lments de com-

    bustible dont les caractristiques sont diffrentes ; combinatoire pour passer un autre plan de rechargement, on permute des lments

    de combustible dun plan de rechargement.

    17

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    1.4 Loptimisation multiobjectifLa formulation prcdente tait relative un problme dans lequel on recherchait un

    optimum pour une fonction objectif ( f dans lexpression prcdente).Cependant, lorsque lon modlise un problme, on cherche souvent satisfaire plusieurs

    objectifs. Par exemple, on veut un systme performant et on veut aussi que ce systmeconsomme peu. Dans ce cas, on parle de problme doptimisation multiobjectif (ou problmedoptimisation multicritre). Celui-ci scrit de la manire suivante :

    minimiser f (x )avec g (x ) 0et

    h (x ) = 0o x Rn, f (x ) Rk, g (x ) Rm et h (x ) Rp.

    On appellera ce problme le problme P dans tout le reste de louvrage.Comme on peut le voir ici, on na plus un seul objectif atteindre, mais k (le vecteur f

    regroupe k fonctions objectif).Le but que lon se fixe dans la rsolution dun problme doptimisation multiobjectif est

    de minimiser au mieux les diffrents objectifs. Comme on va le voir dans le paragraphesuivant, dans un problme doptimisation multicritre, on rencontre souvent des objectifscontradictoires. Deux objectifs sont contradictoires lorsque la diminution dun objectif en-trane une augmentation de lautre objectif.

    1.5 La multiplicit des solutionsLorsque lon cherche obtenir une solution optimale un problme doptimisation mul-

    tiobjectif donn, on sattend souvent trouver une solution et une seule. En fait, on rencontrerarement ce cas de figure. La plupart du temps, on trouve une multitude de solutions, du faitque certains des objectifs sont contradictoires.

    En effet, si lon prend lexemple du dimensionnement dune poutre devant supporter unecharge donne, on va vouloir obtenir une poutre de section la plus petite possible, produisantla plus petite dformation possible, lorsque la charge repose sur le milieu de la poutre. Danscet exemple (reprsent la figure 1.3), de manire intuitive, on saperoit que rpondre lobjectif poutre de petite section ne va pas du tout dans le sens de rpondre lobjectifpetite dformation (voir [Coello et al. 99] pour la modlisation mathmatique de ce pro-blme).

    F

    FIG. 1.3 Dformation dune poutre subissant une contrainte.

    18

  • 1.6 La dominance

    Donc, quand on rsoudra un problme doptimisation multiobjectif, on obtiendra unegrande quantit de solutions. Ces solutions, comme on peut sen douter, ne seront pas opti-males, au sens o elles ne minimiseront pas tous les objectifs du problme.

    Un concept intressant, qui nous permettra de dfinir les solutions obtenues, est le com-promis. En effet, les solutions que lon obtient lorsque lon a rsolu le problme sont dessolutions de compromis. Elles minimisent un certain nombre dobjectifs tout en dgradantles performances sur dautres objectifs.

    1.6 La dominance1.6.1 Introduction et dfinitions

    Lorsque nous avons rsolu notre problme doptimisation multiobjectif, nous avons ob-tenu une multitude de solutions. Seul un nombre restreint de ces solutions va nous intresser.Pour quune solution soit intressante, il faut quil existe une relation de dominance entre lasolution considre et les autres solutions, dans le sens suivant :

    Dfinition : la relation de dominanceOn dit que le vecteur x1 domine le vecteur x2 si :

    x1 est au moins aussi bon que x2 dans tous les objectifs, et,

    x1 est strictement meilleur que x2 dans au moins un objectif.

    Les solutions qui dominent les autres mais ne se dominent pas entre elles sont appelessolutions optimales au sens de Pareto (ou solutions non domines). On dfinit comme suitloptimalit locale et loptimalit globale au sens de Pareto.

    Dfinition : optimalit locale au sens de ParetoUn vecteur x Rn est optimal localement au sens de Pareto sil existe un rel > 0tel quil ny ait pas de vecteur x qui domine le vecteur x avec x RnB(x ,),o B(x ,) reprsente une boule de centre x et de rayon .

    Un vecteur x est donc optimal localement au sens de Pareto sil est optimal au sens dePareto sur une restriction de lensemble Rn. Cette dfinition est illustre par la figure 1.4.

    Dfinition : optimalit globale au sens de ParetoUn vecteur x est optimal globalement au sens de Pareto (ou optimal au sens dePareto) sil nexiste pas de vecteur x tel que x domine le vecteur x .

    La diffrence entre cette dfinition et celle de loptimalit locale tient dans le fait que lonne considre plus une restriction de lensemble Rn.

    Une version graphique de la prcdente dfinition utilise le thorme du contact.

    Dfinition : cne ngatifUn cne ngatif est dfini dans Rk de la manire suivante :

    C ={x |f (x ) Rk et f (x ) 0}

    19

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    f2

    f1

    Surface de compromis locale

    B

    x

    FIG. 1.4 Loptimalit locale au sens de Pareto.

    Dfinition : le thorme du contactUn vecteur x est optimal au sens de Pareto pour un problme doptimisation mul-tiobjectif donn si (

    C+x )F = {x }o F dsigne lespace des solutions ralisables.

    Lutilisation de ce thorme est illustre par la figure 1.5.

    C

    f2

    f1

    C+x

    xF

    FIG. 1.5 Le thorme du contact.

    Lorsque lon applique la dfinition de la dominance, on peut dfinir quatre rgions aux-quelles on peut attribuer des niveaux de prfrence. Ces rgions sont reprsentes la fi-gure 1.6. Cette figure reprend le dcoupage dfini par le cne ngatif que lon a introduitprcdemment et ltend tout lespace.

    Par exemple, si ce graphique est centr sur une solution A et que lon compare cettesolution avec une solution B, on aura les possibilits suivantes :

    20

  • 1.6 La dominance

    f2

    f1

    Cne C

    12

    3 4

    Zone

    Zone

    Zone de

    Zone deprfrence

    dominance dindiffrence

    dindiffrence

    FIG. 1.6 Les niveaux de prfrence dans la relation de dominance.

    si la solution B se trouve dans le quadrant 1, alors la solution A est prfre la solutionB ;

    si la solution B se trouve dans le quadrant 3, alors la solution A est domine par lasolution B ;

    si la solution B se trouve dans lun des quadrants 2 ou 4, alors, on ne peut pas seprononcer sur la prfrence de A par rapport B ou de B par rapport A.

    1.6.2 ExemplePour mieux comprendre ce quest une relation de dominance, nous allons traiter un

    exemple (voir [Deb 99]).On considre un problme deux objectifs : maximiser f1 et minimiser f2.Pour ce problme, on trouve un ensemble de solutions. Cet ensemble de solutions est

    reprsent dans le tableau 1.1.

    Point Objectif f1 Objectif f2A 8 5B 9 2C 12 1D 11 2E 16 2

    TAB. 1.1 Ensemble des solutions dun problme deux objectifs.

    On reprsente ces points dans le plan f1, f2 (voir figure 1.7).Nous prsentons dans le tableau 1.2 les comparaisons entre les diffrentes solutions. Pr-

    cisons dabord les conventions utilises :La comparaison de deux solutions, soit P et Q, se traduit par un couple, lintersection

    de la ligne P et de la colonne Q. Ce couple est constitu de deux symboles, respectivementassocis aux objectifs f1 et f2 ; chacun de ces symboles peut prendre trois valeurs : +, - ou =,

    21

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    f2

    f11614121086

    E

    C

    DB

    A5

    4

    4

    3

    2

    2

    1

    FIG. 1.7 Reprsentation des solutions dans le plan f1, f2.

    selon que P est meilleur, moins bon, ou du mme niveau que Q vis--vis de lobjectif auquelce symbole est associ.

    On rappelle que lon cherche maximiser f1 et minimiser f2. Donc, un point P estmeilleur quun point Q du point de vue de lobjectif f1 si f1 (P) est plus grand que f1 (Q) ; unpoint P est meilleur quun point Q du point de vue de lobjectif f2 si f2 (P) est plus petit quef2 (Q).

    Voici un exemple de traitement sur les points A et B du tableau 1.1. Effectuons les com-paraisons :

    A est moins bon que B vis--vis de lobjectif f1. Donc, on attribue le signe - au premierlment du couple de la case [A,B].

    A est moins bon que B vis--vis de lobjectif f2. Donc, on attribue le signe - au secondlment du couple de la case [A,B].

    Si lon se rfre la dfinition prcdente, on conclut que la solution B domine la solution A.

    A B C D EA (-,-) (-,-) (-,-) (-,-)B (+,+) (-,-) (-,=) (-,=)C (+,+) (+,+) (+,+) (-,+)D (+,+) (+,=) (-,-) (-,=)E (+,+) (+,=) (+,-) (+,=)

    A B DA (-,-) (-,-)B (+,+) (-,=)D (+,+) (+,=)

    TAB. 1.2 Classement des solutions. TAB. 1.3 Classement des solutionsde rang 2.

    Remarque : Dvidence, les couples situs dans des cases du tableau 1.2 symtriques parrapport la diagonale principale sont complmentaires.

    Nous allons maintenant chercher extraire les solutions non domines.1. Considrons le point A,

    ce point est domin par les points suivants :B(couple (-,-) lintersection de la ligne A et de la colonne B),

    22

  • 1.6 La dominance

    C (couple (-,-) lintersection de la ligne A et de la colonne C),D (couple (-,-) lintersection de la ligne A et de la colonne D) etE (couple (-,-) lintersection de la ligne A et de la colonne E).

    2. Considrons le point B, ce point est domin par les points suivants :

    C (couple (-,-) lintersection de la ligne B et de la colonne C),D (couple (-,=) lintersection de la ligne B et de la colonne D) etE (couple (-,=) lintersection de la ligne B et de la colonne E),

    il domine le point A (couple (+,+) lintersection de la ligne B et de la colonne A).On peut dire que le point A ne fera pas partie des solutions non domines de rang 1 caril est possible de trouver un point (B en loccurrence) qui est meilleur que le point Asur tous les objectifs.

    3. Considrons le point C, ce point nest pas domin par le point E (couple (+,-) lintersection de la ligne E

    et de la colonne C),et il ne domine pas, non plus, le point E (couple (-,+) lintersection de la ligne C etde la colonne E) :les points C et E sont donc non domins ;

    il domine les points suivants :A (couple (+,+) lintersection de la ligne C et de la colonne A),B (couple (+,+) lintersection de la ligne C et de la colonne B) etD (couple (+,+) lintersection de la ligne C et de la colonne D).

    On peut dire que les points A, B et D ne feront pas partie des solutions non dominesde rang 1 car il est possible de trouver un point (C en loccurrence) qui soit meilleurque ces deux points sur tous les objectifs.

    4. Le point D tant domin, il nest pas ncessaire de le comparer aux autres points.5. Considrons le point E ,

    ce point nest pas domin par le point C (couple (-,+) lintersection de la ligne C etde la colonne E),et il ne domine pas non plus le point C (couple (+,-) lintersection de la ligne E etde la colonne C),

    il domine les points suivants :A (couple (+,+) lintersection de la ligne E et de la colonne A),B (couple (+,=) lintersection de la ligne E et de la colonne B) etD (couple (+,=) lintersection de la ligne E et de la colonne D).

    On constate que les points E et C sont non domins. Ils dominent les points A, B et Dmais ne se dominent pas entre eux.

    On va, maintenant, sortir ces deux points (E et C) du tableau : ils forment lensemble despoints non domins. On peut tablir un classement des solutions en fonction du rang dedomination. Dans notre exemple, on attribue le rang 1 (car on a fini la premire comparaison)aux points E et C, parce quils dominent tous les autres points mais ne se dominent pas entreeux. Ces points sont donc des solutions optimales au sens de Pareto de rang 1.

    On recommence appliquer la rgle sur les lments restants du tableau.Les solutions restantes aprs suppression des points E et C sont reprsentes dans le

    tableau 1.3.Ce processus sarrte lorsque lensemble des points comparer est vide. La figure 1.8

    reprsente les diffrents points et leur rang.

    23

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    f2

    f11614121086

    1

    2

    2

    3

    4

    4

    5

    Rang 4

    Rang 3 Rang 2Rang 1

    A

    B

    DE

    C

    FIG. 1.8 Les solutions et leurs rangs de Pareto.

    Le pseudo-code de la fonction dassignation du rang de Pareto est reprsent dans lalgo-rithme 1.1. Dans cet algorithme, la variable N dsigne le nombre de points de lensemble surlequel on effectue les comparaisons.

    Algorithm 1.1 Assignation du rang de Pareto.RangCourant = 1m = Nwhile N 6= 0 do

    For i = 1 to m doIf Xi est Non domin

    Rang(Xi, t) = RangCourantEnd ForFor i = 1 to m do

    If Rang(Xi, t) = RangCourantRanger Xi dans une population temporaireN = N1

    End ForRangCourant = RangCourant + 1m = N

    End While

    1.6.3 Le dimensionnement dune barre1.6.3.1 Une barre pleine de section carre

    Nous allons maintenant traiter plus en dtail notre exemple dintroduction : le dimension-nement dune barre de longueur donne (1 m), reprsente la figure 1.9.

    On recherche le ct a de la section carre, permettant de minimiser le poids de la barreainsi que sa dformation lorsquelle est soumise une force de 1000 N applique en soncentre.

    24

  • 1.6 La dominance

    a1 mtre

    FIG. 1.9 Une barre pleine de section carre.

    Comme minimiser le volume dune barre de longueur donne revient minimiser sasection, nous allons exprimer la section et la dformation maximale en fonction de la longueurdu ct a.

    S (a) = a2

    d (a) = 1000+ 1103192+2105+ a412

    a 0.1

    (pour les caractristiques de la barre explicites dans [Spenle et al. 96])La seule contrainte que nous nous fixons est que le ct de la section ne dpasse pas

    10 cm.Pour visualiser lallure de lensemble des valeurs ralisables, nous allons choisir un cer-

    tain nombre de valeurs de a, au hasard, puis nous allons calculer les valeurs des deux objectifset les tracer dans un plan (S,d). Cette allure est reprsente la figure 1.10.

    0.001 0.003 0.005 0.007 0.0090.003139

    0.1

    0.2

    0.3

    0.3853

    La barre pleine

    Section S

    Df

    orm

    atio

    n d

    Plan S, d

    0.003139

    0.1

    0.2

    0.3

    0.3853

    FIG. 1.10 Lensemble des valeurs des objectifs pour une barre pleine de section carre.

    La premire chose que nous pouvons constater sur cette figure est que les deux objectifssont antagonistes. La minimisation des valeurs dun objectif entrane la maximisation delautre objectif. En revanche, sur cette figure, on peut voir que toutes les solutions sont non

    25

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    domines. Ceci vient du fait que le problme doptimisation, tel que nous lavons crit, seramne une simple courbe paramtrique.

    Le second point que nous pouvons souligner est lintrt de loptimisation multiobjectifpar rapport loptimisation monobjectif. En effet, si nous avions effectu une optimisationmonobjectif sur ce problme de dimensionnement, nous aurions cherch soit optimiser levolume de la barre, soit optimiser la dformation de cette mme barre. Dans les deux cas,nous aurions obtenu une valeur absurde :

    une longueur de ct nulle pour la section de la barre (le volume est ainsi minimis outrance) ;

    une longueur de ct dmesure par rapport la longueur de la barre, dans le cas deloptimisation de la dformation de la barre. En effet, plus la section est importante,moins la barre se dforme.

    Ce problme de dimensionnement montre que, dans certains cas, un problme doptimisationne peut pas se ramener un seul objectif.

    1.6.3.2 Une barre creuse de section carre

    Pour mettre en vidence un autre aspect important de loptimisation multiobjectif, nousallons maintenant lgrement modifier le problme en ajoutant un nouveau paramtre. Nousconsidrons une barre creuse et de section carre. La dimension intrieure est dsigne par lavariable b. Les diffrentes variables reprsentatives sont indiques la figure 1.11.

    1 mtre a

    b

    FIG. 1.11 Une barre creuse de section carre.

    S (a,b) = a2b2d (a,b) = 1000+ 1103

    192+2105+ a4b412a 0.1b+0.04 a

    Pour visualiser lallure de lensemble des solutions ralisables, nous allons choisir un cer-tain nombre de valeurs du couple (a,b), au hasard pour a,b [0,0.1], puis nous allons calculerles valeurs des deux objectifs et les tracer dans un plan (S,d). Cette allure est reprsente la figure 1.12.

    Pour cet exemple, on peut maintenant remarquer que la situation est plus complique. Lesdiffrentes solutions ne forment plus une simple courbe, nous avons dsormais un vritableensemble de solutions. La diffrence avec lexemple prcdent est que, maintenant, toutes lessolutions de cet ensemble ne se valent pas. Un groupe de solutions dominent les autres. Pourextraire ces solutions, nous allons appliquer la relation de dominance et liminer les pointsdomins. On obtient alors lensemble reprsent la figure 1.13.

    26

  • 1.6 La dominance

    0.004048 0.005 0.006 0.007 0.008 0.0090.03152

    0.04

    0.05

    0.06

    0.07

    0.08

    0.09

    0.1

    0.11

    0.12

    0.13

    La barre creuse

    Section S

    Df

    orm

    atio

    n d

    Plan S, d

    0.03152

    0.04

    0.05

    0.06

    0.07

    0.08

    0.09

    0.1

    0.11

    0.12

    0.13

    FIG. 1.12 Lensemble des valeurs des objectifs pour une barre creuse de section carre.

    0.004048 0.005 0.006 0.007 0.008 0.0090.03152

    0.04

    0.05

    0.06

    0.07

    0.08

    0.09

    0.1

    0.11

    0.12

    0.13

    Les solutions nondomines

    Section S

    Df

    orm

    atio

    n d

    Plan S, d

    0.03152

    0.04

    0.05

    0.06

    0.07

    0.08

    0.09

    0.1

    0.11

    0.12

    0.13

    FIG. 1.13 Les solutions non domines pour le dimensionnement dune barre creuse desection carre.

    On peut remarquer que, aprs filtrage des solutions domines, seule une frontire de len-semble de dpart subsiste. Il sagit de la surface de compromis et cest sur cette surface decompromis que lon trouve les meilleures solutions, celles que lon ne pourra pas amliorersur les deux objectifs.

    27

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    1.7 Illustration de lintrt de loptimisation multiobjectifOn peut comprendre lintrt deffectuer une optimisation multiobjectif par rapport une

    optimisation monobjectif en visualisant lamlioration relative dun objectif par rapport unautre sur un problme test simple.

    Ce problme est le suivant :

    minimiser f1 (,x) = 1 cos()+ xminimiser f2 (,x) = 1 sin()+ xavec 0 pi2et 0 x 1

    La surface de compromis est obtenue en remplaant la variable x par la valeur 0. On aalors lexpression de la surface de compromis :

    f1 () = 1 cos()f2 () = 1 sin()0 pi2

    Lensemble des valeurs des fonctions objectif, ainsi que la surface de compromis, sontreprsents la figure 1.14.

    0 1 20

    1

    2

    Le problme test

    f1

    f2

    Plan f1, f2

    (a) Lensemble des valeurs des fonctions objectif

    0 10

    1

    La surface de compromis

    f1

    f2

    Plan f1, f2

    0

    1

    (b) La surface de compromis

    FIG. 1.14 Le problme test trigonomtrique.

    Pour cette surface de compromis, nous allons maintenant tracer lamlioration relativeque lon peut obtenir sur chaque objectif en fonction de sa position sur la surface de com-promis. Pour cela, on divise la surface de compromis en dix morceaux (langle varie de 0 90 par pas de 9). Lcart relatif est mesur par rapport lexcursion totale de la fonctionobjectif (cette excursion vaut 1 pour les deux fonctions objectif).

    28

  • 1.7 Illustration de lintrt de loptimisation multiobjectif

    f1 () f2 ()0 0 19 0.0123 0.84318 0.0489 0.69127 0.109 0.54636 0.191 0.41245 0.293 0.29354 0.412 0.19163 0.546 0.10972 0.691 0.048981 0.843 0.012390 1 0

    + +

    +

    +

    +

    +

    +

    +

    +

    +

    +

    +

    f2 = 1 sin()f1 = 1 cos()

    1.2 1.4 1.60.0

    0.0

    0.10.2

    0.2

    0.30.4

    0.4

    0.50.6

    0.6

    0.70.8

    0.8

    0.91.0

    1.0

    (a) Evolution absolue

    +

    +

    +

    +

    +

    +

    +

    +

    ++

    + +

    f 1f 2

    1.2 1.4 1.6

    1.0

    1.0

    0.8

    0.8

    0.6

    0.6

    0.4

    0.4

    0.2

    0.2

    0.0

    0.0

    -0.2-0.4-0.6-0.8-1.0

    (b) Evolution relative

    FIG. 1.15 Lvolution des valeurs des fonctions objectif sur la surface de compromis.

    Comme on peut le voir la figure 1.15-a, suivant la position du point sur la surfacede compromis, on peut esprer une bonne rduction du niveau dune fonction objectif sansavoir daugmentation trs importante du niveau de lautre fonction objectif. Cest le cas, parexemple, de la fonction objectif f1 pour des valeurs de proches de 0. Pour cette position, silon augmente la valeur de de 0.2 radian (on passe ainsi de 0 radian 0.2 radian), la valeurde la fonction objectif f1 passe de 1 0.843 alors que la fonction objectif f2 passe elle de 0 0.0123.

    Le gain que lon peut esprer en un point prcis peut tre reprsent par la drive dela fonction objectif par rapport la variable en ce point. Une drive positive signifie uneamlioration de la fonction objectif alors quune drive ngative signifie une dtriorationde la valeur de la fonction objectif.

    Ce comportement typique de loptimisation multiobjectif reflte assez bien le but pour-suivi par cette discipline : minimiser un groupe de fonctions objectif sans trop dgrader lesvaleurs des optima obtenus par rapport ceux obtenus lors dune optimisation monobjectifeffectue objectif par objectif.

    29

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    1.8 Les relations drives de la dominance1.8.1 Introduction

    La relation de dominance noffre pas de degrs de libert dans sa dfinition. Par exemple,il nest pas possible dinclure dans la dfinition de la relation de dominance une prfrencedun objectif par rapport un autre. Cest pour contrecarrer ce manque de flexibilit quedes relations drives de la relation de dominance ont t dveloppes. Les solutions quepermettent de trouver ces relations drives de la dominance sont toutes optimales au sensde Pareto. La grande diffrence que lon rencontre avec ces relations est que lensemble dessolutions que lon obtient avec ces relations est un sous-ensemble de lensemble des solutionsobtenues avec la relation de dominance de Pareto.

    Dans cette section, lensemble Sk dsigne lensemble des solutions ralisables dun pro-blme doptimisation k fonctions objectif.

    1.8.2 Optimalit lexicographiqueCette dfinition de loptimalit permet dinclure une prfrence entre objectifs [Ehrgott 97].

    Dfinition : optimalit au sens lexicographiqueUne solution

    x Sk est optimale au sens lexicographique si

    x lex x , x Sk{

    x}

    .

    Six ,y Sk, on dit quex lex y sil existe une valeur dindex q telle que xq = yq pourq = 1, ,(q1) et xq < yq . Les relations entre xq et yq pour q q ne sont pas prises encompte car nous nous arrtons lindice q (cest le premier indice pour lequel xq < yq).

    Cette dfinition implique que lutilisateur ait rang par ordre dimportance les diffrentsobjectifs. La comparaison entre les deux solutions se fera dans lordre de classement desobjectifs.

    Illustrons lutilisation de cette relation en prenant un exemple.Soient deux points A et B :

    A = (1,2,3,4,5,6)B = (1,2,3,9,4,9)

    Pour ces deux points, on a A lex B car, jusqu la troisime position, on a Ai = Bi,i = 1,2,3 et, pour la quatrime position, on a 4 < 9. On conclut donc que la solution Adomine lexicographiquement la solution B.

    1.8.3 Optimalit extrmeComme pour la relation doptimalit lexicographique, cette relation permet dtablir une

    prfrence entre critres. Cette prfrence est tablie en utilisant des poids. Plus un objectifsera important, plus son poids sera lev [Ehrgott 97].

    30

  • 1.8 Les relations drives de la dominance

    Dfinition : optimalit extrmeUne solution

    x Sk est extrme-optimale si, tant donn un vecteur de poids Rk

    tel que ii = 1,x est une solution optimale du problme de minimisation monocri-

    tre ayant pour fonction objectifki=1i xi (1.1)

    donc :

    ki=1i

    xi

    ki=1i xi , x Sk

    {x}

    (1.2)

    Illustrons la notion dextrme-dominance en reprenant lexemple prcdent. Ici, on consi-dre lobjectif 6 comme objectif de rfrence. On considre aussi que les objectifs 1,3 et 5sont 20% plus importants que lobjectif de rfrence et que les objectifs 2 et 4 sont quiva-lents lobjectif de rfrence. On calcule maintenant les poids de chaque objectif :

    w1 = w3 = w5 = 1.2 w6w2 = w4 = w66i=1 wi = 1

    La rsolution de ces quations nous donne :

    w1 = w3 = w5 =0.21.1 = 0.18

    w2 = w4 = w6 =1

    6.6 = 0.15

    6i=1 wi Ai = 3.45 et 6i=1 wi Bi = 5.39 donc, le point A extrme-domine le point B.

    1.8.4 Optimalit maximaleCette relation, contrairement aux prcdentes, ne permet pas dintroduire une prfrence

    entre objectifs [Ehrgott 97].

    Dfinition : optimalit maximaleUne solution

    x Sk est max-optimale si la valeur du pire objectif est aussi petite que

    possible :

    maxq{1, ,k}

    xq maxq {1, ,k}x Sk

    {x} xq (1.3)

    Illustrons cette relation en prenant lexemple prcdent. On peut dire que la solution Amax-domine la solution B car :

    maxA = 6 < maxB = 9

    31

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    1.8.5 La cne optimalitUne autre relation de classement existe. Il sagit de la relation de cne-dominance. Cette

    relation possde lavantage, par rapport la relation de Pareto, dtre rglable.

    Dfinition : un cneUn cne de pente est dfini de la manire suivante : Si 0 < < 1 (voir figure 1.16-a) :

    C (x1,x2) ={x R2 |x1 0, x2 0, x1 x2 1 x1

    }(1.4)

    Si < 0 (voir figure 1.16-b) :

    C (x1,x2) ={x R2 | x1 x2 et x2 x1} (1.5)

    Si = 0 :

    C (x1,x2) ={x R2 |x1 0 et x2 0}

    x2

    x1(a) Cas positif

    x2

    x1

    (b) Cas ngatif

    FIG. 1.16 Lallure du cne en fonction de .

    Cette relation peut tre tendue au cas multidimensionnel. On trouvera dans [Deb 01] unerelation diffrente permettant aussi de rgler la forme du cne de domination.

    Dfinition : le cne multidimensionnelUn cne de pente est dfini de la manire suivante :

    C ={x Rn |i {1, ,n} , j {1, ,n} , j > i,xi,x j C (xi,x j)

    } (1.6)La projection du cne multidimensionnel sur des plans est reprsente la figure 1.17.

    32

  • 1.8 Les relations drives de la dominance

    x3

    x2

    x1

    FIG. 1.17 La projection du cne multidimensionnel.

    Dfinition : la cne-dominanceSoit un cne C. Un vecteur x Rn cne-domine un vecteur y Rn (cette relationest note x C y ) si y x C et x 6=y (ou encore y x C{0}).

    La relation de cne-dominance est reprsente la figure 1.19. Nous avons aussi repr-sent deux exemples dapplication de cette relation la figure 1.18.

    Sur ces deux figures, nous avons reprsent le cne de domination. Il sagit de la zonedans laquelle le point dorigine (le vecteur x dans la dfinition de la cne-dominance) do-mine tous les points appartenant cette zone (les vecteurs x dans la dfinition de la cne-dominance).

    x

    yCne D

    (a) Le vecteur x domine le vecteur y au sens du cneD

    x

    y

    Cne D

    (b) Le vecteur x ne domine pas le vecteury au sens du cne D

    FIG. 1.18 Deux exemples dapplication de la relation de cne-dominance.

    33

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    Cne de domination

    f1

    f2

    x

    xS

    FIG. 1.19 La relation de cne-dominance.

    La relation de cne-dominance est quivalente la relation de dominance que nous avonsvue dans la section prcdente lorsque = 0.

    1.8.6 La a-dominanceCette dfinition de dominance a t introduite dans [Othmani 98].

    Dfinition : a-dominanceUne solution

    x Sk a-domine une solution x Sk sil existe un ensemble de com-

    binaisons de k+1a critres (on note I(k+1a) lensemble des index correspondant lensemble des combinaisons de ces critres) tel que :

    1.xj x j pour tout j I(k+1a), et

    2.xj 0 tel que i et x S vrifiant fi (x) < fi (x), il existe un

    index j tel que f j (x) < f j (x) et :fi (x) fi (x)f j (x) f j (x) M

    Cette relation nest quasiment jamais utilise telle quelle. En gnral, on utilise plutt unrsultat qui dcoule de cette dfinition. En effet, linterprtation de ce thorme faite dans[Ehrgott 00] est la suivante :

    Les solutions Pareto optimales propres ont des compromis borns suivant leursobjectifs.

    Un thorme relatif la mthode de pondration des fonctions objectif utilisant ce rsultatest le suivant :

    Thorme :Soit la mthode dagrgation des fonctions objectif suivantes :

    feq (x ) =N

    i=1i fi (x )

    Supposons i = 1, ,N, i > 0 avec Ni=1i = 1.Si x est une solution optimale obtenue en utilisant la mthode dagrgation ci-dessus,alors cette solution est aussi Pareto optimale propre.

    La mthode de pondration des fonctions objectif, avec des poids qui respectent les rela-tions ci-dessus, permet dobtenir des solutions avec des compromis borns.

    1.8.8 ConclusionCes diffrents types de relations de dominance permettent davoir suffisamment de degrs

    de libert pour choisir une relation qui reproduise au mieux le comportement dun ingnieurou dun dcideur. Par exemple, la relation de dominance lexicographique permet de repro-duire le comportement dun dcideur qui choisirait une solution parmi N solutions en consi-drant des critres rangs par ordre dimportance. En effet, celui-ci, quand il compare deux

    35

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    solutions, compare les valeurs des objectifs, jusqu ce quun objectif permette de dterminerune prfrence entre les deux solutions considres. Une fois que la prfrence entre les deuxsolutions est dtermine, on ne considre plus les objectifs restants. La comparaison sarrtel.

    La dominance est donc un outil, parmi dautres, permettant de reproduire une dmarchede recherche doptimum. Elle nest pas la seule, bien sr, mais elle est un lment importantpour la rsolution dun problme.

    1.9 La surface de compromisLe petit nombre de solutions de rang 1 que lon a slectionnes en utilisant la rgle de

    classement base sur la dfinition de la dominance forme ce que lon appelle la surface decompromis (ou front de Pareto).

    Imaginons que nous ayons un problme deux objectifs (minimiser f1 et minimiser f2sous les contraintes g (x ) 0 et h (x ) = 0) :

    On appelle S lensemble des valeurs du couple ( f1 (x ), f2 (x )) quand x respecte lescontraintes g (x ) et h (x ).

    On appelle P la surface de compromis.On reprsente S et P sur la figure 1.20.

    f2

    f1

    P

    S

    FIG. 1.20 Reprsentation de la surface de compromis.

    Une proprit est remarquable : en fonction du type de problme que lon cherche r-soudre, on obtient une forme de surface de compromis. Les formes les plus courantes de sur-faces de compromis sont runies la figure 1.21. Ces formes de surfaces de compromis sonttypiques dun problme doptimisation multiobjectif sur un ensemble de solutions convexe(pour une dfinition de la convexit, voir section 1.10). Cest ce type densemble que lonrencontre la plupart du temps.

    On observe deux points caractristiques associs une surface de compromis :

    Point idal :Les coordonnes de ce point sont obtenues en optimisant chaque fonction objectifsparment.

    36

  • 1.10 La convexit

    f2

    f1(a) Minimiser f1 minimiser f2

    f2

    f1(b) Minimiser f1 maximiser f2

    f2

    f1(c) Maximiser f1 minimiser f2

    f2

    f1(d) Maximiser f1 minimiser f2

    FIG. 1.21 Formes les plus courantes de surfaces de compromis dans le cas de deux objectifs.

    Point nadir :Les coordonnes de ce point correspondent aux pires valeurs obtenues par chaquefonction objectif lorsque lon restreint lespace des solutions la surface de compro-mis.

    Le point idal est utilis dans beaucoup de mthodes doptimisation comme point de rf-rence. Le point nadir, lui, sert restreindre lespace de recherche ; il est utilis dans certainesmthodes doptimisation interactives.

    Ces deux dfinitions sont illustres la figure 1.22.

    1.10 La convexitComme nous le verrons plus loin, certaines mthodes doptimisation multiobjectif nces-

    sitent de respecter certaines hypothses. Le plus souvent, la mthode rclame de travailler surun espace S des valeurs de f qui soit convexe.

    Dfinition : la convexitUn ensemble S est convexe si, tant donns deux points distincts quelconques de cetensemble, le segment qui relie ces deux points est contenu dans lensemble S.

    Un exemple densemble convexe et un exemple densemble non convexe sont reprsents la figure 1.23.

    37

  • Chapitre 1. Introduction : optimisation multiobjectif et dominance

    Point nadir

    Point idal

    f2

    f1

    A

    B

    FIG. 1.22 Reprsentation du point idal et du point nadir.

    f2

    f1

    S

    (a) Un ensemble convexe

    f2

    f1

    S

    (b) Un ensemble non convexe

    FIG. 1.23 Exemples densemble convexe et densemble non convexe.

    1.11 La reprsentation de la surface de compromisToutes les reprsentations de la surface de compromis, pour un mme problme, ne sont

    pas quivalentes. En effet, la reprsentation idale de la surface de compromis devra treconstitue de points solution de notre problme rpartis de manire uniforme sur la surfacede compromis (voir figure 1.24).

    Dans le premier cas, les points reprsentant la surface de compromis ne sont pas rpartisde manire uniforme. Lutilisateur naura alors pas en sa possession un ensemble de solu-tions trs utile. En effet, sil dcide que la solution quil avait choisie ne lui convient pas,le choix dune autre solution risque de faire varier brusquement tous ses objectifs, et cettenouvelle solution ne lui conviendra pas non plus. Il est alors probable que la solution o