optimisation bayésienne par méthodes smc

56
Optimisation bayésienne par méthodes SMC Romain Benassi Julien Bect Emmanuel Vazquez SUPELEC 21 mars 2012 Mascot Num 2012 Bruyères-le-Châtel, France Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 1 / 27

Upload: julien-bect

Post on 29-Jul-2015

283 views

Category:

Documents


0 download

TRANSCRIPT

Optimisation bayésienne par méthodes SMC

Romain Benassi Julien Bect Emmanuel Vazquez

SUPELEC

21 mars 2012Mascot Num 2012

Bruyères-le-Châtel, France

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 1 / 27

Introduction

Contexte

Optimisation globale ⇒ nombreuses applications dans l’industrie :Conception d’une voilure d’avion (Forrester et al. 2008)

Optimisation de la forme des conduits d’admission d’un moteur devoiture (Villemonteix et al. 2007)

etc.

Fonctions à optimiser coûteuses à évaluer (appel à des programmesinformatiques avec des durées d’exécution importantes)

Exemples d’optimisation de formes en CFD

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 2 / 27

Introduction

Optimisation bayésienne 1/2

Soitf : X ⊆ R

d → R,

avec X compact et d ∈ N

Objectif : trouver x∗ = argmaxx∈X f (x) et M = f (x∗)

f ne peut être évaluée qu’un nombre limité de fois N

évaluations non bruitéesgradient de f non disponible

Choix d’une approche bayésienne pour résoudre le problème⇒ f est vue comme une réalisation d’un processus aléatoire ξ

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 3 / 27

Introduction

Optimisation bayésienne 2/2

Après n évaluationsinformation disponible : Fn = (X1, ξ(X1), . . . , Xn, ξ(Xn))objectif : maximiser MN = ξ(X1) ∨ . . . ∨ ξ(XN)

Nouveau point d’évaluation Xn+1 choisi à l’aide d’un critèred’échantillonnage ρ̄n (construit à partir de Fn)

Xn+1 = argmaxx∈X

ρ̄n(x),

ρ̄n peut être évalué rapidement

Exemples de critères :probabilité d’amélioration (Kushner 1964)

amélioration moyenne (Expected Improvement) (Mockus et al. 1978)

entropie de l’optimiseur (IAGO) (Villemonteix et al. 2008)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 4 / 27

Introduction

Expected Improvement (EI)

Stratégie optimale sur un horizon d’un pas :

Xn+1 = argminx∈X

En [M − Mn+1 | Xn+1 = x ]

= argmaxx∈X

En

[

(ξ(Xn+1) − Mn)+ | Xn+1 = x]

︸ ︷︷ ︸

Expected Improvement (EI)

,

avec En l’espérance conditionnelle relative à Fn

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 5 / 27

Introduction

Exemple : itération 1

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

3

−1 −0.5 0 0.5 1

−4

−3

−2

−1

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Introduction

Exemple : itération 2

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

3

−1 −0.5 0 0.5 1

−6

−4

−2

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Introduction

Exemple : itération 3

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

3

−1 −0.5 0 0.5 1

−40

−20

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Introduction

Exemple : itération 4

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−3

−2.5

−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

−40

−20

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Introduction

Exemple : itération 5

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

−1 −0.5 0 0.5 1

−40

−20

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Introduction

Exemple : itération 6

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

−1 −0.5 0 0.5 1

−40

−20

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Introduction

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 7 / 27

Approche plug-in

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 8 / 27

Approche plug-in

Problème : Comment choisir ξ ?

⇒ processus ξ choisi dans une classe de processus gaussiens paramétréspar θ ∈ Θ (p.ex. processus avec moyenne constante mais inconnue etcovariance exponentielle avec portée inconnue)

Approche plug-in

θ est estimé par maximum de vraisemblance

EI plug-in :

ρn(x ; θ̃) = En

((

ξ(

x ; θ̃)

− Mn

)

+

)

,

avec θ̃ estimé par MV

Avantage : existence d’une expression analytique de l’EIpour ξ gaussien

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 9 / 27

Approche plug-in

EI et processus gaussiens

Si ξ est gaussien (θ fixé) :

ρn(x ; θ) = En

(

(ξ (x) − Mn)+ | θ | θ)

= sn(x) [uΦ(u) + Φ′(u)]

avecu =

(

ξ̂n − Mn

)

/sn(x)

ξ̂n(x) = En [ξ(x ; θ)] (prédicteur par krigeage)sn(x) écart type a posteriori de ξ̂n(x) − ξ(x ; θ)Φ fonction de répartition de la loi normale centrée réduite

Il est facile de calculer ρn !

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 10 / 27

Approche plug-in

Problème avec l’approche plug-in

Fonctions trompeuses

Le terme fonctions trompeuses caractérise une fonction pour laquelleun design initial mal choisi peut conduire à une très mauvaiseestimation des paramètres du processus par MVL’utilisation d’une approche plug-in conduit parfois à sous-estimerlargement l’erreur de prédiction :

⇒ problème pour l’optimisation par EI

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 11 / 27

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Approche complètement bayésienne

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 13 / 27

Approche complètement bayésienne

EI complètement bayésien

Utilisation d’un critère EI complètement bayésien (Williams et al. 2003,

Osborne et al. 2009, . . .)

⇒ choix d’un a priori sur θ

Critère d’échantillonnage EI complètement bayésien :

Xn+1 = argmaxx∈X ρ̄n :=

θ∈Θρn(x ; θ) dπn(θ) ,

où πn est la loi a posteriori de θ, et

ρn(x ; θ) := En((ξ(Xn+1) − Mn)+ | Xn+1 = x ; θ),

Approche plus robuste qu’une approche plug-in (Benassi et al. 2011)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 14 / 27

Approche complètement bayésienne

Exemple : itération 1

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

−1 −0.5 0 0.5 1−2.8−2.6−2.4−2.2

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−0.6−0.4−0.2

0

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Approche complètement bayésienne

Exemple : itération 2

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−6−4−2

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−1

−0.8

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Approche complètement bayésienne

Exemple : itération 3

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−20

−10

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−1.8−1.6−1.4−1.2

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Approche complètement bayésienne

Exemple : itération 4

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−1

−0.5

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Approche complètement bayésienne

Exemple : itération 5

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1−1.4−1.2

−1−0.8

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Approche complètement bayésienne

Exemple : itération 6

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1−1.6−1.4−1.2

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Approche complètement bayésienne

Exemple : itération 7

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1−2

−1.5

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Approche complètement bayésienne

Exemple : itération 8

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−2.5

−2

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Approche complètement bayésienne

Limites de l’approche complètement bayésienne

À chaque étape, on choisit une nouvelle évaluation

Xn+1 = argmaxx∈X ρ̄n :=

θ∈Θρn(x ; θ) dπn(θ)

Questions1 Comment calculer l’intégrale apparaissant dans ρ̄n ?2 Comment maximiser ρ̄n ?

Nous proposons un nouvel algorithme apportant une réponse à ces deuxquestions, de façon simultanée, à l’aide d’une approche SMC (Sequential

Monte Carlo) originale

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 16 / 27

Approche complètement bayésienne

Limites de l’approche complètement bayésienne

À chaque étape, on choisit une nouvelle évaluation

Xn+1 = argmaxx∈X ρ̄n :=

θ∈Θρn(x ; θ) dπn(θ)

Questions1 Comment calculer l’intégrale apparaissant dans ρ̄n ?2 Comment maximiser ρ̄n ?

Nous proposons un nouvel algorithme apportant une réponse à ces deuxquestions, de façon simultanée, à l’aide d’une approche SMC (Sequential

Monte Carlo) originale

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 16 / 27

Approche complètement bayésienne

Limites de l’approche complètement bayésienne

À chaque étape, on choisit une nouvelle évaluation

Xn+1 = argmaxx∈X ρ̄n :=

θ∈Θρn(x ; θ) dπn(θ)

Questions1 Comment calculer l’intégrale apparaissant dans ρ̄n ?2 Comment maximiser ρ̄n ?

Nous proposons un nouvel algorithme apportant une réponse à ces deuxquestions, de façon simultanée, à l’aide d’une approche SMC (Sequential

Monte Carlo) originale

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 16 / 27

Approche complètement bayésienne

Principe de base de notre algorithme (Benassi et al. 2012)

Idée 1 (voir, p. ex., Gramacy et al. 2011)

Un échantillon pondéré Tn = {(θn,i , wn,i) ∈ Θ × R, 1 ≤ i ≤ I}, distribuéselon πn, est utilisé pour approcher ρ̄n :

I∑

i=1

wn,i ρn(x ; θn,i) →I ρ̄n(x)

Idée 2

À chaque θn,i est associé un (petit) nombre de points candidats{xn,i ,j , 1 ≤ j ≤ J} tels que, pour une valeur de i particulière, les xn,i ,j

soient « bien réparties » (les zones où ρn est grand)

Nous considérons un ensemble pondéré Gn de couples (θ, x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 17 / 27

Approche complètement bayésienne

Description de l’algorithme

À l’étape n,

Choix de Xn+1 et évaluation deξ(Xn+1)

Les θs sont « déplacés »

Génération des xs à partir d’uneloi instrumentale qn

Initialisation

Tn0 , qn0

Démarginalisation

Gn

Évaluation

θ

Repondération/

Rééchantillonnage/

Déplacement

Tn+1

x

Construction

deqn+1

qn+1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 18 / 27

Expériences numériques

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 19 / 27

Expériences numériques

Choix des a priori

ξ est choisi gaussien avec :une moyenne constante mais inconnueune covariance de Matérn anisotrope de paramètres(σ2, ν, ρ1, ρ2, . . . , ρd)

Approche complètement bayésienne ⇒ un a priori doit être affecté àtous les paramètres inconnus

une loi impropre uniforme sur R est associée à la moyennela valeur de régularité ν est fixée à 5/2un a priori de Jeffreys est utilisé pour σ2

des a priori lognormaux indépendants sont affectés aux portées ρi

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 20 / 27

Expériences numériques

La fonction test

Fonction Branin (optimisation en dimension deux)

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 21 / 27

Expériences numériques

Simulations : itération 1

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2 −1.5 −1 −0.5

−2

−1.5

−1

−0.5

0

0.5

1

2

3

4

5

6

7x 10

−9

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Expériences numériques

Simulations : itération 2

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2 −1.5 −1 −0.5

−2

−1.5

−1

−0.5

0

2

4

6

8

x 10−11

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Expériences numériques

Simulations : itération 3

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2.5 −2 −1.5 −1 −0.5

−2

−1.5

−1

−0.5

0

2

4

6

8

10

12

14

16x 10

−13

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Expériences numériques

Simulations : itération 5

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2.5 −2 −1.5 −1 −0.5

−2.5

−2

−1.5

−1

0.5

1

1.5

2

2.5x 10

−15

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Expériences numériques

Simulations : itération 9

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2 −1.5 −1

−2

−1.5

−1

−0.5

1

2

3

4

5

6

7x 10

−23

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Expériences numériques

Simulations : itération 13

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2 −1.5 −1

−2.5

−2

−1.5

−1

0.5

1

1.5

2

2.5x 10

−30

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Expériences numériques

Simulations : itération 17

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2.2 −2 −1.8 −1.6 −1.4 −1.2

−3

−2.5

−2

−1.5

1

2

3

4

5x 10

−36

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Expériences numériques

Simulations : itération 21

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2.4 −2.2 −2 −1.8 −1.6

−3

−2.8

−2.6

−2.4

−2.2

2

4

6

8

x 10−40

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Expériences numériques

Comparaison 1/2

Comparaison entre approche bayésienne et approche plug-in

Approche bayésienne

I = 100 valeurs considérées pour les θ

J = 100 valeurs de x pour chaque valeur de θ

design initial de 4 points (deux fois la dimension)

Approche plug-in

θ estimé à chaque itération par MV

recherche exhaustive sur LHS fixé pour obtenir Xn+1

LHS de taille I × J

design initial de 20 points (dix fois la dimension)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 23 / 27

Expériences numériques

Comparaison 2/2

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

Fonction Branin

0 20 40 60

−6

−4

−2

0

nombre d’évaluations de la fonction

log 1

0(m

axf

−M

n) EGO

EI+SMC

Comparaison de l’erreur moyenneau maximum (moyenne sur

100 expériences)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 24 / 27

Conclusions

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 25 / 27

Conclusions

Conclusions

Resultats

Notre nouvel algorithme complètement bayésien calcule efficacementle critère EI

Le choix, à chaque nouvelle itération, d’un ensemble (petit mais bienchoisi) de points candidats permet une maximisation efficace ducritère

Travail en cours

Tests en dimensions supérieures (bons résultats pour les dimensionsde 1 à 6)

Applications à des problèmes d’optimisation dans le domaine de laconception de systèmes électroniques

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 26 / 27

Conclusions

References

This talk is based on the following two papers :

Romain Benassi, Julien Bect, Emmanuel Vazquez, Bayesian optimization using

sequential Monte Carlo, Learning and Intelligent OptimizatioN (LION 6), Paris,

France, Jan 16-20 [clickme]

Romain Benassi, Julien Bect, Emmanuel Vazquez, Robust Gaussian Process-Based

Global Optimization Using a Fully Bayesian Expected Improvement Criterion,

Learning and Intelligent OptimizatioN (LION 6). Selected Papers. , Lecture Notes

in Computer Science, vol. 6683. 2011. [clickme]

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 27 / 27