laga - accueil - optimisation macs 2 2019halpern/teaching/macs2... · 2019. 11. 28. · z 1 0...

68
Optimisation MACS 2 2019 Part I. Résultats théoriques 13 novembre 2019

Upload: others

Post on 17-Oct-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation MACS 2 2019

Part I. Résultats théoriques

13 novembre 2019

Page 2: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Résultats d’existence

Caractérisation des extrema

Lagrangien et point selle

Page 3: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

DéfinitionsSoit V un espace de Hilbert sur R, K une partie de V , J unefonction définie sur V à valeurs dans R . On dit que u estminimum local de J sur K si u appartient à K et s’il existe unvoisinage U de u dans K tel que

∀v ∈ U, J(u) ≤ J(v). (1)

Si la relation précédente est vraie pour tout v dans K , on dit que uest minimum global de J sur K . On parle de minimum strict sil’inégalité est stricte dans (1). On définit un problème deminimisation sur K par

u ∈ K ,J(u) = inf

v∈KJ(v) (2)

On dit alors que u est solution optimale du problème deminimisation sur K . Le problème de minimisation est dit sanscontrainte si V = K , avec contraintes si V 6= K .

Page 4: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Exemple en dimension 1

f (x) =12x5− 3

40x4− 3

5x3+

310

f (x) = x6

Page 5: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation

Minu∈K

J(u)

I J fonction différentiableI K ⊂ V avec V espace de Hilbert.I Dimension

I dimV < +∞ : Optimisation en dimension finie(Rn, polynômes de degré inférieur à n, espaces d’élémentsfinis, série de Fourier tronquée...)

I dimV = +∞ : Optimisation en dimension infinie(C1,L2, H1, H1

0 ...)I Contraintes

I K = V : Optimisation sans contraintesI K ( V : Optimisation sous contraintes (1, 2 infinité)

I Égalité : F (v) = 0, F : V →W ,I Inégalité : F (v) ≤ 0.

Page 6: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Plan du chapitre

Page 7: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Quelques références

I J. C. Culioli, CR Ecole des MinesIntroduction à l’optimisation, Ellipses, 1994.

I M. Bergounioux, Prof. Univ. OrléansOptimisation et contrôle des systèmes linéaires, Dunod, 2001.

I G. Allaire, Prof. PolytechniqueNumerical analysis and optimization, Oxford sciencepublications. 2007.https ://www.editions.polytechnique.fr/files/pdf/EXT_1255_8.pdf

I O. Lafitte, Prof. Univ. Paris 13Optimisation et calcul des variationshttp ://lescribe83.free.fr/Cours_optimisation_lafitte.pdf

Page 8: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Théorème d’existence en dimension finie

Theorème : Soit V un espace de Hilbert de dimension finie etK ⊂ V un ensemble fermé. Soit J une fonction continue de K dansR. Sous une des deux hypothèses suivantes• K est borné,• J infinie à l’infini,

J(v) −→‖v‖→+∞

+∞

il existe au moins un point où J atteint son minimum sur K .

Preuve :

w choisi dans K , on définit K = v ∈ K , J(v) ≤ J(w).

Alors infK

J(v) = infK

J(v).

Exemples ‖v‖, ‖v‖2, (Av , v), · · · .

Page 9: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Un exemple important en dimension finie, pour TD mardi

Moindres carrés :infx∈Rn‖b − Ax‖

Page 10: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Un autre exemple important en dimension finie, pour TDmardi

On définit les polynômes de Chebyshev sur [−1, 1] parCk(t) = cos(k arccos t). Montrer la relation de récurrence

P0 ≡ 1,P1 ≡ t, Pk+1(t) = 2tPk(t)− Pk−1(t)

Montrer que Pk a dans l’intervalle [−1, 1] la plus petite déviationde 0, parmi tous les polynômes de Pk de coefficient dominant 2k−1.(on procédera dans l’absurde en introduisant les points extrémauxξj de Pk).

Page 11: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Un contre exemple en dimension infinie, pour TD mardiOn se place dans H1(0, 1) muni de la norme

‖v‖2 =

∫ 1

0v2(x) dx +

∫ 1

0v ′

2(x) dx .

On considère la fonctionnelle

J(v) =

∫ 1

0

((|v ′(x)| − 1)2 + v(x)2) dx

Montrer queI J est continueI ∀v ∈ H1(0, 1), J(v) > 0I ∀v ∈ H1(0, 1), J(v) ≥ 1

2‖v‖2 − 1

I J tend vers l’infini à l’infini.I Il existe cependant une suite un ∈ H1(0, 1) J(un) −→

n→+∞0.

0<latexit sha1_base64="Bsse/9U+BIwFEDCr5v4B1bR8xtY=">AAACxXicjVHLSsNAFD2Nr1pfVZdugkVwVZIq6LLoQpdVbCvUIsl0WofmxWRSKEX8Abf6a+If6F94Z0xBLaITkpw5954zc+/1k0CkynFeC9bc/MLiUnG5tLK6tr5R3txqpXEmGW+yOIjlte+lPBARbyqhAn6dSO6FfsDb/vBUx9sjLlMRR1dqnPBu6A0i0RfMU0RdOqXbcsWpOmbZs8DNQQX5asTlF9yghxgMGUJwRFCEA3hI6enAhYOEuC4mxElCwsQ57lEibUZZnDI8Yof0HdCuk7MR7bVnatSMTgnolaS0sUeamPIkYX2abeKZcdbsb94T46nvNqa/n3uFxCrcEfuXbpr5X52uRaGPY1ODoJoSw+jqWO6Sma7om9tfqlLkkBCncY/ikjAzymmfbaNJTe26t56Jv5lMzeo9y3MzvOtb0oDdn+OcBa1a1T2o1i4OK/WTfNRF7GAX+zTPI9Rxjgaa5N3HI57wbJ1ZoaWs0WeqVcg12/i2rIcP/wuPTQ==</latexit>

1<latexit sha1_base64="7sCe8t6nfPb+zCWUCxiga05M4r4=">AAACxXicjVHLSsNAFD2Nr1pfVZdugkVwVZIq6LLoQpdVbCvUIsl0WofmxWRSKEX8Abf6a+If6F94Z0xBLaITkpw5954zc+/1k0CkynFeC9bc/MLiUnG5tLK6tr5R3txqpXEmGW+yOIjlte+lPBARbyqhAn6dSO6FfsDb/vBUx9sjLlMRR1dqnPBu6A0i0RfMU0RduqXbcsWpOmbZs8DNQQX5asTlF9yghxgMGUJwRFCEA3hI6enAhYOEuC4mxElCwsQ57lEibUZZnDI8Yof0HdCuk7MR7bVnatSMTgnolaS0sUeamPIkYX2abeKZcdbsb94T46nvNqa/n3uFxCrcEfuXbpr5X52uRaGPY1ODoJoSw+jqWO6Sma7om9tfqlLkkBCncY/ikjAzymmfbaNJTe26t56Jv5lMzeo9y3MzvOtb0oDdn+OcBa1a1T2o1i4OK/WTfNRF7GAX+zTPI9Rxjgaa5N3HI57wbJ1ZoaWs0WeqVcg12/i2rIcPAXuPTg==</latexit>

k

n<latexit sha1_base64="8rROFT3UGu6iIUG+z5fiIBUUBhY=">AAACz3icjVHLSsNAFD2Nr1pfVZdugkVwVZIq6LLoxmUL9gFtkWQ6raFpEiYTpYSKW3/Arf6V+Af6F94ZU1CL6IQkZ86958zce93I92JpWa85Y2FxaXklv1pYW9/Y3Cpu7zTjMBGMN1joh6LtOjH3vYA3pCd93o4Ed8auz1vu6FzFWzdcxF4YXMpJxHtjZxh4A485kqhudyAclo6maTAtXBVLVtnSy5wHdgZKyFYtLL6giz5CMCQYgyOAJOzDQUxPBzYsRMT1kBInCHk6zjFFgbQJZXHKcIgd0XdIu07GBrRXnrFWMzrFp1eQ0sQBaULKE4TVaaaOJ9pZsb95p9pT3W1CfzfzGhMrcU3sX7pZ5n91qhaJAU51DR7VFGlGVccyl0R3Rd3c/FKVJIeIOIX7FBeEmVbO+mxqTaxrV711dPxNZypW7VmWm+Bd3ZIGbP8c5zxoVsr2UblSPy5Vz7JR57GHfRzSPE9QxQVqaJB3hEc84dmoG7fGnXH/mWrkMs0uvi3j4QNtUpRC</latexit>

k + 1

n<latexit sha1_base64="G1scll+aMv//C3ktG0456RyRNWk=">AAAC0XicjVHLSsNAFD2Nr1pfVZdugkUQhJKooMuiG5cV7QPaKsl0WkPzYjIRSimIW3/Arf6U+Af6F94ZU1CL6IQkZ86958zce93Y9xJpWa85Y2Z2bn4hv1hYWl5ZXSuub9STKBWM11jkR6LpOgn3vZDXpCd93owFdwLX5w13cKrijVsuEi8KL+Uw5p3A6Ydez2OOJOqq3RMOGw327PEoHBeuiyWrbOllTgM7AyVkqxoVX9BGFxEYUgTgCCEJ+3CQ0NOCDQsxcR2MiBOEPB3nGKNA2pSyOGU4xA7o26ddK2ND2ivPRKsZneLTK0hpYoc0EeUJwuo0U8dT7azY37xH2lPdbUh/N/MKiJW4IfYv3STzvzpVi0QPx7oGj2qKNaOqY5lLqruibm5+qUqSQ0ycwl2KC8JMKyd9NrUm0bWr3jo6/qYzFav2LMtN8a5uSQO2f45zGtT3y/ZBef/8sFQ5yUadxxa2sUvzPEIFZ6iiRt4Cj3jCs3FhDI074/4z1chlmk18W8bDB5tClLI=</latexit>

1

n<latexit sha1_base64="f02k6prfv2orF2Z7CWi9MeJF+zs=">AAACz3icjVHLSsNAFD2Nr1pfVZdugkVwVZIq2GXBjcsW7APaIsl0WkPTJEwmSgkVt/6AW/0r8Q/0L7wzpqAW0QlJzpx7z5m597qR78XSsl5zxtLyyupafr2wsbm1vVPc3WvFYSIYb7LQD0XHdWLuewFvSk/6vBMJ7kxcn7fd8bmKt2+4iL0wuJTTiPcnzijwhh5zJFG93lA4LLVnaTArXBVLVtnSy1wEdgZKyFY9LL6ghwFCMCSYgCOAJOzDQUxPFzYsRMT1kRInCHk6zjFDgbQJZXHKcIgd03dEu27GBrRXnrFWMzrFp1eQ0sQRaULKE4TVaaaOJ9pZsb95p9pT3W1KfzfzmhArcU3sX7p55n91qhaJIaq6Bo9qijSjqmOZS6K7om5ufqlKkkNEnMIDigvCTCvnfTa1Jta1q946Ov6mMxWr9izLTfCubkkDtn+OcxG0KmX7pFxpnJZq1WzUeRzgEMc0zzPUcIE6muQd4RFPeDYaxq1xZ9x/phq5TLOPb8t4+ADfX5P+</latexit>

I J n’admet pas de minimum.

Les fermés bornés ne sont plus forcément compacts...

Page 12: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Fonctions convexesOn se restreint au cas où K est un ensemble convexe. Définitionsd’une fonctionI convexe ∀t ∈ [0, 1] J(tu + (1− t)v) ≤ tJ(u) + (1− t)J(v)

I strictement convexe∀t ∈]0, 1[, u 6= v , J(tu + (1− t)v) < tJ(u) + (1− t)J(v)

I fortement convexe (on dit aussi α-convexe) : il existe unnombre α > 0 tel que pour tout couple (u, v) ∈ V 2 on ait

∀t ∈ [0, 1] J(tu+(1−t)v) ≤ tJ(u)+(1−t)J(v)−α2t(1−t)‖v−u‖2

Prop : Soient J1 et J2 deux fonctions convexes, φ une fonctionconvexe croissante, p ∈ R+. Alors J1 + J2, max(J1, J2), pJ1, φoJ1sont convexes.

Remarque : Attention, une fonction de deux variables peut êtreconvexe en chacune de ses variables mais pas convexe sur R2.

Page 13: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Minimum et fonctions convexes

Soit K un convexe ferméProposition : Si J est convexe, alors tout point de minimum localdans K est un point de minimum global.

Proposition : Si J est strictement convexe, il existe au plus unpoint de minimum global dans K .

Proposition : Si J est fortement convexe, il existe un unique pointde minimum global dans K .

Proposition : Si J est fortement convexe et u est le point deminimum, alors on a l’estimation d’erreur

∀v ∈ K ‖v − u‖2 ≤ 4α

(J(v)− J(u))

Exemple sur la fonction J(x) = 12(Ax , x)− (b, x) avec A matrice

définie positive.

Page 14: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Différentiabilité

Définition : Une fonction J de V dans R est différentiable (ouFréchet différentiable) en u si il existe une forme linéaire continuenotée J ′(u) telle que

∀w ∈ V , J(u + w) = J(u) + J ′(u) · w + ε(w)‖w‖, limw→0

ε(w) = 0

Proposition : Toute fonction dérivable est continue.Quand V = Rn, on note souvent J ′(u) = ∇J(u).

Page 15: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Exemples

I Fonction affine J(v) = (b, v)− c .I Fonction quadratique J(v) = 1

2(Av , v)− (b, v)

I Moindres carrés u 7→ ‖Av − b‖2.I Extension à la dimension infinie (v dans L2 ou H1)

J(v) =12

∫Ω

(α‖∇v‖2 + βv2)−∫

Ωfv

I La longueur d’un arc

J(v) =

∫ A

0

√1 + v ′(x)2 dx

Page 16: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Différentielles, suite

I Dérivée directionnelle. On appelle dérivée de J en u dans ladirection v la dérivée en 0 de la fonction d’une variablet 7→ J(u + tv). On peut alors noter

DvJ(u) = J ′(u) · v .

I Gradient et dérivées partielles. Dans Rn, si J est différentiableen u, elle admet des dérivées partielles ∂jJ(u) := ∂J

∂xj, et

∇J(u) = (∂1J(u), · · · , ∂nJ(u)), si bien queJ ′(u).v =

∑ni=1

∂J∂xi

(u)vi .I Dérivées secondes Si J ′ : V 7→ V admet une différentielle J ′′

application bilinéaire continue de V × V dans R. On noteraJ”(u) · v · w . Si V = Rn, alors la dérivée J ′′(u) peut êtreidentifiée avec une matrice appelée matrice Hessienne de J.

Page 17: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Exemples

I Fonction quadratique

J(x) =12

(Ax , x)− (b, x)

I Moindres carrés u 7→ ‖Au − b‖2.I Extension à la dimension infinie (u dans L2 ou H1)

J(u) =12

∫Ω

(α‖∇u‖2 + βu2)−∫

Ωfu

I La longueur d’un arc

J(u) =

∫ A

0

√1 + u′(x)2 dx

Page 18: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Formules de TaylorTaylor Mac-Laurin ordre 1 Si J : V 7→ R est définie et continue sur

[u, v ], différentiable sur ]u, v [, il existe θ ∈]0, 1[ tel que

J(v) = J(u) + J ′(u + θ(v − u)) · (v − u) (3)

On l’appelle aussi la formule de la moyenne, et on peut laformuler ainsi il existe w ∈]u, v [ tel que

J(v) = J(u) + J ′(w) · (v − u) (4)

Taylor Mac-Laurin ordre 2 Si J : V 7→ R est définie et continue sur[u, v ], 2 fois différentiable sur ]u, v [, il existe θ ∈]0, 1[ telque

J(v) = J(u)+J ′(u)·(v−u)+12J ′′(u+θ(v−u))·(v−u)·(v−u)

(5)

Taylor Young ordre 2 Si J : V 7→ Rp est 2 fois différentiable en u, alorspour tout v

J(v) = J(u)+J ′(u)·(v−u)+J ′′(u)·(v−u)·(v−u)+ε(v−u)‖v−u‖2, limw→0

ε(w) = 0

(6)

Page 19: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Convexité et différentiabilité

Théorème 1.5 : Les trois propositions sont équivalentes1. J est convexe.2. ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u).3. ∀u, v ∈ V , (J ′(v)− J ′(u), v − u) ≥ 0.

Théorème 1.6 : Les trois propositions sont équivalentes1. J est strictement convexe.2. ∀u, v ∈ V , u 6= v , J(v) > J(u) + (J ′(u), v − u).3. ∀u, v ∈ V , u 6= v , (J ′(v)− J ′(u), v − u) > 0.

Théorème 1.7 : Les trois propositions sont équivalentes1. J est α-convexe.2. ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u) + α

2 ‖v − u‖2.3. ∀u, v ∈ V , (J ′(v)− J ′(u), v − u) ≥ α‖v − u‖2.

Page 20: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

Page 21: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe =⇒ (2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u).

J(θv + (1− θ)u) ≤ θJ(v) + (1− θ)J(u).

J(θv + (1− θ)u)− J(u) ≤ θ(J(v)− J(u)).

J(u + θ(v − u))− J(u)

θ≤ J(v)− J(u).

θ → 0 :J ′(u) · (v − u) ≤ J(v)− J(u).

Page 22: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe =⇒ (2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u).(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u) =⇒ (1) convexe.

Page 23: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe =⇒ (2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u).(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u) =⇒ (1) convexe.

J(u) ≥ J(θu + (1− θ)v) + J ′(θu + (1− θ)v) · (1− θ)(u − v)J(v) ≥ J(θu + (1− θ)v) + J ′(θu + (1− θ)v) · θ(v − u)

Page 24: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe =⇒ (2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u).(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u) =⇒ (1) convexe.

J(u) ≥ J(θu + (1− θ)v) + J ′(θu + (1− θ)v) · (1− θ)(u − v)J(v) ≥ J(θu + (1− θ)v) + J ′(θu + (1− θ)v) · θ(v − u)

×θ J(u) ≥ J(θu + (1− θ)v) + J ′(θu + (1− θ)v) · (1− θ)(u − v)×(1− θ) J(v) ≥ J(θu + (1− θ)v) + J ′(θu + (1− θ)v) · θ(v − u)

Page 25: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe =⇒ (2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u).(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u) =⇒ (1) convexe.(2) =⇒ (3)

Page 26: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe =⇒ (2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u).(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J ′(u), v − u) =⇒ (1) convexe.(2) =⇒ (3)

(3) =⇒ (2)

Page 27: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Convexité et différentiabilité

Supposons maintenant J deux fois différentiableThéorèmes 1.5, 1.6 1.7 :

4 J convexe ⇐⇒ ∀u,w ∈ V , J ′′(u)w .w ≥ 04 J strictement convexe ⇐ ∀u,w ∈ V ,w 6= 0, J ′′(u)w .w > 04 J α− convexe ⇐⇒ ∀u,w ∈ V , J ′′(u)w .w ≥ α ‖ w ‖2.

Exemple : J(u) = a(u, u) où a est une forme bilinéaire continue surV . Cas de la dimension finie.

Page 28: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Convexité et différentiabilité

Supposons maintenant J deux fois différentiableThéorèmes 1.5, 1.6 1.7 :

4 J convexe ⇐⇒ ∀u,w ∈ V , J ′′(u)w .w ≥ 04 J strictement convexe ⇐ ∀u,w ∈ V ,w 6= 0, J ′′(u)w .w > 04 J α− convexe ⇐⇒ ∀u,w ∈ V , J ′′(u)w .w ≥ α ‖ w ‖2.

Exemple : J(u) = a(u, u) où a est une forme bilinéaire continue surV . Cas de la dimension finie.

Page 29: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Démonstration

(3) =⇒ (4)

(J ′(u+θw)−J ′(u))·(θ)w ≥ 0, J ′(u+θw)−J ′(u) = θJ ′′(u)w+ε(θ)‖θw‖.

(4) =⇒ (2) : Taylor Mac Laurin

J(v) = J(u) + J ′(u) · (v − u) +12J ′′(u + θ(v − u)) · (v − u) · (v − u)

Page 30: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Cas sans contrainte. Condition nécessaire de minimum

V espace de Hilbert. J : V → R.Théorème : (Equation d’Euler) Si u ∈ V est un point de minimumde J différentiable, alors J ′(u) = 0.

Théorème : (Condition nécessaire ordre 2) Si u ∈ V est un pointde minimum de J deux fois différentiable, alors on a de plus

∀v ∈ V (J ′′(u)v , v) ≥ 0

Page 31: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Cas sans contrainte. Condition suffisante de minimum

Théorème : Soit J une fonction différentiable dans V et u unpoint de V tel que J ′(u) = 0.1. Si J est deux fois différentiable dans un voisinage de u et s’il

existe un voisinage Ω de u tel que∀v ∈ Ω,∀w ∈ V , J ′′(v)w .w ≥ 0, alors u est minimum local deJ.

2. Si J est deux fois différentiable,et s’il existe α > 0 tel que

∀w ∈ V , J ′′(u)w .w ≥ α‖w‖2,

alors u est minimum local strict pour J.

Théorème : Si J est convexe et différentiable, alors l’équationd’Euler est nécessaire et suffisante (voir preuve plus loin). Exemples : Fonctionnelle quadratique sur Rn et H1 (liens avecles systèmes linéaires et les EDP), minimisation au sens desmoindres carrés, calcul de la première valeur propre...

Page 32: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : K convexe

Trouver u ∈ K tel que J(u) = infv∈K

J(v).

Si u est solution, on dit que u est solution optimale. On supposeque K est un convexe fermé non vide et que J est différentiable.Théorème : Soit K ⊂ V convexe. Si u ∈ K est un point deminimum sur K de J différentiable, alors

Inéquation d’Euler : u ∈ K , ∀v ∈ K (J ′(u), v − u) ≥ 0

Réciproquement dans le cas ou J est convexe, si on a l’inéquationd’Euler et, alors u est solution optimale.ExempleI Distance d’un point à un ensemble convexe

Séparation d’un point et d’un convexe

Page 33: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Conséquence sur le cas sans contrainte

Théorème : Si J est convexe différentiable, alors u est solutionoptimale sur V si et seulement on a l’équation d’Euler J ′(u) = 0.En particulier si J est α-convexe, il existe une unique solutionoptimale, caractérisée par J ′(u) = 0.

Page 34: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : K sous espace affine

Théorème : Soit K ⊂ V sous espace affine de la forme u0 + E (Ess ev de V). Alors l’inéquation d’Euler est équivalente à

u ∈ K ,∀v ∈ E (J ′(u), v) = 0

Ou encore J ′(u) ∈ E⊥.Exemple : contraintes égalité,E = v ∈ V , (ai , v) = 0, 1 6 i 6 m, alors l’orthogonal de E estl’espace vectoriel engendré par les ai , et donc

Inéquation d’Euler ⇐⇒

u ∈ K

∃p1, .., pm ∈ R J ′(u) +m∑i=1

piai = 0.

Les pi sont les multiplicateurs de Lagrange.

Page 35: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : K sous espace affine de Rn

K = v , Bv = c = v , (ai , v) = ci , 1 6 i 6 m.

K 6= ∅ ⇐⇒ c ∈ ImB

B matrice m × n. K = u0 + E , E = KerB , Bu0 = c . On définitpar ai les vecteurs ligne de B , alors

E = v ∈ V , (ai , v) = 0, 1 6 i 6 m

∃p1, .., pm ∈ R J ′(u)+m∑i=1

piai = 0 ⇐⇒ ∃p ∈ Rm J ′(u)+BTp = 0.

Fi (v) = (ai , v)− ci , F′i (v) = ai ,

J ′(u)+m∑i=1

piai = 0 ⇐⇒ J ′(u)+m∑i=1

piF′i (u) = 0 ⇐⇒ J ′(u)+BTp = 0

Page 36: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation quadratique sous contrainte : K sous espaceaffine de Rn

J(v) =12

(Av , v)− (b, v), K = v , Bv = c

A matrice n × n, c ∈ Rm, B matrice m × n.1. Existence et unicité th 1.1 et 1.2 ou corollaire 1.12. Caractérisation

∃p1, .., pm ∈ R J ′(u)+m∑i=1

piai = 0 ⇐⇒ ∃p ∈ Rm Au−b+BTp = 0.

u solution optimale ⇐⇒

Bu = c,

∃p ∈ Rm, Au − b + BTp = 0.

Attention B est une matrice rectangulaire

Page 37: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

L’équation d’Euler

c ∈ Im u, Bu = c , Au − b + BTp = 0.

BA−1BTp = BA−1b − c .

I BT injective (ou B de rang m full rank )I sinon Comme pour les moindres carrés

Page 38: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : K cône

K = c + K0.

u ∈ K

∀v ∈ K , J ′(u).(v − u) ≥ 0⇐⇒

u ∈ K

J ′(u).(c − u) = 0∀w ∈ K0, J

′(u).w ≥ 0.

Exemple de cône :

K0 = v ∈ V , (ai , v) ≤ 0, 1 6 i 6 m

K = v ∈ V , (ai , v) ≤ ci , 1 6 i 6 m = u0 + K0.

Page 39: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : K cônePour M cône convexe fermé de sommet O, on définit le cône dualpar

M? = c ∈ V ,∀v ∈ M, (c , v) ≥ 0. (7)

M = v ∈ V ,∀i ∈ 1, ..,m, (v , ai ) 6 0

Théorème 2.5 [Lemme de Farkas].Si M = v ∈ V , ∀i ∈ 1, ..,m, (v , ai ) 6 0, alors c ∈ M? si etseulement si −c appartient au cône convexe engendré par les ai ,

i.e. il existe p1, .., pm tous ≥ 0 tels que c = −m∑i=1

piai .u ∈ K

J ′(u).(c − u) = 0∀w ∈ K0, J

′(u).w ≥ 0

J ′(u).w ≥ 0 ⇐⇒ J ′(u) ∈ K ?0 ⇐⇒ J ′(u) = −

m∑i=1

piai

Page 40: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contraintes affines : Résumé

Contraintes égalité

K = Bv = c = (v , ai ) = ci , i = 1 · · ·m

u solution optimale ⇐⇒

Bu = c ,

∃p ∈ Rm, J ′(u) + BTp = 0.

Contraintes inégalité

K = Bv ≤ c = (v , ai ) ≤ ci , i = 1 · · ·m

u solution optimale ⇐⇒

Bu ≤ c ,

∃p ∈ Rm+, J ′(u) + BTp = 0.

Si J est convexe on a une CNS

Page 41: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation quadratique sous contraintes affines : Résumé

J(v) =12

(Av , v)− (b, v)

Contraintes égalité

K = Bv = c = (v , ai ) = ci , i = 1 · · ·m

u solution optimale ⇐⇒

Bu = c ,

∃p ∈ Rm, Au − b + BTp = 0.

Contraintes inégalité

K = Bv ≤ c = (v , ai ) ≤ ci , i = 1 · · ·m

u solution optimale ⇐⇒

Bu ≤ c ,

∃p ∈ Rm+, Au − b + BTp = 0.

Si J est convexe on a une CNS

Page 42: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Directions admissibles

Définition :Soit v ∈ K . On appelle cône des directions admissiblesl’ensemble

K (v) = 0 ∪ w ∈ V ,∃vkk∈N ⊂ K limk→+∞ vk = v , vk 6= v pour tout k ,

limk→+∞

vk − v

||vk − v ||=

w

||w ||

Page 43: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Directions admissiblesDéfinition :Soit v ∈ K . On appelle cône des directions admissiblesl’ensemble

K (v) = 0 ∪ w ∈ V ,∃vkk∈N ⊂ K limk→+∞ vk = v , vk 6= v pour tout k ,

limk→+∞

vk − v

||vk − v ||=

w

||w ||

Page 44: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Directions admissibles

Définition :Soit v ∈ K . On appelle cône des directions admissiblesl’ensemble

K (v) = 0 ∪ w ∈ V ,∃vkk∈N ⊂ K limk→+∞ vk = v , vk 6= v pour tout k ,

limk→+∞

vk − v

||vk − v ||=

w

||w ||

Page 45: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Directions admissibles

K (v) = 0 ∪ w ∈ V ,∃vkk∈N ⊂ K limk→+∞ vk = v , vk 6= v pour tout k ,

limk→+∞

vk − v

||vk − v ||=

w

||w ||

Théorème K (v) est un cône fermé non vide.Exemple :

F1(v) = −v1 − v − 2,F2(v) = v1(v2

1 + v22 )− 2(v2

1 − v22 )

K = v ,F1(v) ≤ 0,F2(v) ≤ 0

F1(v) = 0,K (v) = w ,w1 + w2 ≥ 0F2(v) = 0,K (v) = w ,w ·

(v1(3v2

1 +v22−2)

2v2(v1+2)

)≤ 0

K = v ,F1(v) ≤ 0,F2(v) ≤ 0

Page 46: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Directions admissibles

K (v) = 0 ∪ w ∈ V ,∃vkk∈N ⊂ K limk→+∞ vk = v , vk 6= v pour tout k ,

limk→+∞

vk − v

||vk − v ||=

w

||w ||

Théorème K (v) est un cône fermé non vide.Exemple :

F1(v) = −v1 − v − 2,F2(v) = v1(v2

1 + v22 )− 2(v2

1 − v22 )

K = v ,F1(v) ≤ 0,F2(v) ≤ 0

F1(v) = 0,K (v) = w ,w1 + w2 ≥ 0F2(v) = 0,K (v) = w ,w ·

(v1(3v2

1 +v22−2)

2v2(v1+2)

)≤ 0

K = v ,F1(v) ≤ 0,F2(v) ≤ 0

Page 47: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Directions admissibles

K (v) = 0 ∪ w ∈ V ,∃vkk∈N ⊂ K limk→+∞ vk = v , vk 6= v pour tout k ,

limk→+∞

vk − v

||vk − v ||=

w

||w ||

Théorème K (v) est un cône fermé non vide.Exemple :

F1(v) = −v1 − v − 2,F2(v) = v1(v2

1 + v22 )− 2(v2

1 − v22 )

K = v ,F1(v) ≤ 0,F2(v) ≤ 0

F1(v) = 0,K (v) = w ,w1 + w2 ≥ 0F2(v) = 0,K (v) = w ,w ·

(v1(3v2

1 +v22−2)

2v2(v1+2)

)≤ 0

K = v ,F1(v) ≤ 0,F2(v) ≤ 0

Page 48: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Directions admissibles

K (v) = 0 ∪ w ∈ V ,∃vkk∈N ⊂ K limk→+∞ vk = v , vk 6= v pour tout k ,

limk→+∞

vk − v

||vk − v ||=

w

||w ||

Théorème K (v) est un cône fermé non vide.Exemple :

F1(v) = −v1 − v − 2,F2(v) = v1(v2

1 + v22 )− 2(v2

1 − v22 )

K = v ,F1(v) ≤ 0,F2(v) ≤ 0

F1(v) = 0,K (v) = w ,w1 + w2 ≥ 0F2(v) = 0,K (v) = w ,w ·

(v1(3v2

1 +v22−2)

2v2(v1+2)

)≤ 0

K = v ,F1(v) ≤ 0,F2(v) ≤ 0

Page 49: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Inéquation d’Euler générale

Théorème 2.7 : (inégalité d’Euler) Si u est un minimum local surK de J différentiable, alors J ′(u) ∈ K (u)?, c’est-à-dire

∀w ∈ K (u) (J ′(u),w) ≥ 0

Il faut identifier K (u)

Page 50: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Inéquation d’Euler générale

Théorème 2.7 : (inégalité d’Euler) Si u est un minimum local surK de J différentiable, alors J ′(u) ∈ K (u)?, c’est-à-dire

∀w ∈ K (u) (J ′(u),w) ≥ 0

Il faut identifier K (u)Le lemme de Farkas va nous permettre de traiter maintenant le casgénéral : non convexe, non affine.Théorème 2.5 [Lemme de Farkas].Si M = v ∈ V , ∀i ∈ 1, ..,m, (v , ai ) 6 0, alors c ∈ M? si etseulement si −c appartient au cône convexe engendré par les ai ,

i.e. il existe p1, .., pm tous ≥ 0 tels que c = −m∑i=1

piai .

Page 51: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Contraintes égalités

J et (Fj)j=1...m sont m + 1 fonctions C1 de V dans R,F = (F1, · · · ,Fm) : V → Rm, et l’ensemble des contraintes Kdéfini par

K = w ∈ V ,∀j , 1 ≤ j ≤ m, Fj(w) = 0 = w ∈ V , F (w) = 0

Définition Les contraintes sont régulières en u ∈ K si les F ′i (u)sont linéairement indépendantes. On dit alors que u est un pointrégulier.

Exemple : F1(w) = (a1,w)− c1, F2(w) = (a2,w)− c2.

Page 52: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Contraintes égalités

J et (Fj)j=1...m sont m + 1 fonctions C1 de V dans R,F = (F1, · · · ,Fm) : V → Rm, et l’ensemble des contraintes Kdéfini par

K = w ∈ V ,∀j , 1 ≤ j ≤ m, Fj(w) = 0 = w ∈ V , F (w) = 0

Définition Les contraintes sont régulières en u ∈ K si les F ′i (u)sont linéairement indépendantes. On dit alors que u est un pointrégulier.

Exemple : F1(w) = (a1,w)− c1, F2(w) = (a2,w)− c2.

Page 53: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Contraintes égalités

J et (Fj)j=1...m sont m + 1 fonctions C1 de V dans R,F = (F1, · · · ,Fm) : V → Rm, et l’ensemble des contraintes Kdéfini par

K = w ∈ V ,∀j , 1 ≤ j ≤ m, Fj(w) = 0 = w ∈ V , F (w) = 0

Définition Les contraintes sont régulières en u ∈ K si les F ′i (u)sont linéairement indépendantes. On dit alors que u est un pointrégulier.

Exemple : F1(w) = (a1,w)− c1, F2(w) = (a2,w)− c2.

Lemme Si les contraintes sont regulières en u ∈ K , alors

K (u) = w ∈ V ,F ′i (u).w = 0, 1 ≤ i ≤ m = vec(F ′1(u), · · · ,F ′m(u))⊥

Page 54: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Contraintes égalitésJ et (Fj)j=1...m sont m + 1 fonctions C1 de V dans R,F = (F1, · · · ,Fm) : V → Rm, et l’ensemble des contraintes Kdéfini par

K = w ∈ V ,∀j , 1 ≤ j ≤ m, Fj(w) = 0 = w ∈ V , F (w) = 0

Définition Les contraintes sont régulières en u ∈ K si les F ′i (u)sont linéairement indépendantes. On dit alors que u est un pointrégulier.

Exemple : F1(w) = (a1,w)− c1, F2(w) = (a2,w)− c2.

Théorème Si u est un point de minimum local de J sur K ,régulier, alors

∃(p1, · · · , pm) ∈ R J ′(u) +∑j

pjF′j (u) = 0

pj multiplicateur de Lagrange associé à la contrainte Fj(u) = 0.

Page 55: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Contraintes égalités, casconvexe

Théorème Si u est un point de minimum local de J sur K ,régulier, alors

∃(p1, · · · , pm) ∈ R J ′(u) +∑j

pjF′j (u) = 0

pj multiplicateur de Lagrange associé à la contrainte Fj(u) = 0.Corollaire Si K est convexe et J est convexe, alors on a une CNS :u régulier est un point de minimum local de J sur K si etseulement si

∃(p1, · · · , pm) ∈ R J ′(u) +∑j

pjF′j (u) = 0

Page 56: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Contraintes égalités

Prop : (Conditions d’ordre 2) Sous les hypothèses précédentes, si uest un point de minimum de J sur K alors

∀w ∈ ∩F ′j (u)⊥ (J ′′(u) +∑j

pjF′′j (u))(w ,w) ≥ 0

Page 57: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Contraintes inégalitésThéorème : Soit J et (Fj)j=1...m m + 1 fonctions dérivables de Vdans R et l’ensemble des contraintes K défini par

K = w ∈ V , ∀j , 1 ≤ j ≤ m, Fj(w) ≤ 0 = w ∈ V , F (w) ≤ 0.

Définition : Soit u ∈ K , l’ensemble I (u) des contraintes actives ousaturées en u est défini par

I (u) = j ,Fj(u) = 0

Les contraintes sont dites qualifiées en u si

∃w ∈ V ,∀i ∈ I (u), (F ′i (u), w) < 0 (≤ 0 si Fi est affine). (8)

Remarque 1 : Une condition suffisante de qualification est que u estrégulier pour les contraintes saturées, i.e. que les vecteurs F ′i (u)pour i ∈ I (u) sont indépendants.Remarque 2 : Si les contraintes sont toutes affines, elles sontqualifiées en tout point.

Page 58: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Exemple

∃w ∈ V ,∀i ∈ I (u), (F ′i (u), w) < 0 (≤ 0 si Fi est affine). (9)

F1(v) = −v1 − v − 2,F2(v) = v1(v2

1 + v22 )− 2(v2

1 − v22 )

K = v ,F1(v) ≤ 0,F2(v) ≤ 0

Qualification ?

Page 59: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Contraintes inégalités

Théorème : Soit J et (Fj)j=1...m m + 1 fonctions dérivables de Vdans R. Si u ∈ K où les contraintes sont qualifiées, est un point deminimum de J sur K , alors

∃(pj)j ∈ Rm+ J ′(u) +

∑j pjF

′j (u) = 0

∀j = 1 · · ·m, pjFj(u) = 0

Remarque La dernière condition est équivalente à (p,F ′(u)) = 0,ou encore ∀j 6∈ I (u), pj = 0, ou encore Fj(u) < 0 =⇒ pj = 0, cequi réécrit la première comme

J ′(u) +∑j 6∈I (u)

pjF′j (u) = 0

Page 60: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Conditions mêlées

Théorème : Soit J, (Fj)j=1...m et (Gk)k=1...p m + p + 1 fonctionsdérivables de V dans R et l’ensemble des contraintes K défini par

K = v ∈ V , ∀j Fj(v) = 0, ∀k Gk(v) ≤ 0.

Si u est un point de minimum de J sur K tel que les vecteurs(F ′j (u)) et (G ′k(u))k∈I (u) sont linéairement indépendants, alors

∃((pj)j , (qk)k) ∈ Rm × Rp+ J ′(u) +

∑j

pjF′j (u) +

∑k

qkG′k(u) = 0

et ∀k qkGk(u) = 0

Page 61: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Lagrangien

Motivation :

C.E u ∈ K régulier minimum local =⇒∃p ∈ Rm, J ′(u) +∑j

pjF′j (u) = 0

C.I u ∈ K qualifié minimum local =⇒∃p ∈ Rm+, J

′(u) +∑j

pjF′j (u) = 0.

Cas convexe

C.E u ∈ K régulier minimum local ⇐⇒∃p ∈ Rm, J ′(u) +∑j

pjF′j (u) = 0

C.I u ∈ K qualifié minimum local =⇒ ∃p ∈ Rm+, J

′(u) +∑j

pjF′j (u) = 0.

Page 62: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : LagrangienDéfinition : Lagrangien associé au problème de minimisation

v ∈ V , q ∈ Rm, L(v , q) = J(v) +∑j

qjFj(v)

L′v (v , q) = J ′(v) +∑j

qjF′j (v), L′q(v , q) = F (v).

contraintes égalité u ∈ K ⇐⇒ ∀q ∈ Rm, L′q(u, q) = 0

C.E u régulier minimum local =⇒

∀q ∈ Rm, L′v (u, q) = 0∃p ∈ Rm, L′q(u, p) = 0

C.I u qualifié minimum local =⇒

∀q ∈ Rm, L′v (u, q) = 0∃p ∈ Rm

+, L′q(u, p).p = 0

Cas convexe

C.E u régulier minimum local ⇐⇒

∃p ∈ Rm, DqL(u, p) = 0

C.I u qualifié minimum local =⇒

∃p ∈ Rm+, DqL(u, p) = 0

Page 63: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte inégalité ; théorie de Kuhn etTucker

V et M deux espaces de Hilbert, U ⊂ V , et P ⊂ M.L : U × P → R.Lemme : on a toujours

supq∈P

infv∈UL(v , q) ≤ inf

v∈Usupq∈PL(v , q)

∀(u, p) ∈ U × P ,

G (p) := infv∈UL(v , p) ≤ L(u, p) ≤ sup

q∈PL(u, q) := J(u).

Page 64: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : LagrangienRéciproquement V et M deux espaces de Hilbert, U ⊂ V , etP ⊂ M. L : U × P → R.Lemme : on a toujours

supq∈P

infv∈UL(v , q) ≤ inf

v∈Usupq∈PL(v , q)

Définition : Un point selle (u, p) est défini par

supq∈PL(u, q) = L(u, p) = inf

v∈UL(v , p)

Page 65: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Optimisation sous contrainte : Lagrangien

Réciproquement V et M deux espaces de Hilbert, U ⊂ V , etP ⊂ M. L : U × P → R.Lemme : on a toujours

supq∈P

infv∈UL(v , q) ≤ inf

v∈Usupq∈PL(v , q)

Définition : Un point selle (u, p) est défini par

supq∈PL(u, q) = L(u, p) = inf

v∈UL(v , p)

Théorème : Si (u, p) est un point selle du Lagrangien, alors

supq∈P

infv∈UL(v , q) = L(u, p) = inf

v∈Usupq∈PL(v , q)

Page 66: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Problèmes associés au LagrangienU ⊂ V , et P ⊂ M. L : U × P → R.

K := v ∈ U, supq∈PL(v , q) < +∞,

pour v dans K , J (v) := supq∈PL(v , q).

Le problème primal associé s’écrit :

(P) : Trouver u ∈ K tel que J (u) = infv∈KJ (v).

K ∗ := q ∈ P, infv∈KL(v , q) > −∞, et

pour q dans K ∗, G(q) := infv∈UL(v , q).

Le problème dual associé s’écrit :

(P∗) : Trouver p ∈ K ∗ tel que G(p) = supq∈K∗

G (q)

Théorème : (u, p) est point selle du lagrangien si et seulement si uest solution de (P), p est solution de (P∗), et J (u) = G(p).

Page 67: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Contraintes inégalité, théorie de Kuhn et TuckerU = V , M = P = Rm, F , J convexes.

L(v , q) = J(v) +∑j

qjFj(v)

Définition Les contraintes sont qualifiées si

∃v ∈ V ,∀i , 1 ≤ i ≤ m,Fi (v) < 0 (resp. ≤ 0 si Fi est affine).

Théorème : (Kuhn Tucker) Si les fonctions J et Fj sont convexes

différentiables, et si les contraintes sont qualifiées, u est point deminimum de J sur K si et seulement si il existe p ∈ Rm

+ tel queJ ′(u) +

m∑i=1

piF′i (u) = 0

m∑i=1

piFi (u) = 0

De plus p est solution du problème dual (P∗).

Page 68: LAGA - Accueil - Optimisation MACS 2 2019halpern/teaching/MACS2... · 2019. 11. 28. · Z 1 0 v2(x)dx + Z 1 0 v02(x)dx: Onconsidèrelafonctionnelle J(v) = Z 1 0 (jv0(x)j 1)2 + v(x)2

Applications

Application 1 : programme linéaire avec contraintes affines

V = Rn, J(v) = (b, v),F (v) = Bv − c .

où B est une matrice m × n.Application 2 : programme quadratique avec contraintesaffines

V = Rn, J(v) =12

(Av , v)− (b, v),F (v) = Bv − c.

où A est une matrice n × n symétrique définie positive.