optimisation des fonctions de deux variables · 2018. 6. 25. · draft optimisation des fonctions...

25
DRAFT Faculté des Sciences Économiques et Sociales - Université de Lille Licence 3 MISEG Optimisation Optimisation des fonctions de deux variables V. Ledda 23 juin 2018 Table des matières 1 Théorème généraux 1 Théorème généraux 2 1.1 Le théorème de Weirstrass 1.1 Le théorème de Weirstrass ...................................... 2 1.2 Cas des fonctions convexes 1.2 Cas des fonctions convexes ...................................... 2 2 Conditions nécessaires du premier ordre 2 Conditions nécessaires du premier ordre 3 3 Conditions susantes du second ordre 3 Conditions susantes du second ordre 4 4 Optimisation d’une fonction de deux variables sous contrainte d’égalité 4 Optimisation d’une fonction de deux variables sous contrainte d’égalité 11 4.1 Méthode par substitution 4.1 Méthode par substitution ....................................... 11 4.2 Méthode de Lagrange 4.2 Méthode de Lagrange ......................................... 12 4.3 Interprétation des multiplicateurs de Lagrange 4.3 Interprétation des multiplicateurs de Lagrange .......................... 14 4.4 Conditions du second ordre pour l’optimisation sous contrainte 4.4 Conditions du second ordre pour l’optimisation sous contrainte ................. 16 5 Optimisation sous contrainte d’inégalité 5 Optimisation sous contrainte d’inégalité 18 5.1 Vocabulaire 5.1 Vocabulaire ............................................... 18 5.2 Conditions nécessaires pour un optimum local 5.2 Conditions nécessaires pour un optimum local .......................... 19 5.3 Condition susante d’optimalité globale 5.3 Condition susante d’optimalité globale .............................. 23

Upload: others

Post on 05-Feb-2021

4 views

Category:

Documents


0 download

TRANSCRIPT

  • DRAF

    T

    Faculté des Sciences Économiques et Sociales - Université de LilleLicence 3 MISEG

    Optimisation

    Optimisation des fonctions de deux variables

    V. Ledda

    23 juin 2018

    Table des matières

    1 Théorème généraux1 Théorème généraux 21.1 Le théorème de Weirstrass1.1 Le théorème de Weirstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Cas des fonctions convexes1.2 Cas des fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

    2 Conditions nécessaires du premier ordre2 Conditions nécessaires du premier ordre 3

    3 Conditions suffisantes du second ordre3 Conditions suffisantes du second ordre 4

    4 Optimisation d’une fonction de deux variables sous contrainte d’égalité4 Optimisation d’une fonction de deux variables sous contrainte d’égalité 114.1 Méthode par substitution4.1 Méthode par substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114.2 Méthode de Lagrange4.2 Méthode de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124.3 Interprétation des multiplicateurs de Lagrange4.3 Interprétation des multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . 144.4 Conditions du second ordre pour l’optimisation sous contrainte4.4 Conditions du second ordre pour l’optimisation sous contrainte . . . . . . . . . . . . . . . . . 16

    5 Optimisation sous contrainte d’inégalité5 Optimisation sous contrainte d’inégalité 185.1 Vocabulaire5.1 Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185.2 Conditions nécessaires pour un optimum local5.2 Conditions nécessaires pour un optimum local . . . . . . . . . . . . . . . . . . . . . . . . . . 195.3 Condition suffisante d’optimalité globale5.3 Condition suffisante d’optimalité globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    1 Théorème généraux

    1.1 Le théorème de Weirstrass

    Théorème 1. Une fonction continue sur un compact D atteint son maximum et son minimum sur DO

    Exemple 1. Trouver le maximum de f (x;y) = x2 − y2 + 1 sous la contrainte x2 + y2 = 2.

    Exemple 2. Trouver le maximum de la fonction d’utilité U(x;y) = x 3√y sous la contrainte budgétaire

    x+ 2y 6 12.

    1.2 Cas des fonctions convexes

    Proposition 1. Soit f une fonction définie et différentiable sur un ouvert convexe de R2. On a l’équivalencesuivante :f est convexe sur D si et seulement si

    ∀(x;y) ∈ D2, f (y)− f (x)6dfy(y − x)

    Preuve. Supposons que f est convexe. Pour t ∈]0;1]

    f (tx+ (1− t)y)6 tf (x) + (1− t)f (y)f (tx+ (1− t)y)− f (y)6 t(f (x)− f (y))f (tx+ (1− t)y)− f (y)

    t6 f (x)− f (y)

    dfy(tx+ (1− t)y − y) + ||tx − ty||ε(tx − ty)t

    6 f (x)− f (y)

    En faisant tendre t vers 0, on obtient f (x)− f (y)>dfy(x − y), en effet f est de classe C1 et df est continue.Réciproquement, supposons que ∀(x;y) ∈ D2, f (y) − f (x) 6dfy(y − x) et montrons que f est convexe. Soitt ∈ [0;1], posons yt = tx+ (1− t)y. D’une part :

    f (x)> f (yt)+dfyt (x − yt)f (x)> f (yt)+dfyt ((1− t)(x − y))f (x)> f (yt) + (1− t)dfyt (x − y)

    tf (x)> tf (yt) + t(1− t)dfyt (x − y)

    D’autre part :

    f (y)> f (yt)+dfyt (y − yt)f (y)> f (yt)+dfyt (−t(x − y))f (y)> f (yt)− tdfyt (x − y)

    (1− t)f (y)> (1− t)f (yt)− t(1− t)dfyt (x − y)

    En sommant les deux inégalités précédentes, on obtient :

    2 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    tf (x) + (1− t)f (y)> tf (yt) + (1− t)f (yt)tf (x) + (1− t)f (y)> f (yt)

    Ce qui prouve que la fonction f est convexe.cqfd

    Proposition 2. Soit f une fonction de classe C1 et convexe sur un ensemble convexe D.

    dfa = 0⇔ f admet un minimum global en a

    Preuve. Si f admet un minimum global en a alors f admet un minimum local en a et dfa = 0. Réciproque-ment, d’après la proposition 11 f (x)− f (a)>dfa(x − a). Or dfa = 0, donc f (x)> f (a). cqfd

    Exemple 3. On considère la fonction de production q(x1;x2) =√x1 +√x2 avec (x1;x2) ∈ R+x ×R+x. Soit p

    le prix du produit (output) et w1 et w2 le prix des intrants (input). On cherche à étudier le problème demaximisation du profit.

    2 Conditions nécessaires du premier ordre

    On a vu en L1 que si une fonction f présente un extremum local au point intérieur x∗ de son ensemble dedéfinition et si elle est dérivable en x∗, alors f ′ (x∗) = 0.On dispose d’un résultat analogue pour les fonctions de plusieurs variables.

    Théorème 2. Soit f une fonction définie sur un ensemble D de R2 et X∗ un point intérieur à D.

    Si f est différentiable en X∗ et si f admet un extremum local en X∗, alors on a :

    f

    x(X∗) =

    f

    y(X∗) = 0

    O

    Définition 1. Ces égalités s’appellent les conditions du premier ordre (du problème d’optimisation).Tout point X∗ vérifiant ces conditions est appelé point candidat ou point critique (du problème d’optimisa-tion).

    Soulignons que ces conditions du premier ordre sont des conditions nécessaires mais, en général, ne sontpas suffisantes de sorte qu’un point candidat n’est pas forcément un extremum.

    Si on considère la fonction f définie sur R2 par f (x,y) = xy ( C1 sur R2).

    On remarquef

    x(0,0) =

    f

    y(0,0) = 0. Cependant, f ne présente pas d’extremum local en (0,0).

    Exemple 4. On considère la fonction définie sur R2 par f (x,y) = x3 + y2 − xy.

    3 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    f est une fonction polynôme, donc est dérivable sur R2 et ses dérivées partielles, qui sont des polynômes,sont continues sur R2, donc f est C1 sur R2.

    D’après le théorème précédent :si f admet un extremum local en X = (x,y), alors les dérivées partielles premières s’annulent en X. Dans cecas, on a :

    f

    x(x,y) = 3x2 − y = 0

    f

    y(x,y) = 2y − x = 0

    ... à finir

    Une fonction peut admettre un extremum sur la frontière sans que les dérivés partielles s’annulent.Attention

    Exemple 5. La fonction f : (x,y) 7−→√

    1− (x2 + y2) est définie sur le disque fermé de centre O et de rayon1. Elle admet pour minimum 0, il est atteint sur le cercle de centre O de rayon 1 et pourtant les dérivéespartielles ne s’annulent en aucun point du cercle.

    � Exercice 1Soit f la fonction définie sur R2 par f (x,y) = y3 + x2 − 3my, avec m ∈ R.Déterminer les points critiques de f suivant les valeurs du paramètre m.

    3 Conditions suffisantes du second ordre

    4 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Définition 2. Soit f une fonction dérivable en A ∈ D ⊂ R2, on appelle gradient de f en A la matrice ligne :

    −−−−→grad fA =

    (fx (A)

    fy (A)

    )Il s’agit de la traduction matricielle de la différentielle, en effet :

    −−−−→grad fA ·H =dfA(H)

    Définition 3. Soit f une fonction deux fois dérivable en A ∈ D ⊂ R2, on appelle matrice hessienne de f en Ala matrice :

    D2Af =

    2fx2 (A)

    2fyx (A)

    2fxy (A)

    2fy2 (A)

    Remarque 1. Lorsque f est de classe C2, la matrice hessienne est symétrique d’après le théorème deSchwartz.

    Théorème 3 (Formule de Taylor). Soit f une fonction de classe C2 sur un ouvert D. Soit X ∈d et soit

    H(hk

    )∈ R2 tels que [X; X + H] ⊂ D.

    f (X + H) = f (X) +−−−−→grad fX ·H +

    12

    tH ·D2Xf ·H + ||H||2ε(H)

    où limH→0 ε(H) = 0.

    O

    Preuve. Posons

    g : [0;1] −→ Rt 7−→ f (X + tH)

    , en tant que fonction composée, g est une fonction de classe C2 sur [0;1].D’après la formule de Taylor-Lagrange d’une fonction d’une variable, il existe c ∈]0;1[ tel que

    g(1) = g(0) + g ′(0) +12g ′′(c) = g(0) + g ′(0) +

    12g ′′(0) +

    12

    (g ′′(c)− g ′′(0))

    D’après la formule de dérivation des fonctions composées :

    g ′(t) =f

    x(X + tH)h+

    f

    x(X + tH)k

    et g ′(0) =−−−−→grad fX ·H.

    En dérivant une seconde fois, on obtient :

    g ′′(t) =2f

    x2(X + tH)h2 + 2

    2f

    xy(X + tH)hk +

    2f

    y2(X + tH)k2

    et g ′′(0) = tH ·D2Xf ·H.Si l’on pose, pour H , 0, ε(H) = 12

    1||H||2 (g

    ′′(c)− g ′′(0)), reste à démontrer que 1||H||2 (g′′(c)− g ′′(0)) tend vers 0

    lorsque ||H|| tend vers 0.

    5 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    ε(H) =12

    tH · (D2X+H −D2X) ·H

    ||H||2

    En appliquant l’inégalité de Cauchy-Schwartz on obtient :

    |ε(H)|6 12||D2X+H −D

    2X||

    Or f est de classe C2 donc ces dérivées partielles sont continues et lim||H||→0 ||D2X+H −D2X|| = 0. cqfd

    Remarque 2. Afin d’alléger la suite du cours, nous allons utiliser les notations de Monge (1746-1818).

    r =2f

    2x(X) = f ′′x2(X), s =

    2f

    xy(X) = f

    ′′xy (X) et t =

    2f

    2y(X) = f ′′y2(X)

    La formule de Taylor s’écrit alors :

    f (X0 + H) = f (X0) + hf′x (X0) + k f

    ′y (X0) +

    12

    [r.h2 + 2s.hk + t.k2

    ]+(h2 + k2

    )ε (h,k)

    avec lim(h,k)→(0,0)

    ε (h,k) = 0

    Soient f une fonction définie sur un ensemble D de R2 et X∗ = (x∗, y∗) un point intérieur à D.Supposons que :

    - X∗ est un point critique (c’est à dire f ′x (X∗) = f ′y (X

    ∗) = 0)

    - les dérivées partielles de f sont continues en X∗ (autrement dit f est C2 au point critique X∗).

    Posons δ = f ′′x2 (X∗) f ′′y2 (X

    ∗)−[f ′′xy (X

    ∗)]2

    = rt − s2

    6 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Théorème 4.

    - Si δ > 0, alors f admet un extremum local en X∗. De plus :

    si f ′′x2 (X∗) > 0, alors il s’agit d’un minimum local

    si f ′′x2 (X∗) < 0, alors il s’agit d’un maximum local

    - Si δ < 0, alors f n’admet pas d’extremum local en X∗.On dit alors que f présente un col en X∗ ou encore que le point de R3 de coordonnées (x∗, y∗, f (x∗, y∗))est un point-selle.

    - Si δ = 0, alors on ne peut rien conclure.

    O

    Preuve. f est C2 en X∗, on peut donc utiliser la formule de Taylor à l’ordre 2.Par hypothèses, les dérivées partielles premières sont nulles en X∗ et par conséquent on obtient :

    f (x∗ + h,y∗ + k) = f (x∗, y∗) +12

    [rh2 + 2shk + tk2

    ]+(h2 + k2

    )ε (h,k)

    avec lim(h,k)→(0,0)

    ε (h,k) = 0

    Pour H , 0, étudions le signe de : f (X∗ + H)− f (X∗), comme H , 0, cela revient à étudier le signe de

    f (X∗ + H)− f (X∗) = 12

    (rh2 + 2shk + tk2

    )+ ||H||2ε(H) (1)

    .

    7 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Comme H , 0, sans perte de généralité, on peut supposer que k , 0, si on introduit le rapporth

    k= a, on

    obtient :

    rh2 + 2shk + tk2 = k2(rh2

    k2+ 2s

    h

    k+ t

    )= k2(ra2 + 2sa+ t).

    L’expression entre parenthèses est un trinôme du second degré en a de discriminant :

    ∆ = 4[s2 − rt

    ]= −4δ

    Trois cas se présentent :

    1. Cas δ > 0 : Alors ∆ < 0 et le trinôme a un signe constant :

    (a) si r > 0 : il sera positif. Soit 0 < tm la valeur minimale prise par le trinôme. Comme ||H||2ε(H)tend vers 0 lorsque ||H|| tend vers 0, il existe une boule ouverte centrée en (0;0), B, tel que∀H ∈ B, ||H||2|ε(H)|6 tm2 . Si bien que

    ∀H ∈ B, f (X∗ + H)− f (X∗)> tm2

    > 0

    Donc f admet un minimum local en X∗.

    (b) si r < 0, il sera négatif et par conséquent f (x∗ + h,y∗ + k)− f (x∗, y∗) < 0 au voisinage de (0;0).f présente un maximum local en X∗.

    2. Cas δ < 0 : Alors ∆ > 0 et le trinôme a deux racines réelles distinctes et par conséquent :f (x∗ + h,y∗ + k)− f (x∗, y∗) n’a pas un signe constant au voisinage de X∗. Il n’y a pas d’extremum localen X∗.

    3. Cas δ = 0 : Alors ∆ = 0 et le trinôme a une racine double a0. Soit d la droite dirigée par (1;a0), si Hn’appartient pas à cette droite le trinôme a un signe constant mais si H ∈ d.alors (11) devient :

    f (X∗ + H)− f (X∗) = ||H||2ε(H)

    Et comme on ne connaît pas le signe de ε(H), on ne peut pas conclure.

    cqfd

    Exemple 6. Cherchons les extrema éventuels de la fonction définie par f (x,y) = x3 + y3 − 3xy.

    8 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Les conditions du premier ordre sont constituées par le système :f

    x(x,y) = 3x2 − 3y = 0

    f

    y(x,y) = 3y2 − 3x = 0

    soit encore{

    y = x2

    x4 − x = x (x − 1)(x2 + x+ 1

    )= 0

    On obtient deux points critiques susceptibles d’optimiser localement f : X∗1 = (0;0) et X∗2 = (1;1).

    Pour étudier les conditions du second ordre en ces points critiques, calculons au préalable les dérivéespartielles secondes.On a : f ′′x2 (x,y) = 6x ; f

    ′′xy (x,y) = f

    ′′yx (x,y) = −3 et f ′′y2 (x,y) = 6y.

    En X∗1, on a r = 0, t = 0 et s = −3 donc δ = −9 < 0.f ne possède pas d’extremum local en X∗1.

    En X∗2, on a r = 6, t = 6 et s = −3 donc δ = 27 > 0.f possède un extremum local en X∗2.De plus, r = 6 > 0, on peut dire que c’est un minimum local.

    Exemple 7. Reprenons f la fonction définie sur R2 par f (x,y) = y3 + x2 − 3my, avec m ∈ R.Nous allons étudier les extrema de f .f est définie sur R2 qui est un ouvert donc, si f présente un extremum, c’est en un point critique.

    Nous avons déterminé les points critiques de f suivant les valeurs du paramètre m :si m < 0, pas de point critique donc f ne présente pas d’extremum.si m = 0, un unique point critique X∗ = (0,0),si m > 0, deux points critiques X∗1 = (0,−

    √m) et X∗2 = (0,

    √m)...

    Poursuivre...En X∗ on ne peut pas conclure,En X∗1 pas d’extremum, en X

    ∗2 minimum local.

    9 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    � Exercice 2

    Étudier les extrema de la fonction f définie sur R2 par f (x,y) = x3 + y3 − 3x − 12y

    Proposition 3. Soit f une fonction de classe C2 sur un ouvert convexe D. f est convexe sur D si et seulementsi δ> 0 et r > 0 sur D.

    Preuve. Supposons que la fonction f soit concave. Soit X un élément de D et H ∈ R2 tel que X + H ∈ D.D’après la formule de Taylor (f est de classe C2) :

    f (X + H) = f (X) +−−−−→grad fX ·H +

    12

    tH ·D2Xf ·H + ||H||2ε(H)

    La fonction f étant convexe :

    12

    tH ·D2Xf ·H + ||H||2ε(H)> 0

    Posons H = tH′ avec t ∈]0;1], l’égalité précédente devient :

    t2

    2tH′ ·D2Xf ·H

    ′ + tr ||H′ ||2ε(tH′)> 0tH′ ·D2Xf ·H

    ′ + 2||H′ ||2ε(tH′)> 0

    En faisant tendre t vers 0, on obtient :

    tH′ ·D2Xf ·H′ > 0

    Ce qui signifie que la forme quadratique est toujours positive donc r > 0 et δ> 0Réciproquement, supposons que r > 0 et δ > 0, ce qui revient à dire que ∀H ∈ R2 tel que X + H ∈ D,tH ·D2Xf ·H > 0 et montrons que f est convexe.Soit (X1,Y0) ∈ D2, t ∈ [0;1], la fonction

    g : [0;1] −→ R2

    t 7−→ f (tX1 + (1− t)X0)

    est bien définie car D est convexe. De plus cette fonction est de classe C2 en tant que composée de fonctionsde classe C2.Posons Xt = tX1 + (1 − t)X0 et remarquons que g ′(t) =dfXt (X1 − X0) et g

    ′′(t) = t(X1 − X0) ·DXtf · (X1 − X0).Donc par hypothèse g ′′(t)> 0 et la fonction g ′ est croissante.D’après le théorème de Taylor-Lagrange, il existe c ∈]0;1[ tel que

    g(1) = g(0) + g ′(c)

    Ainsi

    g(1)− g(0) = g ′(c)> g ′(0)f (X1)− f (X0)>dfX0(X1 −X0)

    D’après le théorème (11), la fonction f est convexe sur D. cqfd

    Exemple 8. Déterminer l’estimateur du maximum de vraisemblance de (m;σ2) pour la loi normale.

    10 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    4 Optimisation d’une fonction de deux variables sous contrainte d’égalité

    On veut étudier l’existence d’un extremum local de la fonction f dérivable soumise à la contrainte d’égalitég (x,y) = 0.

    Exemple 9. Dans la théorie micro-économique du consommateur, on cherche souvent à maximiser lafonction d’utilité U(x,y), sous la contrainte budgétaire xpx + ypy −R = 0.

    Deux méthodes seront présentées dans ce cours .

    4.1 Méthode par substitution

    Si, à partir de la contrainte, on peut exprimer une variable en fonction de l’autre, par exemple y en fonctionde x, on se ramène à la recherche d’un extremum d’une fonction d’une seule variable en remplaçant dansf (x,y) la variable y par son expression en fonction de x. On se ramène alors à l’étude d’une fonction d’unevariable réelle.

    Exemple 10. Étudier l’existence d’extremum de la fonction f définie sur R2 par f (x,y) = xy sous lacontrainte d’égalité g (x,y) = x+ y − 6 = 0.De la relation x + y − 6 = 0, on tire y = 6− x et on remplace dans f (x,y) = xy la variable y par son expressionen fonction de x, ce qui donne la fonction d’une variable ϕ définie par ϕ (x) = x (6− x), pour laquelle on doitétudier l’existence d’un extremum local.

    ϕ est une fonction polynôme, donc est deux fois dérivable sur R et on a :ϕ′ (x) = 6− 2x et ϕ′′ (x) = −2 < 0.

    La fonction ϕ est donc concave sur R et par conséquent la condition du premier ordre relative à l’existenced’un extremum local est une condition nécessaire et suffisante.

    Comme ϕ′ (x) = 0 pour x = 3, la fonction ϕ possède un maximum local pour x = 3.

    En conclusion, f possède un maximum local au point X∗ = (x∗ = 3;y∗ = 6− x∗ = 6− 3 = 3) qui vaut f (3;3) = 9.

    � Exercice 3

    L’utilité de deux en quantité x et y est donnée par U(x,y) = x4y.Leurs coûts unitaires sont respectivement de 20 euros et 10 euros.Optimiser l’utilité du consommateur disposant d’un budget de 1500 euros.

    11 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    4.2 Méthode de Lagrange

    Il arrive qu’il ne soit pas aisé - voire impossible - d’exprimer une variable en fonction de l’autre en utilisantla contrainte g (x,y) = 0. La méthode de Lagrange permet de résoudre cette difficulté.

    Cette méthode repose sur le théorème suivant :

    Théorème 5. Soit f une fonction définie sur un domaine D de R2. Soit g une fonction définie sur un domaineD′ ⊂ D. On pose F = {(x;y) ∈ D′ |g(x;y) = 0}On fait les hypothèses suivantes :

    1. f possède en A un minimum local relativement à F. C’est à dire que A est un point intérieur de D′ et ilexiste une boule ouverte, B⊂ F, centrée en A tel que ∀x ∈ B; f (a)6 f (x)

    2. f et g sont de classe C1 en A.3. dgA , 0

    Dans ces condition, il existe un réel λ tel que la fonction définie par

    L(x,y,λ) = f (x;y) +λg(x;y)

    admette un minimum local en a.

    O

    Exemple 11. La fonction (x;y) 7−→ 3√xy2 admet un maximum en (4/3; 16/3) sous la contrainte y = 8−2x. Ce

    maximum vaut 833√

    2.

    On remarque que la courbe de niveau z = 833√

    2 et la courbe d’équation x 7−→ (x,8 − 2x,f (x,8 − 2x)) sonttangentes au point où le maximum se réalise.

    Un extremum de la fonction de deux variables f soumise à la contrainte g (x,y) = 0 est un extremum librede la fonction de trois variables, notée L, appelée le lagrangien de f , définie par :

    12 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    L(x,y,λ) = f (x,y) +λg (x,y)

    La variable auxiliaire est appelée multiplicateur de Lagrange.On recherche ensuite les points critiques et leur multiplicateur associé à l’aide des conditions du premierordre appliquées à la fonction L :

    Lx

    (x,y,λ) =Ly

    (x,y,λ) =Lλ

    (x,y,λ) = 0 ⇔

    f

    x+λ

    g

    x= 0

    f

    y+λ

    g

    y= 0

    g(x;y) = 0

    Puis on étudie pour chaque point critique trouvé X∗ = (x∗, y∗) le signe de l’expressionf (x∗ + h,y∗ + k)− f (x∗, y∗) qui est une fonction de (h,k), h et k étant liés par la relation :g (x∗ + h,y∗ + k) = γ (h,k).Deux cas peuvent se produire :

    1. Si f (x∗ + h,y∗ + k)− f (x∗, y∗) a un signe constant lorsque (h,k) est voisin de (0;0), alors f présente unextremum local en X∗.

    (a) Si f (x∗ + h,y∗ + k)− f (x∗, y∗)> 0, c’est un minimum local.(b) Si f (x∗ + h,y∗ + k)− f (x∗, y∗)6 0, c’est un maximum local.

    2. Si f (x∗ + h,y∗ + k) − f (x∗, y∗) n’a pas un signe constant lorsque (h,k) est voisin de (0;0), alors f neprésente pas d’extremum local en X∗.

    Preuve. Comme en A(xA;yA), dgA , 0, on peut supposer - sans perte de généralité quegy (A) , 0. La

    fonction g étant de classe C1, on peut appliquer le théorème des fonctions implicites : il existe un intervalleouvert, I, contenant xA, un intervalle ouvert, J, contenant yA, une fonction φ de classe C1 sur I à valeur dansJ telle que

    ∀(x;y) ∈ I× J; g(x;y) = 0⇔ y = φ(x)De plus

    φ′(x) = −gx (x;φ(x))gy (x;φ(x))

    .

    Par hypothèse la fonction h : x 7−→ f (x,φ(x)) définie sur I est de classe C1 et possède un minimum local enxA. Donc h′(xA) = 0.

    h′(x) =f

    x+φ′(x)

    f

    y

    h′(x) =f

    x−

    gxgy

    f

    y=

    fx

    gy −

    gx

    fy

    gy

    et

    h′(x) = 0⇔f

    x

    g

    y=g

    x

    f

    y⇔

    fxgx

    =

    fy

    gy

    ⇔∃λ ∈ R,

    fxgx

    = −λ

    fy

    gy

    = −λ

    ⇔∃λ ∈ R,

    f

    x= −λ

    g

    xf

    y= −λ

    g

    y

    13 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    En notant λA la valeur de λ en A.L’équivalence précédente montre que L admet un point critique en (xA;yA;λA). De plus comme au voisinagede A, g(x;y) est nul, au voisinage de A, L(xA;yA;λA) = f (xA;yA) +λAg(xA;yA) = f (xA;yA)6 f (x;y) = f (x;y) +λg(x,y) = L(x,y,λ). Ce qui prouve que L admet un minimum local en (xA;yA;λA). cqfd

    Exemple 12.Reprenons l’exemple 1010 : f (x,y) = xy avec la contrainte g (x,y) = x+ y − 6 = 0.Le lagrangien est L(x,y,λ) = xy +λ (x+ y − 6).Les conditions du premier ordre amènent le système :

    Lx

    (x,y,λ) = y +λ = 0

    Lx

    (x,y,λ) = x+λ = 0

    Lx

    (x,y,λ) = x+ y − 6 = 0

    soit

    x = 3y = 3λ = −3

    On obtient donc un point critique X∗ = (3;3) de multiplicateur associé λ∗ = −3.

    Étudions à présent le signe de f (3 + h,3 + k)− f (3,3) = (3 + h) (3 + k)− 9 = 3(h+ k) + hk, h et k étant liés parla relation g (3 + h,3 + k) = h+ k = 0, soit encore h = −k.On a par conséquent f (3 + h,3 + k)− f (3,3) = −k2 6 0 pour tout k réel.

    Il en résulte que la fonction f définie par f (x,y) = xy avec la contrainte d’égalité x+y−6 = 0 sur les variablesx et y possède un maximum local en X∗ = (3;3) égal à f (3;3) = 9.

    � Exercice 4

    Étudier les extrema de la fonction f définie sur R2 par f (x,y) = 6− 4x − 3y, sous la contrainte x2 + y2 = 1.

    4.3 Interprétation des multiplicateurs de Lagrange

    Plaçons-nous dans le cas de la recherche d’un maximum et supposons que f admette un maximum sousla contrainte g(x,y) = c en Ac(xAc;yAc) et notons λAc le multiplicateur associé, en utilisant la méthode deLagrange.

    L(x;y;λ) = f (x;y) +λ(c − g(x;y))

    Relâchons la contrainte en remplaçant c par c′ > c, comment va évoluer λAc ?Considérons

    14 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    G : R×D −→ R

    (λ;x;y) 7−→

    c − g(x;y)f

    x−λ

    g

    xf

    y−λ

    g

    y

    (2)

    À l’équilibre G(λ,x,y) = 0. Mais G dépend de c si bien que l’on peut considérer G̃(λ,x,y, c) = 0.Supposons que l’on puisse de nouveau utiliser le théorème des fonctions implicites pour exprimer x, y et λcomme des fonctions de classe C1 de c.Ainsi, Υ : c 7−→ L(λ(c);x(c);y(c)) = f (x(c);y(c)) +λ(c)(c − g(x(c);y(c))) est de classe C1

    Υ ′(c) =f

    xx′(c) +

    f

    yy′(c) +λ′(c)(c − g(x(c);y(c))) +λ(c)(1− (

    g

    xx′(c) +

    g

    yy′(c)))

    Υ ′(c) = x′(c)(f

    x−λ

    g

    x) + y′(c)(

    f

    y−λ

    g

    y) +λ′(c)(c − g(x(c);y(c))) +λ(c)

    À l’optimum, on obtient :

    Υ ′(c) = λ(c)

    Donc le multiplicateur de Lagrange est l’accroissement marginal de la fonction objectif lorsque l’on «relâche»la contrainte via le coefficient c.

    Exemple 13. Reprenons l’exemple 1111 :

    15 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Le lagrangien de l’exemple 1111 s’écrit :

    L(x;y;λ) = f (x;y) +λ(8− 2x − y)

    Le maximum est atteint en (43 ;163 ;

    3√23 ) pour un maximum de

    83

    3√

    2 ' 3,36.Ici on «relâche» la contrainte d’une unité, le maximum augmentera d’environ

    3√23 ' 0,42.

    En réalité, dans cet exemple, pour la contrainte 2x+ y = 9, le maximum vaut exactement 3 3√

    2 = 833√

    2 +3√23 ;

    c’est dû au fait que la contrainte est affine.

    4.4 Conditions du second ordre pour l’optimisation sous contrainte

    Supposons que f soit de classe C2.Notons fx la dérivée partielle par rapport à x, fxy la dérivée partielle seconde de f par rapport à y et à x etc.On applique la formule de Taylor :

    f (A + H) = f (A) +−−−−→grad fA ·H +

    12

    tH ·D2Af ·H + ||H||2ε(H)

    Ici à l’optimum−−−−→grad fA n’est pas nul ! Aussi il est préférable de travailler avec le développement de Taylor

    du Lagrangien :

    Théorème 6. Soit f une fonction définie sur un domaine D de R2. Soit g une fonction définie sur un domaineD′ ⊂ D.On pose L(x;y;λ) = f (x;y) +λg(x;y)On fait les hypothèses suivantes :

    1. f et g sont de classe C2 en A.2. dgA , 0

    3. Il existe λA ∈ R, tel que−−−−→grad L(xA;yA;λA) = 0 et l’on pose L : (x;y) 7−→ L(x;y;λA)

    Dans ces conditions :

    1. Si f possède en A un minimum local sous la contrainte g(x;y) = 0 alors :

    ∀H ∈ R2;−−−−→grad g ·H = 0⇒ tH ·D2AL ·H > 0 (3)

    2. Si∀H ∈ R2\{(0;0)};

    −−−−→grad g ·H = 0⇒ tH ·D2AL ·H > 0 (4)

    alors f possède en A un minimum local strict sous la contrainte g(x;y) = 0

    O

    Remarque 3. On peut adapter le théorème (66) au cas d’un maximum en renversant les inégalités.

    Preuve. Reprenons les notations de la preuve du théorème (55). Et notons−−−−→grad gA =

    (αβ

    ).

    En appliquant la formule de Taylor à g, on a :

    g(A + H) = g(A) +−−−−→grad gA ·H + ||H||ε(H)

    qui devient−−−−→grad gA ·H + ||H||ε(H) = 0 cqfd

    Reprenons les notations de Monge appliquées à L. Le théorème (66), nous invite à regarder le signe deQ(h;k) = rh2 + 2shk + tk2 avec αh+ βk = 0. On peut supposer que β , 0, on a k = −αβh, d’où :

    16 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Q̃(h) = rh2 + 2h(−αβh) + (−α

    βh)2t

    Q̃(h) = (h

    β)2

    [β2r − 2αβs+α2t

    ]Reprenons maintenant la fonction G (22) et supposons que G soit de classe C1, sa matrice jacobienne s’écrit :

    H =

    0 −gx −gy−gx fxx −λgxx fxy −λgxy−gy fxy −λgxy fyy −λgyy

    =

    0 −α −β−α r s−β s t

    Cette matrice est appelée la Hessienne bordée, calculons son déterminant :

    |H| =

    ∣∣∣∣∣∣∣∣0 −α −β−α r s−β s t

    ∣∣∣∣∣∣∣∣ = α(−αt + βs)− β(−αs+ βr) = −α2t + 2αβs − β2rOn peut ainsi reformuler le théorème (66)

    Théorème 7. Soit f une fonction définie sur un domaine D de R2. Soit g une fonction définie sur un domaineD′ ⊂ D.On pose L(x;y;λ) = f (x;y) +λg(x;y)On fait les hypothèses suivantes :

    1. f et g sont de classe C2 en A(xA;yA).2. dgA , 0

    3. Il existe λA ∈ R, tel que−−−−→grad L(xA;yA;λA) = 0

    Enfin on pose

    H =

    0 t −−−−→grad g−−−−→grad g D2L

    =

    0 gx gygx fxx −λgxx fxy −λgxygy fxy −λgxy fyy −λgyy

    (H)Dans ces conditions :

    1. Si |H(xA;yA;λA)| < 0 alors f possède en A un minimum local strict sous la contrainte g(x;y) = 02. Si |H(xA;yA;λA)| > 0 alors f possède en A un maximum local strict sous la contrainte g(x;y) = 0

    O

    Exemple 14. Trouver les extrema de la fonction f : (x;y) 7−→ 5x2 + 6y2 − xy sous la contrainte : x+ 2y = 24.

    17 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    L(x;y;λ) = 5x2 + 6y2 − xy +λ(x+ 2y − 24)

    −−−−→grad L =

    10x+λ

    12y + 2λ

    x+ 2y − 24

    Condition du premier ordre

    −−−−→grad L = ~0⇔

    x = 6

    y = 9

    λ = −51

    Il y a un point candidat, voyons maintenant la nature de ce point critique.

    Conditions du second ordre Ici la hessienne bordée est constante :

    H =

    0 1 21 10 −12 −1 12

    et son déterminant est négatif (-56)D’après le théorème (77), la fonction f possède un minimum en (6;9) sous la contrainte x+ 2y = 24.

    5 Optimisation sous contrainte d’inégalité

    Dans cette partie on cherche à résoudre les programmes du type :{ext f (x;y)

    s.c. g(x;y)> 0(5)

    où f et g sont deux fonctions de classe C1 sur un ensemble ouvert D de R2.Par exemple : {

    max(x+ 1)(y + 1)

    s.c. 6x+ y 6 3(6)

    5.1 Vocabulaire

    Dans le programme (55), l’ensemble des valeurs admissibles est l’ensemble des points de R2 où g(x;y)> 0.On cherchera donc des solutions dans l’ensemble E =D∩ {(x;y) ∈ R2|g(x;y)> 0}.

    18 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Définition 4. La contrainte g(x;y)> 0 est dite serrée, ou effective ou encore active au point A ∈ D si g(A) = 0.Lorsque g(A) > 0, on dit que la contrainte est relâchée en A. Enfin, la contrainte g(x;y)> 0 est dite qualifiéeen A si :

    — soit g(A) > 0— soit g(A) = 0 et dgA , 0

    5.2 Conditions nécessaires pour un optimum local

    Théorème 8 (Kuhn et Tucker). On considère le programme (55). Si f admet un maximum local en A sur E etsi la contrainte est qualifiée en A alors il existe un réel λA tel que :

    1. λA > 0

    2. λA × g(A) = 0 dite relation d’exclusion3. dfA +λA dgA = 0

    O

    Preuve. 1. E = E1 t E2 où E1 =D∩ {(x;y) ∈ R2|g(x;y) = 0} et E2 =D∩ {(x;y) ∈ R2|g(x;y) > 0}Si la contrainte est serrée en A (i.e. A ∈ E1) alors on peut appliquer le théorème de Lagrange (55) : ilexiste un réel λA tel que dfA +λA dgA = 0.Si la contrainte est lâche en A, il s’agit alors d’un problème d’optimisation libre. En effet, E2 =D∩g−1(]0;+∞[), donc E2 est un ouvert et A appartient à cet ouvert. La condition nécessaire pour avoirun maximum en A est dfA = 0 ; ce qui nous donne (3.) avec λA = 0.Donc soit λA = 0 et dfA +λA dgA = 0, soit g(A) = 0 et dfA +λA dgA = 0. Ce que l’on peut résumer par(2.) et (3.).

    2. Montrons maintenant que λA > 0. Mettons de côté le cas facile où λA = 0 et supposons que g(A) = 0.On suppose donc que la contrainte est serrée en A.Considérons la fonction

    h :D×R −→ R(x;y; t) 7−→ g(x;y)− t

    Cette fonction h est une fonction de classe C1 sur D×R car g l’est. De plus h(xA;yA;0) = g(A) = 0 etht = −1 , 0. On peut donc utiliser le théorème des fonctions implicites en (xA;yA;0) :il existe un ouvert U ∈ D contenant A et un ouvert V contenant 0, une fonction de classe C1 sur V :

    φ : V −→ Ut 7−→ (φ1(t);φ2(t))

    tels que φ(0) = A et

    ∀t ∈ V; h(φ(t), t) = 0.

    Dérivons cette dernière expression par rapport à t.

    19 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    dgA·dφ0 − 1 = 0dgA·dφ0 = 1

    λA(dgA·dφ0) = (λA dgA)·dφ0 = λA−dfA·dφ0 = λA d’après (3.)

    dfA·dφ0 = −λA

    Donc prouver λA > 0 revient à démontrer que dfA·dφ0 6 0.3. Soit t0 > 0 tel que [0; t0[⊂ V. Pour tout t ∈ [0; t0[, φ(t) ∈ E.

    En effet, remarquons tout d’abord que φ(t) ∈ U ⊂ D de plus

    ∀t ∈ [0; t0[, h(φ(t), t) = 0⇔ g(φ(t)) = t > 0

    Donc ∀t ∈ [0; t0[, φ(t) ∈ E.Considérons pour terminer la fonction

    k = f ◦φ : [0; t0[ −→ Rt 7−→ f (φ(t))

    La fonction k est de classe C1 sur [0; t0[ en tant que composée de fonctions de classe C1, k(0) = f (A) etk admet un maximum en 0 qui vaut f (A).D’une part k′(0) =dfA·dφ0, et d’autre part :

    k′(0) = limt→0+

    k(t)− k(0)t

    6 0 car ∀t ∈ [0; t0[, k(t)6 k(0)

    En conclusion dfA·dφ0 6 0, ce qui prouve (1.)cqfd

    Exemple 15. Résoudre (66).

    20 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    L(x;y;λ) = (x+ 1)(y + 1) +λ(3− 6x − y)

    La contrainte doit être de la forme g(x;y)> 0, donc on choisit pour g(x;y) = 3− 6x − y et non l’opposé.Attention

    −−−−→grad L =

    y + 6λ+ 1

    x+λ+ 1

    3− 6x − y

    Condition de qualification dg = −6dx−dy, donc la différentielle n’est jamais nulle. Tous les points telsque 3− 6x − y > 0 sont qualifiés.

    Conditions de Kuhn et Tucker λ> 0

    λ(3− 6x − y) = 0y + 6λ+ 1 = 0x+λ+ 1 = 0

    Condition d’exclusion

    1. Si λ = 0 alors x = −1 et y = −1 dans ce cas f (−1;−1) = 0, n’est clairement pas un maximum. Pour cepoint la contrainte est lâche.

    2. Si 3− 6x − y = 0 alors

    −−−−→grad L = ~0⇔

    x = −1

    6y = 4

    λ =56

    On se retrouve avec un problème sous contrainte d’égalité.Le multiplicateur associé est positif, donc le programme admet un maximum local en (16 ;4) qui vaut356 .

    Exemple 16. Résoudre le programme suivant : maxx2 + y2s.c. 3x2 − 4xy + 3y2 6 aoù a > 0.

    21 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    On poseL(x;y;λ) = x2 + y2 +λ(a− 3x2 + 4xy − 3y2)

    L est de classe C1 sur R3.

    −−−−→grad L =

    2x − 6λx+ 4yλ2y + 4xλ− 6yλ

    a− 3x2 + 4xy − 3y2

    Condition de qualification dg = (−6x + 4y)dx + (4x − 6y)dy donc dgA = 0⇔ A = (0;0). Or g(A) = a > 0,donc tous les points tels que a− 3x2 + 4xy − 3y2 > 0 sont qualifiés.

    Conditions de Kuhn et Tucker λ> 0

    λ(a− 3x2 + 4xy − 3y2) = 02x − 6λx+ 4yλ = 02y + 4xλ− 6yλ = 0

    Condition d’exclusion

    1. Si λ = 0 alors x = y = 0, mais ce point, le point A, ne correspond pas à un maximum car f (A) = 0 6f (x;y).

    2. Si λ , 0 alors−−−−→grad L =

    −→0 .

    2x − 6λx+ 4yλ = 02y + 4xλ− 6yλ = 03x2 − 4xy + 3y2 = a

    y =−x+ 3xλ

    2λy + 2xλ− 3yλ = 0

    3x2 − 4xy + 3y2 = a

    y =

    x(3λ− 1)2λ

    −x+ 3xλ2λ

    + 2xλ− 3λ2λ

    (−x+ 3xλ) = 0

    3x2 − 4xy + 3y2 = a

    y =

    x(3λ− 1)2λ

    −x+ 3xλ+ 4xλ2 + 3λx − 9xλ2 = 03x2 − 4xy + 3y2 = a

    y =

    x(3λ− 1)2λ

    x(−5λ2 + 6λ− 1

    )= x(5λ− 1)(λ− 1) = 0

    3x2 − 4xy + 3y2 = a

    Or si x = 0 alors λ = 0 ce qui est contraire à l’hypothèse de départ. Donc soit λ = 1, soit λ = 15 .

    (a) Si λ = 1 alors y = x et les points A1(√

    a2 ;

    √a2 ) et A2(−

    √a2 ;−

    √a2 ) sont des points candidats.

    (b) Si λ = 15 alors y = −x et les points A3(√

    a10 ;−

    √a

    10 ) et A4(−√

    a10 ;

    √a

    10 ) sont des points candidats.

    22 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Conclusion f (A1) = f (A2) = a2 et f (A3) = f (A4) = a2

    5 . Sur l’ellipse d’équation 3x2 − 4xy + 3y2 = a qui est

    un compact de R2, f est continue est atteint ses bornes, d’après l’étude précédente les points candidats sontA1, A2, A3 et A4. Donc, f atteint son maximum a2 en A1 et en A2 et son minimum

    a25 en A3 et A4.

    Donc les solutions du programme sont A1(√

    a2 ;

    √a2 ) et A2(−

    √a2 ;−

    √a2 ).

    Remarque 4.a− 3x2 + 4xy − 3y2 = 0

    3(x2 − 43xy + y2) = a

    3((x − 23y)2 + y2 − 4

    9y2) = a

    3((x − 23y)2 +

    59y2) = a

    x =23y ±

    √a

    3− 5

    9y2 =

    13

    (2y ±

    √3a− 5y2

    )avec −

    √3a56 y 6

    √3a5

    Remarque 5. Lorsque l’on cherche un minimum local la condition (1.) devient : λA 6 0.

    5.3 Condition suffisante d’optimalité globale

    Dans cette partie on suppose que g est concave sur D un ouvert convexe de R2.

    23 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Si de plus f est convexe (resp. concave) sur D les conditions du théorème (88) sont suffisantes pour montrerque f admet un minimum (resp. un maximum) sous la contrainte g(x;y)> 0.

    Proposition 4. Soit le programme {minf (x;y)

    s.c. g(x;y)> 0(7)

    où f est une fonction convexe et de classe C1 sur un ouvert convexe, D, de R2 et g est une fonction concave etde classe C1 sur D. S’il existe un point A de D et un réel λA tel que

    — la contrainte soit qualifiée en A— λA 6 0— λA × g(A) = 0— dfA +λA dgA = 0

    alors f admet un minimum global sous la contrainte g(x;y)> 0 en A.

    Proposition 5. Soit le programme {maxf (x;y)

    s.c. g(x;y)> 0(8)

    où f est une fonction concave et de classe C1 sur un ouvert convexe, D, de R2 et g est une fonction concave etde classe C1 sur D. S’il existe un point A de D et un réel λA tel que

    — la contrainte soit qualifiée en A— λA > 0— λA × g(A) = 0— dfA +λA dgA = 0

    alors f admet un maximum global sous la contrainte g(x;y)> 0 en A.

    Exemple 17. {max ln(x) + ln(y + 5)

    s.c. x+ y 6 4

    Posons f (x;y) = ln(x) + ln(y + 5), f est de classe C2 sur D =]0;+∞[×]− 5;+∞[.—−−−−→grad f = t

    (1x

    1y+5

    )— D2f =

    (− 1x2 0

    0 − 1(y+5)2

    )Donc f est concave sur D.Posons g(x;y) = 4−x−y, g est affine donc g est concave et de classe C1 surD. La différentielle dg est constanteet non nulle, donc les éléments tels que g(x;y)> 0 sont qualifiés. Le théorème (88) s’applique, comme

    −−−−→grad f

    n’est jamais nul sur D alors λ , 0. Cherchons donc λ > 0 tel que−−−−→grad L =

    −→0 où L(x;y;λ) = f (x;y) +λg(x;y).

    1x−λ = 0

    1y + 5

    −λ = 0

    x+ y = 4

    x =

    y =1λ− 5

    = 9

    x =

    92

    y =−12

    λ =29

    D’après la proposition (55), f admet un maximum global en (4,5;−0,5) sous la contrainte x+ y 6 4.

    24 V. Ledda

  • DRAF

    TOptimisation des fonctions de deux variables Chapitre 2

    Théorème 9 (Conditions nécessaires et suffisante d’optimalité). Soit le programme{maxf (x;y)

    s.c. g(x;y)> 0(9)

    où f est une fonction concave et de classe C1 sur un ouvert convexe, D, de R2 et g est une fonction concave etde classe C1 sur D. S’il existe au moins un point X de D tel que g(X) > 0 [condition de Slater] alorsf admet un maximum global sous la contrainte g(x;y)> 0 en A si et seulement si il existe un réel λA tel que

    — λA > 0— λA × g(A) = 0— dfA +λA dgA = 0

    O

    25 V. Ledda

    Théorème générauxLe théorème de WeirstrassCas des fonctions convexes

    Conditions nécessaires du premier ordreConditions suffisantes du second ordreOptimisation d'une fonction de deux variables sous contrainte d'égalitéMéthode par substitutionMéthode de LagrangeInterprétation des multiplicateurs de LagrangeConditions du second ordre pour l'optimisation sous contrainte

    Optimisation sous contrainte d'inégalitéVocabulaireConditions nécessaires pour un optimum localCondition suffisante d'optimalité globale