analyse num£© analyse num£©rique institut de math£©matiques de...

Download Analyse Num£© Analyse Num£©rique Institut de Math£©matiques de Bourggneo (IMB) Universit£© de Bougorgne

Post on 29-Sep-2020

0 views

Category:

Documents

0 download

Embed Size (px)

TRANSCRIPT

  • Analyse Numérique

    Institut de Mathématiques de Bourgogne (IMB) Université de Bourgogne Franche-Comté

    Organisation

    - CM: 24 heures, 12 séances. TD: 18 heures, 9 séances. TD: 8 heures, 4 séances.

    - Page web : http://jaramillo.perso.math.cnrs.fr/Courses/AnalyseNumerique/AnalyseNumerique.html

    Intervenants

    - J.L. Jaramillo (resp. Bureau : A323), CM (Jose-Luis.Jaramillo@u-bourgogne.fr).

    - X. Dupuis (Bureau: A329), TD et TP ((Xavier.Dupuis@u-bourgogne.fr).

  • 2

  • Table des matières

    I Problèmes linéaires 5

    1 Introduction: problèmes linéaires 7

    1.1 Le problème et les méthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2 Diagonalisation de matrices réelles symétriques . . . . . . . . . . . . . . . . . . . 7 1.3 Exemples de matrices symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2 Méthodes directes 15

    2.1 Décomposition LU (méthode de Gauss/ d'échelonnement) . . . . . . . . . . . . . 15 2.1.1 Algorithme LU, sans permutation . . . . . . . . . . . . . . . . . . . . . . . 18 2.1.2 Algorithme LU, avec permutation . . . . . . . . . . . . . . . . . . . . . . . 20

    2.2 Décomposition de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

    3 Normes et conditionnement d'une matrice 35

    3.1 Norme matricielle, norme matricielle induite et rayon spectral . . . . . . . . . . . 35 3.1.1 Rappel sur les normes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.1.2 Normes matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

    3.2 Relation entre norme matricielle et rayon spectral . . . . . . . . . . . . . . . . . . 39 3.2.1 Convergence et rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . 39

    3.3 Conditionnement d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.3.1 Conditionnement et ses propriétés élémentaires . . . . . . . . . . . . . . . 41 3.3.2 Majoration des erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

    4 Méthodes itératives 45

    5 Méthodes de descente 47

    II Interpolation 49

    6 Interpolation polynomiale 51

    III Annexes 53

    A Espaces linéaires 55

    A.1 Rappel sur les espaces linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 A.2 Application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 A.3 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

    3

  • 4 TABLE DES MATIÈRES

    B Matrices 59

    B.1 Dé�nitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 B.1.1 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 60 B.1.2 Rang et noyau d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 61 B.1.3 Inverse d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

    B.2 Applications linéaires et matrice d'une application linéaire . . . . . . . . . . . . . 62 B.2.1 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

    B.3 Matrices et géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

    C Factorisation de matrices 65

    D Diagonalisation 67

    D.1 Notion de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 D.2 Diagonalisation de matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . 68

  • Part I

    Problèmes linéaires

    5

  • Chapitre 1

    Introduction: problèmes linéaires

    1.1 Le problème et les méthodes

    Le problème fondamental que nous allons aborder est la résolution de l'équation

    Ax = b , (1.1)

    avec A une matrice et b un vecteur donnés dans des espaces linéaires de dimension �ni. Un problème lié qui va aussi nous occuper est la résolution du problème spectral de la matrice A

    Ax = λx . (1.2)

    Les appendices A-C o�rent un rappel des éléments de base sur les espaces linéaires et sujets liés.

    La résolution �e�cace� de l'équation (1.1) pour des dimensions élevées pose un problème di�- cile dont la résolution demande le concours de di�érentes techniques mathématiques. L'esprit ici est de souligner l'enchevêtrement de l'Algèbre Linéaire, la Géométrie et l'Analyse Mathématique dans l'Analyse Numérique. Le problème abordé dans la section suivante illustre ce point.

    1.2 Diagonalisation de matrices réelles symétriques

    Les matrices carrées réelles et symétriques sont diagonalisables, avec des valeurs et vecteurs propres réels. D'un côté, ceci est un résultat fondamental dans le contexte du problème abordé dans ce cours. D'un autre côté, la preuve de ce résultat nous permet d'illustrer concrètement la puissance de la combinaison d'Analyse Mathématique et de l'Algèbre Linéaire, un leitmotiv dans ce cours.

    Lemme 1.1. (Une matrice symétrique réelle est diagonalisable sur R). Soit V un espace vectoriel sur R de dimension �nie: dim(V ) = n, n ∈ N∗, muni d'un produit scalaire 〈 , 〉;V ×V → R, avec norme associée ||x|| = 〈x,x〉

    1 2 ,∀x ∈ V . Soit T une application linéaire T : V → V , symétrique

    〈T (x),y〉 = 〈T (y),x〉, (1.3)

    Alors, il existe une base orthonormée e1, . . . , en de V (c.à.d 〈ei, ej〉 = δij) et (λ1, . . . , λn) ∈ Rn tels que Tei = λiei,∀i ∈ {1, . . . , n}.

    Preuve : Par récurrence sur n = dim(V ).

    7

  • 8 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES

    i) Nous supposons d'abord dim(V ) = 1.

    Soit v ∈ V , v 6= 0, alors V = LinR(v) = LinR(e1) avec e1 = v||v|| . En particulier 〈e1, e1〉 = 1. Soit T : V → V linéaire (symétrique), on a Te1 ∈ V = LinR(e1) =⇒ ∃λ1 ∈ R tel que Te1 = λ1e1.

    Notez que le raisonnement peut être étendu au cas complexe1.

    ii) On suppose que le résultat est vrai pour dim(V ) < n (hypothèse de récurrence). On le montre pour dim(V ) = n.

    Soit V un espace linéaire avec produit scalaire, avec dim(V ) = n < ∞ et T : V → V linéaire symétrique. On dé�nit :

    ϕ : V → R x 7→ 〈Tx,x〉 .

    Cette application est continue. En particulier, sa restriction à la sphère unité S1 = {x ∈ V ; ||x|| = 1}, qui est compacte (fermée et bornée, parce dim(V ) = n < ∞), est aussi continue. L'image de ϕ est alors compacte dans R (intervalle fermé) alors ϕ atteint son maximum. C'est-à-dire ∃v ∈ S1 tel que

    ϕ(x) ≤ ϕ(v) = 〈Tv,v〉 := λ,∀x ∈ S1. (1.4)

    On va montrer que Tv = λv.

    Soit y ∈ V \ {0} et soit t ∈]0, 1||y|| [, alors v + ty 6= 0 2 On en déduit :

    v + ty

    ||v + ty|| ∈ S1 (1.5)

    et donc :

    ϕ(v)︸︷︷︸ λ

    ≥ 〈T v + ty ||v + ty||

    , v + ty

    ||v + ty|| 〉 ⇔ λ||v + ty||2 ≥ 〈T (v + ty),v + ty〉 . (1.6)

    En développant à gauche :

    λ||v + ty||2 = λ〈(v + ty),v + ty〉 = λ

    ||v||2︸︷︷︸ =1

    +2t〈v,y)〉+ t2||u||2  , (1.7)

    et à droite :

    〈T (v + ty),v + ty〉 = 〈Tv,v〉︸ ︷︷ ︸ λ

    +t〈Tv,y〉+ t 〈Ty,v〉︸ ︷︷ ︸ 〈y,Tv〉=〈Tv,y〉

    +t2〈Ty,y〉 , (1.8)

    et on conclut (en utilisant t > 0 pour pouvoir simpli�er par t) :

    λ ( 2〈v,y〉+ t||y||2

    ) ≥ 2〈Tv,y〉+ t〈Ty,y〉 . (1.9)

    1Il faut utiliser une application linéaire T symétrique (hermitien) par rapport au produit scalaire hermitien (voir Appendix A.3).

    2Avec |||x|| − ||y||| ≤ ||x− y||, on a ||v + ty|| ≥ |||v|| − ||ty||| = |1− t||y||︸︷︷︸ 6=0

    | 6= 0.

  • 1.2. DIAGONALISATION DE MATRICES RÉELLES SYMÉTRIQUES 9

    Si on prend la limite lorsque t→ 0+, on a :

    2λ〈v,y〉 ≥ 2〈Tv,y〉 ⇒ 0 ≥ 〈Tv − λv,y〉 , ∀y ∈ V \ {0} . (1.10)

    Si on prend maintenant z = −y, on dérive aussi :

    0 ≥ 〈Tv − λv, z〉 = 〈Tv − λv,−y〉 = −〈Tv − λv,y〉 ⇒ 〈Tv − λv,y〉 ≥ 0 , ∀y ∈ V \ {0} (1.11)

    On a alors :

    〈Tv − λv,y〉 = 0 , ∀y ∈ V \ {0} ⇒ Tv − λv = 0⇔ Tv = λv (1.12)

    On pose en = v et λn = λ.

    Maintenant, on utilise l'hypothèse de récurrence. Soit W = {x ∈ V ; 〈x, en〉 = 0}. Alors V 6= W et V = W ⊕ LinR(en). On peut décomposer x ∈ V

    x = x− 〈x, en〉en︸ ︷︷ ︸ ∈W

    +〈x, en〉en . (1.13)

    Si on note T |W la restriction de T à W , l'application T |W : W → W est linéaire et symétrique (exercice). On peut alors faire usage de l'hypothèse de récurrence sur T |W :

    ∃ {e1, . . . , en−1} et (λ1, . . . , λn−1) ∈ Rn−1 , (1.14)

    tels que :

    T |Wei = T |Wei = λiei , ∀i ∈ {1, . . . , n− 1} , 〈ei, ej〉 = 0 . (1.15)

    On choisit �nalement :

    {e1, . . . , en−1, en} et (λ1, . . . , λn−1, λn) , (1.16)

    qui montrent le théorème.

    Corollaire 1.1. Une matrice A ∈Mn(R) symétrique est diagonalisable sur R.

    Preuve : On considère V = Rn avec le produit scalaire canonique

    〈x,y〉 = xt · y = n∑ i=1

    xiyi ,

    où x = xiei avec B = {e1, . . . , en} la base canonique. Si A ∈Mn(R) est une matrice symétrique, l'application

    T : Rn → Rn

    x 7→ A · x , où x = xiei, B = {ei∈N} base canonique (1.17)

  • 10 CHAPITRE 1. INTRODUCTION: PROBLÈMES LINÉAIRES

    est linéaire et symétrique. Notez que A est la m