cours de methodes numeriques

88
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN‐ MOHAMED BOUDIAF FACULTE D’ARCHITECTURE ET DE GENIE CIVIL DEPARTEMENT DE GENIE CIVIL COURS DE METHODES NUMERIQUES M. B. BENMANSOUR

Upload: frahlia

Post on 02-Jan-2016

142 views

Category:

Documents


7 download

TRANSCRIPT

Page 1: Cours de Methodes Numeriques

UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN‐ MOHAMED BOUDIAF  FACULTE D’ARCHITECTURE ET DE GENIE CIVIL 

DEPARTEMENT DE GENIE CIVIL                 

COURS DE METHODES NUMERIQUES 

  

 

 

M. B. BENMANSOUR

Page 2: Cours de Methodes Numeriques

2

Chapitre I : Rappels sur les systèmes d’équations linéaires - Inversion de matrices

Plan

1. Position du problème

2. Méthode du pivot 2.1. Méthode de GAUSS-JORDAN 2.2. Méthode de GAUSS 2.3. Cas des matrices bandes

3. Méthodes itératives 3.1. Méthode de JACOBI 3.2. Méthode GAUSS-SEIDEL 3.3. Facteur de relaxation

4. Inversion de matrices

1. Position du problème

Considérons le système linéaire suivant de n équations à n inconnues :

Ce système s’écrit sous la forme :

Page 3: Cours de Methodes Numeriques

3

si , et

i représente le numéro de ligne et j le numéro de colonne.

Une matrice est dite triangulaire si pour j>i ou pour i>j. Une matrice bande est une matrice dont tous les éléments sont nuls sauf sur une bande autour de la diagonale principale. Ces matrices se rencontrent dans la résolution d'équations aux dérivées partielles par la méthode des différences finies ou dans la méthode des éléments finis.

La résolution du système précédent peut s’effectuer par deux méthodes : - la méthode directe (dite méthode du pivot), - la méthode itérative.

La méthode du pivot est commode pour les systèmes denses d’ordre supérieur, ainsi que pour les matrices bandes même d’ordre élevé. La méthode itérative est mieux adaptée aux autres matrices d’ordre élevé et comportant de nombreux éléments nuls.

2. Méthode du pivot

2.1. Méthode de GAUSS-JORDAN

2.1.1. Description de la méthode

C’est la méthode la plus utilisée. Pour la présenter, nous allons prendre l’exemple d’un système de 4 équations à 4 inconnues :

La méthode classique de Cramer qui repose sur les déterminants, donne :

où est le déterminant de la matrice, et celui déduit de en y remplaçant la jème colonne par la colonne second membre. Pour résoudre le système, cette méthode nécessite n4 opérations si n est le rang de la matrice. Dans la méthode du pivot, on choisit successivement chaque ligne comme ligne pivot ; le pivot étant le 1er élément non nul de la ligne.

Page 4: Cours de Methodes Numeriques

4

Ainsi, on divise la ligne n° 1 du système par :

On annule le 1er terme de chacun des autres lignes : à la 2ème ligne, on retranche la 1ère

multipliée par , à la 3ème ligne, on retranche la 1ère multipliée par , à la 4ème ligne, on retranche la 1ère multipliée par .

Le système devient :

a- La 2ème ligne est considérée maintenant comme une ligne pivot, et comme un élément pivot. On répète sur cette 2ème ligne les opérations précédentes, et on obtient après division de cette ligne par :

On annule les autres termes de la seconde colonne ; c’est à dire : à la 1ère ligne, on retranche la

seconde multipliée par , à la 3ème ligne, on retranche la 2ème multipliée par , à la 4ème ligne, on retranche la 2ème multipliée par .

On obtient :

a- On considère ensuite la 3ème ligne comme pivot, puis la 4ème ligne ; ce qui donne :

Page 5: Cours de Methodes Numeriques

5

soit la solution du système :

D’une manière générale, si on applique cette procédure au système où A est une matrice d’ordre n,

• on remarque qu’à l’issue de la 1ère étape, on obtient la matrice comportant des 0 et un 1 dans sa 1ère colonne,

• à l’issue de la 2ème étape, on a une matrice comportant des 0 et des 1 dans ses 2 premières colonnes, etc.

• à l’issue de la kième étape, on obtient un système de la forme :

avec et matrice colonne d’éléments

Pour les k premiers éléments diagonaux, on a : si

Pour les colonnes 1 à k éléments non diagonaux, on a : si et ; étant

les composantes du vecteur .

L’étape suivante consiste à prendre comme élément pivot.

On divise la (k+1) ième ligne par cet élément, ce qui donne pour j=k+1 à n :

et si

et

Pour chaque ligne , la ligne k+1 multipliée par est retranchée.

On obtient alors le système avec :

Résumé de la procédure :

1. Transformation de la matrice [A,y] en une matrice [I,y’] : et

Pour k variant de 0 à n-1, on a :

Page 6: Cours de Methodes Numeriques

6

2. La solution xi du système résultant s’écrit alors : ; avec

Le nombre d’opérations nécessaires au passage de [A ,y](k) à [A, y](k+1) est : n. additions (= n.a) = n. multiplications (= n.m) = (n-1).(n-k+1) n. divisions (= n.d) = (n-k+1) Le passage de [A ,y] à [A, y](n) nécessite environ opérations de calculs.

La méthode ainsi exposée, présente un certain nombre de défauts :

• lenteur compte tenu du nombre d'opérations si le rang n de la matrice A est grand, • difficulté si le pivot est nul puisque la division n'est plus possible (dans ce cas, il faut

permuter les colonnes tout en veillant à la cohérence des calculs qui suivent), • précision si le pivot est faible (<<1), les erreurs d’arrondi deviennent très importantes

et affectent toute la suite des calculs.

2.1.2. Exemple

Soit le système à résoudre :

On forme tout d’abord la matrice [A, y] :

K=1 k=1

Normalisation

Réduction

K=2 k=2

Normalisation Réduction

Page 7: Cours de Methodes Numeriques

7

K=3 k=3

Normalisation Réduction

La solution est ; d’où :

2.2. Méthode de GAUSS

On diagonalise la matrice A, et on ne fait apparaître les zéros qu’en dessous de la diagonale. La solution xi du système nécessite 2 étapes :

• Une triangularisation de la matrice A,

Pour k variant de 0 à n-1, on a :

• Une résolution du système triangulaire :

D’où l’expression de la solution finale : avec j=n-1 à 1

Page 8: Cours de Methodes Numeriques

8

Cette solution nécessite environ n3/3 opérations. Pour les pivots nuls ou petits, on est confronté aux mêmes difficultés signalées dans la méthode précédente de GAUSS-JORDAN.

2.3. Cas des matrices bandes

Soit le système tridiagonal suivant :

La matrice est connue par les 3n données : où

Ainsi, le système décrit par ces 3n données peut être résolu par la méthode de triangularisation (méthode de Gauss).

3. Méthodes itératives

Nous allons décrire ces méthodes brièvement sans passer par des calculs ou des démonstrations mathématiques complexes, car cela nous éloignera des objectifs du cours.

3.1. Méthode de JACOBI

Soit le système suivant de 3 équations à 3 inconnues :

On résout le système de la manière suivante :

Page 9: Cours de Methodes Numeriques

9

On donne aux inconnues les valeurs arbitraires initiales , , . Si ces valeurs sont portées au second membre de la solution précédente, on obtient :

Ce nouvel ensemble porté dans le second membre des équations précédentes donne un autre

ensemble , , , et ainsi de suite.

3.2. Méthode de GAUSS-SEIDEL

On reprend le calcul comme précédemment. Pour le système précédent par exemple, on

choisit un ensemble de valeurs , , .

On porte et dans la 1ère équation et on obtient :

C’est cette nouvelle valeur de x1, et non pas , qui est portée dans la 2ème équation du système, donnant :

De même dans la 3ème équation, on porte et , et non et , et on obtient :

Lorsqu’une inconnue est utilisée, c’est automatiquement la plus récente valeur calculée. Ceci assure une convergence des calculs bien plus rapide que la méthode de JACOBI.

On arrête les calculs lorsque les valeurs successives de xj sont suffisamment voisines. Pour cela, on peut utiliser,

• soit le critère de Convergence absolue :

• soit le critère de Convergence relative :

Page 10: Cours de Methodes Numeriques

10

Pour les systèmes où les matrices qui sont de rang élevé, il n’est pas commode de faire le test de convergence sur chaque inconnue xj. Dans ce cas, on fait le test soit seulement sur certaines inconnues que l'on choisit, soit les quantités suivantes :

ou ou ou

La convergence du procédé ne dépend pas du choix des valeurs initiales , mais seulement des valeurs des coefficients. On montre que la convergence est assurée si on a, pour chaque valeur de i (c’est à dire pour

chaque ligne), la relation est vérifiée.

Autrement dit, il y a convergence si chaque élément diagonal est supérieur ou égal, en module, à la somme des modules des autres éléments de sa ligne.

3.3. Facteur de relaxation

Si la convergence existe, sa rapidité dépend du choix de . En effet, plus les valeurs initiales sont proches des valeurs réelles, et plus la convergence est rapide.

L’utilisation d’un facteur de relaxation λ définie par où permet d’accélérer la convergence. λ est appelée " facteur de relaxation " (dans la pratique, il est compris entre 0 et 2).

Pour , le processus diverge.

Pour s’approcher de la valeur recherchée rapidement, on prend dans un processus itératif déjà convergent et pour un processus divergent.

Les méthodes itératives jouent un rôle très important dans la résolution numérique de systèmes de grandes tailles et dans les systèmes (ou équations) non linéaires.

4. Inversion des matrices

Selon la méthode de Cramer, une matrice A de rang n n’est inversible que si son déterminant ∆ est différent de zéro. Dans ce cas, le produit de A par la matrice inverse A-1 donne la matrice unitaire I.

En appliquant la méthode de Cramer sur la matrice A, on peut déterminer A-1.

Page 11: Cours de Methodes Numeriques

11

Exemple :

;

On obtient en utilisant la méthode de Cramer :

qui vérifie que :

L’algorithme de Gauss-Jordan présenté au début de ce cours (méthode du pivot) opère aussi le passage de la matrice C=[A,y] à la matrice D=[I,X] où X est la solution du système linéaire A.X=y ; Soit X =A-1.y .

Après les opérations de l’algorithme de Gauss-Jordan, on obtient : D=A-1.C=A-1.[A,I]=[I,A-1] Cette méthode, de calcul de l’inverse d’une matrice qui est résumée ci-dessous, permet de calculer A-1 avec un nombre d’opérations nettement inférieur à celui de la méthode de Cramer.

Transformation (A,I) (I,A-1)

Pour , on a :

Pour

Pour

Exemple :

Soit la matrice

. Calculer A-1 par la méthode de Jordan.

Page 12: Cours de Methodes Numeriques

12

k =1

Normalisation ; Réduction

k =2

Normalisation

; Réduction

k =3

Normalisation

; Réduction

Finalement, on vérifie que :

Page 13: Cours de Methodes Numeriques

13

Chapitre II : Résolution des équations et systèmes non linéaires Application à la recherche de valeurs non nulles des équations transcendantes

Plan

1. Introduction

2. Méthode itérative générale

3. Méthode de Newton-Raphson

4. Résolution d'une équation polynomiale

4.1. Application de la méthode de Newton au calcul d'une racine carrée 4.2. Application à la recherche des valeurs nulles des équations transcendantes

5. Méthode de Bairstow

6. Résolution des systèmes d'équations non-linéaires 6.1. Généralisation de la méthode de Newton-Raphson 6.2. Utilisation d'une méthode de minimisation de fonctions

1. Introduction

Dans la pratique, la plupart des problèmes se ramènent à la résolution d’une équation de la forme : La résolution de cette équation dépend de la classe à laquelle appartient la fonction f. Si f est un polynôme de degré n, on sait que l’équation possède n racines complexes. Si l’équation est transcendante, elle peut avoir un nombre fini, voire nul, ou infini de racines. Le problème est alors de trouver la racine dont on sait l’existence et dont, parfois, on connaît une valeur approchée. Les méthodes de résolution sont toujours des méthodes itératives.

2. Méthode itérative générale

On suppose que l’équation a été mise sous la forme : (ceci est toujours possible en définissant par exemple puisque lorsque , ).

À partir d’une valeur initiale x1, que l’on se donne, on engendre la suite :

Page 14: Cours de Methodes Numeriques

14

Si la suite des mesures x1, x2, x3,…, xn converge vers une valeur x0, alors

: , et ; x0 est une racine.

Fig. 1 : Exemple de solution convergente (régime oscillatoire convergent)

Supposons que l’équation admette une racine x0 sur l’intervalle [a,b]. On peut légitimement supposer que f(x) prendra des valeurs sur cet intervalle. Si l’on n’ajoute pas d’hypothèses supplémentaires, on ne peut être sûr de la convergence. Il est donc impossible de donner une condition nécessaire sans expliciter la fonction f. C’est donc une étude de cas.

3. Méthode de Newton-Raphson

Cette méthode s’applique à des équations du type , pour lesquelles on peut calculer la dérivée de f : f’(x). Soit x1 une valeur approchée de la racine s inconnue. Posons : x2=x1+h, et cherchons l’accroissement qu’il faut donner à x1, de façon à ce que :

Après développement en série de Taylor à l’ordre 2, on obtient :

Page 15: Cours de Methodes Numeriques

15

ou approximativement :

c’est à dire :

et plus généralement, la solution : ,soit Interprétation géométrique :

La valeur x2 est l’abscisse du point d’intersection avec l’axe ox de la tangente au graphe y=f(x) en x1.

Sens de l’approximation :

Si l’on avait fait aucune approximation dans l’écriture de , on aurait obtenu, pour la racine s, l'expression suivante :

donc :

Ce qui conduit à la conclusion suivante :

• Si , x2 est plus proche de s que x1, et il est du même côté : x2 est donc une meilleure approximation. Si la racine est simple, et si f’ conserve un signe constant au voisinage

de la racine, la suite est une suite monotone bornée par 0 ; elle converge, donc l’algorithme converge.

• Si , x1 et x2 sont de part et d’autre de s : l’approximation x2 peut alors être moins bonne que x1. mais si la racine est simple, f(x2) sera de signe contraire à celui de f(x1) : f(x1) et f(x2) seront alors de même signe et l’algorithme converge.

Page 16: Cours de Methodes Numeriques

16

4. Résolution d’une équation polynomiale

L’application de la méthode de Newton implique le calcul du polynôme et de sa

dérivée . Écrivons le polynôme sous la forme :

La division de par le monôme où est une valeur arbitraire donne :

où R est une constante de valeur .

En divisant de nouveau le polynôme de degré n-1 par , on obtient :

Donc :

La valeur de la constante S est donnée par : .

L’application de la formule de Newton peut donc se faire sous la forme :

Les valeurs de R et de S s’obtiennent donc au moyen des relations de récurrence qu’on établit en égalant les puissances successives de x dans les diverses expressions du polynôme :

De même, les coefficients s’obtiennent au moyen de formules analogues :

Page 17: Cours de Methodes Numeriques

17

On peut remarquer que le calcul de R et de S est analogue à celui du calcul des

polynômes et .

4.1. Application de la méthode de Newton au calcul d’une racine carré

Soit l’équation

La formule de Newton s'écrit :

soit la formule de récurrence :

Quand n tend vers l’infini, xn+1 tend vers xn et par conséquent

: Cet algorithme converge quelque soit la valeur de x1 d’initialisation, pourvu que .

4.2. Application à la recherche des valeurs non nulles des équations transcendantes

Dans le cas d'un problème unidimensionnel de conduction de la chaleur dans une barre par exemple de longueur , la solution analytique de la température obtenue par la méthode d'orthogonalisation est la somme d'une réponse en régime transitoire et d'une réponse en régime permanent. Selon l'axe de la barre, cette solution est de la forme :

(1)

à cette solution, on ajoute l'équation transcendante donnée par :

Page 18: Cours de Methodes Numeriques

18

(2)

Pour déterminer la température à tout instant et en tout point , on doit

résoudre l'équation transcendante (2) afin d'obtenir les racines .

L'équation (2) est du type : et

En traçant sur le même graphe et , on obtient les courbes de la figure 2.

D'après ce graphe, on voit bien qu'il existe une solution par intervalle où . Cette solution est l'intersection de la courbe avec celle de .

D'où pour l'intervalle comme cela est indiqué sur le graphique, on a les cinq racines suivantes pour une valeur égale à du terme ( ) :

1ère racine = 0.988241 2ème racine = 3.542166 3ème racine = 6.509659 4ème racine = 9.580092 5ème racine = 12.684082

Fig. 2 : évolution des solutions et

Page 19: Cours de Methodes Numeriques

19

5. Méthode de Bairstow

La méthode de Bairstow permet de calculer des racines réelles ou complexes d’une équation polynomiale à coefficients réels. La méthode consiste à extraire (le plus exactement possible) les racines (réelles ou complexes) deux à deux (à la fin, il en reste éventuellement une), jusqu’à épuisement des n racines. Soit à trouver les racines de l’équation polynomiale suivante :

On effectue la division eucludiènne de f par le trinôme , où p et q sont à priori deux nombres quelconques :

Les coefficients dépendent de p et q, de même que r et S.

Si r=S=0, alors f(x)=0 permet de donner (donc deux racines de f(x) déjà).

Si r et/ou S ne sont pas nuls, la méthode de Bairstow va consister à déterminer par approximations successives les valeurs de p et q qui annulent r et s :

Ce système peut être non linéaire. On le supposera linéaire au voisinage de chaque couple (p,q) fixé.

Pour cela ,on se donne 2 valeurs p0 et q0 arbitraires. On calcule alors successivement et de telle sorte que :

Soit au premier ordre en et :

Si l’on pose :

Page 20: Cours de Methodes Numeriques

20

et

La solution du système précédent est (Cramer) :

Les expressions qui entrent dans le calcul de δ, P et Q vont être évaluées par étapes. Les

coefficients sont liés aux coefficients du polynôme initial par l’intermédiaire ses relations suivantes :

relations auxquelles on peut ajouter :

en ayant défini et par : et .

Ce tableau (I) permet de calculer les , r et S en fonction de p et q.

Posant maintenant :

Page 21: Cours de Methodes Numeriques

21

, avec k=0, 1, 2, …, n-1 et

En dérivant le tableau (I) par rapport à p, on obtient :

Ce tableau (II) permet de calculer les Ci (i=0 ,1, 2, …, n-1).

Posons maintenant :

,

En dérivant le tableau (I) par rapport à q, il vient :

la comparaison des tableaux (II) et (III) montre que :

Page 22: Cours de Methodes Numeriques

22

, pour

On en conclut alors :

et

Les tableaux (I) et (III) permettent de calculer les dérivée partielles :

et par conséquent, les quantités δ, P, Q recherchées sont :

Mise en œuvre de la méthode :

Le calcul du premier trinôme s’obtient à l’issue des phases de calcul suivantes :

1. On fixe arbitrairement deux valeurs p0 et q0. 2. On calcule alors les deux valeurs :

On constitue le tableau : , et le tableau .

On calcule δ, P et Q et on en déduit : et

3. Si et , alors les racines de sont les racines du polynôme initial. 4. Sinon, on remonte en 2 en reportant des valeurs et , et ainsi de suite.

Page 23: Cours de Methodes Numeriques

23

Les deux premières racines ayant été extraites, on applique de nouveau la méthode de Bairstow au polynôme quotient.

6. Résolution des systèmes d’équations non linéaires

6.1. Généralisation de la méthode de Newton-Raphson

La méthode Newton peut s ‘appliquer à la résolution d’un système de plusieurs équations non linéaires :

A partir d’un couple de valeurs approchées (x1,y1) d’une solution du système, on peut déterminer deux accroissements h et k à donner à x1 et y1 de manière à ce que :

En développant en 1er ordre, il vient :

où l’on a posé : et

Les quantités h et k s’obtiennent donc, en résolvant le système linéaire suivant :

avec :

Le calcul est alors relancé jusqu’à ce que h et k deviennent inférieures à une valeur ε que l’on se donne (selon la précision voulue pour le calcul). Ainsi, l’algorithme correspondant est :

avec :

ou encore :

Page 24: Cours de Methodes Numeriques

24

Cette méthode de résolution peut être généralisée pour la résolution de système de n équations non linéaires à n inconnues.

6.2. Utilisation d’une méthode de minimisation de fonctions

La résolution du système non linéaire suivant :

peut se ramener à la recherche du minimum de la fonction : qui étant écrite sous la forme d’une somme de deux fonctions est positive ou nulle.

Puisque les méthodes de minimisation d’une fonction (annulation de la dérivée, par exemple) ne donnent pas forcément le minimum absolu d’une fonction, il est nécessaire de vérifier que le minimum trouvé est bien la solution recherchée ; c’est à dire celle pour laquelle on a .

Page 25: Cours de Methodes Numeriques

25

Chapitre III : Interpolation Polynomiale - Extrapolation

Plan

1. Position du problème

2. But de l’interpolation

3. Interpolation polynomiale de Lagrange

4. Erreur de l’interpolation de Lagrange

5. Polynôme d’interpolation de Newton

1. Position du problème

Étant donné un ensemble de doublets numériques (résultats expérimentaux, par exemple), le problème à résoudre consiste à trouver un modèle mathématique (polynomial, trigonométrique, exponentiel, etc.), et ses paramètres significatifs (c'est à dire ses coefficients), afin de réduire (on parle de régression) toute une information en une expression mathématique utilisable, c’est à dire calculable, intégrable, dérivable, etc. Lorsque les doublets sont considérés comme ‘sûrs’, au sens expérimental du mot, on tentera une interpolation qui restituera toutes les valeurs numériques des doublets là où ils se trouvent. Lorsque les doublets sont entachés d’incertitudes sur leurs déterminations, en particulier s’ils sont très nombreux, on tentera une approximation qui restituera ‘au mieux’ l’information contenue dans les doublets. On raisonne sur une fonction numérique ‘f’ à une seule variable réelle x, connue pour N valeurs. Soit n, le nombre de paramètres du modèle mathématique à déterminer.

Le modèle est vérifié pour tous les doublets interpolation

Le modèle est optimisé entre tous les doublets approximation

Page 26: Cours de Methodes Numeriques

26

2. But de l’interpolation

Étant donnée une fonction f définie sur un intervalle fermé [a,b] de (a<b), pour n+1 valeurs de sa variable xi (i=0,1,2, …, n), mais inconnue ou d’expression très complexe en dehors de ces valeurs ; il s’agit de calculer une fonction numériquement plus commode à manier et qui coïncide avec la fonction pour les valeurs connues de f. la recherche peut s’étendre au cas où la fonction f n’est même pas connue pour ses n+1 valeurs de définition, mais où sont connues des valeurs de ses dérivées, par exemple. La fonction est

pratiquement une somme finie de n+1 fonctions de base linéairement indépendantes :

le but de l’interpolation est de trouver les ai pour que : où et où les fonctions de base devront pouvoir se prêter à tous les traitements numériques courants.

Pratiquement, on pourra choisir la suite des monômes :

puisqu’on en vertu du théorème de WEIERSTRAUSS, toute fonction continue peut être approchée uniformément par un polynôme. Il pourrai être opportun pour simplifier les calculs, de choisir des fonctions de base qui en plus de l’indépendance linéaire, ont des propriétés d’orthogonalité, suivant la définition d’un produit scalaire.

Enfin, pour une fonction périodique, la base formée par les fonctions sinus et cosinus paraît tout à fait adaptée.

3. Interpolation polynomiale de Lagrange

La méthode est ancienne, mais elle est parfaitement adaptée aux traitements informatiques. Soit f une fonction définie sur un fermé [a,b] de (a<b), pour n+1 valeurs distinctes de sa variable, cet ensemble étant désigné sous le nom partition (xi, ).

Page 27: Cours de Methodes Numeriques

27

On cherche s’il existe un polynôme P(x), tel que , pour i variant de 0 à n+1

Posons :

où les a0, a1, …,aj, …, am

On a donc :

Dans ce cas, trois éventualités peuvent se présenter :

• m>n système impossible aucune solution, • m=n système de Cramer une solution unique, • m<n système surdéterminé une solution est à chercher par la méthode des

moindres carrés.

Ici, c’est le cas où m=n qui nous intéresse. La solution existe et est unique, car le déterminant

des coefficients ( ) est un déterminant de Van der Monde, non nul et qui vaut :

Recherche de la solution : Considérons les polynômes (de Lagrange) suivants :

; où i=0 à n. Le produit effectué sur les indices j tels que et .

Il est clair que et que : ; si

Page 28: Cours de Methodes Numeriques

28

Donc, ces polynômes sont de degré n, et sont tels que : Ils sont linéairement indépendants, puisque si :

alors pour : , avec k=0 à n, on a :

Les n+1 polynômes de Lagrange forment une base de l’espace vectoriel des polynômes de degré au plus égal à n. Sur cette base, on a :

Car, on a bien : pour i=0 à n.

Autres propriétés :

et si l’on pose :

on a alors :

Cas particuliers des abscisses équivalentes :

Soit h un réel positif, appelé pas de la partition.

On pose : et où s est un réel quelconque.

Alors l’expression de donnée dans le polynôme de Lagrange devient :

est un polynôme de degré n, à coefficients purement numériques ( ) :

Page 29: Cours de Methodes Numeriques

29

Le tableau des coefficients forme une matrice, de rang n+1, appelée matrice régulière de Lagrange. Ces matrices peuvent être tabulées.

Exercice :

Établir la matrice régulière correspondant au cas de l’interpolation quadratique (matrice régulière de Lagrange)

Solution Soit les données de la fonction f suivante :

0 1 2

1 -2 -1

où :

Recherchons tout d’abord le polynôme d’interpolation de Lagrange de la fonction f . Ce polynôme s’écrit sous la forme :

; où

i 0 0 1 1 2 2

j 1 2 0 2 0 1

On obtient alors 3 polynômes : , et .

D’où :

Détermination de la matrice régulière correspondante :

Page 30: Cours de Methodes Numeriques

30

On a :

avec ,

On obtient alors :

D’où la matrice régulière de Lagrange correspondant à l’interpolation quadratique est la suivante :

On peut monter également les autres cas de matrices régulières d’ordre inférieur ou supérieur (interpolation linéaire, cubique, etc.) :

interpolation linéaire

interpolation cubique

Suivant les auteurs et/ou suivant la conduite des calculs, les matrices régulières de Lagrange peuvent être ces matrices ou leurs transposées.

Page 31: Cours de Methodes Numeriques

31

4. Erreur de l’interpolation de Lagrange

Pour , il s’agit d’estimer

Si on ne possède d’aucun renseignement sur f, autre que , on ne peut rien dire

sur (autre que ). Si l’on ajoute des hypothèses sur f, elles se répercuteront sur .

5. Polynôme d’interpolation de Newton :

Il n’y a pas de relation simple entre le ième polynôme de Lagrange relatif à la

partition et le (i+1)ième polynôme relatif à . Du point de vue numérique, ceci est un inconvénient auquel remédie l’interpolation de Newton.

Exercice : Monter que les fonctions :

forment une base de l’espace vectoriel des polynômes de degré inférieur ou égal à n sur .

Soit le polynôme développé sur la base :

tel que : On a :

, par convention de notation

d’où : ; par convention.

Remarques :

Page 32: Cours de Methodes Numeriques

32

Soit ensuite :

d’où l’on tire :

et : , par convention.

On peut donc dresser le tableau suivant (algorithme) :

et on peut généraliser par récurrence :

avec les mêmes remarques que précédemment :

est insensible à l’ordre et cette propriété se généralise à l’ordre k par récurrence.

qui se généralise sans difficulté à l’ordre k.

qui se généralise sous la forme :

Page 33: Cours de Methodes Numeriques

33

qui se généralise sous la forme :

expression utile pour déterminer l’erreur d’interpolation.

propriété qui se généralise évidemment à l’ordre n.

Finalement, le polynôme d’interpolation de Newton relatif à la partition est donnée par :

Page 34: Cours de Methodes Numeriques

34

Chapitre IV : Approximation - Lissage des courbes -Méthode des moindres carrés

Plan

1. Principe de la méthode

2. Lissage par un polynôme

3. Exemples de lissage

1. Principe de la méthode

Lors d’une expérimentation, on a obtenu les résultats suivant représenté sur le graphique ci-dessous. Ces résultats sont les mesures physiques caractérisant, par exemple, la température en fonction du temps.

On a et .

Page 35: Cours de Methodes Numeriques

35

La fonction f(x) peut être représentée par une ligne passant par tous les points, par exemple en utilisant l’interpolation de Lagrange. Du point de vue physique, ceci n’a pas de sens. Au contraire, pour mieux représenter f(x) par une courbe, celle-ci doit passer entre les points expérimentaux, voire ne passant par aucun d’entre eux comme c’est le cas de la figure ci-dessus.

Une première méthode consiste à tracer ‘à l’œil’ la fonction g(x) censée représenter le mieux possible f(x) décrite par les points expérimentaux. Évidemment, il est préférable d’avoir cette représentation par une méthode plus sûre. Ainsi, on choisit une fonction g(x), censée représenter f(x).

Dans le cas du graphique ci-dessus par exemple, g(x) est représentée par une droite de la forme :

g(x) dépend d’un certain nombre de paramètres .

Donc, cette fonction sera de la forme . Dans le cas du graphe précédent,

on a : . On désigne les coordonnées des points expérimentaux

par où et nous formons la quantité (graphe précédent) :

Dans ce cas, on cherche de telle sorte que s soit minimal. Ainsi, s est minimal si et seulement si :

on obtient alors un système de (r+1) équations (pas forcément linéaires) à (r+1) inconnues

: qui peut être résolu par l’une des méthodes développées au chapitre I.

Page 36: Cours de Methodes Numeriques

36

2. Lissage par un polynôme

Dans la pratique, on utilise fréquemment un polynôme de degré r pour la représentation de f(x). Dans ce cas, la fonction g(x) sera :

En appliquant la méthode précédente qui consiste à calculer s on obtient :

Après la minimisation, on obtient :

soit :

Dans le cas général, on a :

soit :

Pour k=0, on retrouve bien ; et pour k variant de 0 à r, on obtient un système de (r+1)

équations à (r+1) inconnues. Ces inconnues sont .

En posant :

le système précédent s’écrit :

Page 37: Cours de Methodes Numeriques

37

Ce système peut être résolu par la méthode du pivot par exemple. Pour la résolution, il est fortement recommandé de travailler en double précision (si on n’utilise pas le langage MATLAB), car à partir d’un polynôme de degré 7, les erreurs d’arrondi donnent des résultats sans signification. En général, on utilise un polynôme de faible degré, et si c’est possible des droites de préférence. Il est souvent utile pour cela de changer d’échelles (échelles logarithmique ou semi-logarithmique par exemple).

3. Exemples de lissage

3.1. Cas d’une droite de régression (ou droite des moindres carrés)

g(x) est un polynôme de degré 1 r=1.

Soit :

Le système précédent devient alors :

En posant :

le système précédent devient :

Page 38: Cours de Methodes Numeriques

38

Les solutions de ce système sont :

et g(x) devient :

Pour , on a :

Ainsi, a1 s’écrit :

où est la variance des abscisses xi des points Mi.

avec :

En effet :

et en faisant x=y, on obtient :

Pour y, on définit de la même façon que pour x la variance :

Page 39: Cours de Methodes Numeriques

39

x

Ainsi, le coefficient de corrélation entre les variables xi et yi sera défini par :

On remarque que les coefficients a1 et C sont liés par la relation :

3.2. Cas d’une fonction comportant des exponentielles

Exemple :

A la suite d’une série de mesures physiques, on a obtenu les résultats suivants dans le tableau ci-dessous :

1 2 3 4 5 6 7 8 9 10 11

0,00 0,40 0,80 1,20 1,60 2,00 2,40 2,80 3,20 3,60 4,00

2,97 2,87 2,45 1,91 1,24 1,29 0,71 0,57 0,74 0,42 0,39

Approcher la fonction par une exponentielle.

Solution :

et il s'agit de calculer les constantes a et A à partir des mesures physiques.

On a :

La minimisation de S donne :

Page 40: Cours de Methodes Numeriques

40

avec :

Dans la 2ème équation du système, on remplace A par sa valeur obtenue dans la 1ère équation, et on obtient :

Cette équation est donc du type f(a) = 0, on peut la résoudre par la méthode de Newton par

exemple. Pour cela, on choisit une valeur arbitraire ‘ ’, et on calcule . En faisant plusieurs itérations, on montre que :

Après itérations, on trouve :

d’où la fonction :

Page 41: Cours de Methodes Numeriques

41

Chapitre V : Intégrations numériques

Méthodes d'intégration

Plan

1. Introduction

2. Méthodes d’intégrations numériques 2.1. Méthode des trapèzes 2.2. Méthode de Simpson 2.3. Formules de Newton-Cotes 2.4. Méthode de Gauss 2.5. Intégration sur un pas quelconque 2.6. Problèmes liés aux limites de la fonction 2.6.1. Intégration sur un domaine infini 2.6.2. Singularité dans l’intégrale

1. Introduction

Pourquoi utilise t-on l’intégration numérique ?

Lorsque l’intégrale ne peut pas être évaluée analytiquement ou lorsque l’intégrale n’est pas donnée sous forme analytique mais numériquement en un certain nombre de valeurs discrètes, l’intégration numérique peut être utilisée.

Il existe plusieurs méthodes permettant d’évaluer les intégrales de fonctions bornées sur un intervalle. La présence de singularité dans les fonctions (ou dans certaines fonctions) rend les calculs parfois difficiles.

2. Méthodes d’intégrations numériques

2.1. Méthode des trapèzes

Cette méthode consiste à remplacer la courbe f(x) par une ligne brisée et à calculer l’aire de chaque trapèze, ensuite faire la somme des aires sur l’intervalle sur lequel la fonction est définie.

Page 42: Cours de Methodes Numeriques

42

Dans ce cas, on a :

; et Si est l’intervalle d’intégration de f(x), qui est divisé en n intervalles

: , on a :

Dans la suite, on suppose que tous les points sont régulièrement espacés :

Ainsi, l’intégrale précédente devient :

Cette démonstration ne permet pas de mettre en évidence l’erreur d’intégration. Un développement en série de Taylor au 1er ordre permet de faire apparaître l’erreur qui correspond aux termes du second ordre en . Cette erreur est d’autant plus faible que le pas est petit.

D’où :

Page 43: Cours de Methodes Numeriques

43

Pour la plupart des fonctions, on peut obtenir une meilleure approximation en estimant

simplement par :

et l’intégrale précédente devient :

Cette méthode est appelée la méthode des trapèzes avec corrections aux extrémités. En tenant compte de cette correction, la méthode devient d’ordre 4. Cette méthode peut donc être utilisée pour l’intégration d’une fonction donnée numériquement à intervalles discrets. f’(a) et f’(b) peuvent être calculées par des différences finies par exemple.

2.2. Méthode de Simpson

Cette méthode consiste à remplacer , entre et , la fonction par l’arc de parabole

passant par , et . Un développement en série de Taylor permet de démontrer la formule de Simpson. Pour cela, on pose :

avec

Dans ce cas, on obtient :

L’aire de 2 tranches d’intervalles et s'écrit , soit,

On remplace par son expression utilisant les différences centrales :

Page 44: Cours de Methodes Numeriques

44

En posant , on obtient :

soit :

L’aire sur l’intervalle est alors obtenue par :

Cette intégrale nécessite que le nombre d’intervalles soit pair. En remplaçant dans l’intégrale

précédente les par leurs expressions, on trouve :

Après regroupement des termes, et en remarquant que :

il vient alors :

soit finalement :

Page 45: Cours de Methodes Numeriques

45

Cette méthode d’intégration est exacte pour l’intégration des polynômes jusqu’à l’ordre 3 inclus. La méthode de Simpson est une méthode d’ordre 4.

Exemple :

Calculer par la méthode de Simpson. Avec 4 tranches, on a : L’erreur relative est :

2.3. Formules de Newton-Cotes

Les méthodes des trapèzes et de Simpson sont des cas particuliers des formules de Newton-Cotes.

L’intégrale est une combinaison linéaire de ; ce qui signifie que cette intégrale est calculée de façon exacte lorsque est un polynôme de degré inférieur ou

égal à n : le nombre de valeurs est égal à n+1, on intègre sur n tranches, et les valeurs des coefficients de la combinaison linéaire dépendent de n. La méthode des trapèzes et la méthode de Simpson correspondent respectivement à n=1 et n=2. Le principe de la méthode de Newton-Cotes dans le cas le plus général à pas non constant, sera donné dans la suite de ce cours.

Les résultats de cette méthode donnent :

soit encore :

avec

où A et ak sont données par le tableau suivant :

Nom de la formule n A

Trapèzes 1 2 1 1

Page 46: Cours de Methodes Numeriques

46

Simpson 2 3 1 4 1

Villarceau 4 45 14 64 24 64 14

Hardy 6 140 41 216 27 272 27 216 41

Remarque :

Les formules de Newton-Cotes ne doivent pas être utilisées pour ‘n’ élevé. La méthode de Simpson est couramment utilisée.

2.4. Méthode de Gauss

C’est une méthode très précise. Elle utilise des points qui ne sont pas régulièrement espacés et convenablement choisis. Lorsque la fonction est connue analytiquement ou lorsqu’elle est tabulée numériquement en ces points précis, la méthode de Gauss peut être appliquée.

En développant sur une base de polynômes, l’intégrale de peut s’écrire comme une combinaison linéaire des valeurs que prend la fonction en divers points :

Dans cette expression, la constante C est proportionnelle à (b-a) et les facteurs de

pondération dépendent de la fonction par laquelle on approche (segments de droites pour la méthode des trapèzes, arcs de paraboles pour la méthode de Simpson). En ce qui concerne la méthode de Gauss, on développe dans une base de polynômes orthogonaux

dont les sont les racines de ces polynômes, qui sont alors irrégulièrement espacés. Ces polynômes sont définis sur l’intervalle . Dans ce cas, il faut faire un changement de variable sur qui permet de transformer en ; c’est à dire :

(a)

On obtient donc :

(b)

où et sont tabulés.

Ainsi, l’intégrale de , peut être évaluée en suivant la procédure :

Page 47: Cours de Methodes Numeriques

47

• on choisit la valeur n qui donne le nombre de points où la fonction doit être évaluée,

• on lit dans la table donnant et les n valeurs de qui sont deux à deux symétriques par rapport à zéro (qui sont les racines du polynôme de Legendre d’ordre n) qui correspondent à la valeur de n choisie,

• on calcule par l’équation (a), ensuite on évalue l’intégrale de (expression (b)).

Racines et poids pour la méthode de Gauss - Legendre

2 0,5773502692 1,0000000000

3 0,0000000000

0,7745966692

0,8888888889

0,5555555556

4 0,3399810436

0,8611363116

0,6521451549

0,3478548451

5 0,0000000000

0,5384693101

0,9061798459

0,5688888889

0,4786286705

0,2369268850

6 0,2386191861

0,6612093865

0,9324695142

0,4679139346

0,3607615730

0,1713244924

7 0,0000000000

0,4058451514

0,7415311856

0,949079123

0,4179591837

0,3818300505

0,2797053915

0,1294849662

Exemple :

Calculer l’intégrale par la méthode de Gauss.

Solution :

Analytiquement, on connaît : .

Page 48: Cours de Methodes Numeriques

48

On choisit un , et on calcule les donnés par (d). On extrait ensuite les et les du tableau précédent.

Pour b=4 et a=0, on a :

-0,861136 0,277728 0,347855

-0,339981 1,320038 0,652145

0,339981 2,679962 0,652145

0,861136 3,722272 0,347855

On calcule ensuite l’intégrale selon l’équation (b) :

d’où :

2.5. Intégration sur un pas quelconque

Dans le cas précédent, on a soit le pas est constant, soit la fonction à intégrer est

donnée numériquement en des points qui ne sont pas régulièrement espacés et disposés de façon quelconque.

La méthode générale pour intégrer une telle fonction consiste à :

• approcher la fonction f(x) par un polynôme quelconque,

• remplacer l’intégrale par une combinaison des .

Ainsi :

où et .

Les coefficients sont déterminés de la manière suivante :

Page 49: Cours de Methodes Numeriques

49

On obtient alors un système linéaire de n+1 équations à n+1 inconnues et dont les inconnues

sont les coefficients donnés par :

On remarque que lorsque n=1, on obtient la formule des trapèzes. Quand les points sont différents les uns des autres, on obtient le système de Cramer avec une solution. Et lorsque les points sont équidistants, on obtient la formule de Newton-Cotes. Pour obtenir une bonne approximation de l’intégrale de , il est conseillé de ne pas prendre beaucoup de points, car le polynôme d’interpolation devient dans certains cas une mauvaise approximation.

2.6. Problèmes liés aux limites de la fonction

2.6.1. Intégration sur un domaine infini

Pour calculer l’intégrale suivante, par exemple :

Page 50: Cours de Methodes Numeriques

50

il faut s’assurer que cette intégrale converge.

Dans ce cas, on procède de la façon suivante :

• on fait un changement de variable qui permet de transformer les bornes infinies en bornes finies,

• on sépare l’intégrale en deux :

peut être facilement évaluée par l’une des méthodes évoquées précédemment.

En ce qui concerne le calcul de , si b est suffisamment grand, devient négligeable, et par conséquent :

Pour le critère donné sur b (b suffisamment grand), on calcule par exemple

et .

Si , alors b (ou 2b) est pris comme borne remplaçant l’infini.

Dans la plupart des cas, on connaît la forme asymptotique de .

Si pour suffisamment grand, on écrit :

où l’intégrale peut souvent être évaluée analytiquement.

On peut également faire un changement de variables pour ramener la borne infinie de la

seconde intégrale à une valeur finie. Mais cette technique introduit souvent une singularité.

Page 51: Cours de Methodes Numeriques

51

2.6.2. Singularité dans l’intégrale

La meilleure méthode pour traiter les singularités est de les éliminer si possible par l’une des nombreuses techniques algébriques ; à savoir l’intégration par partie, le changement de variables, etc. Si on doit calculer l’intégrale par la méthode de Simpson à pas constants, l’intervalle d’intégration doit exclure la borne où la singularité apparaît.

Exemple :

Soit à calculer l’intégrale suivante :

est infinie sur la borne inférieure.

Analytiquement, cette intégrale peut être calculée facilement :

Par la méthode de Simpson par exemple, on calcule :

où ε est suffisamment petit.

Comme il est très difficile d’approcher une singularité par un polynôme, on partage en deux intégrales :

avec ou par exemple.

On prend un grand pas entre c et 1 et un pas petit entre ε et c.

La méthode de Gauss est la mieux adaptée en général parce qu’elle correspond à une approximation par un polynôme de degré n élevé d’une part, et si, d’autre part, on choisit n pair, on n’a pas besoin de la valeur de aux bornes.

Cependant si la fonction oscille autour de la singularité, ce type d’approche ne donne pas de bons résultats.

Une autre approche possible permettant de calculer consiste à faire un changement de lavariables en variable .

Pour le cas particulier étudié, on obtient :

Page 52: Cours de Methodes Numeriques

52

si

et par suite :

Page 53: Cours de Methodes Numeriques

53

Chapitre VI : Résolution numériques des équations différentielles

Plan

1. Position du Problème

2. Méthodes de résolution des équations différentielles 2.1. Méthode d'Euler 2.2.1. Méthode de Runge-Kutta à l'ordre 2 2.2.2. Méthode de Runge-Kutta à l'ordre 4 2.2. Méthode de Runge-Kutta à pas unique 2.3. Méthode d'Adams à pas multiple 2.3.1. Formules d'Adams ouvertes 2.3.1.1. Formules d'Adams à l'ordre 1 2.3.1.2. Formules d'Adams à l'ordre 2 2.3.1.3. Formules d'Adams à l'ordre 3 2.3.1.4. Formules d'Adams à l'ordre plus élevé 2.3.2. Formules d'Adams fermées 2.4. Méthode de Prédicteur-Correcteur 2.5. Problèmes avec des conditions aux limites : Méthode de TIR 2.6. Problèmes avec des conditions aux limites : Méthode Matricielle

1. Position du Problème

Les méthodes analytiques ne sont pas suffisantes pour résoudre les problèmes d'équations différentielles. En effet, il existe plusieurs types d'équation différentielles. Chaque type nécessite une méthode de résolution particulière.

La résolution de la plupart des équations différentielles requiert donc l'utilisation de méthodes numériques. Chacune de ces méthodes peut être appliquée à la résolution de la plupart des équations différentielles.

Les équations différentielles peuvent être classées en deux catégories : les équations différentielles aux conditions initiales et les équations différentielles aux conditions aux limites.

Exemples :

1°) Soit l'équation différentielle suivante :

Page 54: Cours de Methodes Numeriques

54

On donne en plus de cette équation différentielle les conditions initiales suivantes :

et

Dans cette équation, la variable indépendante peut être le temps, mais aussi toute autre variable. Dans ce cas, on peut dire que toute équation différentielle d'ordre avec des conditions initiales peut être remplacée par un système de équations différentielles couplées

du 1er ordre. En posant , le système précédent devient :

avec :

Ainsi, un problème aux conditions initiales est donc de la forme :

où et

On obtient alors un système de équations à inconnues. Ce système peut être résolu par rapport à une seule variable (le temps par exemple) :

Les méthodes employées pour la résolution du système précédent se généralisent de façon immédiate pour résoudre les systèmes de équations à inconnues.

2°) Soit l'équation de la propagation de la chaleur le long d'une barre :

Ce problème est à conditions aux limites.

Dans de nombreux cas, on trouve des problèmes où les conditions aux limites (ou les conditions initiales) n'ont pas de sens physique.

Page 55: Cours de Methodes Numeriques

55

2. Méthodes de résolution des équations différentielles

2.1. Méthode d'Euler

La méthode d'Euler est la méthode la plus simple et la moins précise. Soit à résoudre l'équation différentielle suivante :

En supposant connue à l'instant t, le développement en série de Taylor de au voisinage de donne :

à l'ordre 1, on obtient :

Pour constant, on a :

est connue à , donc, la fonction y peut être déterminée à tout autre instant ultérieur.

Exemple :

Résoudre l'équation différentielle du 1er ordre suivante :

La solution exacte de ce système est :

Selon la méthode d'Euler, la solution de ce système s'écrit :

car

Page 56: Cours de Methodes Numeriques

56

Dans le tableau ci-dessous, donne une comparaison entre la solution numérique et la solution exacte obtenue analytiquement pour un pas de temps s :

i ti yi exact yi Méthode d'Euler % Err. relative

1 0,1 0,90909091 0,90000000 1,00

2 0,2 0,83333333 0,81900000 1,72

3 0,3 0,76923077 0,75192390 2,25

4 0,4 0,71428571 0,69538494 2,65

5 0,5 0,66666667 0,64702892 2,95

7 0,7 0,58823529 0,56854190 3,25

9 0,9 0,52631579 0,50746495 3,58

11 1,1 0,47619048 0,45850815 3,71

D'après ce tableau, on remarque que l'erreur augmente au fur et à mesure que augmente. Donc, cette méthode est peu précise. Elle n'est pas utilisée dans la résolution numérique des équations différentielles. Nous l'avons utilisée pour introduire les autres méthodes et donner une simple idée sur l'erreur commise.

2.2. Méthode de Runge-Kutta à pas unique

Les méthodes de Runge-Kutta sont bien utilisée dans la pratique, car elles présentent plusieurs avantages (facilité de programmation, stabilité de la solution, modification simple du pas et la connaissance de suffit pour intégrer l'équation différentielle). Les inconvénients de cette méthode se résument au temps de calcul lent et à la difficulté de l'estimation de l'erreur locale.

2.2.1. Méthode de Runge-Kutta à l'ordre 2

Cette méthode est obtenue en prenant les différences centrées au 1er ordre :

Or est inconnue. Dans ce cas, on remplace par sa valeur

estimée dans l'équation précédente, et on obtient :

Page 57: Cours de Methodes Numeriques

57

Pour évaluer , la fonction doit être calculée deux fois, d'où l'appellation "Formule

d'ordre 2" : la première fois pour l'obtention de et la seconde fois pour évaluer .

2.2.2 Méthode de Runge-Kutta à l'ordre 4

Dans la plupart des cas, la méthode de Runge-Kutta utilisée est celle d'ordre 4 :

Le calcul de nécessite alors 4 évaluations de la fonction , et par suite pour les fonctions compliquées le temps de calcul devient important.

2.3. Méthode d'Adams à pas multiple

Cette méthode est l'une des catégories à pas multiples. Elle peut être classée en formules ouvertes ou formules fermées.

2.3.1. Formules d'Adams ouvertes

Soit l'équation différentielle suivante :

(1)

Le développement en série de Taylor autour de donne :

Page 58: Cours de Methodes Numeriques

58

Dans l'équation différentielle (1), on a :

où :

(2)

2.3.1.1. Formules d'Adams à l'ordre 1

Dans l'équation (2), on garde les deux premiers termes (à l'ordre 1) :

(3)

C'est l'équation d'Euler (ou méthode d'Euler).

2.3.1.2. Formules d'Adams à l'ordre 2

On utilise les trois premiers termes de l'équation (2) :

(4)

On remplace par son expression en fonction des différences finies à gauche, et on obtient :

Page 59: Cours de Methodes Numeriques

59

et l'expression (3) devient :

ou encore :

Les termes d'ordre 3 sont négligés. Donc, la formule est d'ordre 2. Pour calculer , il faut

connaître et . On remarque que ne peut pas être déterminée car on ne connaît pas . Pour démarrer cette méthode, il faut utiliser une autre méthode pour évaluer (méthode de Runge-Kutta à l'ordre 2 par exemple).

2.3.1.3. Formules d'Adams à l'ordre 3

On utilise les 4 premiers termes de l'équation (2) :

On exprime et par leurs formules obtenues à partir des différences à gauches, et on trouve :

D'où la solution devient après regroupement des différents termes :

On a la même remarque que précédemment, on calcule et en utilisant la méthode de Runge-Kutta à l'ordre 4.

2.3.1.4. Formules d'Adams à l'ordre plus élevé

En utilisant le même principe, on peut exprimer, par une formule générale d'ordre ,

en fonction de et :

Page 60: Cours de Methodes Numeriques

60

(4)

Dans le tableau suivant, on donne les valeurs de jusqu'à , ce qui correspond à une formule d'ordre 6.

0 1 2 3 4 5 Ordre de la méthode

0 1 1

1

2

2

3

3

4

4

5

5

6

La formule la plus couramment utilisée est celle d'ordre 4 :

2.3.2. Formules d'Adams fermées

Dans ces formules, on utilise le développement en série de Taylor "en arrière" :

Dans ce développement en série de Taylor, on remarque que :

Page 61: Cours de Methodes Numeriques

61

D'où pour , on a :

Ainsi, on obtient :

Cette formule est dite "fermée" car pour obtenir l'inconnue , il faut

calculer qui dépend lui même en général de . On utilise donc une

méthode itérative. Pour cela, on injecte une première valeur estimée de .

On obtient alors une nouvelle :

(pour l'ordre 1 par exemple)

Ensuite, on injecte pour calculer . On arrête les calculs quand la convergence est réalisée. Si cette convergence s'effectue quand la précision est inférieure à une valeur donnée, on a donc :

à l'ordre , on obtient la formule généralisée suivante :

Page 62: Cours de Methodes Numeriques

62

Les valeurs de sont donnée par le tableau ci-dessous jusqu'à .

0 1 2 3 4 5 Ordre de la méthode

0 1 1

1

2

2

3

3

4

4

5

5

6

La méthode la plus couramment utilisée est celle à l'ordre 4, c'est à dire :

On constate que les formules fermées, qui sont itératives, demandent plus de temps de calcul

que les formules ouvertes, puisqu'il faut calculer de telle sorte que la différence converge vers . Pour le même ordre, ces formules sont bien plus précises et plus stables que celles dites

"ouvertes". Leur convergence est d'autant plus rapide que l'estimation initiale est plus

proche de la valeur exacte .

2.4. Méthode de Prédicteur-Correcteur

La combinaison des deux méthodes précédentes (formules d'Adams ouvertes et formules d'Adams fermées) constitue la méthode de prédicteur-correcteur. Il suffit de trouver une

valeur estimée proche de la valeur finale . Le prédicteur est obtenu par une

formule ouverte de même ordre. Cette valeur est introduite dans la méthode à formule fermée. Ceci permet d'accélérer la convergence vers la solution. Ainsi, on profite des avantages liés à la méthode d'Adams : temps de calcul réduit et erreur estimée de troncature réduite considérablement.

Page 63: Cours de Methodes Numeriques

63

Pour la méthode d'Adams au 4ème ordre, on a : Prédicteur : formules d'Adams ouvertes au 4ème ordre :

(5)

au pas précédent, on a qui est la valeur du prédicteur (modificateur)

(6)

Correcteur : obtenu à partir de la formule d'Adams fermée (au 4ème ordre par exemple) :

(7)

Les valeurs , et peuvent être calculées à partir des formules de Runge-Kutta. Étant

donné que n'existe pas, la valeur est calculée à partir des équations (5) et (6) et

va initialiser les calculs d'itérations (formule (7)). À partir de , on estime par

l'équation (5), puis par la formule (6). Cette valeur est injectée dans la formule (7) pour amorcer les itérations.

Exercice :

Résoudre l'équation différentielle suivante par la méthode de Runge-Kutta à l'ordre 4, puis par la méthode de prédicteur-correcteur d'ordre 4 en se limitant à une itération pour le correcteur. On prendra et on comparera les résultats obtenus par les deux méthodes pour par exemple :

2.5. Problèmes avec des conditions aux limites : Méthode de TIR

La méthode de TIR consiste à remplacer le problème de conditions aux limites par un problème de conditions initiales. Les conditions aux limites qui ne sont pas des conditions

Page 64: Cours de Methodes Numeriques

64

initiales ne peuvent se concevoir que pour des équations différentielles d'ordre au moins égal à 2, ou pour les systèmes d'équations différentielles du 1er ordre.

Soit l'équation différentielle du second ordre suivante :

(8)

avec les conditions aux limites suivantes :

On remplace ces conditions aux limites par des conditions initiales :

où est arbitraire

En utilisant les méthodes décrites précédemment, la résolution de (8) donne une

solution qui, pour , prend la valeur . Cette solution est une fonction de , et on cherche de telle sorte qu'on ait :

Ainsi, le problème devient une équation dont on est amené à chercher sa racine.

Pour résoudre l'équation (8), on donne 2 valeurs arbitraires et ; ce qui donne

et puis on déduit une valeur par interpolation linéaire. Ayant obtenu

et à partir de et , on en déduit dans le cas général par :

(9)

La convergence est réalisée quand et seront suffisamment proches l'une de l'autre.

Page 65: Cours de Methodes Numeriques

65

Exemples :

• soit le système d'équations du 1er ordre suivant avec des conditions aux limites :

Cette équation du 3ème ordre peut être ramenée à un système de 3 équations du 1er ordre, en posant :

d'où :

avec :

Ce système est à conditions aux limites. Pour le résoudre, on le transforme en un système aux conditions initiales :

avec :

Page 66: Cours de Methodes Numeriques

66

Ce système peut être résolu par l'une des méthodes décrites précédemment (prédicteur-correcteur avec initialisation ou Runge-Kutta) ensuite on détermine la valeur de pour que soit égal à 1.

• Équations non linéaires ou à coefficients fonction de l'inconnue :

On dit qu'une équation différentielle est non linéaire si , , , …, apparaissent à des puissances différentes de 1, comme par exemple :

(10)

Si l'équation est à coefficients dépendants de l'inconnue, peut s'écrire sous la forme suivante par exemple :

Ces équations peuvent être résolues par décomposition en un système de équations à inconnues du 1er ordre, comme c'est le cas de l'exemple précédent (équation 10) :

Cette équation peut être écrite sous la forme :

et on remplace l'ensemble des conditions aux limites par des conditions initiales.

2.6. Problèmes avec des conditions aux limites : Méthode Matricielle

Equation différentielle du second ordre : différences finies

Soit à résoudre l'équation différentielle du second ordre suivante :

(11)

On suppose connues :

(conditions aux limites)

Page 67: Cours de Methodes Numeriques

67

On divise l'intervalle en intervalles égaux à .

On utilise les formules d'ordre 2 aux différences centrées :

L'équation (11) devient en et pour :

Après regroupement des différents termes, on obtient :

équation qui peut être écrite aussi sous la forme suivante la plus simple :

Pour variant de 1 à , on obtient un système de équations à inconnues (où ). La première équation de ce système correspond à et la dernière correspond à . Ces deux équations s'écrivent, puisqu'on connaît les conditions aux

limites et :

Ainsi, le système d'équations (12) devient :

Page 68: Cours de Methodes Numeriques

68

Ce système est défini par une matrice tridiagonale. Sa résolution est simple et rapide : (

équations à inconnues ). Pour aboutir à la précision recherchée, on résout le

système plusieurs fois avec des pas , etc. jusqu'à la convergence souhaitée.

Page 69: Cours de Methodes Numeriques

69

Chapitre VII : Calculs des équations aux dérivées partielles

Plan

1. Position du Problème

2. Expression des dérivées partielles

3. Conditions aux limites 3.1. Cas où le contour suit le maillage 3.2. Cas où le contour est quelconque

4. Équations du premier ordre : Méthode des caractéristiques 4.1. Courbes caractéristiques associées à une équations du premier ordre 4.2. Exemples de problèmes liés aux conditions aux limites 4.3. Système d'équations du premier ordre

5. Équations du second ordre

6. Équations elliptiques

7. Problèmes en coordonnées cylindriques

8. Discrétisation de l'équation de la Conduction en régime instationnaire

1. Position du Problème

Dans la pratique, la plupart des équations aux dérivées partielles sont du premier ou du second ordre à deux variables indépendantes, et l’extension de ces équations à un ordre plus élevé ne pose aucun problème pour la résolution. Si est une fonction des variables et , alors les

équations aux dérivées partielles font intervenir , , , et .

Dans la suite, nous exprimons ces quantités en fonction de leurs expressions établies à l’aide des différences finies. Les contours du domaine de la fonction permettent de donner les conditions aux limites.

Page 70: Cours de Methodes Numeriques

70

2. Expression des dérivées partielles

Pour calculer , on utilise les points situés de part et d’autre de . Considérons les développements en séries de Taylor autour de , de la fonction :

Posons où est l’un des points de la figure 1 ci-dessous :

Fig. 1 : Maillage utilisé en différences finies

Pour et , on obtient à partir du développement précédent à l’ordre 2 les dérivées

partielles premières : soit :

(1)

On a également :

soit :

(2)

Page 71: Cours de Methodes Numeriques

71

En additionnant les développements en séries de Taylor des fonctions et à l’ordre 2, on obtient les dérivées partielles secondes :

soit :

soit :

Pour l’obtention des dérivées croisées, par exemple, on applique successivement les équations (1) et (2) :

Soit :

Page 72: Cours de Methodes Numeriques

72

3. Conditions aux limites

Dans le cas de plusieurs variables indépendantes, la limite représente le contour dans le cas de deux variables, la surface dans le cas de trois variables, etc. En général, on impose sur le contour (en tout point), des conditions portant soit sur la fonction (problème de Dirichlet),

soit sur le gradient de : ( , problème de Neumann).

3.1. Cas où le contour suit le maillage

Dans la majorité des cas, le contour est constitué (ou approché) par des segments de droites qui suivent le maillage. Les conditions aux limites s'expriment de la même façon que dans le cas des équations différentielles (chapitre précédents).

Fig. 2 : Contour suivant le maillage

3.2. Cas où le contour est quelconque

Un contour quelconque est remplacé par la ligne polygonale la plus voisine. Dans le cas de la figure 3 ci-dessous, c'est Aa, bB, Cc, dE, Ee, etc. Ainsi les équations du paragraphe précédent, faisant intervenir les dérivées partielles, et écrites pour tous les points intérieurs A,B, C, etc., font intervenir les points extérieurs a, b, c, etc. Les conditions aux limites fournissent des conditions supplémentaires sur ces points extérieurs.

Sur le contour, il faut interpoler , , à partir des nœuds voisins à l'aide de la formule de Gregory-Newton par exemple.

Page 73: Cours de Methodes Numeriques

73

Fig. 3 : Contour quelconque

4. Équations du premier ordre : Méthode des caractéristiques

On s'intéresse ici aux équations du premier ordre qui sont quasi-linéaires et de la forme :

Les coefficients , et ne dépendent ni de ni de . À cette équation, il faut ajouter les conditions aux limites.

4.1. Courbes caractéristiques associées à une équations du premier ordre

L'équation précédente à résoudre est de la forme :

Considérons les vecteurs et suivants :

Cette équation se réduit à : . Ainsi, est un vecteur tangent à la surface représentative de la solution .

Le vecteur parallèle à est : (1)

Les courbes et obtenues à partir de ces équations sont appelées des courbes caractéristiques. La méthode caractéristique consiste à remplacer l'équation aux dérivées partielles précédente par un ensemble d'équations de la forme :

Page 74: Cours de Methodes Numeriques

74

• ou encore qui, une fois intégrée compte tenu de la constante d'intégration, donne l'équation .

• ou encore (ou ) qui, une fois intégrée donne la valeur de en tout point (donc ) de la caractéristique.

Ainsi, la solution recherchée satisfait à :

4.2. Exemples de problèmes liés aux conditions aux limites

Exemple 1:

Soit à résoudre la simple équation aux dérivées partielles suivantes :

En se reportant au paragraphe précédent, on a :

L'équation (1) s'écrit alors :

Cette équation est remplacée par deux autres équations :

(3)

D'après la première équation du système (3), les caractéristiques sont des droites parallèles. Ainsi, l'expression de devient :

Page 75: Cours de Methodes Numeriques

75

Les constantes et (ou ) sont déterminées à partir des conditions aux limites.

Exemple 2: Soit à résoudre l'équation différentielle suivante :

Dans cette équation : ; et .

D'où :

L'équation des caractéristiques est :

Les conditions aux limites donnent :

D'où la solution :

Les constantes et sont déterminées par les conditions aux limites.

4.3. Système d'équations du premier ordre

Soit le système suivant liant les dérivées des fonctions et :

Page 76: Cours de Methodes Numeriques

76

(4)

où les coefficients peuvent dépendre de et , mais pas de ni de . et sont supposées connues sur une courbe .

Suivant la procédure décrite dans le paragraphe précédent, on peut écrire :

(5)

Les systèmes (4) et (5) ne définissent pas les 4 inconnues , , et de manière unique, seulement s'ils sont linéairement dépendants; c'est à dire si le déterminant est nul.

1)

En divisant le déterminant par , on obtient une équation du second degré en , dont la solution est l'équation différentielle des caractéristiques.

2) En remplaçant dans le déterminant la dernière colonne par celle du second membre, on obtient :

Page 77: Cours de Methodes Numeriques

77

et par intégration, on obtient les valeurs de et de le long des caractéristiques.

5. Équations du second ordre

Soit l'équation aux dérivées partielles suivante :

(6)

, , et peuvent dépendre de , , , et , mais pas des dérivées secondes de la fonction .

Posons :

et :

L'équation (6) devient :

(7)

avec :

(8)

Les équations (7) et (8) comportent 3 inconnues , et . La solution n'est pas unique si .

Page 78: Cours de Methodes Numeriques

78

soit :

(9)

Lorsque l'équation (10) est vérifiée, le système (7) et (8) n'admet pas de solution sauf si les autres déterminants du système sont nuls : c'est à dire en remplaçant dans le déterminant précédent la deuxième colonne par la colonne du second membre de l'équation :

(10)

Pour pouvoir utiliser la méthode des caractéristiques, il faut que les racines de l'équation (9) soient réelles. En conséquence, les 3 cas suivants présentent :

• si , l'équation (9) n'a pas de racines réelles, et l'équation (6) est dite

elliptique . • si , l'équation (9) admet une racine réelle double, et cette équation est dite

parabolique (c'est le cas de l'équation de diffusion de la chaleur où si se confond avec la variable t).

• si , l'équation (9) admet deux solutions réelles qui sont distinctes, et cette équation est dite hyperbolique (c'est le cas de l'équation de

propagation ).

6. Équations elliptiques

Dans cette partie, on montre comment on discrétise une équation aux dérivées partielles elliptique avec des conditions aux limites, dans le but de la transformer en un système de équations à inconnues.

La mise en équation à l'aide des différences finies comporte les étapes suivantes :

Page 79: Cours de Methodes Numeriques

79

• on définit un maillage couvrant le domaine et sa frontière, • en tout nœud intérieur au domaine, on exprime les dérivées partielles à l'aide des

différences finies (ces termes contiennent des points situés sur la frontière), • on exprime les valeurs de la fonction en tout point sur la frontière en tenant compte

des conditions aux limites.

Ainsi, on obtient un système de équations à inconnues.

Exemple :

Résoudre l'équation de Laplace suivante :

avec les conditions aux limites suivantes :

et

• Dans un premier temps, on définit le maillage qui coïncide avec la frontière du

domaine : on choisit pas sur ( ) et m + 1 pas sur y ( )

Fig. 4 : Définition du maillage

• En chaque nœud intérieur du domaine, on exprime l'équation de Laplace à l'aide des différences finies, ce qui permet de donner :

Page 80: Cours de Methodes Numeriques

80

• On vérifie bien que cette équation fait intervenir les points à la frontière ( à et à ).

• On exprime les conditions aux limites portant sur , , et .

D'après les conditions aux limites imposées, l'équation précédente s'écrit pour et :

Les valeurs et donnent dans l'équation précédente :

Pour à , on a :

à l'ordre 4 s'écrit :

Soit :

On continue ainsi à exprimer les conditions aux limites, ce qui donne :

Page 81: Cours de Methodes Numeriques

81

Pour , on obtient :

Les équations précédentes constituent un ensemble de équations. Pour variant entre 0 et , on obtient équations à inconnues (valeurs de dans les nœuds intérieurs au domaine). Ce système d'équations peut être résolu par exemple par la méthode de Gauss-Seidel (méthode itérative).

Principe de la méthode :

Après multiplication par et regroupement des termes, l'équation discritisée peut s'écrire sous la forme :

Le coefficient est le plus grand en module. Donc :

Pour , on obtient :

Pour résoudre l'équation discritisée, on applique le procédé d'itérations de Gauss-Seidel

(méthode explicite). Pour cela, on se donne une valeur (distribution) arbitraire initiale , qui portée dans l'équation (19) au second membre pour chaque couple , donne une

nouvelle valeur , et ainsi de suite. L'arrêt des calculs se fait quand où est la limite de convergence que l'on se donne.

Dans le cas de l'équation de Laplace, le procédé converge toujours. Pour d'autres équations plus compliquées, ce procédé de convergence pourra diverger. Dans ce cas, on utilise un facteur de relaxation . En général, la convergence est plus rapide lorsqu'on utilise un

Page 82: Cours de Methodes Numeriques

82

procédé de relaxation (où ).

7. Problèmes en coordonnées cylindriques

Considérons l'équation de la conduction de la chaleur exprimée en coordonnées cartésiennes :

En coordonnées polaires, cette équation s'écrit sous la forme :

sur la domaine

Sur ce domaine , on construit un maillage en coordonnées polaires comme le montre la figure 5 ci-dessous, avec et où et sont des entiers.

Fig. 5 : Système de maillage en coordonnées polaires

Ainsi, la température et la fonction deviennent au point :

Pour des valeurs non nulles de , les dérivées secondes de par rapport à et s'écrivent sous la forme discrétisée suivante :

Page 83: Cours de Methodes Numeriques

83

En utilisant les différences centrées, peut s'écrire au point sous la forme :

Ainsi, l'équation de la chaleur discrétisée est :

Soit, après regroupement des différents termes :

C'est l'équation de conduction de la chaleur discrétisée (différences finies) en coordonnées cylindriques, obtenue pour des valeurs de non nulles ( ). Les indices et sont des entiers (commençant par 1 dans Matlab).

A l'origine ( ), l'équation de la conduction en coordonnées polaires présente une singularité. Cette dernière doit être éliminée. Pour cela, on utilise le Laplacien de l'équation de la conduction non pas en coordonnées cylindriques, mais en coordonnées cartésiennes :

quand

On construit ensuite un cercle de rayon , centré en . Considérons la température

à , et , , et sont les températures sur le cercle aux 4 nœuds (intersection avec les axes et ). Ainsi, l'équation précédente (en coordonnées cartésiennes) s'écrit sur le cercle de rayon :

Page 84: Cours de Methodes Numeriques

84

La rotation des axes et autour de conduit au mêmes résultats (équation de la chaleur en coordonnées cartésiennes discrétisée). En considérant comme la moyenne arithmétique des températures autour du cercle de rayon , l'équation précédente devient :

à

où est la moyenne arithmétique des valeurs de autour du cercle de rayon et de centre et est la valeur de la température à .

Les coordonnées polaires (deux dimensions) peuvent être extrapolées en coordonnées cylindriques (trois dimensions) pour l'obtention de l'équation de la conduction de la chaleur discrétisée.

Pour le problème bidimensionnel en évoqué précédemment, compte tenu de la symétrie axiale, l'équation de la conduction de la chaleur peut être réduite à :

Pour , l'équation précédente discrétisée s'écrit sous la forme :

où , , et est un entier positif.

Au centre ( ), en utilisant la règle de l'Hopital nous obtenons :

D'où, l'équation de la conduction de la chaleur en deux dimensions , s'écrit compte tenu de la symétrie axiale du problème :

en

soit en différences finies :

pour

Page 85: Cours de Methodes Numeriques

85

En coordonnées cylindriques, l'équation de la conduction de la chaleur est donnée par l'expression suivante :

Les coordonnées sont représentées par :

où et sont des entiers.

La température au nœud est notée par :

et les différentes dérivées partielles deviennent :

L'équation de la chaleur discrétisée en coordonnées cylindriques au nœud devient :

pour des valeurs de non nulles.

Pour , on a :

et l'équation de conduction en devient :

en

Soit en utilisant les différences finies au nœud :

Page 86: Cours de Methodes Numeriques

86

8. Discrétisation de l'équation de la Conduction en régime instationnaire

Dans le système de coordonnées cartésiennes (trois dimensions), l'équation de conduction de la chaleur en régime instationnaire (temporel) s'écrit (si ) :

Pour résoudre cette équation aux dérivées partielles en utilisant la méthode des différences finies, on utilise un maillage cubique (mailles de côtés avec :

où , et sont entiers positifs, et le domaine temporel est divisé en petits intervalles de temps de telle sorte que .

Dans ce cas, la température au point à un temps donné est représentée par :

En utilisant la méthode des différences finies, les différents termes de l'équation ci-dessus au dérivées partielles s'écrivent au point :

et l'équation de la conduction discrétisée en trois dimensions devient :

Page 87: Cours de Methodes Numeriques

87

En regroupant les différents termes de cette équation, on obtient :

Cette équation ne peut être résolue que par une méthode itérative (méthode de Gauss-Seidel par exemple).

On pose :

La convergence de la solution recherchée est assurée si la quantité est strictement positive. Ainsi, le pas de temps et les autres pas spatiaux ( , et ) sont reliés par :

Pour amorcer le calcul itératif, on ensemence le domaine de frontière par des valeurs

arbitraires ( par exemple), et on arrête les calculs quand la

condition est réalisée ( est une précision à fixer).

Page 88: Cours de Methodes Numeriques

88

Quelques références bibliographiques à consulter

• A. Gourdin & M. Boumahrat ; "Méthodes numériques appliquées" ; éditions Techniques et Documentations Lavoisier, 1989.

• A. Ralston & P. Rabinowitz; "A first course in numerical analysis" ; éditions Presses Universitaires de Grenoble, 1991.

• M. Sibony & J. Cl. Mardon ; "Ananlyse numérique I : Systèmes linéaires et non linéaires"; éditions Herman, 1982.

• M. Sibony ; "Ananlyse numérique III : Itérations et approximations" ; éditions Herman, 1988.

• M. Schatzman ; "Analyse numérique : cours et exercices pour la licence" ; Inter éditions, 1991.

• J. Baranger ; "Introduction à l'analyse numérique" ; éditions Herman, 1993.

• J.C. Vaissière & J.P. Nougier ; "Programmes et exercices sur les méthodes numériques" ; éditions Masson, 1990.

• J.P. Nougier ; "Méthodes de calcul numérique" ; éditions Masson, 3ème édition, 1993.

• J.P. Demailly ; "Analyse numérique et équations différentielles" ; éditions Mc Graw-Hill, 2ème édition, 1978.

• J. Stoer & R. Bulirsch ; "Introduction to numerical analysis" ; éditions Springer-Verlag, 1980.

• P. Lascaux & R. Theodor ; "Ananlyse numérique matricielle appliquée à l'art de l'ingénieur : Méthodes directes"; Tome 1 ; éditions Masson, 2ème édition, 1993.

• P. Lascaux & R. Theodor ; "Ananlyse numérique matricielle appliquée à l'art de l'ingénieur : Méthodes directes"; Tome 2 ; éditions Masson, 2ème édition, 1994.