vecteurs propres et valeurs propres. - math.unice.frmerle/algebre2/1cours_alg2.pdf · on travaille...

27
Universit´ e de Nice SL2SF 2012-13 Alg` ebre 2 Vecteurs propres et valeurs propres. On travaille sur le corps R des r´ eels. On pourrait ´ egalement utiliser le corps des complexes C. La plupart des r´ esultats sont en fait valables sur un corps quelconque. Un r´ esultat essentiel du cours de premi` ere ann´ ee est le suivant : on consid` ere un syst` eme lin´ eaire homog` ene (i.e. sans second membre) de p ´ equations ` a n inconnues a 1,1 x 1 + ... + a 1,n x n = 0 . . . a p,1 x 1 + ... + a p,n x n = 0. La matrice p × n de coefficients a i,j pour i de 1 ` a p et j de 1 ` a n est la matrice du syst` eme. On la esigne par A. On ´ echelonne les lignes de la matrice A. Le rang des lignes de A est le nombre de pivots obtenu dans la proc´ edure d’´ echelonnage. Il ne d´ epend pas du proc´ ed´ e choisi. C’est le nombre de variables li´ ees du syst` eme. On l’appelle le rang du syst` eme (ou rang des lignes de A). L’espace des solutions du syst` eme a pour dimension le nombre de variables libres et, bien sˆ ur, le nombre de variables est ´ egal ` a la somme du nombre de variables li´ ees et du nombre de variables libres. C’est la premi` ere forme du th´ eor` eme du rang. 1. Applications lin´ eaires Dans tout ce paragraphe, on consid` ere deux espaces vectoriels E et F sur R et une application f : E -→ F . Pour les d´ efinitions aller au paragraphe 10. 1.1. Matrice d’une application lin´ eaire. On suppose ici que E et F sont de dimension finie. On note n la dimension de E et p la dimension de F . On se donne des bases B =( ~e 1 ,...,~e n ) de E et C =( ~ 1 ,...,~ p ) de F . On consid` ere une application lin´ eaire f : E -→ F . La matrice de f dans les bases (B, C ) est un tableau ` a p lignes et n colonnes. Sur la j -` eme colonne on dispose les coordonn´ ees dans la base C de l’image par f du j -` eme vecteur de B, de sorte que le coefficient a i,j de la matrice, situ´ e sur la ligne de num´ ero i et la colonne de num´ ero j est la i-` eme coordonn´ ee du vecteur f ( ~e j ). On note M p,n (R) l’ensemble des matrices ` a p lignes et n colonnes. Aux op´ erations sur les applications lin´ eaires, correspondent les op´ erations sur les matrices : produit par un scalaire, somme, produit de matrices. Noter que le produit AB de deux matrices n’a de sens que si le nombre de lignes de B est ´ egal au nombre de colonnes de A. La matrice AB a alors le nombre de lignes de A et le nombre de colonnes de B. En particulier, si A est dans M p,n (R) et X une matrice colonne de M n,1 (R), alors le produit AX est une matrice colonne de M p,1 (R).

Upload: duonghanh

Post on 20-Aug-2018

217 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

Universite de Nice SL2SF2012-13 Algebre 2

Vecteurs propres et valeurs propres.

On travaille sur le corps R des reels.On pourrait egalement utiliser le corps des complexes C. La plupart des resultats sont en faitvalables sur un corps quelconque.Un resultat essentiel du cours de premiere annee est le suivant : on considere un systeme lineairehomogene (i.e. sans second membre) de p equations a n inconnues

a1,1x1 + . . .+ a1,nxn = 0

...

ap,1x1 + . . .+ ap,nxn = 0.

La matrice p× n de coefficients ai,j pour i de 1 a p et j de 1 a n est la matrice du systeme. On ladesigne par A.On echelonne les lignes de la matrice A. Le rang des lignes de A est le nombre de pivots obtenu dansla procedure d’echelonnage. Il ne depend pas du procede choisi. C’est le nombre de variablesliees du systeme. On l’appelle le rang du systeme (ou rang des lignes de A). L’espace des solutionsdu systeme a pour dimension le nombre de variables libres et, bien sur, le nombre de variablesest egal a la somme du nombre de variables liees et du nombre de variables libres. C’est la premiereforme du theoreme du rang.

1. Applications lineaires

Dans tout ce paragraphe, on considere deux espaces vectoriels E et F sur R et une applicationf : E −→ F .Pour les definitions aller au paragraphe 10.

1.1. Matrice d’une application lineaire. On suppose ici que E et F sont de dimension finie.On note n la dimension de E et p la dimension de F . On se donne des bases B = (~e1, . . . , ~en) deE et C = (~ε1, . . . ,~εp) de F .On considere une application lineaire f : E −→ F . La matrice de f dans les bases (B, C) estun tableau a p lignes et n colonnes. Sur la j-eme colonne on dispose les coordonnees dans la baseC de l’image par f du j-eme vecteur de B, de sorte que le coefficient ai,j de la matrice, situe surla ligne de numero i et la colonne de numero j est la i-eme coordonnee du vecteur f(~ej). On noteMp,n(R) l’ensemble des matrices a p lignes et n colonnes.Aux operations sur les applications lineaires, correspondent les operations sur les matrices : produitpar un scalaire, somme, produit de matrices.Noter que le produit AB de deux matrices n’a de sens que si le nombre de lignes de B est egalau nombre de colonnes de A. La matrice AB a alors le nombre de lignes de A et le nombre decolonnes de B. En particulier, si A est dans Mp,n(R) et X une matrice colonne de Mn,1(R), alorsle produit AX est une matrice colonne de Mp,1(R).

Page 2: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

2

Comment disposer le produit de deux matrices : ci-dessous le calcul du coefficient ci,j du produitAB. Il ne fait intervenir que la i-eme ligne de A et la j-eme colonne de B.

b1,jb2,j...bn,j

ai,1 ai,2 . . . ai,n

.... . . ci,j

ci,j = ai,1b1,j + ai,2b2,j + . . .+ ai,nbn,j

=n∑`=1

ai,`b`,j.

1.1.1. Exercice. . On considere un entier n, n ≥ 2, deux entiers i et j, 1 ≤ i 6= j ≤ n, unematrice carree Li,j(λ) de taille n× n dont les coefficients diagonaux sont tous egaux a 1, dont lecoefficient `i,j vaut λ et dont tous les autres coefficients sont nuls.On considere egalement une matrice A a n lignes et p colonnes. On designe par Li la ligne denumero i, pour i de 1 a n. Montrer que le produit Li,j(λ)A est une matrice A′ qui a les memeslignes que A sauf la ligne de numero i qui vaut Li + λLj. /

1.1.2. Exercice. . Montrer que Mp,n(R) est un espace vectoriel sur R. En donner une base.Quelle est sa dimension ? Montrer que Mn,n(R), que l’on notera desormais Mn(R), est stable parla multiplication des matrices. Montrer que ce produit n’est pas commutatif si n > 1. /

Comment calculer avec la matrice de f ? Notons A la matrice de f dans les bases (B, C).Un vecteur ~x de E est un element de ker f si f(~x) = ~0. Ses coordonnees (x1, . . . , xn) dans B sontsolutions du systeme lineaire homogene de matrice A. Ce systeme a p equations a n inconnues. Il apour rang le rang de A (nombre de variables liees) et l’ensemble de ses solutions est de dimensiond − rg(A) (nombre de variables libres). On a donc dim ker f = dimE − rg(A). Comme le sous-espace ker f est independant de la base choisie, le rang de la matrice de f dans une base B nedepend pas du choix de cette base.Un vecteur ~y de F est un element de Im(f) s’il existe un vecteur ~x de E tel que f(~x) = ~y. Lesous-espace vectoriel Imf est engendre par les images des vecteurs de B. Sa dimension est le rangdes colonnes de A. On demontre que le rang des colonnes de A est egal au rang des lignes de A.

1.2. Theoreme (du rang). On considere une application lineaire f : E −→ F entre deux espacesvectoriels de dimension finie sur R. Le rang de f est egal a la dimension de Im(f) et on a laformule

dim ker f = dimE − dim Im(f).

2. Vecteurs propres et valeurs propres d’une application lineaire

Dans tout ce paragraphe, on considere un entier d, un espace vectoriel E de dimension d sur R etune application lineaire f : E −→ E.

2.1. Definition. On dit qu’un vecteur ~v de E est un vecteur propre de f si– ~v n’est pas nul– f(~v) est un vecteur proportionnel a ~v.Lorsque ~v est un vecteur propre de f , le coefficient de proportionnalite de f(~v) sur ~v est la valeurpropre associee a ~v.

Page 3: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

3

Si ~v est un vecteur propre de f , il existe un scalaire λ tel que

f(~v) = λ~v.

On dit que ~v est un vecteur propre de f de valeur propre λ.

2.1.1. Exemple. On considere l’application g : R2 −→ R2 dont la matrice dans la base canoniquede R2 est la suivante

A :=

(1 65 2

)et les deux vecteurs

~u :=

(3−2

)et ~v :=

(6−5

)On verifie que

g(~u) =

(−911

)et g(~v) :=

(−24

20

).

On en deduit que ~u n’est pas un vecteur propre de g, tandis que ~v est un vecteur propre de valeurpropre −4.

2.1.2. Exemple. [plus general : on ne suppose pas que E est de dimension finie] On considerel’espace vectoriel des polynomes d’une variable a coefficients reels note R[X] et l’applicationderivation

D : R[X] −→ R[X]

P 7−→ P ′.

Un vecteur propre de P est un polynome non nul P dont la derivee P ′ lui est proportionnelle.Si le degre de P est au moins 1, alors la derivee P ′ est de degre strictement inferieur et ne peutdonc pas etre proportionnelle a P . Si P est de degre 0, c’est une constante non nulle et sa deriveeest nulle. On voit donc que les seuls vecteurs propres de D sont les constantes non nulles, tousassocies a la seule valeur propre 0.Noter qu’une base de R[X] est la famille des monomes (1, X,X2, . . .) qui est infinie denombrable.L’espace vectoriel R[X] n’est donc pas de dimension finie.

2.2. Definition. On considere une valeur propre λ de l’application f . Le sous-espace proprede f associe a λ est l’ensemble des vecteurs de E solutions du systeme lineaire f(~v) = λ~v. C’estun sous-espace vectoriel de E. On le note Eλ(f).

Comme λ est une valeur propre de f , le sous-espace Eλ(f) contient au moins un vecteur non nul. Ilest donc de dimension strictement positive. L’ensemble des vecteurs propres de f de valeur propreλ est l’ensemble des vecteurs non nuls de Eλ(f).On remarque que le systeme lineaire f(~v) = λ~v s’ecrit

(f − λId)(~v) = ~0.

2.2.1. Exemple. On considere l’application g : R3 −→ R3 dont la matrice dans la base canoniquede R3 est la suivante

A :=

4 −1 62 1 62 −1 8

.

Page 4: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

4

Le scalaire 2 est une valeur propre de g. En effet, l’application g − 2Id a pour matrice

A− 2I3 =

2 −1 62 −1 62 −1 6

qui est de rang 1. Le systeme lineaire g(~v)−2~v = ~0 se reduit a la seule equation 2v1−v2 +6v3 = 0.Ses solutions forment un sous-espace vectoriel E2(g) de dimension 2 dans R3 dont une base est 1

20

,

−301

.

2.3. Theoreme. On considere un scalaire λ. Les assertions suivantes sont equivalentes

(1) λ est une valeur propre de f .

(2) Il existe un vecteur propre de f de valeur propre λ.

(3) Le systeme lineaire (f − λId)(~v) = ~0 a au moins une solution non nulle (on dit aussi nontriviale, puisque le vecteur nul est toujours solution).

(4) Le noyau de f − λId n’est pas reduit au seul vecteur nul.

(5) Le rang de f −λId n’est pas maximum (autrement dit strictement inferieur a la dimensiond de E.

La seule chose qui ne decoule pas des definitions est l’equivalence de (3) et (4). C’est le theoremedu rang, applique a f − λId qui fournit la reponse, puisque

dim ker(f − λId) + rg(f − λId) = d.

2.3.1. Exemple. Cherchons a determiner toutes les valeurs propres de l’application g etudieedans l’exemple 2.1.1. On considere la matrice de g − λId

A− λI2 :=

(1− λ 6

5 2− λ

).

Elle n’est pas de rang maximum si et seulement si les deux lignes sont proportionnelles, autrementdit si (1− λ)(2− λ) = 30. Les valeurs convenables de λ sont les solutions de l’equation du seconddegre

λ2 − 3λ− 28 = 0.

Ces solutions sont −4 et 7.Calculons le sous-espace propre E−4(g). C’est l’ensemble des solutions du systeme de matriceA− (−4)I2. Cette matrice est de rang 1, donc E−4(g) est une droite vectorielle engendree par unde ses vecteurs non nul, par exemple ~v trouve en 2.1.1.Pour le calcul de E7(g), on resout le systeme de matrice A− 7I2 qui est egalement de rang 1. Lesous-espace propre E7(g) est une droite vectorielle engendree par un de ses vecteurs non nul, parexemple ~w de coordonnees (1, 1).On constate que la famille (~v, ~w) est une base de R2 formee de vecteurs propres de g.

Dans le cas general le calcul du determinant fournit un critere pour decider qu’une matrice carreeest de rang maximum ou pas.

Page 5: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

5

2.4. Systemes dynamiques lineaires discrets.

2.4.1. Exemple. (Voir D. Lay, Algebre lineaire et applications). On fait des statistiques sur unepopulation de chouettes : l’annee n, les populations des femelles poussins, jeunes et adultes, sontdesignees respectivement par xn, yn et zn. On etablit experimentalement les relations suivantes :xn+1 = 0, 33zn (taux de fertilite des adultes), yn+1 = 0, 18xn (capacite a nicher) et zn+1 = 0, 71yn+0, 99zn (les adultes de l’annee n+ 1 sont ceux de l’annee n qui ont survecu et les jeunes de l’anneen qui sont devenus adultes). On souhaite prevoir l’evolution de la population de chouettes adultesa long terme si les parametres de fecondite, survie, etc. restent les memes.Si on traite (xn, yn, zn) comme un vecteur de R3 on voit que xn+1

yn+1

zn+1

=

0 0 0, 330, 18 0 00 0, 71 0, 99

xnynzn

.

Le probleme revient a calculer les puissances de la matrice

A :=

0 0 0, 330, 18 0 00 0, 71 0, 99

.

2.4.2. Exemple. L’exemple le plus celebre est sans doute celui de Fibonacci (voir Wikipedia :comparer les articles en anglais et en francais).On etudie les suites donnees par leurs deux premiers termes u0, u1 et pour n ≥ 0 par la formulede recurrence

un+2 = un+1 + un.

On fait une reduction classique mais importante. On considere le vecteur

Un =

(unun+1

)qui est donc defini par

U0 =

(u0u1

)et, pour n ≥ 0, Un+1 =

(0 11 1

)Un.

Il s’agit alors d’etudier les puissances de la matrice

F :=

(0 11 1

).

On reviendra sur ces exemples plus tard.

Page 6: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

Universite de Nice SL2SF2012-13 Algebre 2

Determinants.

Une parenthese dans le monde des permutations d’un ensemble fini. On fixe un entier naturel n eton considere l’ensemble {1, 2, . . . , n} des n premiers entiers. On peut les considerer en eux-memesou comme les numeros d’un ensemble fini a n elements.

3. Permutations

3.1. Une permutation est une bijection de l’ensemble {1, 2, . . . , n} sur lui-meme. Une tellepermutation est donc une application σ : {1, 2, . . . , n} −→ {1, 2, . . . , n} qui a une applicationreciproque notee σ−1. L’ensemble de ces bijections forme un groupe pour la composition desapplications, appele groupe symetrique et note Sn. Le groupe Sn a n! elements (le demontrerpar recurrence).La notation traditionnelle est la suivante : une permutation σ de Sn est notee(

1 2 . . . nσ(1) σ(2) . . . σ(n)

).

Par exemple la notation

(3.1.1) τ :=

(1 2 3 4 55 1 4 3 2

)designe la permutation de S5 telle que τ(1) = 5, τ(2) = 1, τ(3) = 4, τ(4) = 3 et τ(5) = 2. Pourcette permutation particuliere, les transformes successifs de 1 sont 5 = τ(1), 2 = τ(5), 1 = τ(5),5 = τ(1)...

3.2. Cycles. On appelle cycle de longueur p une permutation de Sp telle que l’ensemble destransformes successifs de 1 (et donc de tout element) est l’ensemble {1, 2, . . . , p} tout entier. Untel cycle est caracterise par la liste des transformes successifs de 1. Par exemple la permutation

σ :=

(1 2 3 4 55 3 4 1 2

)est un cycle de longueur 5. La liste des transformes successifs de 1 est (1, 5, 2, 3, 4). La liste destransformes successifs de 2 est (2, 3, 4, 1, 5). Elle caracterise la meme permutation (on voit quec’est la liste circulaire qui caracterise la permutation).Plus generalement, on appelle cycle de longueur p de Sn (p ≤ n) une permutation qui induit uncycle sur un sous-ensemble a p elements de {1, 2, . . . , n} et qui laisse les autres elements fixes. Parexemple, la permutation (

1 2 3 4 55 1 3 4 2

)est un cycle de longueur 3 que nous noterons a l’aide de la liste des transformes successifs de 1, asavoir (1, 5, 2). De meme la la permutation(

1 2 3 4 51 2 4 3 5

)

Page 7: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

7

est un cycle de longueur 2 que nous noterons (3, 4). On remarque encore que (4, 3) designe lememe cycle. On constate que les deux cycles (1, 5, 2) et (3, 4) commutent et que leur produit estegal a la permutation τ decrite en (3.1.1).On considere une permutation σ dans Sn. Partant d’un element de {1, 2, . . . , n}, par exemple 1, onconsidere ses transformes successifs par σ : 1, σ(1), σ(σ(1))... Cette suite d’entiers entre 1 et n estforcement periodique. Supposons que σi(1) = σj(1) avec i < j. Puisque σ est bijective c’est doncque σj−i(1) = 1. On voit donc que la periode de la suite des images successives de 1 est le pluspetit des entiers ` pour lesquels σ`(1) = 1. Notons le c. La donnee de la liste (1, σ(1), . . . , σc−1(1))permet de connaıtre les images par σ de tous les termes de la liste :

1 7−→ σ(1) 7−→ . . . 7−→ σc−1(1) 7−→ 1.

Si on prend un element de l’ensemble {1, 2, . . . , n} qui n’est pas dans la liste, on est sur queses images successives ne sont pas non plus dans la liste. On peut donc recommencer le memeprocessus jusqu’a epuisement de l’ensemble {1, 2, . . . , n}. On a alors obtenu un nombre fini delistes a supports disjoints (c’est-a-dire qu’un element de {1, 2, . . . , n} figure dans une liste et uneseule). La reunion des supports est {1, 2, . . . , n}. On a demontre :

3.3. Theoreme. Toute permutation σ de Sn se decompose en un produit de cycles a supportsdisjoints.

Noter que deux cycles a supports disjoints commutent toujours. La decomposition de la permuta-tion τ de la formule (3.1.1) en cycles a supports disjoints est (1, 5, 2)(3, 4). La decomposition estunique (meme si la facon de l’ecrire ne l’est pas).

3.4. Signature. On considere une permutation σ de Sn. Une inversion est une paire {i, j} telleque σ(i) et σ(j) ne sont pas dans le meme ordre que i et j. Le nombre d’inversions de σ est lenombre de telles paires. Un cycle de longueur p a p− 1 inversions.

3.5. Definition. On appelle signature de la permutation σ le nombre (−1)I(σ) ou I(σ) est lenombre d’inversions de σ. On la note ε(σ).

La signature vaut donc 1 ou −1 suivant que I(σ) est pair ou impair. Un cycle de longueur p estde signature (−1)p−1. L’interet de la notion de signature est dans le resultat suivant :

3.6. Theoreme. La signature d’un produit de permutations est le produit des signatures.

Demonstration. Considerons deux permutations σ et σ′ de Sn. Une paire {i, j} est une inversionpour la composee σ′ ◦ σ si et seulement si une et une seule des assertions suivantes est vraie– {i, j} est une inversion pour σ et {σ(i), σ(j)} n’est pas une inversion pour σ′.– {i, j} n’est pas une inversion pour σ et {σ(i), σ(j)} est une inversion pour σ′.On considere les deux ensembles suivants :– L’ensemble J des inversions de σ.– L’ensemble J ′ des paires {i, j} pour lesquelles {σ(i), σ(j)} est une inversion pour σ′.Le nombre d’elements du premier est I(σ) et le nombre d’elements du second est I(σ′). Uneinversion de σ′ ◦ σ est un element de J ∪ J ′ qui n’est pas dans l’intersection J ∩ J ′, c’est-a-direun element de la difference symetrique J M J ′. La parite du nombre d’elements de J M J ′ estla somme des parites du nombre d’elements de J et du nombre d’elements de J ′ (cf. fonctionbooleenne � ou exclusif �). �

La signature de la permutation τ decrite en (3.1.1) est −1 puisque elle est le produit des cycles(1, 5, 2) et (3, 4) de longueur 3 et 2.

Page 8: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

8

4. Determinant d’une matrice carree

On considere une matrice carree A deMn(R). Le coefficient de A situe sur la i-eme ligne et laj-eme colonne est note ai,j pour i et j de 1 a n.On donne une definition recursive du determinant : c’est le scalaire donne par la formule suivante

detA :=n∑j=1

(−1)1+ja1,j ∆1,j

ou ∆1,j est le determinant de la matrice (n − 1) × (n − 1) obtenue en oubliant la premiere ligneet la j-eme colonne de A. Reste a preciser ce qu’est le determinant d’une matrice 1× 1 : c’est lavaleur de son unique coefficient. Pour l’anecdote : on convient que le determinant d’une matrice0× 0 vaut 1.Consequence : Le determinant d’une matrice triangulaire est egal au produit des coefficientsdiagonaux de la matrice.On appelle cette maniere de calculer le determinant : developpement par rapport a la premiereligne. On constate (par recurrence !) que detA est une somme de termes qui sont les produitsd’une liste de n coefficients de A affectes d’un signe + ou −. Les listes sont obtenues en choisissantun terme dans chaque ligne et un dans chaque colonne. Reste a calculer le signe :

4.1. Theoreme. Le determinant de A est donne par la formule (non recursive) suivante :

detA =∑σ∈Sn

ε(σ)a1,σ(1)a2,σ(2) . . . an,σ(n).

En consequence, le determinant de A peut se calculer en developpant par rapport a la i-eme ligne :

detA =n∑j=1

(−1)i+jai,j ∆i,j,

ou par rapport a la j-eme colonne :

detA =n∑i=1

(−1)i+jai,j ∆i,j

ou ∆i,j est le determinant de la matrice (n− 1)× (n− 1) obtenue en oubliant la i-eme ligne et laj-eme colonne de A.

Prendre garde a la fausse similitude entre les formules. Dans l’une l’indice de ligne est fixe, alorsque dans l’autre c’est l’indice de colonne.

4.2. Corollaire. Une matrice de Mn(R) et sa transposee ont meme determinant.

Les exemples de petite taille : pour une matrice de M2(R), on trouve

det

(a bc d

)=

∣∣∣∣ a bc d

∣∣∣∣ = ad− bc.

Page 9: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

9

Pour les matrices de M3(R), en developpant par rapport a la premiere ligne

det

a b cd e fg h i

=

∣∣∣∣∣∣a b cd e fg h i

∣∣∣∣∣∣= a

∣∣∣∣ e fh i

∣∣∣∣− b ∣∣∣∣ d fg i

∣∣∣∣+ c

∣∣∣∣ d eg h

∣∣∣∣ = aei− afh− bdi+ bfg + cdh− ceg.

On retrouve bien qu’il y a 3! = 6 termes dans le developpement, 3 avec le signe + et 3 avec lesigne −.Attention aux analogies trop faciles ! Dans le developpement du determinant d’une matrice 4× 4A dans M4(R) il y a 4! = 24 termes. Par exemple, il y a un terme en a1,1a2,3a3,4a4,2 affecte dusigne +, car la permutation (

1 2 3 41 3 4 2

)est le cycle (2, 3, 4) et a pour signature +1.

4.3. Multilinearite. On se donne deux matrices A′ et A′′ dansMn(R). On suppose que les lignesde A′ et de A′′ sont les memes, sauf la i-eme. On appelle A la matrice qui a les memes lignes queA′ sauf la i-eme qui est la somme de la i-eme ligne de A′ et de la i-eme ligne de A′′. Alors :

det(A) = det(A′) + det(A′′).

On se donne maintenant une matrice A dans Mn(R) et un scalaire λ. On appelle A′ la matricequi a les memes lignes que A sauf la i-eme qui est le produit de la i-eme ligne de A par le scalaireλ. Alors :

det(A′) = λ det(A).

Demonstration. On developpe tous les determinants par rapport a la ligne de numero i. �

4.4. Transformations permises. On rappelle les operations permises sur les lignes d’une ma-trice

(1) Ajouter a une ligne un multiple d’une autre ligne.

(2) Multiplier une ligne par un scalaire non nul.

(3) Echanger deux lignes.

4.5. Lemme. Le determinant d’une matrice A de Mn(R) qui a deux lignes proportionnelles estnul.

Demonstration. Par recurrence sur n. Si n = 2 c’est facile. Si n > 2, et que les lignes de numeroi et j sont proportionnelles, on developpe par rapport a une ligne de numero k (k 6= i, k 6= j)et les matrices obtenues en oubliant la ligne de numero k et une colonne ont encore deux lignesproportionnelles. �

4.6. Lemme. On considere une matrice A de Mn(R) et une matrice A′ obtenue a partir de Apar une transformation de type (1). On a alors detA′ = detA.

Demonstration. On considere un scalaire λ et la matrice A′ obtenue en ajoutant a la i-eme lignede A le produit de la j-eme par λ. Designons par A′′ la matrice obtenue en remplacant la i-emeligne de A par la j-eme. Par multilinearite on a detA′ = detA + λ detA′′ et par le lemme 4.5 ona detA′′ = 0. �

Page 10: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

10

On resume les resultats obtenus dans le theoreme suivant :

4.7. Theoreme. On considere une matrice A de Mn(R).

(1) Une matrice A′ obtenue a partir de A par une transformation permise de type (1) a memedeterminant que A.

(2) Une matrice A′ obtenue a partir de A en multipliant une ligne par un scalaire λ a pourdeterminant detA′ = λ detA.

(3) Une matrice A′ obtenue a partir de A en permutant deux lignes a pour determinant detA′ =− detA.

Remarque : Les formules analogues obtenues en transposant sont vraies : dans les enonces ci-dessus on peut remplacer ligne par colonne. Le theoreme ci-dessus est un outil essentiel pour lecalcul pratique des determinants.

Demonstration. On a deja demontre les points (1) et (2) du theoreme. Pour le point (3), on peutrevenir a la formule non recursive du theoreme 4.1 ou proceder par recurrence de maniere similairea la preuve du lemme 4.5. �

Attention ! Si A est une matrice de Mn(R) et λ un scalaire, alors detλA = (λ)n detA.

4.8. Corollaire. On considere une matrice A de Mn(R). Alors detA 6= 0 si et seulement si Aest de rang maximum autrement dit si et seulement si A est inversible dans Mn(R).

Demonstration. On sait (voir cours L1) que l’on peut trouver une matrice A′ equivalente a A(donc de meme rang) et a lignes echelonnees en effectuant des transformations permises de type(1) et (2). La matrice A′ est de rang n si et seulement si elle est triangulaire superieure avec descoefficients diagonaux tous egaux a 1. �

4.9. Determinant d’un produit de matrices.

4.10. Theoreme. On considere deux matrices A et B dans Mn(R). On a

detAB = detA detB.

Demonstration. A l’exercice 7 de la feuille 2, on montre que si A′ est une matrice equivalenteobtenue a partir de A par une transformation de type (1), alors on peut construire une matricetriangulaire T telle que A′ = TA. On voit que detT = 1 et que detA′ = detA, donc on a biendans ce cas detTA = detT detA.De maniere analogue, lorsque A′ est une matrice equivalente obtenue a partir de A par unetransformation de type (2), alors on peut construire une matrice diagonale D (avec tous lescoefficients diagonaux egaux a 1 sauf l’un d’entre eux egal a λ) telle que A′ = DA. On voit quedetD = λ et que detA′ = λ detA, donc on a bien dans ce cas detDA = detD detA.Le theoreme ?? montre que toute matrice A deMn(R) est un produit de matrices associees a destransformation de type (1) ou (2). Multiplier a gauche par A, c’est donc multiplier successivementpar de telles matrices. Si A = L1 . . . Lk, on a

det(AB) = det(L1) . . . det(Lk) detB

Pour B = In on trouve detA = det(L1) . . . det(Lk) det In ce qui donne la formule attendue. �

4.11. Corollaire. Soit A une matrice inversible dans Mn(R). Alors

det(A−1) = (detA)−1.

Demonstration. On a AA−1 = In et det In = 1 d’ou detA det(A−1) = 1 ce qui montre le resultat.�

Page 11: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

11

4.12. Calcul de l’inverse. On considere une matrice A deMn(R). Le coefficient de A situe surla i-eme ligne et la j-eme colonne est note ai,j pour i et j de 1 a n. On appelle cofacteur Ci,jla quantite (−1)i+j∆i,j ou ou ∆i,j est le determinant de la matrice (n − 1) × (n − 1) obtenue enoubliant la premiere ligne et la j-eme colonne de A. Avec ces notations, le developpement de detApar rapport a la ligne de numero i s’ecrit

detA =n∑j=1

ai,j Ci,j.

On appelle matrice des cofacteurs de A (ou comatrice de A) la matrice dont le coefficient situesur la i-eme ligne et la j-eme colonne est Ci,j. On la note c(A).

4.13. Theoreme. On considere une matrice A de Mn(R) et la matrice de ses cofacteurs c(A).Alors

(detA)In = A tc(A) = tc(A)A.

En particulier, si detA est inversible, A est aussi inversible et on a

A−1 = (detA)−1 tc(A).

Demonstration. On calcule le coefficient du produit des matrices A tc(A) situe a la ligne numero iet a la colonne numero j. Il vaut :

n∑k=1

Ai,kCj,k.

Lorsque i = j on trouve detA. Lorsque i 6= j, on trouve le developpement du determinant de lamatrice obtenue en remplacant la ligne numero j de A par la ligne numero i. Mais, puisque i 6= jla matrice ainsi obtenue a deux lignes qui sont egales. Son determinant est donc nul. �

Remarque : Le calcul du determinant d’une matrice deMn(R) ne fait intervenir que les operationsd’addition et de multiplication dans R sans jamais faire intervenir de calcul d’inverse. De memele calcul du produit de deux matrices ne fait intervenir que ces memes operations. On peut doncconsiderer des matrices a coefficients complexes, entiers, polynomes ou plus generalement a coeffi-cients dans un anneau commutatif unitaire. Leur determinant est bien defini et c’est un complexe,un entier, un polynome ou un element de l’anneau commutatif unitaire considere. Le produit dedeux telles matrices sera encore du meme type et le theoreme 4.10 valide.Le theoreme 4.13 s’etend donc, avec la meme preuve, de la maniere suivante : Soit A une matricea coefficients entiers (resp. polynomes) qui a un inverse a coefficients entiers (resp. polynomes).Alors son determinant est inversible dans les entiers (resp. polynomes). Il vaut donc 1 ou −1(resp. il est un polynome constant non nul) Reciproquement si detA est inversible dans les entiers(resp. les polynomes) alors A a un inverse a coefficients entiers (resp. polynomes).Par exemple, la matrice a coefficients entiers(

3 −12 1

)a un determinant egal a 5. Elle est inversible dans M2(R), mais on peut affirmer que son inversen’est pas a coefficients entiers.

4.13.1. Exercice. . On considere un systeme lineaire homogene de n−1 equations a n inconnues.On suppose qu’il est de rang maximum n− 1.Montrer que l’espace des solutions est une droite vectorielle.

Page 12: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

12

On designe par A la matrice du systeme. Montrer qu’une base de cette droite est donnee par levecteur de coordonnees ∆1, . . . ,∆n ou ∆i est le determinant de la matrice n− 1× n− 1 obtenueen oubliant la i-eme colonne de A.Application : On donne deux plans de R3 d’equations respectives

3x− 5y +−z = 0 et x− 2y + 9z = 0.

Determiner une base de leur intersection. /

4.14. Polynome caracteristique d’une matrice carree. Le theoreme qui suit est simplementune traduction de la definition. On utilise la propriete fondamentale du determinant.

4.15. Theoreme. On considere une matrice A dansMn(R) et un scalaire λ dans R. Les proprietessuivantes sont equivalentes :

(1) λ est valeur propre de A

(2) La matrice A− λIn n’est pas de rang maximum.

(3) Le determinant det(A− λIn) est nul.

Etant donnee une matrice A dans Mn(R), on considere la matrice A − TIn a coefficients po-lynomes en T . Comme le calcul du determinant ne fait intervenir que des multiplications etdes additions, il est possible de calculer le determinant d’une matrice de Mn(R[T ]). C’est unpolynome de R[T ].

4.16. Definition. On considere une matrice A dansMn(R) et la matrice A−TIn dansMn(R[T ]).Le determinant det(A − TIn) est un polynome a coefficients dans R qu’on appelle le polynomecaracteristique de A. Ses racines dans R sont les valeurs propres de A dans R.

Considerons une matrice A triangulaire dans Mn(R) et designons par λ1, . . . , λn ses coefficientsdiagonaux. Alors, A−TIn est aussi triangulaire et son determinant est le produit de ses elementsdiagonaux λ1 − T, . . . , λn − T . On en deduit que les valeurs propres de la matrice triangulaire A,comptees avec multiplicite, sont ses elements diagonaux.

Page 13: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

Universite de Nice SL2SF2012-13 Algebre 2

Changements de variables.

5. Changement de base

5.1. On considere un corps K et un espace vectoriel E de dimension finie sur K muni d’une baseB := (e1, . . . , en). Un vecteur x de E a pour coordonnees (x1, x2, . . . , xn) dans la base B. Cela veutdire qu’il se decompose en

x = x1e1 + . . . xnen.

Pour ne pas confondre scalaires et vecteurs on peut mettre des fleches sur ces derniers : l’ecrituredevient

~x = x1~e1 + . . . xn~en.

On se donne une autre base B′ := (~ε1, . . . ,~εn) de E. On va l’appeler la nouvelle base et on va appelerB l’ancienne base. Comment se donner les vecteurs de la famille B′ ? Par leurs coordonnees dansla base B. Pour j de 1 a n, chacun des ~ej a une decomposition unique sur la base B

(5.1.1) ~εj = P1,j~e1 + . . . Pn,j~en.

Ainsi, Pi,j est la i-eme coordonnee du vecteur ~εj dans la base B. On inscrit ces coordonnees dansune matrice de Mn(K). Ainsi la j-eme colonne de cette matrice est la liste (P1,j, . . . , Pn,j) descoordonnees de ~εj dans la base B. On appelle la matrice P matrice de passage de la base B ala base B′.Si ~x est un vecteur de E, on note X la matrice colonne de ses coordonnees dans la base B et X ′

la matrice colonne des coordonnees de ~x dans la base B′. En partant de ~x = x′1~ε1 + . . . x′n~εn et ensubstituant dans cette formule l’expression (5.1.1) des vecteurs de B′ dans la base B, on trouve

~x = x′1~ε1 + . . . x′n~εn =n∑i=1

x′i~εi =n∑i=1

x′i

(n∑k=1

Pk,i~ek

)=

n∑k=1

(n∑i=1

Pk,ix′i

)~ek.

On en deduit la decomposition de ~x dans la base B. Comme cette decomposition est unique, on endeduit que xk =

∑ni=1 Pk,ix

′i pour k de 1 a n. Autrement dit, la matrice colonne X est le produit

de la matrice P par la matrice X ′ :

X = PX ′.

On obtient le slogan suivant : la matrice de passage de l’ancienne base B a la nouvelle base B′a pour coefficients les coordonnees des vecteurs de la nouvelle base dans l’ancienne et elle permetde calculer les anciennes coordonnees d’un vecteur au moyen des nouvelles.

5.2. Theoreme. On considere un corps K et un espace vectoriel E de dimension finie sur K munid’une base B := (~e1, . . . , ~en).

(1) Etant donnee une base B′ de E, la matrice de passage P de B a B′ est une matriceinversible : son rang est n et son determinant est non nul. La matrice de passage de B′ aB est P−1.

(2) Reciproquement, on considere une matrice inversible P dans Mn(K). Il existe une uniquebase B′ de E telle que P est la matrice de passage de B a B′.

Page 14: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

14

Demonstration. (1) Designons par P ′ la matrice de passage de B′ a B. Si ~x est un vecteur de E,on note X la matrice colonne de ses coordonnees dans la base B et X ′ la matrice colonne descoordonnees de ~x dans la base B′. On a donc X = PX ′ et X ′ = P ′X d’ou X = PP ′X. En prenantsuccessivement pour ~x les vecteurs de la base B, on en deduit les egalites suivantes :

n∑j=1

Pi,jP′j,k = 0 si i 6= k

= 1 si i = k

qui prouvent que le produit de matrices PP ′ est egal a In.

(2) Pour j de 1 a n, on considere le vecteur ~εj dont les coordonnees dans la base B sont lescoefficients de la j-eme colonne de P . Montrons que la famille (~ε1, . . . ,~εn) est libre. Consideronsune combinaison lineaire

∑nj=1 λj~εj. La matrice colonne de ses coordonnees dans la base B est la

combinaison lineaire∑n

j=1 λjPj des colonnes de P . Comme P est de rang n, une telle combinaisonlineaire est nulle si et seulement si tous les λj sont nuls. �

5.3. Determinant d’une famille de vecteurs. On considere un corps K et un espace vectorielE de dimension finie sur K muni d’une base B. On considere d’autre part une famille de n vecteurs(~v1, . . . , ~vn) de E et la matrice M de leurs coordonnees dans la base B. Le coefficient Mi,j de Msitue a la ligne numero i et a la colonne numero j est donc egal a la i-eme coordonnee du vecteurvj dans la base B.On appelle determinant de la famille (~v1, . . . , ~vn) dans la base B le determinant de la matrice M .On le note detB(~v1, . . . , ~vn).Ce determinant depend de la famille (~v1, . . . , ~vn) et de la base B. On se donne une base B′ de Eet la matrice de passage P de B a B′. On designe par M ′ la matrice des coordonnees des vecteursde la famille (~v1, . . . , ~vn) dans la base B′. Pour j de 1 a n, on note Vj (resp. V ′j ) la matrice colonnedes coordonnees de ~vj dans la base B (resp. B′). On a Vj = PV ′j pour j de 1 a n. La regle de calculdu produit de matrices donne M = PM ′ et en passant aux determinants

detB

(~v1, . . . , ~vn) = detP detB′

(~v1, . . . , ~vn).

On voit donc que le determinant de la famille de vecteurs (~v1, . . . , ~vn) dans la base B depend dela base B dans lequel on le calcule. En revanche, il est nul dans une base si et seulement s’il estnul dans toutes les bases.

5.4. Aires. On travaille dans R2, muni du produit scalaire qui fait de la base canonique B0 unebase orthonormee. Si ~u et ~v sont deux vecteurs et B une base orthonormee, on note U et V lesmatrices colonnes des coordonnees de ~u et ~v dans la base B. Alors, le produit scalaire 〈~u | ~v〉 secalcule par la formule suivante

〈~u | ~v〉 = u1v1 + u2v2.

Pour une matrice P de M2(R) les proprietes suivantes sont equivalentes :

(1) P est la matrice de passage d’une base orthonormee a une autre base orthonormee.

(2) La transposee tP est l’inverse de P .

Demonstration. Dire que le produit tP P vaut I2, c’est dire que les relations suivantes sont verifiees :

P 21,1 + P 2

2,1 = P 21,2 + P 2

2,2 = 1, P1,1P1,2 + P2,1P2,2 = 0.

Page 15: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

15

Lorsqu’une matrice P deM2(R) verifie l’une des proprietes ci-dessus, on dit qu’elle est orthogo-nale. Les matrices orthogonales deM2(R) forment un groupe pour la multiplication des matrices,note O(2,R). C’est un sous-groupe du groupe des matrices inversibles GL2(R).

5.5. Theoreme. On considere R2 muni du produit scalaire qui fait de la base canonique B0 unebase orthonormee et deux vecteurs ~u et ~v dans R2. On choisit comme aire unite celle du carreconstruit sur les vecteurs de B0.L’aire du parallelogramme determine par ~u et ~v est egale a la valeur absolue du determinantdetB0(~u,~v).Si B est une autre base orthonormee, la valeur absolue du determinant detB(~u,~v) est egale al’aire du parallelogramme construit sur ~u et ~v.

Demonstration. On remarque d’abord que detB(~u,~v) = detP detB0(~u,~v) ou P est la matrice depassage de B0 a B. Comme cette matrice est orthogonale, son determinant vaut 1 ou -1 et les deuxdeterminants detB(~u,~v) et detB0(~u,~v) ont meme valeur absolue. Pour calculer cette valeur absolueil suffit donc de choisir une base orthonormee.On note que si ~u et ~v sont colineaires, alors detB0(~u,~v) = 0. Supposons qu’ils ne sont pas colineaires.On choisit une base orthormee (~e1, ~e2) avec ~e1 colineaire a ~u (par exemple ~u/‖~u‖). On decompose vsur la base (~e1, ~e2) en ~v = v1~e1+v2~e2. Comme e1 est colineaire a u on a (proprietes du determinant,voir paragraphes 10.8 et 4.4)

detB

(~u,~v) = detB

(~u, v1~e1 + v2~e2) = detB

(~u, v1~e1) + detB

(~u, v2~e2) = detB

(~u, v2~e2).

Comme ~u est colineaire a ~e1, la matrice des coordonnees dans la base B des vecteurs ~u et v2~e2 est(u1 00 v2

)ou u1 est la coordonnee de ~u sur ~e1. Le determinant de cette matrice a pour valeur absolue|u1| |v2|. Mais |u1| est la longueur du vecteur u (la base du parallelogramme) et |v2| est la longueurde la projection de ~v sur la direction perpendiculaire a ~u (la hauteur). C’est donc bien l’aire d’unrectangle qui a meme base et meme hauteur que le parallelogramme construit sur ~u et ~v lorsqu’onprend comme unite l’aire du carre construit sur les deux vecteurs d’une base orthonormee. �

5.6. Corollaire. On considere R2 muni du produit scalaire qui fait de la base canonique B0 unebase orthonormee et deux vecteurs ~u et ~v dans R2. On appelle α l’angle (~u,~v). On a alors, pourtoute base orthonormee B,

| detB

(~u,~v)| = ‖u‖‖v‖| sinα|

5.7. Volumes. De maniere similaire a ce qui precede, on demontre :

5.8. Theoreme. On considere R3 muni du produit scalaire qui fait de la base canonique B0 unebase orthonormee et trois vecteurs ~u, ~v et ~w dans R3. On choisit comme volume unite celui ducube construit sur les vecteurs de B0.Le volume du parallelepipede determine par ~u, ~v et ~w est egal, pour toute base orthonormee B, ala valeur absolue du determinant detB(~u,~v, ~w).

Demonstration. La preuve est similaire. On remarque d’abord que si ~u,~v, ~w sont coplanaires alorsle volume et le determinant sont tous les deux nuls. On les suppose alors non coplanaires eton choisit une base orthonormee B = (~e1, ~e2, ~e3) obtenue en completant une base orthonormee

Page 16: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

16

C := (~e1, ~e2) du plan engendre par ~u et ~v. En decomposant ~w en ~w′ + ~w′′ ou ~w′′ est colineaire a ~e3on obtient que ~w′′ = w3~e3 et

detB

(~u,~v, ~w) = detB

(~u,~v, ~w′ + ~w′′) = detB

(~u,~v, ~w′′).

En developpant ce dernier determinant par rapport a la derniere colonne on trouve

detB

(~u,~v, ~w′′) = w3 detC

(~u,~v),

ce qui est bien le produit de l’aire de la base par la hauteur du parallelepipede. �

5.9. Applications lineaires et changements de base. On considere un corps K et deuxespaces vectoriels E et F de dimensions finies p et n sur K. On se donne des bases B de E et Cde F . Une application lineaire u : E −→ F est donnee par sa matrice dans les bases B et C (voirsection ??). On note cette matrice A. C’est une matrice a n lignes et p colonnes dans Mn,p(K).On fixe une nouvelle base B′ de E et une nouvelle base C ′ de F et on veut calculer la matrice deu dans les bases B′ et C ′. On note P la matrice de passage de B a B′ et Q la matrice de passagede C a C ′.Pour cela on considere un vecteur ~x de E et on note X (resp. X ′) la matrice colonne de sescoordonnees dans la base B (resp. B′). On appelle ~y l’image u(~x) et on note Y (resp. Y ′) la matricecolonne de ses coordonnees dans la base B (resp. B′). On a les egalites matricielles suivantes :

Y = AX, X = PX ′, Y = QY ′.

On en deduit que pour tout ~x de E, on a Y ′ = Q−1AP X ′, ce qui montre que la matrice A′ de udans les bases B′ et C ′ est

A′ = Q−1AP.

5.10. Endomorphismes. On considere un corps K et un espace vectoriel E de dimension finie nsur K muni d’une base B. On appelle endomorphisme de E une application lineaire u : E −→ E.Une telle application est donnee par sa matrice dans la base B. On note cette matrice A. C’estune matrice carree dans Mn(K).On fixe une nouvelle base B′ de E et on note P la matrice de passage de B a B′. On note A′ lamatrice de u dans la base B′. On a alors :

A′ = P−1AP.

5.11. Theoreme. On considere un corps K, un espace vectoriel E de dimension finie n sur K etun endomorphisme u de E. On fixe une base B de E et on considere la matrice A de u dans B.Le determinant detA ne depend que de u et pas de la base utilisee pour le calculer. On l’appelledeterminant de u.De meme, le polynome caracteristique det(A−TIn) ne depend que de u et ne depend pas de la baseutilisee pour le calculer. On l’appelle polynome caracteristique de u. Ses racines sont les valeurspropres de u.

Pour calculer le polynome caracteristique d’un endomorphisme u, il suffit de calculer le polynomecaracteristique de la matrice de u dans une base B de E (n’importe quelle base convient).

5.12. Corollaire. Sous les hypotheses du theoreme, on considere une valeur propre λ de u etl’espace propre associe, note Eλ. La dimension de Eλ est majoree par la multiplicite de λ commeracine du polynome caracteristique.

Page 17: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

17

Demonstration. On considere une base (e1, . . . , ed) de Eλ que l’on complete en une base B =(e1, . . . , ed, . . . , en) de E. Dans la base B la matrice A de u est triangulaire par blocs :

A =

(λId B0 C

)ou Id est la matrice unite de Mk(K) et C une matrice de Mn−d(K). La matrice A− TIn s’ecritdonc

A− TIn =

((λ− T )Id B

0 C − TIn−d

).

En developpant son determinant par rapport aux premieres colonnes, on trouve

det(A− TIn) = (λ− T )d det(C − TIn−d).On en deduit que (λ − T )d divise le polynome caracteristique, donc que d est plus petit que lamultiplicite de λ comme racine du polynome caracteristique de u (definition de la multiplicite en10.8). �

5.13. Theoreme. On considere un corps K, un espace vectoriel E de dimension finie n sur K etun endomorphisme u de E. On choisit des valeurs propres λ1, . . . , λr de u distinctes deux a deux.On considere les espaces propres E1, . . . , Er associes respectivement a λ1, . . . , λr. Pour j de 1 a r,on se donne une base de Ei qu’on appelle Bi. La famille F obtenue en concatenant les Bi (i de 1a r) est une famille libre.

Demonstration. Supposons la conclusion du theoreme fausse et considerons le premier indice s,s < r, tel que– la famille obtenue en concatenant B1,B2, . . . ,Bs est une famille libre– la famille obtenue en concatenant B1,B2, . . . ,Bs,Bs+1 est liee.Il existe alors au moins un vecteur ~x non nul de Es+1 qui est une somme ~x1 +~x2 + . . .+~xs avec ~xidans Ei. Appliquons u a tous ces vecteurs : on a u(~x) = λs+1~x et u(~xi) = λi~xi. On en deduit que

~x = ~x1 + . . .+ ~xs

λs+1~x = λ1~x1 + . . .+ λs~xs.

Par combinaison lineaire de ces deux egalites on obtient

0 = (λs+1 − λ1)~x1 + . . . (λs+1 − λs)~xs.Or une telle combinaison lineaire a necessairement tous ses termes nuls puisque la concatenationdes B1,B2, . . . ,Bs est une famille libre. Ceci entraıne, puisque les λi sont deux a deux distincts,que les ~xi sont tous nuls. On obtient que ~x est nul aussi, ce qui contredit l’hypothese. �

5.14. Definition. Une matrice A deMn(K) est diagonalisable s’il existe une base de Kn formeede vecteurs propres de A.Un endomorphisme u de E est diagonalisable s’il existe une base de E formee de vecteurs propresde u. L’endomorphisme u est diagonalisable si et seulement si sa matrice dans une base B de Eest diagonalisable.

Si A est diagonalisable, on a une base B′ := (~ε1, . . . ,~εn) de vecteurs propres de A. Notons(λ1, . . . , λn) les valeurs propres associees. Designons par P la matrice de passage de la base ca-nonique B0 a la base B′. La j-eme colonne de P a pour coefficients les coordonnees de ~εj. On adonc AP = PD ou D est la matrice diagonale diag(λ1, . . . , λn). On en deduit que D = P−1AP .On dira que D est une matrice diagonale semblable a A.

Page 18: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

18

Supposons u diagonalisable. On se donne une base B de E et la matrice A de u dans cette base.Designons par B′ une base formee de vecteurs propres et P la matrice de passage de B a B′. Lamatrice D de u dans la base B′ est diagonale. Pour i de 1 a n, le i-eme coefficient sur la diagonalede D est la valeur propre associee au vecteur propre ~εi. La formule de changement de base pourles endomorphismes (5.10) donne

D = P−1AP.

5.15. Theoreme. Une matrice A de Mn(K) ayant n valeurs propres distinctes deux a deux estdiagonalisable. C’est le cas lorsque le polynome caracteristique a n racines simples.

Demonstration. Designons par λ1, . . . , λn les valeurs propres de A. Pour i de 1 a n, on designe par~vi un vecteur propre associe a la valeur propre λi.Le theoreme 5.13 montre que la famille (~v1, . . . , ~vn) est libre. Comme elle a n elements, c’est unebase de Kn. �

6. Applications

6.1. Systemes dynamiques lineaires discrets. Ce paragraphe fait suite aux exemples de 2.4.Le corps K sera ici R ou C et p un entier. On se donne une matrice A dans Mp(K), un vecteurU0 dans Kp et on considere la suite de vecteurs de premier terme U0 definie, pour n ≥ 0, par :

Un+1 = AUn.

Le probleme est le suivant : quel est le comportement asymptotique de la suite de vecteurs(Un)n∈N quand n tend vers l’infini ? Comment ce comportement depend-il du terme initial U0 ?Par comportement asymtotique on entend : la limite eventuelle, un equivalent, ou meme undeveloppement limite quand n tend vers l’infini.On dira que la suite (Un)n∈N de vecteurs de Kp a une limite L dans Kp si et seulement si, pour jde 1 a p, la suite de terme general Un,j (la j-eme coordonnee de Un) a pour limite Lj dans K.Pour n entier, on a Un = AnU0. Etudier la suite de vecteurs (Un)n∈N revient a etudier la suite desimages d’un vecteur U0 par les puissances de la matrice A.

6.1.1. Exemple. Considerons la matrice suivante :

A :=

(0, 8 0, 20, 1 0, 9

).

Son polynome caracteristique est T 2 − (1, 7)T + 0, 7 dont les racines sont 1 et 0, 7. Le vecteurW := (1, 1) est un vecteur propre associe a la valeur propre 1, tandis que le vecteur W := (−2, 1)est un vecteur propre associe a la valeur propre 0, 7.L’action de la matrice A sur ces deux vecteurs est simple. AV = V donc AnV = V . D’autre partAW = (0, 7)W donc AnW = (0, 7)nW .Pour n fixe, l’application V 7−→ AnV est lineaire comme composee d’applications lineaires. Toutvecteur U0 de R2 se decompose sur la base (V,W ). Pour un vecteur U0 se decomposant en U0 =αV + βW , on obtient

AnU0 = αAnV + βAnW = αV + β(0, 7)nW.

Quand n tend vers l’infini, (0, 7)n tend vers 0 et on en deduit que Un = AnU0 tend vers αV . Cettelimite ne depend que de la decomposition de U0 dans la base (V,W ).Par exemple, si U0 = (1, 0), on a

U0 = −1

4V − 1

4W.

La limite de la suite de premier terme (1, 0) est donc −14V = (−1

4,−1

4).

Page 19: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

19

6.1.2. Exemple. Considerons maintenant la matrice :

A :=

(0, 8 0, 10, 1 0, 8

).

Son polynome caracteristique est T 2 − (1, 6)T + 0, 63 dont les racines sont 0, 9 et 0, 7. Le vecteurV := (1, 1) est un vecteur propre associe a la valeur propre 0, 9, tandis que le vecteur W := (−1, 1)est un vecteur propre associe a la valeur propre 0, 7.L’action de la matrice A sur ces deux vecteurs est la suivante : AV = (0, 9)V donc AnV = (0, 9)nV .D’autre part AW = (0, 7)nW donc AnW = (0, 7)nW .Pour un vecteur U0 se decomposant en U0 = αV + βW , on obtient

AnU0 = αAnV + βAnW = α(0, 9)nV + β(0, 7)nW.

Quand n tend vers l’infini, (0, 7)n et (0, 9)n tendent vers 0 et on en deduit que Un = AnU0 tendvers le vecteur nul. On peut etre un peu plus precis et calculer par exemple la limite de la pentedu vecteur Un dans la base (V,W ). Cette pente est infinie si β = 0 et sinon vaut

β(0, 7)n

α(0, 9)n=β

α

(0, 7

0, 9

)nqui tend vers 0 quand n tend vers l’infini.Comment interpreter ce resultat ?

(1) Quand α = 0, c’est-a-dire quand U0 est colineaire a W , le vecteur Un reste colineaire a W .

(2) Quand α 6= 0 (meme s’il est tres petit), la pente du vecteur Un dans la base (V,W ) tendvers 0. Le vecteur Un tend vers le vecteur nul et sa direction tend vers la direction de V .

Page 20: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

20

6.1.3. Exemple. Considerer maintenant la matrice :

A :=

(0, 9 0, 10, 11 0, 91

).

et expliquer le dessin obtenu ci-dessous.

Page 21: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

21

6.2. Systemes differentiels.

A savoir avant de commencer. On considere un reel a, un reel y0 et l’equation differentielle

y′ = ay.

Il existe une unique fonction t 7−→ y(t) derivable sur R, telle que y′(t) = ay(t) pour tout t reel ety(0) = y0. C’est la fonction definie sur R par t 7−→ y0 e

at.De maniere analogue, si a et y0 sont des complexes, il existe une unique fonction y de R dans C,derivable, telle que

y′(t) = ay(t) et y(0) = y0.

C’est la fonction t 7−→ y0 eat. Si σ et ω sont les parties reelles et imaginaires de a, alors on a :

eat = e(σ+iω)t = eσteiωt = eσt(cosωt+ i sinωt).

6.2.1. Le corps K sera ici R ou C et p un entier. On se donne une matrice A dans Mp(K), unvecteur U0 dans Kp et on considere le systeme differentiel

(6.2.1)dU

dt= AU.

Une solution du systeme differentiel 6.2.1 est une fonction U : R 7−→ Kp, c’est-a-dire un p-upletde fonctions U := (u1, . . . , up) a valeurs dans K, telles que :

u′1(t) = A1,1u1(t) + . . .+ A1,pup(t) =∑p

j=1A1,juj(t)...

...u′i(t) = Ai,1u1(t) + . . .+ Ai,pup(t) =

∑pj=1Ai,juj(t)

......

u′n(t) = An,1u1(t) + . . .+ An,pup(t) =∑p

j=1An,juj(t).

Une solution du systeme differentiel 6.2.1 de condition initiale U0 est une solution qui verifiede plus U(0) = U0.

6.3. Theoreme. On designe par K l’un des corps R ou C et par p un entier. On se donne unematrice A dans Mp(K), un vecteur U0 dans Kp et on considere le systeme differentiel

dU

dt= AU.

Il existe une unique solution du systeme de condition initiale U0.

6.3.1. Exemple. Considerons la matrice A de l’exemple 6.1.2. Le vecteur V := (1, 1) est un vecteurpropre associe a la valeur propre 0, 9, tandis que le vecteur W := (−1, 1) est un vecteur propreassocie a la valeur propre 0, 7.Considerons la fonction

U : R −→ R2

t 7−→ e(0,9)t V.

C’est une solution du systeme de condition initiale V . En effet, la valeur de U en 0 est V et laderivee de U est la fonction t 7−→ (0, 9)e(0,9)t V . Or V est un vecteur propre de valeur propre (0, 9).On a donc (0, 9)V = AV et (0, 9)e(0,9)t V = Ae(0,9)t V .De meme, la fonction t 7−→ e(0,7)tW est une solution du systeme de condition initiale W .Pour un vecteur U0 se decomposant en U0 = αV + βW , on obtient une solution de conditioninitiale U0 en prenant U(t) = αe(0,9)t V + βe(0,7)tW .

Page 22: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

22

Le theoreme 6.3 affirme que c’est la seule. Verifions-le ici. Soit U une autre solution de conditioninitiale U0. La fonction U − U est une solution de condition initiale 0. Montrer l’unicite de lasolution de condition initiale U0 revient donc a montrer que la fonction nulle est l’unique solutionde condition initiale 0.Designons par P la matrice de passage de la base canonique de R2 a la base (V,W ) formee devecteurs propres de A et par D la matrice diagonale

D :=

(0, 9 00 0, 7

).

On a alors A = PDP−1. Considerons une solution U de condition initiale 0 et posons S = P−1U .On a alors :

dS

dt=d(P−1U)

dt= P−1

dU

dt= P−1AU = DP−1U = DS.

On en deduit que les fonctions coordonnees de S verifient donc

S ′1(t) = (0, 9)S1(t), S1(0) = 0

S ′2(t) = (0, 7)S2(t), S2(0) = 0.

On est alors ramene a des equations differentielles lineaires d’ordre 1 a coefficients constants. Laseule solution est la fonction nulle.Sur ce dessin, on a represente, pour diverses conditions initiales, l’ensemble des extremites desvecteurs U(t) lorsque t varie de −10 a −5.

Sur ce dessin, on a represente, pour les memes conditions initiales, l’ensemble des extremitesdes vecteurs U(t) lorsque t varie de −10 a 10.

Page 23: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

23

Quelle difference entre les deux dessins ? Considerer l’echelle. Pouvez-vous expliquer cette differenceen etudiant la limite de la pente du vecteur U(t) quand t tend vers −∞ ou +∞ ? Voici un troisiemedessin, qui represente, toujours pour les memes conditions initiales, l’ensemble des extremitesdes vecteurs U(t) lorsque t varie de −10 a 5.

Page 24: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

24

Note : Pour tout point du plan de coordonnees (x, y) on a represente par un vecteur d’origine

(x, y) la valeur de A

(xy

). On peut verifier que les courbes representees sont tangentes en (x, y)

au vecteur A

(xy

). En effet, le vecteur de coordonnees (x′(t), y′(t)) est le vecteur vitesse au point

de coordonnees (x(t), y(t)) le long de la courbe parametree t 7−→ (x(t), y(t)) tracee dans R2. Sicette courbe parametree est une solution de l’equation differentielle, on a(

x′(t)y′(t)

)= A

(x(t)y(t)

).

Page 25: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

25

10. Definitions, commentaires

10.1. Espace vectoriel. On se donne un corps K et un ensemble E muni d’une addition notee+. On dit que E a une structure d’espace vectoriel sur K si

(1) E est un groupe abelien pour la loi +. On note 0 l’element neutre de cette loi.

(2) Il existe une action de K sur E (appelee multiplication par un scalaire). Pour tout elementλ de K, et tout vecteur x de E, λx est un element de E. Cette multiplication a les proprietessuivantes

– pour x dans E on a 1x = x.– pour α et β dans K, et x dans E on a (α + β)x = αx+ βx.– pour α et β dans K, et x dans E on a α(βx) = (αβ)x.

(3) pour α dans K, x et y dans E, on a α(x+ y) = αx+ αy.

10.2. Sous-espace vectoriel. On considere un espace vectoriel E sur un corps K et un sous-ensemble F de E. On dit que F est un sous-espace vectoriel de E si F contient 0 et stable parcombinaison lineaire.

10.3. Sous-espace vectoriel engendre. On considere un espace vectoriel E sur un corps K etune famille (v1, . . . , vp) de p vecteurs de E. Le sous-espace vectoriel engendre par la famille(v1, . . . , vp) est l’ensemble de toutes les combinaisons lineaires :

λ1v1 + . . .+ λpvp

pour λ1, . . . , λp scalaires de K. Verifier que c’est bien un sous-espace vectoriel de E. On le noteVect(v1, . . . , vj).On convient que la famille vide engendre le sous-espace reduit a 0.

10.4. Bases, dimension. On se donne un espace vectoriel E sur un corps K. Une famille B :=(ei)i∈I de vecteurs de E est une base de E si tout vecteur x de E se decompose de maniere uniquecomme combinaison lineaire finie d’elements de B.Lorsque E, espace vectoriel sur K, peut etre engendre par un ensemble fini, alors il possede unebase finie et toutes ses bases ont le meme nombre d’elements. Ce nombre est appele dimensionde E. Lorsque E n’a aucune base finie, on dit que E est de dimension infinie. L’espace vectorielK[X] des polynomes a coefficients dans K est dans ce dernier cas.On considere E espace vectoriel de dimension finie n sur K, avec une base B := (e1, . . . , en). Toutvecteur x de E a une decomposition unique

x = α1e1 + α2e2 + . . .+ αnen =n∑i=1

αiei.

Par exemple, la seule facon d’ecrire le vecteur nul est de prendre tous les coefficients egaux a 0.

10.5. Theoreme de la base incomplete : On se donne un espace vectoriel E sur un corps Ket une famille libre de vecteurs de E. On peut completer cette famille en une base de E.

10.6. Application lineaire. On travaille sur un corps K. On se donne deux espaces vectorielsE et F sur K et une application f : E −→ F . On dit que f est K-lineaire (lineaire s’il n’y a pasd’ambiguıte) si

(1) f est compatible avec l’addition : pour x et y vecteurs de E

f(x+ y) = f(x) + f(y).

Page 26: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

26

(2) f est compatible avec la multiplication par un scalaire : pour x vecteur de E et λ scalaire

f(λx) = λf(x).

On appelle noyau de f , l’ensemble des solutions dans E de l’equation f(x) = 0. On le noteker f :

ker f := {x ∈ E | f(x) = 0}.

C’est un sous-espace vectoriel de E.On appelle image de f et on note f(E), le sous-ensemble des vecteurs de F qui ont au moins unantecedent :

f(E) := {y ∈ F | ∃x ∈ E, y = f(x)}.

C’est un sous-espace vectoriel de E.

10.7. Image inverse. On se donne une application f : E −→ E. L’image inverse d’une partie Gde F est l’ensemble des antecedents des elements de G, c’est-a-dire

f−1(G) := {x ∈ E | f(x) ∈ G}.

On voit que f−1(G) est une partie de E et non un element.On considere alors E et F , espaces vectoriels sur K et f une application lineaire de E dansF . Lorsque G est reduit a l’element 0 de F , l’image inverse f−1(0) qui est alors le noyau de f ,contient en general plus d’un element de E. On voit donc que ecrire f−1(0) ne suppose pas que fest bijective, ou que l’application inverse de f existe.

10.8. Polynomes, racines. On considere un corps K et un polynome P a coefficients dans Kde degre d. Un tel polynome a une ecriture unique

P (T ) = adTd + ad−1T

d−1 + . . .+ a0 avec ad 6= 0.

On dit qu’un scalaire λ de K est une racine de P si P (λ) = 0 dans K, autrement dit si

P (λ) = adλd + ad−1λ

d−1 + . . .+ a0 = 0.

Un theoreme classique est le suivant : λ est racine de P si et seulement si T −λ divise P (T ) dansK[T ].On designe par r un entier. On dit que λ est racine de multiplicite r de P si et seulement si(T − λ)r divise P (T ) dans K[T ] et (T − λ)r+1 ne divise pas P (T ) dans K[T ].On dit qu’un polynome de K[T ] est scinde dans K[T ] s’il est produit dans K[T ] de facteurs dedegre 1.Le theoreme de d’Alembert-Gauss affirme que : un polynome de degre d de C[T ] est scindedans C[T ]. C’est-a-dire : il existe des entiers m1, . . . ,mk tels que m1+. . .+mk = d et des complexesdistincts deux a deux λ1, . . . , λk, racines de P de multiplicites respectives m1, . . . ,mk. On a donc

P (T ) = ad

k∏i=1

(T − λi)mi .

En particulier, un polynome de degre non nul a au moins une racine complexe.

Page 27: Vecteurs propres et valeurs propres. - math.unice.frmerle/Algebre2/1Cours_Alg2.pdf · On travaille sur le corps R des r eels. On pourrait egalement utiliser le corps des complexes

27

10.9. Produit scalaire euclidien. On considere un espace vectoriel E sur le corps des reels R.et une application

E × E −→ R

(x, y) 7−→ 〈x | y〉qui, pour meriter le nom de produit scalaire euclidien, doit verifier les proprietes suivantes : pourtous x et y de E, pour tout λ scalaire reel, on a

(1) Elle est bilineaire

〈x′ + x′′ | y〉 = 〈x′ | y〉+ 〈x′′ | y〉〈x | y′ + y′′〉 = 〈x | y′〉+ 〈x | y′′〉〈λx | y〉 = λ〈x | y〉〈x | λy〉 = λ〈x | y〉

(2) Elle est symetrique.〈x | y〉 = 〈y | x〉

(3) Elle est definie positive.

〈x | x〉 ≥ 0 et

〈x | x〉 = 0 =⇒ x = 0.

10.10. Norme. On considere un espace vectoriel E sur R. Une application

E −→ R+

x 7−→ ‖x‖est une norme si elle verifie les axiomes suivants :

(1) Homogeneite : pour λ scalaire et x vecteur,

‖λx‖ = |λ|‖x‖

(2) Positivite stricte : pour x dans E, ‖x‖ ≥ 0 et ‖x‖ = 0 =⇒ x = 0.

(3) Inegalite triangulaire : pour tous x et y vecteurs de E,

‖x+ y‖ ≤ ‖x‖+ ‖y‖.

Un produit scalaire euclidien (voir 10.9) definit une norme, dite euclidienne. Pour x vecteur de E,on pose

‖x‖ :=√〈x | x〉.

Il existe cependant des normes qui ne proviennent pas d’un produit scalaire : par exemple surl’espace vectoriel R2 on considere l’application

R2 −→ R+

(x1, x2) 7−→ sup |x1|, |x2|est une norme (le verifier).