réduction des endomorphismes · proposition 2 : si v est un endomorphisme commutant avec u, ker v...

49
Réduction des endomorphismes 1. Sous-espaces stables. 2. Polynômes d’endomorphismes ; théorème des noyaux. 3. Valeurs propres, vecteurs propres, espaces propres. 4. Polynôme caractéristique ; théorème de Hamilton-Cayley. 5. Endomorphismes diagonalisables. 6. Endomorphismes nilpotents. 7. Endomorphismes trigonalisables. 8. Applications et compléments. Pierre-Jean Hormière __________ Introduction « Ces spectres muets, sourds, sur leur aile funèbre Apportent au songeur cette échelle, l'algèbre. » Victor Hugo Soient K un corps commutatif, E un K-espace vectoriel de dimension finie, u un endomorphisme de E. On se propose d’étudier avec précision l’action de u sur les vecteurs de E. Réduire l'endomorphisme u, c’est chercher une base de E dans laquelle la matrice de u soit la plus simple possible : diagonale ou diagonale par blocs, trigonale ou trigonale par blocs... Dans de telles bases, l’étude de l’action de u sur E est facilitée : recherche de sous-espaces stables, caractérisation des endomorphismes commutant avec u, étude des puissances de u et de leurs limites, etc. Réduire la matrice carrée A M n (K), c’est réduire l’endomorphisme de K n canoniquement associé à A : X A.X, autrement dit, c’est chercher une matrice de passage P Gl n (K) telle que P -1 .A.P soit la plus simple possible : diagonale ou diagonale par blocs, trigonale ou trigonale par blocs... Le but ultime serait de disposer de critères théoriques et pratiques permettant de reconnaître si deux matrices sont semblables, i.e. de classifier à similitude près les matrices carrées. Ce but ne sera pas complètement atteint ici, mais sera à bonne portée. Lorsque deux matrices A et B sont semblables, les systèmes dynamiques discrets X k+1 = A.X k et Y k+1 = B.Y k sont conjugués, car B = P -1 .A.P (2200k 0) B k = P -1 .A k .P ; de même, les systèmes dynamiques différentiels X'(t) = A.X(t) et Y'(t) = B.Y(t) sont conjugués, car ils ont pour solutions : X(t) = exp(t.A).X(0) et Y(t) = exp(t.B).Y(0) , exp(t.B) = P -1 .exp(t.A).P. Ces dynamiques linéaires aident à comprendre les dynamiques non linéaires, notamment au voisinage de leurs points d’équilibre. Ajoutons que la théorie spectrale en dimension finie est le point de départ de la théorie spectrale des opérateurs en dimension infinie. Toutes deux ont de nombreuses applications en physique (optique, mécaniques classique et quantique), en sociologie, etc. La plupart des fonctions spéciales de l’analyse (polynômes orthogonaux, fonctions de Bessel, etc.) peuvent être présentées comme fonctions propres de certains opérateurs. Quant aux zéros de la fonction ζ sur la droite critique Re = 1/2, on pense que ce sont des valeurs propres d’un opérateur de Polya-Hilbert non encore découvert. Par ailleurs, la théorie que nous allons exposer a des liens profonds, et un peu inattendus, avec celle des groupes finis commutatifs. Toutes deux sont en effet des cas particuliers de la théorie des modules sur les anneaux principaux. Ce point de vue abstrait, à peine abordé ici (il faut faire des choix), est exposé dans Bourbaki, MacLane Birkhoff, Lang, auxquels je renvoie.

Upload: others

Post on 12-Jul-2020

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

Réduction des endomorphismes

1. Sous-espaces stables.

2. Polynômes d’endomorphismes ; théorème des noyaux.

3. Valeurs propres, vecteurs propres, espaces propres.

4. Polynôme caractéristique ; théorème de Hamilton-Cayley.

5. Endomorphismes diagonalisables.

6. Endomorphismes nilpotents.

7. Endomorphismes trigonalisables.

8. Applications et compléments.

Pierre-Jean Hormière

__________

Introduction

« Ces spectres muets, sourds, sur leur aile funèbre Apportent au songeur cette échelle, l'algèbre. »

Victor Hugo Soient K un corps commutatif, E un K -espace vectoriel de dimension finie, u un endomorphisme de E. On se propose d’étudier avec précision l’action de u sur les vecteurs de E. Réduire l'endomorphisme u, c’est chercher une base de E dans laquelle la matrice de u soit la plus simple possible : diagonale ou diagonale par blocs, trigonale ou trigonale par blocs... Dans de telles bases, l’étude de l’action de u sur E est facilitée : recherche de sous-espaces stables, caractérisation des endomorphismes commutant avec u, étude des puissances de u et de leurs limites, etc. Réduire la

matrice carrée A ∈ Mn(K ), c’est réduire l’endomorphisme de Kn canoniquement associé à A : X →

A.X, autrement dit, c’est chercher une matrice de passage P ∈ Gln(K ) telle que P−1

.A.P soit la plus simple possible : diagonale ou diagonale par blocs, trigonale ou trigonale par blocs... Le but ultime serait de disposer de critères théoriques et pratiques permettant de reconnaître si deux matrices sont semblables, i.e. de classifier à similitude près les matrices carrées. Ce but ne sera pas complètement atteint ici, mais sera à bonne portée.

Lorsque deux matrices A et B sont semblables, les systèmes dynamiques discrets Xk+1 = A.Xk et

Yk+1 = B.Yk sont conjugués, car B = P−1

.A.P ⇒ (∀k ≥ 0) Bk = P

−1.A

k.P ; de même, les systèmes

dynamiques différentiels X'(t) = A.X(t) et Y'(t) = B.Y(t) sont conjugués, car ils ont pour solutions :

X(t) = exp(t.A).X(0) et Y(t) = exp(t.B).Y(0) , où exp(t.B) = P−1

.exp(t.A).P. Ces dynamiques linéaires aident à comprendre les dynamiques non linéaires, notamment au voisinage de leurs points d’équilibre. Ajoutons que la théorie spectrale en dimension finie est le point de départ de la théorie spectrale des opérateurs en dimension infinie. Toutes deux ont de nombreuses applications en physique (optique, mécaniques classique et quantique), en sociologie, etc. La plupart des fonctions spéciales de l’analyse (polynômes orthogonaux, fonctions de Bessel, etc.) peuvent être présentées comme fonctions propres de certains opérateurs. Quant aux zéros de la fonction ζ sur la droite critique Re = 1/2, on pense que ce sont des valeurs propres d’un opérateur de Polya-Hilbert non encore découvert. Par ailleurs, la théorie que nous allons exposer a des liens profonds, et un peu inattendus, avec celle des groupes finis commutatifs. Toutes deux sont en effet des cas particuliers de la théorie des modules sur les anneaux principaux. Ce point de vue abstrait, à peine abordé ici (il faut faire des choix), est exposé dans Bourbaki, MacLane Birkhoff, Lang, auxquels je renvoie.

Page 2: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

2

Notations

Si E est un K -espace vectoriel, on note LLLL(E) l’algèbre des endomorphismes de E, et, indifféremment, idE ou I l’identité de E , v o u ou v.u le composé des endomorphismes u et v ; uk désigne u o u o ... o u (itéré k fois), avec la convention u0 = idE .

Dans K [X], on note P | Q la relation « P divise Q » , P ∧∧∧∧ Q = pgcd(P, Q) et P ∨∨∨∨ Q = ppcm(P, Q) le pgcd et le ppcm des polynômes P et Q. A et B désignent en général des matrices carrées, mais parfois aussi des polynômes, X désigne, tantôt l’indéterminée de K [X], tantôt un vecteur colonne ∈ Kn ≡ MK (n, 1).

Dans les § 1 à 3, E est de dimension quelconque. À partir du § 4, il sera supposé de dimension finie.

1. Sous-espaces stables par un endomorphisme.

Définition : Soient E un K -espace vectoriel, u ∈ LLLL(E). Un sous-espace vectoriel F de E est dit u-

stable si u(F) ⊂ F. On note alors uF ∈ LLLL(F) l’endomorphisme induit uF = FFu .

Proposition 1 : Soit l’ensemble V(E, u) des sev u-stables de E, ordonné par inclusion : i) V(E, u) a pour plus petit élément 0 et plus grand élément E. ii) Si F1 et F2 sont des sev u-stables, F1 + F2 et F1 ∩ F2 sont u-stables.

iii) Plus généralement, si (Fi)i∈I est une famille de sev u-stables, IIi

iF∈

et ∑∈Ii

iF sont u-stables.

Ainsi V(E, u) est un "sous-treillis complet" de V(E). Rappelons que ∑∈Ii

iF désigne l’ensemble des

vecteurs qui s’écrivent x = ∑∈Ii

ix , où (∀i) xi ∈ Fi et (xi) est à support fini.

Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈ K [X], Ker P(u) et Im P(u) sont u-stables.

Exercice : 1) Soit A une partie de E ; montrer que l’intersection de tous les sous-espaces u-stables contenant A est le plus petit sous-espace u-stable contenant A. 2) Soit x un vecteur de E. Montrer que le plus petit sous-espace u-stable contenant x est :

Vect( x , u(x) , u2(x) , ... ) = [P(u)](x) ; P ∈ K [X] .

3) Plus généralement, décrire le plus petit sous-espace u-stable contenant A (on pourra considérer une famille génératrice de A).

Cas où E est de dimension finie.

Proposition 3 : Soient E un K -ev de dimension n, u ∈ LLLL(E), F un sev de E, (e1, ..., ep) une base de F complétée en une base BBBB = (e1, ..., en) de E. Pour que F soit u-stable, il faut et il suffit que la matrice

de u dans la base BBBB ait la forme trigonale par blocs suivante : M =

DOBA .

La matrice A a une interprétation simple : c’est la matrice de uF dans la base (e1, ..., ep). La matrice D est moins simple à interpréter : Attention ! ce n’est pas la matrice de uG dans la base (ep+1, ..., en), où G = Vect(ep+1, ..., en), car rien ne dit que G est u-stable. Il faudrait pour cela que B = O. On peut donner de D trois interprétations, qui sont à l’origine de différentes versions des théorèmes ultérieurs. Seule la première est à retenir. 1ère interprétation : via les projecteurs.

Soit p le projecteur sur G parallèlement à F ; v = p o u laisse stable G, puisque v(G) ⊂ Im v ⊂ Im p = G. D est clairement la matrice de vG dans la base (ep+1, ..., en).

2ème interprétation : espaces quotients.

Page 3: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

3

Soit s : E → E/F la surjection canonique. L’espace quotient E/F, c’est-à-dire l’espace des classes modulo F des vecteurs de E, a pour base : (s(ep+1), ..., s(en)). L’application linéaire x ∈ E → (s o u)(x) ∈ E/F se factorise en une application E/F → E/F, car : x ≡ x' mod F ⇒ u(x) ≡ u(x') mod F , qui est linéaire. Notons uE/F l’endomorphisme de E/F tel que s o u = uE/F o s. Alors D = Mat( uE/F , (s(ep+1), ..., s(en) ).

3ème interprétation : dualité.

Dans la base duale BBBB* = (e1*, ..., en*), la matrice de tu est tM =

DBOAtt

t

.

Cela prouve que tu laisse stable le sous-espace F° = Vect(ep+1*, ..., en*) ; tD est la matrice de tuF° dans la base (ep+1*, ..., en*).

Dans le cas, assez rare, où le sous-espace F admet un supplémentaire u-stable G, alors, en recollant deux bases (e1, ..., ep) et (ep+1, ..., en) de F et G resp. en une base de E, la matrice de u sera

diagonale par blocs, de la forme M =

DOOA .

Exercice 1 : Si u est une homothétie, quels sont les sous-espaces u-stables ? Réciproque ?

Exercice 2 : Soit E un plan euclidien ; quels sont les sous-espaces stables par Rot(O, θ) ?

Exercice 3 : Soit E un espace euclidien de dim 3, u = Rot(∆, θ) la rotation d’axe ∆ et d’angle θ. Quels sont les sous-espaces u-stables ? Cns pour que deux rotations commutent ?

2. Polynômes d’endomorphismes ; théorème des noyaux.

2.1. Polynômes d’endomorphismes.

Soient E un K -espace vectoriel, u un endormorphisme de E. À tout polynôme P = ∑ ai.Xi ∈ K [X]

on peut associer l’endomorphisme P(u) = ∑ ai.ui (où u0 = idE et ui = u o ... o u i fois), obtenu en substituant à l’indéterminée X l’endomorphisme u. La théorie de la substitution donne alors :

Proposition 1 : i) L’application εu : P ∈ K [X] → P(u) ∈ LLLL(E) est un morphisme d’algèbres unifères ( P + Q )(u) = P(u) + Q(u) ; (λ.P)(u) = λ.P(u) ; ( P.Q )(u) = P(u) o Q(u) ; 1(u) = idE.

ii) L’image de ce morphisme est un sous-algèbre commutative de LLLL(E), notée K [u]. C’est l’algèbre des polynômes de u. C’est la plus petite sous-algèbre unifère de LLLL(E) contentant u.

iii) Le noyau de ce morphisme est un idéal de K [X], dit idéal annulateur de u ; il est donc principal. − s’il est réduit à 0, P → P(u) est injectif. L’endomorphisme u est dit transcendant. − sinon, il est de la forme (µu(X)), où µu(X) est le générateur unitaire de cet idéal. L’endo-morphisme u est alors dit algébrique, et µu(X) est appelé son polynôme minimal.

Remarque : Si u est transcendant, εu : P ∈ K [X] → P(u) ∈ K [u] est un isomorphisme d’algèbres. Si u est algébrique, on obtient par factorisation canonique un isomorphisme d’algèbres K [X]/( µu(X)) → K [u].

Proposition 2 : Si E est de dimension finie, tout endomorphisme de E est algébrique.

Preuve : Il suffit d’observer que la famille (idE, u, u2, ..., un²) est liée comme famille de n

2+1

vecteurs dans un espace de dimension n2, à savoir LLLL(E). Il existe donc un polynôme non nul annulé.

Par suite, u admet un polynôme minimal, de degré ≤ n2. (On montrera plus tard que deg µu(X) ≤ n ).

Il résulte de la prop 1 qu’à toute identité polynômiale dans K [X] correspond une identité dans K [u].

Page 4: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

4

Ainsi, l’identité : X3 − 1 = ( X − 1 ).( X2 + X + 1 ) = ( X2 + X + 1 ).( X − 1 ) implique : u3 − I = ( u − I ) o ( u2 + u + I ) = ( u2 + u + I ) o ( u − I ) .

Plus généralement l’identité Xr − 1 = ( X − 1 ).( Xr−1 + ... + X + 1 ) = ( Xr−1 +...+ X + 1 ).( X − 1 )

implique : ur − I = ( u − I ) o ( ur−1 + ... + u + I ) = ( ur−1 + ... + u + I ) o ( u − I ) . Il en résulte en particulier que si u est nilpotent tel que ur = 0, alors I − u est inversible d’inverse :

( u − I )−1 = ur−1 + ... + u + I . Plus généralement, si u annule un polynôme P tel que P(0) ≠ 0, u est inversible et son inverse est un polynôme de u.

Exercice 1 : Inverser les matrices :

10010

1cba

,

−−101100

112 ,

011101110

.

Exercice 2 : Soit A =

−−−

021232122

. Calculer A2 + 2A − 3I. En déduire A

n.

Exercice 3 : Soit A une matrice carrée d’ordre n. Montrer l’équivalence des propriétés : i) A est inversible ; ii) Le polynôme minimal de A est de valuation nulle ; iii) Il existe un polynôme P ∈ K [X] de valuation nulle tel que P(A) = O.

Exercice 4 : Soit A une matrice carrée de polynôme minimal µA(X). Soit d = deg µA(X).

1) Montrer que E = P(A) ; P∈K [X] est une sous-algèbre commutative de Mn(K ) de dimension d.

2) Soit B = P(A) ∈ E. Montrer que B est inversible ssi Ρ ∧∧∧∧ µA = 1, et qu’alors B−1 ∈ E. Comment

trouver Q tel que B−1

= Q(A) ?

Exercice 5 : Soit f une fonction de R dans R vérifiant : (∀x) f(x + 2) + f(x + 1) − 2 f(x) = 0 .

Montrer que (∀x) 512 f(x) = 341 f(x + 9) + 171 f(x + 10) . 2.2. Notation symbolique.

Soit u un endomorphisme fixé de E. Pour tout couple (P , x) ∈ K [X] ×E, on note symboliquement :

P.x = [P(u)](x).

On définit ainsi une loi externe sur E, dont le domaine des scalaires est K [X]. Cette loi vérifie : (M1) P.(x + y) = P.x + P.y découle de l’additivité de P(u) (M2) (P + Q).x = P.x + Q.x découle de (P + Q)(u) = P(u) + Q(u) (M3) (P.Q).x = P.(Q.x) découle de (P.Q)(u) = P(u)oQ(u) (M4) 1.x = x découle de 1.x = I(x). Jointe à l’addition, cette loi externe, fait de E un K [X]-module, noté Eu. De plus, K étant plongé dans K[X], cette loi prolonge la loi externe usuelle (λ, x) → λ.x de K×E dans E.

Exercice 3 : 1) Montrer que les sous K [X]-modules de Eu ne sont autres que les sous-espaces vectoriels u-stables de E ; retrouver alors la prop. 1 du §1. 2) Montrer que les endomorphismes du K [X]-module Eu ne sont autres que les endomorphismes de E qui commutent à u. Plus généralement, si F est un K -ev et v un endomorphisme de F, quelles sont les applications K [X] linéaires Eu → Fv ?

Remarques : 1) La considération de cette structure de K [X]-module permet de rattacher la présente théorie à celle des modules sur les anneaux principaux, de même que les groupes commutatifs qui sont, quant à eux, des modules sur l’anneau principal Z (voir exercices ci-après).

2) E peut également être muni d’une structure de K [u]-module, via (v, x) → v(x). Lorsque u est transcendant, cette structure se confond avec la précédente, lorsqu’il est algébrique, cela revient à munir E d’une structure de K [X]/( µu(X)), où µu(X) est le polynôme minimal de u.

Page 5: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

5

2.3. Le théorème des noyaux.

Le théorème suivant est l’un des plus importants résultats d’algèbre linéaire. Facile à démontrer, il n’est qu’une simple traduction linéaire du théorème de Bézout. Cependant, ses conséquences sont fort nombreuses : il permet de concasser des noyaux.

Théorème des noyaux : Soient A1, ..., Ar r polynômes premiers entre eux deux à deux dans K [X], u

un endomorphisme de E. Alors : Ker(A1 × … × Ar)(u) = ⊕1≤i≤r Ker Ai(u) , et les projecteurs associés à cette décomposition en somme directe sont eux-mêmes des polynômes de u.

Preuve : Supposons r = 2.

Par l’identité de Bezout : ∃(B1, B2) ∈ K [X] 1 = A2(X)B1(X) + A1(X).B2(X), donc, en substituant u à X : idE = A2(u) o B1(u) + A1(u) o B2(u).

• Tout d’abord, (A1A2)(u) = A1(u) o A2(u) = A2(u) o A1(u) , donc Ker Ai(u) ⊂ Ker (A1A2)(u), et, par suite : KerA1(u) + KerA2(u) ⊂ Ker(A1A2)(u).

• Ensuite, en utilisant les notations symboliques de 2.2. (∀x ∈ E) x = (A2.B1).x + (A1.B2).x. Or si x ∈ Ker(A1A2)(u) , (A2.B1).x ∈ KerA1(u) et (A1.B2).x ∈ KerA2(u) .

• Enfin, si x ∈ KerA1(u) ∩ KerA2(u) , x = (B1.A2).x + (B2.A1).x = 0. Les projecteurs associés à cette somme directe sont p1 = A2(u) o B1(u) et p2 = A1(u) o B2(u). Ce sont des polynômes de u. cqfd.

On peut conclure par récurrence sur r. Si l’énoncé est vrai au rang r − 1, alors Ar(X) est premier avec (A1 ... Ar−1)(X).

Donc Ker(A1× … ×Ar)(u) = Ker Ar(u) ⊕ Ker(A1× … ×Ar−1)(u) (cas r = 2)

= ⊕1≤i≤r Ker Ai(u) , par HRr−1.

Le projecteur pr sur Ker Ar(u) associé à cette somme directe est un polynôme de u ; les projecteurs qi de Ker(A1× … ×Ar−1)(u) sur Ker Ai(u) , 1 ≤ i ≤ r−1, également ; pi = ( I − pr ) o qi aussi...

Corollaire : Pour tout sous-espace u-stable F , on a :

F ∩ Ker(A1× … ×Ar)(u) = ⊕1≤i≤r [ F ∩ Ker Ai(u) ].

Preuve : Bien prendre garde que l’intersection des sev n’est pas distributive en général par rapport à la somme. Le résultat énoncé n’est donc pas évident. Il découle ici de l’application du théorème des noyaux à l’endomorphisme induit uF. Exercice 4 : On se propose de montrer le théorème des noyaux sans récurrence.

1) On note A(X) = (A1× … ×Ar)(X) et Ci(X) = A(X)/A i(X). Montrer que les polynômes Ci(X) sont premiers entre eux dans leur ensemble. Soient B1, ... , Br des polynômes tels que : 1 = C1(X).B1(X) + ... + Cr(X).Br(X).

2) Montrer que Ker(A1× … ×Ar)(u) = ⊕1≤i≤r Ker Ai(u) , les projecteurs associés à cette somme directe étant les pi = Ci(u) o Bi(u) .

3) Traiter le cas particulier où Ai(X) = X − λi , les λi étant deux à deux distincts.

Exercice 5 : Soit u l’endomorphisme P → X.P de K [X]. Reconnaître A(u). Si A = A1 ... Ar, où A1, ..., Ar sont premiers entre eux deux à deux, comment se traduit le théorème des noyaux ? Même question en remplaçant K [X] par K (X) et F = K [X].

Exercice 6 : Généralisation.

Soient A et B deux polynômes de K [X], de pgcd D et de ppcm M, u ∈ LLLL(E). Montrer que :

Ker D(u) = Ker A(u) ∩ Ker B(u) Im D(u) = Im A(u) + Im B(u) Ker M(u) = Ker A(u) + Ker B(u) Im M(u) = Im A(u) ∩ Im B(u)

Page 6: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

6

Généraliser à r polynômes. Montrer que si A et B sont premiers entre eux et tels que (A.B)(u) = 0, alors : E = Ker A(u) ⊕ Ker B(u) , Ker A(u) = Im B(u) , Ker B(u) = Im A(u) .

Exercice 7 : Analogie avec les groupes abéliens.

1) Soit G un groupe abélien noté additivement. Pour tout n ∈ Z, on pose :

N(n) = x ∈ G ; n.x = 0 et I(n) = n.x ; x ∈ G .

Montrer que si a ∧∧∧∧ b = d et a ∨∨∨∨ b = m , on a : N(d) = N(a) ∩ N(b) I(d) = I(a) + I(b) N(m) = N(a) + N(b) I(m) = I(a) ∩ I(b).

2) On suppose G fini à n éléments, et l’on note m l’ exposant de G, c’est-à-dire le plus petit entier >

0 tel que (∀x ∈ G) m.x = 0. Montrer que m | n, et que si m = ∏ ikip est factorisation de m, on a la

décomposition en somme directe : G = ⊕ N( ikip ) .

3) On suppose m = p premier. Montrer que n est une puissance de p, et que G ≈ (Z/pZ)k. 2.4. Application aux endomorphismes algébriques.

Soient E un K -espace vectoriel, u un endomorphisme algébrique de E, P un polynôme unitaire annulant u, de degré d, par exemple le polynôme minimal de u.

− Pour tout polynôme A ∈ K [X], on a A(u) = R(u), où R = A mod P est le reste euclidien de A par P. Ainsi K [u] = Kd−1[X] et on peut ne manipuler que des polynômes de u de degré < d.

Exercice 9 : Soit A ∈ K [X]. Montrer A ∧ P = 1 ⇒ A(u) ∈ Gl(E) ; comment calculer alors A(u)−1 ? Si P est le minimal de u, montrer que A ∧ P = 1 ⇔ A(u) ∈ Gl(E).

− Si P a pour factorisation dans K [X] : P = 11mP ... rm

rP , où P1, ..., Pr sont irréductibles unitaires

distincts, le théorème des noyaux s’écrit : E = Ker P(u) = ⊕1≤i≤r Ker [ )(uP imi ] .

− Si de plus, F est un sous-espace u-stable, on a F = ⊕1≤i≤r F ∩ Ker [ )(uP imi ] .

− Lorsque E est de dimension finie, si l’on recolle des bases BBBBi de Ker [ )(uP imi ] en une base

BBBB = BBBB1 ∪ ... ∪ BBBBr de E, alors la matrice de u est diagonale par blocs :

M = diag (A1, ... , Ar) , où )( im

i AP i = O pour 1 ≤ i ≤ r . Problème sur les endomorphismes algébriques.

Si u est un endomorphisme algébrique, on note µu(X) son polynôme minimal.

1) Exemples et contre-exemples.

a) Montrer que si E est de dimension finie, tout endomorphisme est algébrique. b) Plus généralement, montrer qu’un endomorphisme de rang fini est algébrique. Réciproque ? c) Si u est algébrique, que dire de P(u), où P ∈ K [X] ? d) Que dire des endomorphismes D : P → P' et P → X.P de K [X] ?

2) Montrer qu’un endomorphisme algébrique u est, soit inversible, soit diviseur de zéro bilatère, i.e. tel que (∃v ≠ 0) u.v = v.u = 0. En déduire que si u est algébrique, u injectif ⇔ u surjectif.

3) Soit u un endomorphisme algébrique. Montrer que les valeurs propres et les valeurs spectrales de de u coïncident, et sont les racines du polynôme minimal de u.

4) Si u et v sont algébriques et commutent, montrer que u + v et u.v sont algébriques. Exercice 10 : idéal annulateur d’un élément.

Soit u un endomorphisme algébrique de E, de polynôme minimal µ(X). Soit x ∈ E ; avec les notations précédentes, le plus petit sous-espace u-stable contenant x est Vx = P.x ; P ∈ K [X] .

Page 7: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

7

1) Montrer que N(x) = P ∈ K [X] ; P.x = 0 est un idéal ≠ 0 de K [X] ; on note µx(X) son géné-rateur unitaire. Montrer que µx(X) | µ(X) et que dim Vx = deg µx(X).

2) On suppose E de dimension n ; soit BBBB = (e1, ..., en) une base de E.

i) Montrer que µ(X) = ppcm(µx(X) ; x ∈ E) = ppcm(µei(X) ; 1 ≤ i ≤ n).

ii) On suppose K infini. Montrer qu’il existe un vecteur e tel que µe(X) = µ(X). En déduire que : deg µ(X) ≤ n. [ On pourra utiliser le fait qu’une réunion finie de sous-espaces est un sous-espace ssi l’un d’eux contient tous les autres ].

iii) On revient au cas général. Montrer que si µx(X) et µy(X) sont premiers entre eux, alors : µx+y(X) = µx(X).µy(X). En déduire qu’il existe un vecteur e tel que µe(X) = µ(X).

3) Montrer l’équivalence : u est monogène ⇔ χu(X) = (−1)n.µu(X) . Exercice 11 : nombres algébriques, théorie de Galois.

Soit θ un nombre complexe algébrique sur Q, µθ(X) son polynôme minimal sur Q, de degré n.

1) Montrer que µθ(X) est irréductible sur Q et a des racines simples dans C, θ = θ1, ... , θn.

2) Montrer que K = Q[θ] = P(θ) ; P ∈ Q[X] est un corps et une Q-algèbre de dimension n.

3) Pour tout x ∈ K, soit mx l’endomorphisme : y → x.y de K. Comparer les polynômes minimaux

de x et de mx. Montrer que la matrice de mθ dans la base BBBB = (1, θ, ..., θn−1) est la matrice-compagnon de µθ(X).

4) Montrer que si µθ(X) est scindé sur K, le groupe de Galois Γ de K sur Q a n éléments, et que les images de x par σ ∈ Γ sont les valeurs propres de mx .

2.5. Application aux suites récurrentes linéaires.

« Accède à l'allègre ardeur du décalage, à la belle erreur du réel ! »

Georges Pérec, À Claude Berge

Les suites récurrentes linéaires à coefficients constants se rattachent élégamment au théorème des noyaux. Plaçons-nous dans C (ou dans un corps algébriquement clos).

Soient a0, a1, ... , ap−1 des complexes. Étudions les suites u = (un)n∈N ∈ S ≡ FFFF(N, C) vérifiant :

(∀n ∈ N) un+p + ap−1.un+p−1 + ... + a0.un = 0 (1)

Proposition 1 : L’ensemble E des suites vérifiant (1) est un sous-espace de dimension p de S,

isomorphe à Cp via l’application ϕ : u = (un)n∈N → (u0, u1, ... , up−1) ∈ Cp.

Notons T l’opérateur de décalage (en anglais : shift) qui, à la suite u = (un)n∈N ∈ S associe la suite v = T(u), définie par vn = un+1. Cet opérateur est surjectif, non injectif.

Par exemple, les suites p-périodiques sont les suites vérifiant Tp(u) = u, autrement dit ce sont les

éléments de Ker( Tp – I ), les suites périodiques sont les éléments de U

1

)(≥

−p

p ITKer , et les suites

périodiques à partir d’un certain rang sont les éléments de U1,0

)(≥≥

+ −pk

kpk TTKer .

Revenons à E. On a E = Ker P(T) , où : P(X) = Xp + ap−1.Xp−1 + ... + a1.X + a0 (2)

P est appelé polynôme caractéristique de l’espace E. C étant algébriquement clos, il est scindé,

sous la forme : P(X) = ∏=

−r

j

kj

jX1

)( λ (3)

Le théorème des noyaux s’écrit alors :

E = Ker P(T) = ⊕1≤j≤r Ker( T − λj.I )kj (4)

Page 8: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

8

Tout revient alors à déterminer Ker( T − λ.I )k , pour λ ∈ C et k ≥ 1.

Théorème 2 : i) Ker Tk = u = (u0 , ... , uk−1 , 0 , 0 , ... ) .

ii) Si λ ≠ 0 , Ker( T − λ.I )k = u ∈ S ; ∃Q ∈ Ck−1[X] (∀n ∈ N) un = λn.Q(n)

= Vect ( (λn), (nλn), …, (nk−1λn) ).

Preuve : i) est facile. Montrons ii) par récurrence sur k. Pour k = 1, Ker(T − λ.I) est l’ensemble des progressions géométriques de raison λ, qui forment une

droite. Supposons l’égalité vraie au rang k − 1 , et (∀n ∈ N) un = λn.Q(n) , où Q ∈ Ck−1[X].

Alors ( T − λ.I )(un) = λn+1.[ Q(n + 1) − Q(n) ] = λn.R(n) , où R ∈ Ck−2[X].

Du coup : ( T − λ.I )k−1 ( T − λ.I )(u) = ( T − λ.I )k (u) = 0 .

On a donc : Ker( T − λ.I )k ⊃ u ∈ S ; ∃Q ∈ Ck−1[X] (∀n ∈ N) un = λn.Q(n) ,

et l’on conclut par égalité des dimensions.

Application :

Les suites p-périodiques sont les suites vérifiant (∀n) un+p = un , i.e. ( Tp – I )(u) = 0.

En vertu de ce qui précède, elles forment un espace vectoriel de dimension p, admettant pour base

(ωn), où ω décrit l’ensemble des racines p-èmes de l’unité.

Remarques :

1) Une autre approche de (1) consiste à introduire le vecteur-colonne Xn = t(un+p−1, ... , un) ∈ Cp.

Alors (1) s’écrit matriciellement Xn+1 = A.Xn , où A est la matrice-compagnon (modifiée) de P. Dès

lors, Xn = An.X0, et nous sommes ramenés à calculer les puissances successives de A, ce qu’on apprendra à faire dans la suite.

2) Les résultats précédents relèvent aussi de la théorie des séries entières formelles.

3) La prop. 1 reste vraie dans un corps quelconque K . La suite suppose le polynôme P scindé sur le corps K . Si tel n’est pas le cas, on peut toujours scinder P dans un sur-corps convenable de K .

Exercice 12 : Suite de Fibonacci.1

Il s’agit de la célèbre suite : F0 = 0 , F1 = 1 , Fn+2 = Fn+1 + Fn.

1) Calculer Fn pour tout n ; limite de la suite (n

n

FF 1+ ) ?

2) Retrouver ces résultats matriciellement, et par séries entières formelles. 3) On définit la suite de Fibonacci de second ordre par :

x0 = 0 , x1 = 1 et xn+2 = xn+1 + xn + Fn . Calculer xn.

4) On définit la suite de Fibonacci modifiée par :

u0 = 0 , u1 = 1 et un+2 = un+1 + un + (−1)n . Calculer un.

Exercice 13 : Étudier les suites u = (un)n∈N telles que :

(∀n ∈ N) un+5 = un+4 + 5.un+3 − un+2 − 8.un+1 − 4.un.

Lesquelles sont bornées ? convergentes ?

Exercice 14 : Montrer que si (un) est une suite récurrente linéaire à coefficients constants, il en est

de même de la suite Sn = u0 + … + un.

1 Leonardo Bonacci, dit Bigollo, dit Fibonacci (1175-1250 env.), ami du mythique empereur Frédéric II de Hohenstaufen (1194-1250), qu’il rencontra en 1226, a introduit cette suite pour modéliser la reproduction des lapins. J’ai consacré à cette suite un chapitre d’algébre générale.

Page 9: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

9

Exercice 15 : Étudier les suites récurrentes : (∀n ∈ N) un+p + ap−1.un+p−1 +... + a0.un = vn , où (vn) est une suite donnée, de la forme αn.Q(n), où Q est un polynôme.

Exercice 16 : Indiquer une ou des bases de l’espace des suites complexes p-périodiques, une ou des bases de l’espace des suites complexes périodiques, resp. périodiques à partir d’un certain rang.

Exercice 17 : Soient (un) la suite de Fibonacci, et (vn) la suite de Lucas, définies resp. par

u0 = 0 , u1 = 1 , un+2 = un+1 + un et v0 = 2 , v1 = 1 , vn+2 = vn+1 + vn .

Etudier leurs restes modulo 11, 7, 2, 5, 25, 125.

Exercice 18 : Soit (xn) la suite définie par x0 = 4, x1 = x2 = 0, x3 = 3, xn+4 = xn+1 + xn (∀n ≥ 0).

Montrer que, pour tout p premier, p divise xp. 2.6. Application aux équations différentielles linéaires à coefficients constants.

Nous traiterons ces équations dans le chapitre correspondant, mais il a tout à fait sa place ici. Pour l’heure, présentons les choses sous formes d’exercices :

Problème 2 : On considère l’équation différentielle linéaire d’ordre n à coefficients constants :

y(n) + a1.y(n–1) + ... + an−1.y' + an.y = 0 (1).

1) Montrer que les solutions de (1) forment un sous-espace vectoriel E de CCCC∞(R, C).

2) On note D l’opérateur de dérivation : y → y'. Interpréter E comme un noyau.

3) Montrer que Ker ( D − λ.I )k = y(x) = P(x).exp(λ.x) ; P ∈ Ck−1[X] pour k ≥ 1.

4) a) En déduire la structure générale des solutions de (1). b) Montrer qu’elles forment un C-espace vectoriel de dimension n. c) On suppose les ai réels. Montrer que les solutions réelles de (1) forment également un R-

sous-espace de dimension n de CCCC∞(R, R).

5) Application : résoudre l’équation f'(x) = f(1 – x) sur R.

6) On appelle exponentielle-polynôme une fonction f : R → C du type f(x) = ∑ Pj(x).exp(αj.x), où Pj est un polynôme. a) Montrer que les exponentielles-polynômes sont les solutions des équations (1). b) Indiquer comment résoudre y(n) + an–1.y(n–1) + ... + a1.y' + a0.y = f(x) (2)

où f est une exponentielle-polynôme.

Problème 3 : On considère l’équation différentielle d’Euler, où x est la variable :

xn.y(n) + an–1.xn−1.y(n–1) + ... + a1.x.y' + a0.y = 0 (1).

1) Montrer que ses solutions forment un sous-espace vectoriel E de CCCC∞(I, C), où I = R*±.

2) Interpréter E comme un noyau, à l’aide de l’opérateur T : y → z , où z(x) = x.y'(x).

3) En déduire la structure des solutions de (1).

4) Application : résoudre l’équation f'(x) = f(x1 ) sur x > 0.

Page 10: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

10

3. Valeurs propres, vecteurs propres, espaces propres. Définition 1 : Le vecteur x ∈ E est dit vecteur propre de u si x ≠ 0 et si (∃λ ∈ K ) u(x) = λ.x. Le scalaire est alors unique et est appelé valeur propre associée au vecteur x. 2

Proposition 1 : x est un vecteur propre de u ⇔ K .x est une droite u-stable.

Proposition 2 : Les propriétés suivantes sont équivalentes : i) λ est une valeur propre de u ; ii) u − λ.I est non injectif ; iii) Ker(u − λ.I) ≠ 0.

Définition 2 : Si λ est valeur propre de u, E(λ, u) = Ker(u − λ.I) est dit espace propre associé à λ.

Il découle aussitôt de ces définitions que : − E(λ, u) est la réunion du singleton 0 et de l’ensemble des vecteurs propres associés à λ ; − un sous-espace propre n’est jamais réduit à 0 ; − l’espace propre E(λ, u) est u-stable, et u y induit une homothétie de rapport λ.

Proposition 3 : Si λ est valeur propre de u, pour tout entier k ≥ 0, λk est valeur propre de uk ; plus généralement, pour tout polynôme P ∈ K [X], P(λ) est valeur propre de P(u).

Corollaire : Si u est un endomorphisme algébrique, et est annulé par le polynôme P ≠ 0, les valeurs propres de u sont à chercher parmi les racines de P.

Proposition 4 : Si u est un endomorphisme algébrique, de polynôme minimal µu(X), les valeurs

propres de u sont les racines de µu(X).

Preuve : En vertu du corollaire précédent, il reste à montrer que les racines de µu(X) sont valeurs

propres de u. Si α est racine de µu(X), écrivons µu(X) = (X − α).Q(X). On a (u − α.I).Q(u) = 0.

Si u − α.I était injectif, on en déduirait Q(u) = 0, contredisant la minimalité de µu(X). Donc u − α.I est injectif, et α est une valeur propre de u.

Exercice 1 : Si u est inversible, montrer que pour tout k ∈ Z, λk est valeur propre de uk. Plus géné-ralement, pour toute fraction rationnelle F ∈ K (X) dans laquelle λ est substituable3, F(λ) est valeur propre de F(u).

Exercice 2 : Soit a un automorphisme de E. Relations entre les valeurs propres et les espaces propres

de u et de a o u o a−1

.

Proposition 5 : Soient λ1, ..., λp des valeurs propres distinctes de u. i) Si x1, ..., xp sont des vecteurs propres associés resp., la famille (x1, ..., xp) est libre

ii) Les espaces propres de u associés E(λ1), ..., E(λp) sont en somme directe.

Preuve : Un instant de réflexion montre que les assertions i) et ii) sont équivalentes. Il s’agit de montrer que si x1 ∈ E(λ1), …, xp ∈ E(λp), alors (1) x1 + … + xp = 0 ⇒ x1 = … = xp = 0. Or si l’on applique u, il vient λ1.x1 + … + λp.xp = 0 (2). Combinant (1) et (2), il vient ( λ1 − λp ).x1 + … + ( λp−1 − λp ).xp−1 = 0. Nous voilà ramenés à une récurrence…

2 Le terme de valeurs propres ne s’est imposé que récemment. On rencontre aussi le terme de valeurs carac-téristiques, et parfois ceux, plus évocateurs, de racines ou valeurs latentes, cachées, ou séculaires. En anglais, on nomme eigenvalue (et non clean value …) et eigenvector les valeurs et vecteurs propres, en allemand eigenvalue et eigenvektor. En russe, on les nomme valeurs et vecteurs caractéristiques. 3 i.e. n’est pas racine du dénominateur de la forme irréductible de F.

Page 11: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

11

Voici une preuve plus élégante encore : si l’on applique P(u) à (1), il vient : P(λ1).x1 + … + P(λp).xp = 0 .

Il reste à choisir pour P le polynôme de Lagrange Li(X) ; tel que Li(λj) = δij . Il vient xi = 0.

Corollaire : Des vecteurs propres associés à des valeurs propres distinctes forment une famille libre.

Remarque 1 : En fait, la prop. 4 découle du théorème des noyaux. Les polynômes X − λi sont premiers entre eux deux à deux. Si P est leur produit, Ker P(u) = ⊕ Ker(u − λi.I) = ⊕ E(λi). Les E(λi) sont donc en somme directe, et les projecteurs associés à leur somme directe sont des polynômes de u : les Li(u).

Remarque 2 : Le corollaire précédent fournit un critère de liberté bien utile.

Exemple 1 : Les fonctions x → exp(a.x) , a ∈ C , forment une famille libre dans FFFF(R, C).

Ce sont en effet des vecteurs propres de l’opérateur de dérivation D : y → y' de CCCC∞(R, C).

Exemple 2 : Les fonctions x → xr , r ∈ C, forment une famillle libre dans FFFF(R*+, C).

Ce sont en effet des vecteurs propres de l’opérateur T : f → g où g(x) = x.f’(x), dans CCCC∞(R*+, C).

Exemple 3 : Les fonctions (21 , cos(x), cos(2x), ..., cos(nx), sin(x), sin(2x), ...,sin(nx)) sont C-libres.

Pour le montrer, on peut, soit se ramener à l’exemple 1 via les formules d’Euler, soit observer que

cos(nx) et sin(nx) sont libres, et vecteurs propres de D2 associées à la valeur propre −n

2. Les

fonctions de la forme 20a

+ ∑=

+n

kkk kxbkxa

1

)sin(.)cos(. sont appelées polynômes trigonométriques.

Remarque 3 : valeurs propres et valeurs spectrales.

Définition 3 : λ est dite valeur régulière de u si u − λ.I est inversible, valeur spectrale sinon. L’ensemble des valeurs spectrales de u est appelé spectre de u et noté Sp u.

Proposition 5 : Toute valeur propre de u est valeur spectrale. La réciproque est fausse en général, mais vraie en dimension finie.

Preuve : Si λ est valeur spectrale, u − λ.I est non injectif (auquel cas λ est valeur propre) ou non surjectif. Le spectre contient donc l’ensemble des valeurs propres. En dimension finie, les deux ensembles sont égaux, en vertu de l’équivalence : u − λ.I injectif ⇔ u − λ.I surjectif.

Exercice 1 : Soit E = FFFF(N, R) l’espace vectoriel des suites réelles. Trouver les valeurs propres et les valeurs spectrales des opérateurs suivants : − l’opérateur de shift T : u = (un) → v = (vn) où vn = un+1 ; − l’opérateur S : u = (un) → (0 , u0 , u1 , u2 , ...) ; − l’opérateur M : u = (un) → (λn.un) ;

− l’opérateur de Cesàro C : u = (un) → v = (vn) où vn = n1 (u1 + ... + un) .

Exercice 2 : Mêmes questions pour E = K [X] et les opérateurs : D : P → P' , P → X.P , ∆ : P(X) → P(X + 1) − P(X) .

Exercice 3 : Mêmes questions pour E = CCCC∞(R, C) et les opérateurs D : f → f' et f → x.f'(x).

Exercice 4 : Soit E = CCCC(R+, R) , T : f → g , où g(x) = x1 ∫

xdttf

0).( si x > 0 , g(0) = f(0).

Montrer que T est un endomorphisme de E. Image, noyau, éléments propres, valeurs régulières ?

Exercice 5 : Soit E l’espace des fonctions continues de [0, 1] dans R.

À toute f ∈ E on associe F = T(f) , où ∀x ∈ [0, 1] F(x) = ∫ −1

0).().exp( dttftx .

Page 12: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

12

Montrer que T est un endomorphisme de E. Noyau, image, valeurs et vecteurs propres.

Exercice 6 : Soit E l’espace des fonctions continues 2π-périodiques de R dans R.

À toute f ∈ E on associe F = T(f) définie par (∀x ∈ R) F(x) = ∫ −π2

0).().sin( dttftx .

Montrer que T est un endomorphisme de E. Noyau, image, valeurs et vecteurs propres.

Dans la suite du chapitre, E est un K -espace vectoriel de dimension finie n.

4. Polynôme caractéristique ; théorème de Hamilton-Cayley.

4.1. Polynôme caractéristique d’une matrice, d’un endomorphisme.

Il découle aussitôt de la prop 4 du § 3 qu’un endomorphisme u a au plus n valeurs propres. Nous allons voir que ce sont les racines d’un important polynôme lié à u.

Définition 1 : Soit A ∈ Mn(K ) une matrice carrée d’ordre n ; on appelle matrice caractéristique de A la matrice A − X.I , et polynôme caractéristique de A le polynôme χA(X) = det(A − X.I) .4

Cette définition appelle deux remarques : − La matrice caractéristique A − X.I est à éléments dans Mn(K [X]), où K [X] est l’anneau principal des polynômes à une indéterminée. Si l’on veut à tout prix ne considérer que des matrices à éléments dans un corps commutatif, alors il faut considérer que A − X.I est à éléments dans

Mn(K (X)), où K (X) est le corps des fractions rationnelles.

− Le polynôme caractéristique n’est pas unitaire, mais de terme dominant (−1)n.Xn. Bourbaki adopte la définition χA(X) = det(X.I − A), plus commode théoriquement, moins commode en pratique.

Proposition 1 : Si A et B ∈ Mn(K ) sont semblables, elles ont mêmes polynômes caractéristiques.

Preuve : Soit P ∈ Gln(K ) telle que B = P−1.A.P ; alors B − X.I = P−1.(A − X.I).P dans Mn(K [X]), d’où χB(X) = χA(X) en passant au déterminant.

Définition 2 : Soit u ∈ LLLL(E). On appelle polynôme caractéristique de u le polynôme carac-téristique d’une quelconque des matrices de u dans une base de E. On le note χu(X). 5

Proposition 2 : Les valeurs propres de u sont les racines de son polynôme caractéristique.

Preuve : λ est valeur propre de u ⇔ u − λ.idE est non injectif

⇔ u − λ.idE est non bijectif ( on est en dimension finie ! )

⇔ det(u − λ.idE) = 0 ⇔ χu(λ) = 0. On en déduit que u admet au plus n valeurs propres, ce qui découle aussi du § 3, prop. 4, les espaces propres étant non nuls et en somme directe.

Étude du polynôme caractéristique.

1) Cas n = 2 : A =

dcba , χA(X) = X

2 − ( a + d ).X + ad − bc = X

2 − tr(A).X + det(A).

4 C’est Cauchy qui introduisit en 1840 le mot caractéristique pour désigner l’équation det(A − λ.I) = 0. 5 Les puristes regretteront qu’avec cette présentation le point de vue matriciel prime sur le point de vue linéaire. Mais s’il est possible de considérer A − X.I pour une matrice, il est beaucoup moins évident de définir u − X.I, car le domaine des scalaires de E est K et non K [X]. Si l’on voulait un exposé impeccable, il faudrait prolonger la loi externe de E à K [X] en considérant par exemple le produit tensoriel K [X] ⊗E, puis redéfinir u dans ce K [X]-module. Le coût d’une telle présentation est ici trop élevé ; cf. Bourbaki, Godement.

Page 13: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

13

2) Cas n = 3 : A = (aij ) , χA(X) = − [ X3 − tr(A).X2 + (

2221

1211

aaaa +

3331

1311

aaaa +

3332

2322

aaaa ).X − det(A) ]

= − [ X3 − τ1(A).X2 + τ2(A).X − τ3(A) ] ,

où τk(A) est la somme des mineurs diagonaux d’ordre k de A.

3) Cas général : A = (aij ) ,

χA(X) = (−1)n.[ Xn − τ1(A).Xn−1 + τ2(A).Xn−2 − τ3(A).Xn−3 + ... + (−1)n. τn(A) ] , où τk(A) est la somme des mineurs diagonaux d’ordre k de A.

Justification : Le terme constant de χA(X) est χA(0) = det A.

Quant aux termes de degrés n et n − 1, il proviennent uniquement du produit (a11 − X)…(ann − X). Cela découle de ce qu’une permutation σ de 1, 2, …, n distincte de l’identité a au plus n−2 points

fixes, donc fournit des Xk, pour k ≤ n − 2. L’interprétation des autres τk(A) est laissée en exercice.

Conséquences :

1) Si le polynôme caractéristique χA(X) est scindé dans K , la trace est la somme des valeurs propres, le déterminant leur produit. Plus généralement, les τk(A) sont les fonctions symétriques des valeurs propres. 2) Deux matrices semblables ayant même polynôme caractéristique, on peut dire que le polynôme caractéristique est un invariant polynômial de similitude, et que ses coefficients τk(A) sont des

invariants scalaires de similitude, ou plutôt des fonctions polynomiales de Mn(K ) dans K invariantes par similitude. De plus, deux matrices semblables ont aussi même polynôme minimal 6.

Exercice : Deux matrices ayant même polynôme caractéristique sont-elles semblables ? 7

Exemples de polynômes caractéristiques.

1) Matrices diagonales et trigonales.

A =

n

n

λλ

λλ

0...00*...00...............*...*0*...**

1

2

1

a pour polynôme caractéristique χA(X) = ∏(X − λj) et pour valeurs propres

ses éléments diagonaux. 2) Matrices-compagnons ou de Frobenius.

Exercice 1 : endomorphismes monogènes.

1) Soit u un endomorphisme de E. Montrer l’équivalence des propriétés : i) Il existe un vecteur x0 tel que le seul sous-espace u-stable contenant x0 soit E ; ii) Il existe une base BBBB = (e1, ..., en) de E telle que la matrice de u dans la base BBBB ait la forme :

A =

−−

−−

1

2

1

0

1...000...00

..................001...000

n

n

aa

aa

L’endomorphisme u est alors dit monogène.

6 Plusieurs théories mathématiques ont recours à des invariants polynomiaux : ainsi la théorie des nœuds. 7 On peut montrer que deux matrices carrées A et B sont semblables ssi leurs matrices caractéristiques A−X.I et B−X.I sont équivalentes dans Mn(K [X]), ou encore que A et B ont mêmes facteurs invariants polynomiaux. Mais ce point de vue, qui renvoie à des méthodes de réduction à la forme de Smith par pivot de Gauss dans un anneau euclidien, et aux facteurs invariants, est abordé dans le chap sur les systèmes linéaires diophantiens.

Page 14: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

14

Que dire du rang de u ? Quel est le polynôme caractéristique de u ?

2) Montrer que v commute à u ssi v est un polynôme de u [Indication : considérer v(e1)]. Appliquant ce résultat à v = un, montrer que les polynômes caractéristique et minimal de u sont égaux (à coef. près).

3) Exemples.

i) Montrer que u est diagonalisable et monogène ⇔ u a n valeurs propres distinctes. ii) Montrer que u est nilpotent monogène ⇔ u est nilpotent d’indice n.

Exercice 2 : Soit E = Kn−1[X] , et P(X) = Xn + an−1.Xn−1 + ... + a1.X + a0.

1) Quelle est la matrice A de l’endomorphisme f : Q → X.Q mod P de E dans la base canonique

(1, X, ..., Xn−1) ? [ mod P désigne le reste euclidien par P ]. 2) Montrer que P est (à facteur près) le polynôme caractéristique de f.

3) Soit R ∈ K [X] ; montrer que (∀Q ∈ E) R(f)(Q) = (R.Q) mod P ; en déduire que P est le polynôme minimal de f. 4) Soit F un sous-espace vectoriel f-stable de E. Montrer que G = F + P.K [X] est de la forme P1.K [X], où P1 est un diviseur de P. En déduire que F = Ker P2(f) pour un certain polynôme P2 divisant P, et qu’il y a bijection entre les sous-espaces f-stables et les diviseurs unitaires de P.

Remarque : Il résulte de ceci que tout polynôme est polynôme caractéristique d’une matrice. A est dite matrice-compagnon, ou matrice de Frobenius, de P.

Exercice 3 : Soient A et B ∈ Mn(K ). On suppose qu’existe M ∈ Mn(K ) de rang r, telle que AM =

MB. Montrer que r ≤ deg(χA ∧ χB). 4.2. Polynôme caractéristique et espaces propres.

Proposition 3 : Soit λ une valeur propre de u, E(λ, u) l’espace propre associé, n(λ) l’ordre de multiplicité de λ comme racine du polynôme caractéristique. On a l’encadrement :

1 ≤ dim E(λ, u) ≤ n(λ) .

Preuve : On sait que 1 ≤ dim E(λ, u) = p. Complétons une base (e1, ..., ep) de E(λ, u) en une base BBBB = (e1, ..., en) de E. La matrice de u dans cette base a alors pour forme :

M =

DOOI pλ . On en déduit que χu(X) = ( λ − X )p.χD(X). Il en découle que p ≤ n(λ).

Exercice 4 : Montrer que cet encadrement ne peut être amélioré, en considérant les endomorphismes

de matrices :

JOOI pλ , où J =

λλ

λλ

0...001...00...............0...100...01

.

4.3. Polynôme caractéristique et topologie.

Notons V = u ∈ LLLL(E) ; det u = 0 l’ensemble des endomorphismes de déterminant nul. Géométriquement, V est une hypersurface algébrique dans LLLL(E), de forme conique, car formée de droites vectorielles. Matriciellement, si n = 2, V a pour équation ad − bc = 0 : c’est une hyper-quadrique (en dimension 4) ; si n = 3, V est hypersurface cubique en dim. 9, etc.

Soit u ∈ LLLL(E), D(u) = u − λ.I ; λ ∈ K la droite affine de direction I passant par u. Les valeurs propres de u correspondent aux valeurs de λ où D(u) rencontre V. Comme V est algébrique, D(u) coupe V en un nombre fini de points.

Page 15: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

15

D(u) est dite transversale à V si elle coupe V en n points distincts : cela correspond, comme on verra, aux endomorphismes diagonalisables et monogènes. Dans le cas contraire, c’est-à-dire si l’une des valeurs propres est de multiplicité ≥ 2, D(u) est tangente à V.

Lorsque K est fini, on peut avoir D(u) ⊂ V : ainsi, si dim E = p premier et K = Fp, et u a pour

matrice

00...0110...00...............0...1000...010

, alors χu(X) = Xp − X, et tout scalaire est valeur propre de u.

Lorsque K = R ou C, on peut munir LLLL(E) de sa topologie usuelle (toutes ses normes sont équi-valentes). On a alors :

Proposition : Si K = R ou C, Gl(E) est un ouvert dense de LLLL(E).

Preuve : La fonction dét est continue sur LLLL(E) car polynômiale ; par suite, V est fermé comme image réciproque de 0 par det, et son complémentaire Gl(E) est ouvert. Pour établir la densité de Gl(E), il suffit de montrer qu’une matrice carrée A non inversible est limite de matrices inversibles.

1ère méthode : raisonnement par équivalence.

Soit r = rg A < n . Il existe P, Q ∈ Gln(K ) telles que Q−1.A.P = Jr. Du coup,

A = Q.Jr.P−1 = limk→+∞ Q.( Jr + k1 .I ).P−1 ; or ces dernières matrices sont inversibles.

2ème méthode : valeurs propres.

Soient λ1 = 0, λ2,, ... , λr les valeurs propres distinctes de u, α = min 2≤i≤r | λi | > 0. Alors 0 < | β | < α ⇒ A − β.I ∈ Gln(K ). Et A − β.I tend vers A lorsque β tend vers 0 en restant dans la couronne 0 < | β | < α. Ce second raisonnement est un peu plus précis que le premier car il montre que A est limite de matrices qui commutent avec elle.

La proposition précédente est utile pour établir des résultats par densité. En voici une application :

Exercice : Comparaison spectrale de A.B et B.A.

Soient A, B ∈ Mn(K ). On se propose de comparer les propriétés spectrales de A.B et B.A . 1) Montrer que A.B et B.A ont mêmes valeurs propres non nulles, puis mêmes valeurs propres.

2) Soient Q, P ∈ Gln(K ) telles que Q−1.A.P = Jr =

OOOI r , et l’on note P−1.B.Q =

UTSR , avec

des formats convenables. Montrer que A.B et B.A ont même polynôme caractéristique.

3) Retrouver ce résultat en comparant les produits par blocs :

IAOI

−−−

XIABOBXI et

−−−XIOBXIBA

IAOI .

4) Montrer que si A est inversible, A.B et B.A sont semblables ; en déduire qu’elles ont même polynôme caractéristique. Revenant au cas général, montrer que A.B et B.A ont même polynôme caractéristique, sans être toujours semblables.

5) Reprendre la question 2) en supposant A et B rectangulaires de formats respectifs n×p et p×n. Quelle relation obtient-on entre les polynômes caractéristiques de A.B et B.A ?

Solution détaillée de la question 4 : a) Si A est inversible, AB = A(BA)A−1

, donc AB et BA sont semblables. Elles ont donc même polynôme caractéristique det(AB − λI) = det(BA − λI). b) Si A est non inversible, AB et BA ne sont plus forcément semblables. Ainsi, on peut avoir AB =

O et BA ≠ O. Mais A est limite d’une suite (Ak) de matrices inversibles.

On a donc (∀λ) (∀k) det(AkB − λI) = det(BAk − λI).

Page 16: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

16

A la limite il vient (∀λ) det(AB − λI) = det(BA − λI), donc AB et BA ont même polynôme caractéristique. Cette méthode de « densité topologique » ne vaut que si K = R ou C. c) Si K est un corps quelconque, on procède par « densité algébrique » :

Prenons pour A et B deux matrices génériques A = (Xij), B = (Yij) à éléments dans Q[X ij , Yij ]. A est inversible (cf. Chap sur les déterminants, § 5), donc, d’après a) , on a l’identité :

det(AB − T.I) = det(BA − T.I) dans l’anneau Q[T, X ij , Yij ].

Si A et B sont à éléments dans K , il reste à substituer dans cette identité les éléments de A et B.

Les valeurs propres comme valeurs critiques.

Un autre aspect des valeurs propres mérite ici d’être souligné : les valeurs propres sont des valeurs critiques, ou, si l’on veut, des valeurs catastrophiques au sens de René Thom. Quant aux droites et aux sous-espaces u-stables, ce sont des lieux critiques. Ainsi, par exemple, si u est un endomorphisme autoadjoint d’un espace euclidien E, les valeurs

propres sont les valeurs critiques du quotient de Rayleigh-Ritz R(x) ≡ ²

))((x

xxu, la plus grande et la

plus petite valeur propre sont resp. le maximum global et le minimum global de la fonction R, les autres valeurs propres étant des valeurs-cols. Et les droites u-stables sont les lieux critiques de R (cf. chap. sur les Espaces euclidiens, § 3.3). 4.4. Théorème de Hamilton-Cayley.

Théorème de Hamilton-Cayley (1857) : Le polynôme caractéristique χu(X) de u∈LLLL(E) annule u : χu(u) = O .

Corollaire : Le polynôme minimal µu(X) de u divise χu(X). Il est de degré ≤ n.

Cette majoration est plus fine que celle trouvée en 2.1. prop. 2. Si le polynôme caractéristique est assez facile à calculer (du moins pour n petit), en revanche en général le polynôme minimal est plus caché. Pour le trouver, on peut :

− soit dresser la liste I, u, u2, u3, ... des puissances de u et s’arrêter au premier indice tel que ud

soit combinaison linéaire des précédents ; cette combinaison linéaire fournit aussitôt le minimal. − soit chercher, parmi la liste (finie) des diviseurs unitaires du polynôme caractéristique, le poly-nôme annulateur de plus petit degré ; mais cela présuppose que χu(X) ait été factorisé.

Nombreuses sont les preuves du théorème de Hamilton-Cayley. Mais avant d’en venir à la démonstration, notons que c’est en recherchant l’inverse d’un quaternion que William Hamilton (1805-1865) démontra en 1853 ce résultat en dimension 4, sans prendre la peine de l’énoncer. Arthur Cayley (1821-1895) l’énonça en 1857 pour les matrices n×n, le démontra pour n = 2, prétendit l’avoir prouvé pour n = 3, et ajoutait qu’il ne lui semblait pas nécessaire de le démontrer dans le cas général ! Il fallut attendre 1878 pour que Georg Frobenius (1849-1917) en donnât la première démonstration générale. De cette histoire très immorale retenons que :

Les (grands) mathématiciens ne sont nullement obligés de démontrer ce qu'ils affirment. Ils

laissent ce soin aux talents de second ordre, et la communauté mathématique ne leur en tient pas

rigueur : elle leur est même reconnaissante de donner du travail à tout le monde.

Voici à mon sens la preuve la plus simple du théorème de H.-C.. Fixons un vecteur x ∈ E, et notons Vx le sous-espace u-stable engendré par x :

Vx = Vect(x , u(x) , u2(x) , ...). Si d est le plus petit entier tel que ud(x) ∈ Vect(x , u(x) , ..., ud−1(x)),

alors BBBBx = (x , u(x) , u2(x) , ..., ud−1(x)) est une base de Vx .

Complétons-là en une base BBBB de E. La matrice de u dans la base BBBB est alors :

Page 17: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

17

Mat(u , BBBB) =

DOBA , où A =

−−

−−

1

2

1

0

1...000...00

..................001...000

d

d

aa

aa

est la matrice-compagnon du polynôme P(X) = Xd + ad−1.Xd−1 +...+ a1.X + a0 . On a : χu(X) = χA(X).χD(X) , et χu(u).x = χD(u).χA(u).x = χD(u).P(u).x = 0 . Et ce, pour tout x. CQFD. 4.5. À quoi sert le polynôme caractéristique?

Pour une matrice A de petite taille, le polynôme caractéristique de A est facilement calculable. − Ses racines sont les valeurs propres de A. Pour chacune d’elles, on peut déterminer l’espace propre associé par résolution du système non cramérien (A − λI).X = 0. Cela prélude à la réduction de A. − Par ailleurs, le polynôme χA(X) annule A. On peut donc calculer tout polynôme P de A, car : P(A) = R(A), où R = P mod χA. On peut calculer notamment les puissances de A. Si det(A) ≠ 0, on peut calculer l’inverse de A, qui est un polynôme de A (dépendant de A).

Exercice 1 : Éléments propres des matrices :

300120011 ,

−−

220041670

,

−−−−−−

786675

161613 .

Exercice 2 : Inverser les matrices

−−

111232422

,

−−−

−−−−

11111111

11111111

.

(Cette dernière matrice est associée à un quaternion).

Cependant, dans le cas de matrices de grandes tailles, il est difficile, voire impossible, de calculer le polynôme caractéristique. Mieux vaut alors chercher directement les couples d’éléments propres (λ, X). L’étude et la discussion de l’ « équation séculaire » A.X = λ.X, où X ≠ 0, permet souvent de déterminer simultanément λ et X.

Exercice 3 : Éléments propres des matrices d’ordre n :

1...1111...111...............1...1111...111

,

11...1110...01...............10...0111...11

,

10...01...............11.....11...............10...01

,

10...0111...01...............1...0111...001

,

10...0101...10...............01...1010...01

01...0010...................100...1010...010

,

acba

cbac

ba

...00

...................00...0...0

Enfin, dans le cas de matrices de grandes tailles à valeurs réelles, on ne peut calculer que des valeurs approchées des valeurs propres de A. On dispose d’algorithmes permettant de calculer le polynôme caractéristique, mais il reste alors à en chercher les racines, ou bien d’algorithmes itératifs convergeant vers la plus grande valeur propre de A, ou les deux plus grandes : ces renseignements partiels suffisent parfois à interpréter les phénomènes rencontrés.

Exercice 4 : Soit E une sous-algèbre unifère de Mn(K ). Montrer que si M∈E est inversible, M−1∈E.

Application aux matrices triangulaires supérieures, inférieures, cycliques, centrosymétriques, etc.

Page 18: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

18

Exercice 5 : Une R-algèbre A unifère d’unité e est dite algèbre à division si tout élément non nul de A est inversible. Montrer que toute R-algèbre à division de dimension finie et impaire est de dimension 1. On notera que si a ∈ A−0, l’endomorphisme m : x → a.x a au moins une valeur propre.

Exercice 6 : Soient E un K -ev de dimension finie n, u un endomorphisme de E, H un hyperplan de E, noyau d’une forme linéaire f.

1) Montrer l’équivalence : H est u-stable ⇔ f est vecteur propre de l’endomorphisme tu de LLLL(E*).

2) Trouver les plans stables par l’endomorphisme de R3 canoniquement associé à

100101110

.

Exercice 7 : Soient E un K -espace vectoriel de dimension n, u ∈ LLLL(E). Montrer les équivalences : • Il existe un hyperplan vectoriel H tel que u(H) ⊂ H ⇔ u admet une valeur propre ; • Il existe un hyperplan affine H ne passant pas par O et tel que u(H) ⊂ H ⇔ 1 ∈ Sp u.

5. Endomorphismes diagonalisables. 5.1. Définitions, exemples.

Définition : L’endomorphisme u ∈ LLLL(E) est dit diagonalisable s’il existe une base BBBB de E telle que Mat(u, BBBB) soit diagonale. La matrice A ∈ Mn(K ) est dite diagonalisable si l’endomorphisme X → A.X de Kn canoniquement associé est diagonalisable, i.e. s’il existe une matrice P ∈ Gln(K ) telle

que P−1.A.P = D soit diagonale.

Notons que si Mat(u, BBBB) = diag(λ1, ... , λn), les λi ne sont autres que les valeurs propres de u, comptées avec leur ordre de multiplicité.

Exemples d’endomorphismes diagonalisables :

1) Les projecteurs. Ce sont les endomorphismes p tels que p2 = p.

Ils vérifient E = Im p ⊕ Ker p , et x ∈ Im p ⇔ x = p(x). En recollant des bases de Im p et Ker p , la matrice de p devient : Mat(p, BBBB) = diag (Ir , On−r) , où r = rg p . À noter que tr p = r.1K .

2) Les symétries (en caractéristique ≠ 2). Ce sont les endomorphismes s tels que s2 = I.

Elles vérifient : E = Ker(s − I) ⊕ Ker(s + I). Si l’on recolle des bases de ces deux sous-espaces, la

matrice de s est : Mat(s, BBBB) = diag (Ip , − Iq) , où p + q = n.

La situation en caractéristique 2 est très différente ; nous l’examinerons plus tard (§ 6.2).

3) Les affinités. Soient H un hyperplan de E et D une droite tels que E = H ⊕ D. Une affinité d’hyperplan H, de direction D et de rapport α ≠ 0 est un automorphisme de la forme : f : x = xH + xD → xH + α.xD .

Dans une base convenable, f a pour matrice diag(α , 1 , ... , 1).

4) Géométrie d’un endomorphisme diagonalisable. Soit u un endomorphisme diagonalisable de matrice diag(λ1 , ... , λr , 0 , ..., 0), λi ≠ 0, dans la base (e1, ..., en). u est composé :

du projecteur p sur Vect(e1, ... , er) parallèlement à (er+1 , ... , en). des affinités d’hyperplans Hi = Vect(e1 , ..., ei−1 , ei+1, ... , en), de direction Kei et de rapport λ, pour 1 ≤ i ≤ r. L’ordre de la composition importe peu, puisque ces endomorphismes commutent deux à deux.

Page 19: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

19

Ainsi, l’ellipse d’équation réduite ²²

ax +

²²

by

= 1 est image du cercle unité x2 + y

2 = 1 par l’endomor-

phisme diagonalisable diag(a, b), c’est-à-dire par des affinités. On en déduit aussitôt qu’elle a pour aire πab.

Exercice 1 : Pour toute fonction f : R → R et tout réel ε > 0, on note fε : x → ε1 f( ε

x ).

1) Montrer que l’opérateur Bε : f → fε est linéaire.

2) Montrer que le graphe de fε se déduit de celui de f par un endomorphisme diagonalisable.

3) Montrer que Bε laisse stable D = f ∈ C(R, R+) ; ∫+∞

∞−dxxf ).( = 1 .

En particulier, si f(x) = π2

1 2/²xe− (loi normale NNNN(0, 1)), fε (x) = πε 2

1 ²2/² εxe− (loi normale NNNN(0,

ε) d’espérance 0 et d’écart-type ε).

Exercice 2 : Deux projecteurs p et q de E sont dits orthogonaux si p.q = 0. 1) Montrer que tout endomorphisme est combinaison linéaire de projecteurs. 2) Montrer qu’un endomorphisme est diagonalisable ss’il est combinaison linéaire de projecteurs deux à deux orthogonaux. 5.2. Théorèmes.

Proposition 1 : condition suffisante de diagonalisabilité . Si le polynôme caractéristique de u est scindé dans K et a n racines distinctes, alors u est diagonalisable.

Preuve : Pour chacune des valeurs propres λk choisissons un vecteur propre associé ek. La famille obtenue est libre en vertu de la prop. 4 du § 3, donc c’est une base, et u est diagonal dans cette base..

Remarques : 1) Cette condition n’est évidemment pas nécessaire : une homothétie a n valeurs propres égales, et est pourtant diagonalisable, dans n’importe quelle base de E ! 2) La proposition précédente caractérise les endomorphismes diagonalisables et monogènes. 3) Ce résultat découle aussi du suivant :

Théorème 2 : cns de diagonalisabilité. Les propriétés suivantes sont équivalentes : (D1) u est diagonalisable ; (D2) Il existe une base de E formée de vecteurs propres ; (D3) E est somme directe des sous-espaces propres de u ; (D4) Le polynôme caractéristique de u est scindé dans K , et chaque valeur propre λ de u vérifie : dim E(λ, u) = n(λ) . (D5) Le polynôme minimal de u est scindé et sans facteurs carrés ; (D6) Il existe un polynôme scindé sans facteurs carrés annulant u .

En réalité ce théorème se scinde en deux parties : les équivalences (D1) à (D4) sont élémentaires, les équivalences de (D1), (D5) et (D6) constituent le théorème de Schreier.

Preuve : (D1) ⇔ (D2) est assez évident. (D3) ⇒ (D1) et (D4). Notons λ1, ... , λr les valeurs propres distinctes de u, E1, ... , Er les espaces propres associés, k1, ..., kr leurs dimensions. Si l’on choisit des bases B1, ..., Br de ces espaces, que

l’on recolle en une base BBBB de E, la matrice de u relativement à cette base est

rkr

k

IOOO

OI

.......

....1

1

λ

λ (*).

u est donc diagonalisable et χu(X) = ∏=

−r

i

ki

iX1

)(λ est scindé et tel que (∀i) ki = ni .

Page 20: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

20

(D4) ⇒ (D3). Notons λ1, ... , λr les valeurs propres distinctes de u, n1, ... , nr leurs ordres de multiplicité comme racines du polynôme caractéristique, E1, ... , Er les espaces propres associés. On sait que ces espaces sont toujours en somme directe.

dim ⊕ Ei = ∑ iEdim = ∑ in = n en vertu des deux hypothèses de (D4).

(D2) ⇒ (D3). Quitte à permuter les vecteurs d’une base propre, on peut la choisir telle que u ait pour matrice (*). Il est alors clair que E est la somme directe des sous-espaces propres de u. (D1) ⇒ (D5). Soit u diagonalisable de valeurs propres λ1, ... , λr (distinctes). Alors u = ∑ λi.pi , où les pi sont les projecteurs propres. Pour tout polynôme f, on a f(u) = ∑ f(λi).pi.

Donc f(u) = 0 ⇔ f(λ1) = ... = f(λr) = 0 ⇔ ( X − λ1 ) ... ( X − λr ) | f(X).

Le polynôme minimal de u est donc µu(X) = (X − λ1) ...(X − λr) ; il est scindé sans facteurs carrés.

(D5) ⇒ (D6) est évident ; (D6) ⇒ (D5) découle du théorème des noyaux. En effet, si l’on dispose d’un polynôme scindé sans facteurs carrés g(X) = (X − α1) ... (X − αs) annulant u, alors : E = Ker g(u) = Ker(u − α1.I) ⊕ ... ⊕ Ker(u − αs.I) .

En recollant des bases BBBB1, ..., BBBBs, de ces différents noyaux, on obtient une base diagonalisant u. Certaines de ces bases peuvent être vides, car les valeurs propres sont à chercher parmi les αj. cqfd.

Exemples :

Si u3 = u (avec car K ≠ 2), u est diagonalisable, car il annule le polynôme scindé sans carrés : P(X) = X3 − X = X.( X − 1 ).( X + 1 ). L’on a E = Ker(u) ⊕ Ker(u − I) ⊕ Ker(u + I) , et Sp u ⊂ 0 , 1 , −1. Dans une base convenable de E, Mat(u, B) = diag (Op , Iq , −Ir) où p + q + r = n.

Attention on peut avoir Sp u ≠ 0, 1, −1 : O , I , − I , un projecteur ou son opposé, une symétrie, vérifient bien u3 = u. En d’autres termes, le polynôme minimal de u divise X3 − X .

Matriciellement, A ∈ Mn(K ) vérifie A3 = A ssi A est semblable à une matrice diag (Op , Iq , −Ir)

où p + q + r = n. Il y a donc card(p, q, r) ∈ N3 ; p + q + r = n =

2)2)(1( ++ nn

classes de similitudes

de solutions.

Si K = C et um = I, u est diagonalisable et Sp u ⊂ Um(C), groupe des racines m-ièmes de 1. 5.3. Conditions suffisantes issues de l’algèbre bilinéaire.

La théorie des espaces euclidiens et hermitiens, qui sera vue plus tard, fournit d’autres conditions suffisantes de diagonalisabilité, qui ont tout de même leur place dans ce chapitre. Nous les énonçons ici sous forme matricielle.

Théorème 3 : 1) Toute matrice symétrique réelle est diagonalisable dans une base orthonormée de Rn, muni du produit euclidien standard, et à valeurs propres réelles. Autrement dit :

∀A ∈ Sn(R) ∃P ∈ On(R) P−1.A.P = tP.A.P = diag(λ1, ... , λn) , où λ1, ... , λn ∈ R.

2) Plus généralement, toute matrice hermitienne complexe (i.e. telle que t A = A) est diagonalisable dans une base orthonormée de Cn muni du produit hermitien standard, et à valeurs propres réelles :

∀A ∈ Hn(C) ∃P ∈ Un(C) P−1.A.P = t P A P = diag(λ1 ... , λn) , où λ1 ... , λn ∈ R.

3) Toute matrice unitaire (i.e. telle que t A = A–1) est diagonalisable dans une base orthonormée de Cn hermitien standard, et à valeurs propres unitaires :

∀A ∈ Un(C) ∃P ∈ Un(C) P−1 A P = t P A P = diag(exp(iθ1 , ... , exp(iθn)) , où θ1 ... , θn ∈ R.

C’est le cas en particulier de toute matrice orthogonale réelle.

Page 21: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

21

4) Enfin, toute matrice normale (i.e. telle que t A et A commutent) est diagonalisable dans une base orthonormée de Cn muni du produit hermitien standard, et à valeurs propres complexes :

∀A ∈ Nn(C) ∃P ∈ Un(C) P−1.A.P = t P .A.P = diag(λ1 ... , λn) , où λ1 ... , λn ∈ C. 5.4. Etude approfondie d’un endomorphisme diagonalisable.

Problème : Soit u un endomorphisme diagonalisable, de valeurs propres λ1 ... , λr (distinctes).

Notons ni l’ordre de multiplicité de λi, et Ei l’espace propre associé.

1) Polynômes de u.

i) Quel est le polynôme minimal µu(X) de u ?

ii) Exprimer les projecteurs propres pi associés à la décomposition en somme directe E = ⊕ Ei

en tant que polynômes de u. En particulier u = ∑ λi.pi .

iii) Calcul fonctionnel.

− Soit f ∈ K [X]. Montrer que f(u) = ∑ f(λi).pi .

− Si K = R ou C, montrer que exp u = ∑ exp(λi).pi . Plus généralement, soit :

f(z) = ∑k≥0 ak.zk une série entière de rayon de convergence R > 0. Quand peut-on définir f(u) ?

Montrer qu’alors f(u) = ∑ f(λi).pi , et que f(u) est un polynôme de u, que l’on déterminera.

2) Sous-espaces stables.

i) Soit F un sous-espace u-stable. Montrer que uF est diagonalisable et que F = ⊕ ( F ∩ Ei ).

ii) En déduire que les sous-espaces u-stables de E sont de la forme F = ⊕ Fi , où Fi est un sous-

espace quelconque de Ei. iii) Si u admet n valeurs propres distinctes, combien admet-il de sous-espaces u-stables ? iv) Indiquer une cns pour que u admette un nombre fini de sous-espaces u-stables.

3) Montrer l’équivalence des propriétés : a) u est diagonalisable ; b) Le polynôme caractéristique de u est scindé, et tout sous-espace u-stable admet un supplé-mentaire u-stable.

4) Commutant de u.

i) Soit v ∈ LLLL(E) ; montrer que v commute à u ssi (∀i) v(Ei) ⊂ Ei .

ii) En déduire la dimension de la sous-algèbre C(u) = v ∈ LLLL(E) ; v o u = u o v .

iii) Déterminer le bicommutant de u : C(C(u)) = w ∈ LLLL(E) ; w o v = v o w ∀v ∈ C(u) .

5) Algèbres diagonales.

Une K -algèbre de dimension r est dite diagonale si elle est isomorphe à l’algèbre K r munie des opérations usuelles (addition et produit terme à terme des r-uplets). Montrer que u est diagonalisable ssi K [u] est une sous-algèbre diagonale de LLLL(E).

Solution :

1) i) u a pour polynôme minimal µu(X) = ∏=

−r

iiX

1

)( λ , et pour caractéristique χu(X) = ∏=

−r

i

ni

iX1

)( λ .

ii) Les projecteurs propres pi associés à la décomposition en somme directe E = ⊕ Ei sont les

polynômes de Lagrange pi = Li(u), où Li(X) = ∏≠ −

−ij ji

jXλλλ

.

2) Sous-espaces stables.

Page 22: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

22

i) Soit F un sous-espace u-stable ; uF est diagonalisable car il annule un polynôme scindé à racines simples, à savoir le polynôme minimal de u. Le polynôme minimal de uF est donc un diviseur de

µu(X). La formule F = ⊕ (F ∩ Ei) découle alors de l’application du théorème des noyaux à ce polynôme ; certains des F ∩ Ei peuvent être nuls.

ii) Un sous-espace u-stable de E est donc de la forme F = ⊕ Fi , où Fi est un sous-espace de Ei. La réciproque est évidente.

iii) Si u admet n valeurs propres distinctes, u admet 2n sous-espaces u-stables.

iv) Une cns pour que u admette un nombre fini de sous-espaces u-stables est que u ait n valeurs propres distinctes, ou bien que le corps K soit fini.

3) Caractérisation de la diagonalisabilité.

a) ⇒ b) Si u est diagonalisable, son polynôme caractéristique est scindé. De plus, soit E = ⊕ Ei la décomposition en sous-espaces propres. Par 2,ii), tout sous-espace u-stable est de la forme F = ⊕ Fi, où Fi est un sous-espace de Ei. Soit Gi un supplémentaire de Fi dans Ei. Alors G = ⊕ Gi est un supplémentaire u-stable de F.

b) ⇒ a) Si le polynôme caractéristique de u est scindé, u admet une droite propre D1. Cette droite

admet un supplémentaire u-stable H. uH admet un polynôme caractéristique scindé (puisqu’il divise

celui de u), donc admet une droite propre D2. Le plan P = D1 ⊕ D2 admet un supplémentaire u-stable, etc.

4) Commutant de u.

i) Soit v ∈ LLLL(E). Si v commute à u, (∀i) v(Ei) ⊂ Ei , soit par vérification directe, soit parce que Ei

est le noyau d’un polynôme de u. Réciproquement si (∀i) v(Ei) ⊂ Ei , et si x = x1 + … + xr (xi ∈ Ei), alors (v o u)(x) = v(λ1.x1 + … + λr.xr) = λ1.u(x1) + … + λp.u(xp) = (u o v)(x).

ii) On en déduit que l’algèbre C(u) = v ∈ LLLL(E) ; v o u = u o v est isomorphe à ∏ )( iEL , donc

de dimension ∑ )²( in .

5) Algèbres diagonales.

• Si u est diagonalisable, K [u] est isomorphe à l’algèbre Kr, où r = card Sp u.

En effet, l’application Q ∈ K [X] → (Q(λ1), ... , Q(λr)) ∈ Kr est un morphisme surjectif d’algèbres,

de noyau (µu(X)). Il se factorise en un isomorphisme de K [u] ≈ K [X]/( µu(X)) sur Kr .

• Si K [u] est diagonale, soit f : Kr → K [u] un isomorphisme d’algèbres. Si (e1, …, er) est la base

canonique de Kr, les relations ei×ej = δi,j.ei et ∑ ie = e, impliquent que les pi = f(ei) forment une

base de K [u], formée de projecteurs deux à deux orthogonaux, de somme idE. Donc u = ∑ ii p.λ est

diagonalisable. 5.5. Diagonalisation simultanée.

Définition 2 : Une famille AAAA = (ui)i∈I d’endomorphismes de E est dite diagonalisable ou simulta-nément diagonalisable, s’il existe une base BBBB de E diagonalisant simultanément tous les ui, i.e. s’il existe une base formée de vecteurs propres communs à tous les ui.

Proposition 4 : Si u est un endomorphisme diagonalisable, l’algèbre K [u] = P(u) ; P ∈ K [u] est simultanément diagonalisable.

Preuve : Si Mat(u, BBBB) = diag(λ1, ... , λn), alors Mat(P(u), BBBB) = diag(P(λ1), ... , P(λn)).

Page 23: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

23

Exemple : Les matrices A =

acbbaccba

, où a, b et c décrivent C, sont simultanément diagonalisables.

En effet A = a.I + b.Ω + c.Ω2, où Ω =

001100010

. Or cette matrice est diagonalisable…

Théorème 5 : Pour que la famille AAAA = (ui)i∈I soit diagonalisable, il faut et il suffit que chacun des ui soit diagonalisable, et que les ui commutent deux à deux.

Preuve : • La condition est nécessaire, car les matrices diagonales commutent.

• Montrons la condition suffisante par récurrence sur la dimension n de E. Si n = 1, il n’y a rien à montrer. Supposons le théorème vrai pour dim E < n. Si dim E = n, deux cas se présentent : − Tous les ui sont des homothéties. Toute base de E diagonalise la famille.

− Il existe un ui qui n’est pas une homothétie. Notons E1, E2, …, Er ses espaces propres.

E = E1 ⊕ E2 ⊕ … ⊕ Er. Chacun de ces espaces est stable par (uj)j∈I et (uj|Ei)j∈I est une famille commutante d’endomorphismes diagonalisables, en vertu du lemme suivant :

Lemme : Soit u un endomorphisme diagonalisable. Si F est un sous-espace u-stable, l’endomor-

phisme induit uF est diagonalisable.

Preuve : u annule un polynôme scindé sans carré ; ce polynôme annule aussi uF …

Revenons au théorème. Par hypothèse de récurrence appliquée à chacun des couples (Ej, (uj|Ei)j∈I),

1 ≤ i ≤ r, il existe une base BBBBi de Ei qui diagonalise (uj|Ei )j∈I. La base BBBB = BBBB1 ∪ BBBB2 ∪ … ∪ BBBBr diagonalise la famille (uj)j∈I . cqfd.

Remarque : On peut aussi raisonner par récurrence sur r = rg AAAA.

Exercice 1 : On suppose K de caractéristique ≠ 2, soit E un K -ev de dimension n. a) Soit (s1, ..., sN) une famille commutante de symétries vectorielles de E, deux à deux distinctes. Montrer que N ≤ 2n. b) En déduire que les groupes Gln(K ) et Glm(K ) sont isomorphes ssi n = m. c) Soit G un sous-groupe de Gln(K ) formé d’endomorphismes involutifs. Montrer que G est commutatif, fini et de cardinal ≤ 2n.

Exercice 2 : Soit u un endomorphisme de E. Trouver une cns pour que u soit la somme de deux projecteurs (resp. de deux symétries) qui commutent. 5.6. Endomorphismes et matrices non diagonalisables.

Qu’est-ce qui empêche un endomorphisme, une matrice, d’être diagonalisables ? Deux types de raisons bien distinctes :

1ère raison : le polynôme caractéristique de u ou de A n’est pas scindé dans K [X].

2ème raison : le polynôme caractéristique est scindé mais ∃λ ∈ Sp(u) 1 ≤ dim E(λ, u) < n(λ).

Examinons ces deux obstacles point par point.

1er obstacle : le polynôme caractéristique de u ou de A n’est pas scindé dans K [X].

− Les matrices

0110 et plus généralement

θθθθ

cossinsincos (θ ≠ 0 mod π) ne sont pas diagona-

lisables dans M2(R) : géométriquement, ce sont des rotations, qui n’ont pas de droites stables !

Page 24: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

24

− La matrice A =

1111212133116321

n’est pas diagonalisable dans M4(Q), mais l’est dans M4(R), et en fait

dans M4[K ], où K = Q[ 2 , 3 ]. En effet, après examen,

Sp A = 1+ 2 + 3 + 6 , 1+ 2 − 3 − 6 , 1− 2 + 3 − 6 , 1− 2 − 3 + 6 .

− La matrice A =

1110 ∈ M2(F2) n’est pas diagonalisable dans M2(F2), car son polynôme caracté-

ristique X2 + X + 1 n’est pas scindé dans F2[X], mais est diagonalisable dans M2(F4).

Matriciellement, ces obstacle n’est pas rédhibitoire : le polynôme caractéristique χA(X) de A∈Mn(K ) finit par se scinder dans un sur-corps L de K . Idem pour un endomorphisme u∈LLLL(E), encore qu’ici la situation soit plus compliquée A ∈ Mn(K ) ⇒ A ∈ Mn(L ), tandis qu’il est plus difficile d’étendre à L le domaine des scalaires de E (il faut pour cela considérer L ⊗K E).

Le second obstacle (polynôme caractéristique scindé mais ∃λ ∈ Sp(u) 1 ≤ dim E(λ, u) < n(λ)), lui, est insurmontable. Certaines matrices A ∈ Mn(K ) sont, et resteront, non diagonalisables, quel

que soit le sur-corps. C’est le cas de la matrice A =

0010 . Plus généralement, une matrice

nilpotente et non nulle n’est jamais diagonalisable.

Qu’on se le dise ! Les nilpotentes sont les pires ennemies des dia Qu’on se le dise ! Les nilpotentes sont les pires ennemies des dia Qu’on se le dise ! Les nilpotentes sont les pires ennemies des dia Qu’on se le dise ! Les nilpotentes sont les pires ennemies des diagonalisables !gonalisables !gonalisables !gonalisables !

Exercices Exercice 1 : Diagonaliser éventuellement les matrices suivantes :

−−−

544446235

,

−−

−−

532434423

,

211020112

,

−−−

322212221

, 31

−−

221212122

,

jjjj

²1²1

111 ,

−−−−−

ii

i

210111012

−−−−

−−

1166121261120007120047

,

−−−−−−

ii

ii

111111

111111

.

Exercice 2 : Diagonaliser éventuellement les matrices suivantes (avec Maple) :

0100010100010100010100010

,

−−−−−−−−

−−−−−−−−

−−−−−−−−

−−−−−−−−

19201815129636061544536271897474675948362412

62626058483624125959595952443015

828282828078532610210210210210210268336868686868684522

,

011011100000101101010000110110001000011000011100101000101010110000110001100011000011010101000101001110000110000100011011000010101101000001110110

Exercice 3 : Cns pour que les matrices suivantes soient diagonalisables :

adacba

000 ,

cb

a

0010

11 ,

2000200

101

fedcba

,

−201002100010

1 cba

, M =

BOCA où A =

101 a et B =

bcb

0 .

Page 25: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

25

Exercice 4 : Montrer que

dc

ba

300020001000

est diagonalisable ssi a, b, c et d sont distincts deux à deux.

Exercice 5 : Montrer que

dcdc

baba

10010

00100

n’est jamais diagonalisable.

Exercice 6 : Montrer que deux matrices diagonalisables sont semblables ssi elles ont même polynôme caractéristique. Ce résultat reste-t-il vrai pour deux matrices quelconques ?

Exercice 7 : Soient A ∈ Mn(K ), λ une valeur propre simple de A.

Montrer que Im t com(A − λI) = Ker(A − λI). Application : diagonaliser :

300111011

Exercice 8 : Soit A =

010...0............

.0...010......200...010

nn

n . Trouver un endomorphisme de Rn[X] dont A est la matrice.

En déduire les éléments propres de A. A est-elle diagonalisable ? Calculer det A.

Exercice 9 : Soit A ∈ Mn(C). Cns pour que les matrices suivantes

AIA

0 ,

AAA

0 ,

OIAO

n

soient diagonalisables.

Exercice 10 : Soient a1, a2, …, an n réels > 0 distincts, et A =

0...0...

.....................0...0...0

1321

321

121

131

132

n

n

nn

nn

nn

aaaaaaaa

aaaaaaaaaaaa

.

1) Soit λ une valeur propre de A. Montrer que λ vérifie ∑= +

n

i i

i

aa

1 λ = 1.

2) A est-elle diagonalisable ?

3) On suppose (∀k) ak = k. i) Somme, produit, somme des carrés des valeurs propres de A ?

ii) Equivalent de la plus grande valeur propre lorsque n → +∞.

Exercice 11 : Soient a et b deux entiers naturels. Pour P ∈ R[X], on pose

U(P) = X2.P’’(X) − ( a + b − 1 ).X.P’(X) + ab.P(X).

1) Montrer que U est un endomorphisme de R[X] laissant stable chaque espace Rn[X].

2) On note Un l’endomorphisme induit. Valeurs et vecteurs propres ? Un est-il diagonalisable ?

Exercice 12 : Matrice de Vandermonde des racines de l’unité.

Soient ω = expniπ2 , et V = (ω(j−1)(k−1))1≤j,k≤n ∈ Mn(C).

1) Calculer V.V , V2 , puis V4. Conséquences ? 2) Traiter en détail les cas n = 2, 3, 4.

Remarque : Ces matrices jouent un rôle capital dans la transformée de Fourier discrète et rapide, qui permet la multiplication des grands nombres (cf Pb Mines 1982, ENS 2001).

Exercice 13 : Soient K un corps fini (commutatif) à q éléments, u ∈ LLLL(E). 1) Montrer l’équivalence : u diagonalisable ⇔ uq = u.

Page 26: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

26

2) Combien y a-t-il de classes de similitudes de matrices diagonalisables dans Mn(K ) ?

3) Combien y a-t-il de matrices diagonalisables dans M2(K ), resp. M3(K ) ?

4) On suppose K de caractéristique ≠ 2, i.e. q impair. Combien E contient-il de symétries ?

Remarque : le cas de la caractéristique 2 est traité en § 8.2., exercice 2.

Exercice 14 : Réduction des matrices de rang 1.

1) Soit A ∈ Mn(K ). Montrer que A est de rang 1 si et seulement s’il existe des matrices colonnes non nulles X et Y telles que A = X.tY ; le couple (X, Y) est-il unique ?

Trouver une relation entre A2, tr(A) et A.

Indiquer une cns portant sur tr A pour que A soit diagonalisable.

2) La matrice A = (aij) ∈ Mn(R) est dite équitable si ∀(i, j, k) aij > 0 et aij .ajk = aik .

Calculer aii . Montrer que A est de rang 1, et que A2 = n.A. Montrer que toutes les matrices

équitables sont semblables à la matrice carrée formée de 1, ainsi qu’à diag (n, 0, …, 0).

Exercice 15 : Réduction des matrices de permutation.

Soit SSSSn le groupe symétrique de 1, 2, ..., n. À toute σ ∈ SSSSn on associe la matrice M(σ) = (δi,σ(j)) .

1) Montrer que σ → M(σ) est un homomorphisme injectif de groupes de SSSSn dans Gln(C) ; quelle est l’inverse de M(σ) ?

2) a) Pourquoi M(σ) est-elle diagonalisable ? Que dire de ses valeurs propres ? b) Diagonaliser la matrice M(γ) associée au cycle [ 1, 2, ..., n ]. c) En décomposant σ en cycles, déterminer avec soin ses valeurs propres, ses polynômes carac-téristiques et minimaux.

3) Exemples :

a) Réduire la matrice associée à la permutation σ = (1, 2, 3, 4, 5, 6) → (2, 4, 5, 1, 3, 6).

b) Réduire la matrice

− OIIO

n 2

2 .

Exercice 16 : Matrices tridiagonales.

Soit A = (aij ) ∈ Mn(C) telle que ai,i+1 = b , ai,i = a , ai+1,i = c, les autres éléments étant nuls. Indiquer une cns pour que A soit diagonalisable. La diagonaliser. Cas où b = c = 1, a = 0 ?

Exercice 17 : Matrices diagonales par blocs.

1) Soient A et B des matrices carrées de formats quelconques. Indiquer une cns pour que M = diag(A, B) soit diagonalisable.

2) Applications :

a) Soit A = (aij ) où aij = bi si j = n + 1 − i , 0 sinon ; cns pour que A soit diagonalisable ?

b) Soit M ∈ M2n(K ) une matrice "en damier", i.e. telle que mij = 0 pour i + j impair. On note A et B les sous-matrices de M obtenues en extrayant les lignes et colonnes de rangs impairs, resp. pairs. Indiquer une cns pour que M soit diagonalisable.

Exercice 18 : Soit E un C-ev de dimension n, f un endomorphisme de E.

1) Montrer que f diagonalisable ⇒ f 2 diagonalisable, que la réciproque est fausse, mais qu’elle

est vraie sous l’hypothèse supplémentaire que f est inversible.

2) Montrer plus précisément que f diagonalisable ⇔ f 2 diagonalisable et Ker f = Ker f

2.

Page 27: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

27

3) Trouver une cns pour que la matrice A =

000...00.......0.........0......00

...000

1

2

1

aa

aa

n

n

soit diagonalisable.

Exercice 19 : un peu de géométrie affine.

Soient EEEE un R-espace affine de dimension n, de direction vectorielle E, f : EEEE → EEEE une application affine telle que tout point M est milieu du segment [ f(M) , ( f o f )(M) ]. 1) Montrer que f admet un point fixe O. 2) Caractériser f.

6. Endomorphismes nilpotents.

Nous allons maintenant étudier une seconde classe d’endomorphismes, ayant des propriétés très différentes des diagonalisables, les endomorphismes nilpotents. Leur étude approfondie va conduire à des structures combinatoires connues sous le nom de tableaux de Young. 6.1. Définition, premières propriétés.

Définition 1 : L’endomorphisme u est dit nilpotent s’il existe k ∈ N* tel que uk = 0. Le plus petit entier r ≥ 1 tel que ur = 0 s’appelle indice de nilpotence de u. Mêmes définitions pour les matrices.

Exemples :

1) Soit K de caractéristique 0 , E = Kn[X]. Montrer que E est stable par les opérateurs D : P → P',

∆ : P(X) → P(X + 1) − P(X), ∆h : P(X) → h

XPhXP )()( −+ pour h ≠ 0, Dq : P(X) →

XqXPqXP

)1()()(

−−

pour q ≠ 1, et les endomorphismes induits sont nilpotents d’indice n + 1. Exercice 1 : Ecrire leurs matrices relativement à la base canonique de E.

2) Une matrice trigonale est nilpotente ssi sa diagonale principale est nulle.

3) Si u est nilpotent, v = f−1

o u o f aussi, pour tout isomorphisme f, et ils ont même indice.

4) Le seul endomorphisme à la fois nilpotent et diagonalisable est l’endomorphisme nul.

5) Les matrices réelles A =

−−− 321400163

, B =

AIA

0 et C =

AAA

0 sont nilpotentes ; indices ?

Proposition 1 : L’ensemble NNNN des endomorphismes nilpotents vérifie : • ∀λ ∈ K ∀u ∈ NNNN λ.u ∈ NNNN . • ∀(u, v) ∈ NNNN×NNNN u.v = v.u ⇒ u + v ∈ NNNN et u.v ∈ NNNN .

Preuve : Si u est nilpotent d’indice r, et v nilpotent d’indice s, et si u et v commutent,

(u.v)m

= 0, où m = min(r, s), et (u + v)p = 0, où p = r + s, et même r + s − 1, en vertu du binôme.

Proposition 2 : Soit u un endomorphisme nilpotent d’indice r. Alors r ≤ n.

En d’autres termes, NNNN = u ∈ LLLL(E) ; un = 0 .

Preuve : Soit e un vecteur tel que ur−1(e) ≠ 0. Il est aisé de vérifier que (ur−1(e), ur−2(e), ... , u(e), e)

est une famille libre. En effet, λ1.ur−1(e) + λ2.ur−2(e) + ... + λr−1.u(e) + λr.e = 0

implique, par applications répétées de u : λ2.ur−1(e) + ... + λr−1.u2(e) + λr.u(e) = 0 . . . . . . . . . . . . . . .

λr.ur−1(e) = 0.

Page 28: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

28

On en déduit par remontée que λr = λr−1 = … = λ1 = 0. On en déduit aussitôt que r ≤ n.

On peut aussi noter que Xr est le polynôme minimal de u, et invoquer Hamilton-Cayley.

Commentaire : Il en résulte que l’ensemble NNNN des matrices nilpotentes est algébrique, intersection

de n2 hypersurfaces algébriques. La matrice A =

dcba ∈M2(K ) est nilpotente ssi A

2 = O. Après

calculs, cela équivaut à A =

−acba , où a

2 + bc = 0, ou à A =

−−+xzyzyx , où x

2 + y

2 − z

2 = 0.

Géométriquement, les matrices nilpotentes de M2(R) forment un cône du second degré dans l’espace de dimension trois des matrices de trace nulle. La prop. 1 et cet exemple expliquent pourquoi l’on nomme parfois NNNN le « cône nilpotent » de LLLL(E).

Exercice 2 : Si K est fini à q éléments, montrer que M2(K ) contient q2 matrices nilpotentes.

Exercice 3 : Soit E = CCCC∞

(R, C), D l’opérateur de dérivation. Existe-t-il T ∈ LLLL(E) tel que T2 = D ?

6.2. Un premier résultat de réduction.

Proposition 3 : Un endomorphisme nilpotent u admet 0 pour seule valeur propre. La réciproque est fausse, mais elle est vraie si le corps K est algébriquement clos.

Preuve : Si ur = 0, et u(x) = λ.x, x ≠ 0, alors 0 = u

r(x) = λr

.x = 0, donc λ = 0 (cf. § 3, cor. de prop 3).

La réciproque est fausse : la matrice réelle A =

−010100000

n’a qu’une seule valeur propre, 0, mais

n’est pas nilpotente. Cependant, si le corps K est clos, et si Sp(u) = 0, alors le polynôme

caractéristique de u est (−X)n, et u est nilpotent par Hamilton-Cayley.

Proposition 4 : Un endomorphisme u est trigonalisable dans une base BBBB telle que :

Mat(u , BBBB) =

00...00*0...00...............*...*00*...**0

.

Preuve : Supposons u nilpotent d’indice r, et notons Nk = Ker uk. On a les inclusions :

0 = N0 ⊂ N1 ⊂ N2 ⊂ ... ⊂ Nr = E ,

et ces inclusions sont strictes, car si ur−1(e) ≠ 0, on a :

ur−1(e) ∈ N1 − N0 , ur−2(e) ∈ N2 − N1 , ur−3(e) ∈ N3 − N2 , ... , e ∈ Nr − Nr−1 .

Il en résulte par récurrence que dim Nk ≥ k pour 0 ≤ k ≤ r, et en particulier r ≤ n : un = O. De plus u(Nk) ⊂ Nk−1 pour 1 ≤ k ≤ n . Complétons alors successivement une base de N1 en une base de N2, cette base en une base de N3 , etc. On obtient en fin de compte une base BBBB de E telle que :

Mat(u , BBBB) =

OOOOOOO

AOOAAO

...*..................*...*...

3

21

=

00...00*0...00...............*...*00*...**0

.

Exemple : La matrice réelle A =

−−− 321400163

est nilpotente d’indice 3.

On trouve Ker(A) = Vect([−2, 1, 0]) , Ker(A2) = Vect([−2, 1, 0] , [−3, 0, 1]).

Page 29: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

29

On obtient une matrice de passage par complétions successives, par exemple

P =

−−

110101132

. Alors P−1

.A.P =

−000600

440.

6.3. Théorème de Jordan relatif aux endomorphismes nilpotents. Commençons par étudier une classe particulière d’endomorphismes nilpotents.

Proposition 5 : Soit u un endomorphisme nilpotent d’indice n.

i) Il existe une base BBBB de E telle que Mat(u , BBBB) = Jn =

00...0010...00...............0...1000...010

.

ii) C(u) ≡ v ∈ LLLL(E) ; v.u = u.v = K [u].

iii) Les sev u-stables de E sont au nombre de n + 1 ; ce sont les Vect(e1, …, ei), si BBBB = (e1, …, en).

Preuve : i) Soit e un vecteur tel que un−1

(e) ≠ 0. On a vu en prop 2 que (un−1

(e), un−2

(e), ... , u(e), e) est une famille libre de E ; c’est donc une base de E. La matrice de u relativement à cette base est celle indiquée ci-dessus. ii) Le commutant de u, C(u), est une sous-algèbre de LLLL(E) qui contient toujours K [u].

Réciproquement, si v commute à u, notons v(en) = a0.en + a1.en−1 + … + an−1.e1.

Je dis que v = P(u), où P(X) = a0 + a1.X + … + an−1.Xn−1

. On a v(en) = [P(u)](en), et

v(en−1) = (v o u)(en) = (u o v)(en) = (u o P(u))(en) = (P(u) o u)(en) = P(u)(en−1).

Plus généralement, v(ek) = P(u)(ek) pour tout k. Par suite v = P(u).

On peut aussi procéder matricellement et chercher les matrices qui commutent à

J =

00...0010...00...............0...1000...010

. On trouve

0

10

2

10

1210

0...00...00

..................0

...

aaaa

aaaaaa n

= a0.I + a1.J + … + an−1.Jn−1

.

iii) Soit BBBB = (e1, …, en). Les Fi = Vect(e1, …, ei) sont des sev u-stables ; d’ailleurs il est facile

d’établir que Fi = Ker ui. Réciproquement, soit F un sev u-stable de dimension p, v = uF. v est

nilpotent d’indice ≤ p, vp = 0 et F ⊂ Ker u

p = Fp . Par égalité des dimensions, F = Fp .

Remarque : Les endomorphismes que nous venons d’étudier sont les endomorphismes à la fois nilpotents et monogènes. Et les propriétés énoncées en ii) et iii) sont des cas particuliers de celles des endomorphismes monogènes.

Exemples :

1) Reprenons la matrice réelle A =

−−− 321400163

, nilpotente d’indice 3.

Le vecteur e = [1, 0, 0] n’appartient pas à Ker(A2). Donc BBBB = (A2(e), A(e), e) est une base de R

3.

Du coup, si P =

−−

0010004138

, il vient P−1

.A.P =

000100010

.

Page 30: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

30

2) Soit K de caractéristique 0, E = Kn[X]. La dérivation D : P → P' induit un endomorphisme

nilpotent de E d’indice n+1. Une base de réduction est la base de MacLaurin, (1, X, !2

2X, …,

!nX n

),

ou plus généralement une base de Taylor ( 1, X − a , !2

)( 2aX−, …,

!)(

naX n−

).

3) L’opérateur des différences finies ∆ : P(X) → P(X + 1) − P(X) induit aussi un endomorphisme

nilpotent de E d’indice n+1. Une base de réduction est la base de Newton (N0(X), N1(X), …,

Nn(X)), où N0(X) = 1, Nk(X) = !

)1)...(1(k

kXXX +−− pour k ≥ 1.

Exercice 4 : Montrer que la matrice N =

000100010

est semblable, dans M3(C), à la matrice

symétrique A =

0001

010

ii , ainsi qu’à la matrice antisymétrique B =

0001

010

ii .

Exercice 5 : Soit Dq : P(X) → Xq

XPqXP)1(

)()(−

− pour q ≠ 1 l’endomophisme de E = Kn[X].

Matrice de Dq relativement à la base P0(X) = 1, Pk(X) = (X − 1)(X − q) … (X − qk−1

) pour k ≥ 1.

Exercice 6 : Soit u un endomorphisme nilpotent d’indice n. Résoudre l’équation v2 = u.

Exercice 7 : 1) Soit u un endomorphisme nilpotent. Montrer que u est d’indice n ssi rg u = n − 1. 2) Soit v un endomorphisme de E. Montrer l’équivalence : Il existe une unique droite v-stable ⇔ (∃λ ∈ K ) v − λI est nilpotent d’indice n.

Le théorème suivant généralise le précédent et améliore très sensiblement la proposition 4.

Théorème 6 (Jordan) : Soit u un endomorphisme nilpotent de E.

Il existe une base BBBB de E telle que : Mat(u , BBBB) =

−00...00

0...00...............0...000...00

1

2

1

εε

, où ε1, ..., εn−1 ∈ 0 , 1.

Si l’on note que les εk qui sont nuls créent une partition en blocs diagonaux, il revient au même de

dire qu’il existe une base BBBB de E telle que Mat(u, BBBB) =

rJO

OJ

............

...1, où les Jk sont des matrices

nulles, ou de la forme

00...0010...00...............0...1000...010

, de tailles quelconques.

En d’autres termes, E est somme directe de sous-espaces u-stables E = F1 ⊕ … ⊕ Fr, tels que chacun

des endomorphismes induits u|Fi ait pour indice de nilpotence la dimension de Fi.

Preuve : Soit u un endomorphisme de E, nilpotent d’indice r.

Pour tout k ∈ [0, r], on note Nk = Ker uk , et nk = dim Nk .

Lemme 1 : La suite (N0, N1, ... , Nr) est strictement croissante pour l’inclusion et u(Nk+1) ⊂ Nk pour 0 ≤ k ≤ r − 1.

Page 31: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

31

Preuve : déjà faite en prouvant la prop. 3.

Lemme 2 : Soit 1 ≤ i ≤ r ; si F est un sous-espace de E tel que F ∩ Ni = 0, alors : u(F) ∩ Ni−1 = 0 et u induit un isomorphisme de F sur u(F).

Preuve : Soit x ∈ u(F) ∩ Ni−1 . Alors il existe y∈F tel que x = u(y) et ui−1

(x) = 0.

Par suite, ui(y) = 0 et y ∈ F ∩ Ni = 0. Donc y = 0 et x = 0.

Il reste à montrer que u|F est injective. Ker(u|F) = F ∩ Ker u = F ∩ N1 ⊂ F ∩ Ni = 0.

Lemme 3 : Il existe une suite F1, ... , Fr de sous-espaces de E telle que :

α) E = Nr = Nr−1 ⊕ F1 , Nr−1 = Nr−2 ⊕ F2 , ... , N1 = N0 ⊕ Fr ;

β) u applique injectivement Fi dans Fi+1, pour 1 ≤ i ≤ r − 1.

Preuve : La suite (Fk) va se contruire par un algorithme utilisant les lemmes 1 et 2.

Soit F1 = G1 un supplémentaire de Nr−1 dans Nr . Par le lemme 1, F1 ≠ 0.

E = Nr = Nr−1 ⊕ F1 .

u(G1) ⊂ Nr−1 et u(G1) est en somme directe avec Nr−2 (lemme 2).

On peut donc le compléter en un supplémentaire F2 de Nr−2 dans Nr−1 : Nr−1 = Nr−2 ⊕ F2 et F2 = u(F1) ⊕ G2 . En réitérant cet argument, on construit la suite (Fk) : Nr−k+1 = Nr−k ⊕ Fk et Fk = u(Fk−1) ⊕ Gk .

N1 = N0 ⊕ Fr et Fr = u(Fr−1) ⊕ Gr . Concluons par associativité des sommes directes. Il vient :

E = F1 ⊕ F2 ⊕ F3 ⊕ ... ⊕ Fr .

Lemme 4 : La suite 0 = n0 < n1 < ... < nr = n s’essouffle, en ce sens que les sauts de dimensions nk+1 − nk vont en diminuant. Autrement dit, la suite (nk) est strictement croissante et concave.

Preuve : C’est une conséquence directe du lemme 3. nk+1 − nk = dim Fr−k = dim u(Fr−k) ≤ dim(Fr−k+1) = nk − nk−1.

Lemme 5 : La suite (nk) est sous-additive, en ce sens que ∀(i, j) ni+j ≤ ni + nj .

Preuve : C’est une conséquence du lemme 4. Notons en effet di = ni+1 − ni , de sorte que ni+1 = di + di−1 + … + d1 .

On veut établir que ni+j − ni ≤ nj , c’est-à-dire :

di + di+1 + … + di+j−1 ≤ d1 + d2 + … + dj−1 .

C’est une conséquence de la décroissance de la suite (dk).

Remarque : On peut aussi montrer ce résultat directement, en notant que ui(Ij) = Ii+j , et en

appliquant le théorème du rang à v = EI

i

ju )( : dim Ij = dim Im v + dim Ker v.

Or Im v = Ii+j et Ker v = Ker(ui) ∩ Ij ⊂ Ker(u

i) , d’où n – nj ≤ n − ni+j + ni …

Achevons maintenant la démonstration du théorème de Jordan.

Notons a1, …, ap une base de F1. Comme u applique injectivement F1 dans F2, leurs images par

u sont libres, et font partie d’une base de F2, que l’on note u(a1) , …, u(ap) , b1 , …, bq .

Comme u applique injectivement F2 dans F3, leurs images par u sont libres, et font partie d’une base

de F3, que l’on note u2(a1) , …, u

2(ap) , u(b1) , …, u(bq) , c1, …, cs .

On constitue progressivement une base B de E :

B = (ur−1

(a1) , …, u2(a1) , u(a1) , a1, ..., u

r−1(ap) , …, u

2(ap) , u(ap) , ap,

Page 32: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

32

ur−2

(b1) , …, u(b1) , b1, ..., ur−2

(bq) , …, u(bq) , bq,

ur−3

(c1) , …, c1 , ..., ur−3

(cs) , …, cs, etc.) La matrice de u relativement à cette base est un tableau diagonal de blocs de Jordan :

p blocs égaux à Jr, q blocs égaux à Jr−1, s blocs égaux à Jr−2, etc. Le plus simple est de disposer ces complétions successives en un tableau, dit tableau de Young :

ur−1

(a1) ... u2(a1) u(a1) A1

... ... ... ... …

ur−1

(ap) ... u2(ap) u(ap) ap

ur−2

(b1) ... u(b1) b1

... ... ... ...

ur−2

(bq) … u(bq) bq

ur−3

(c1) ... C1

... … ...

ur−3

(cs) … cs

Exemples de réductions de Jordan.

1) La matrice A =

−−−

012024012

est nilpotente d’indice 2.

Les noyaux Nk = Ker Ak ont resp. pour dimensions 0 < 2 < 3.

Le vecteur a1 = [1, 0, 0] n’appartient pas à N2 . Posons a2 = A.a1 .

Il appartient à N1, plan d’équation −2x + y = 0 ; complétons-le en une base, b1 = [0, 0, 1].

P =

−−−

102004012

, P−1

.A.P =

000000010

.

2) La matrice réelle A =

−−−

−−−

321000400000163000100321010400001163

est nilpotente d’indice 4.

Les noyaux Nk = Ker Ak ont resp. pour dimensions 0 < 2 < 4 < 5 < 6.

Le vecteur e1 = [0, 0, 0, 1, 0, 0] n’appartient pas à N3 . Posons e2 = A.e1 , e3 = A.e2 , e4 = A.e3 .

Le vecteur e5 = [2, 0, 0, −3, 0, 1] appartient à N2 . Posons e6 = A.e5 .

Dans la base BBBB = (e4 , e3 , e2 , e1 , e6 , e5) , la matrice de A s’écrit :

P =

−−

−−−−

100100040040381380

01002000000122301624

, P−1

.A.P =

000000100000000000001000000100000010

.

Page 33: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

33

Le tableau de Young associé est :

e4 E3 e2 E1

e6 E5

6.4. Partitions d’entiers et tableaux de Young.

Nous allons maintenant étudier les tableaux de Young d’un point de vue combinatoire, il sont liés au partitions d’Euler. Nous ferons ensuite le lien avec la classification des endomorphismes nilpotents.

Définition 1 : Soit n un entier ≥ 1. Une partition de n est une représentation de n en une somme d’entiers ≥ 1, l’ordre des termes de la somme n’étant pas pris en considération. Ces termes s’appellent sommants de la partition. Le nombre de partitions de n est noté p(n), le nombre de partitions en m sommants est noté P(n, m).

Exemples : partitions de n, pour 1 ≤ n ≤ 5. 1 donc p(1) = 1 ; 2 = 1 + 1, donc p(2) = 2 ; 3 = 2 + 1 = 1 + 1 + 1, donc p(3) = 3 ; 4 = 3 + 1 = 2 + 2 = 2 + 1 + 1 = 1 + 1 + 1 + 1, donc p(4) = 5 ; 5 = 4 + 1 = 3 + 2 = 3 + 1 + 1 = 2 + 2 + 1 = 2 + 1 + 1 + 1 + 1 = 1 + 1 + 1 + 1 + 1, donc p(5) = 7.

Proposition 1 : P(n, m) = card(y1, y2, …, ym) ∈Nm

; y1 + y2 + …+ ym = n , y1 ≥ y2 ≥ … ≥ ym ≥ 1.

La donnée d’une partition de n équivaut à la donnée d’une solution en entiers xi ≥ 0 de l’équation

x1 + 2.x2 + … + n.xn = n .

Définition 2 : Un tableau de Young 8 est un tableau formé de cases disposées en lignes, dont les longueurs vont en décroissant.

Proposition 2 : Soit (nk) une suite d’entiers vérifiant 0 = n0 < n1 < n2 < … < n = nr = nr+1 = … et

nk+1 − nk ≤ nk − nk−1 pour tout k ≥ 1. Il existe un endomorphisme nilpotent d’indice r, tel que, pour tout k, nk = dim Nk .

Théorème 3 : Soient K un corps commutatif, RRRR la relation de similitude entre matrices carrées.

On note NNNNn,m = A ∈ Mn(K ) ; Am

= O et NNNNn = A ∈ Mn(K ) ; (∃ m ≥ 1) Am

= O .

Alors card (NNNNn,m / RRRR) = P(n, m) et card (NNNNn / RRRR) = p(n) .

Application : Combien y a-t-il de classes de similitude de matrices nilpotentes d’ordre k (1 ≤ k ≤ 5) ? 6.5. Applications et compléments.

Problème : démonstration par dualité du théorème de Jordan. Soit u un endomorphisme de E, nilpotent d’indice r, e un vecteur tel que ur−1(e) ≠ 0.

1) Que dire de la famille (ur−1(e) , ur−2(e) , ur−3(e) , ... , u(e) , e) ? Soit F le sous-espace engendré. Montrer que r ≤ n.

2) a) Montrer qu’il existe une forme linéaire f sur E telle que < f , ur−1(e) > ≠ 0.

b) Montrer que G = x ∈ E ; < f , x > = < f , u(x) > = ... = < f , ur−1(x) > = 0 est un sous-espace de E, supplémentaire de F, et u-stable.

3) a) Montrer que E est somme directe de s sous-espaces vectoriels F1, F2, ... , Fs, dont chacun est u-stable et a pour dimension l’indice de nilpotence de la restriction de u à ce sous-espace. b) En déduire qu’il existe une base BBBB de E telle que :

8 L. Comtet nomme des tableaux « diagrammes de Ferrers ».

Page 34: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

34

Mat(u, BBBB) = diag(J1, ..., Js) , où les blocs Jk sont du type

00...0010...00...............0...1000...010

.

4) Exemples : On considère les matrices : A =

−−−001110

111 et B =

−−−

012024012

dans M3(R).

Déterminer des matrices P, Q ∈ Gl3(R) telles que : P−1.A.P =

000100010

et Q−1.B.Q =

000100000

.

Exercice : Réduire

−−− 321400163

,

jjjj

jj

1²1²²1

,

−−−−−−−

4200840017397113

,

−−−

−−−

1110430110310141

,

−−−−

0110120110210110

Exercice : Soit A = (1) de format n×n ; on suppose p = car(K ) | n. Que dire de A ? Réduire A.

Exercice : Soit u un endomorphisme de E. Que dire de I = P ∈ K [X] ; P(u) est nilpotent ?

Exercice : Montrer que les matrices nilpotentes engendrent le sev des matrices de trace nulle.

Exercice : Soit M ∈ Mn(C). Montrer que M est nilpotente si et seulement si M est semblable à 2M.

7. Endomorphismes trigonalisables.

7.1. Endomorphismes et matrices trigonalisables.

Nous avons vu en § 5.6 qu’un endomorphisme, une matrice, ne sont pas toujours diagonalisables. Lorsqu’advient un tel drame, sommes-nous sans ressources ? Certes non...

Définition 1 : L’endomorphisme u ∈ LLLL(E) est dit trigonalisable s’il existe une base BBBB de E telle que Mat(u, BBBB) soit trigonale supérieure :

Mat(u , BBBB) =

λλ

0...0*.........**0*...*

2

1

La matrice A ∈ Mn(K ) est dite trigonalisable si l’endomorphisme X → A.X de Kn canoniquement

associé est trigogonalisable, i.e.s’il existe une matrice P ∈ Gln(K ) telle que P−1.A.P soit trigonale supérieure :

P−1.A.P = T =

λλ

0...0*.........**0*...*

2

1

Notons qu’alors λ1, ... , λn sont les valeurs propres de u ou A comptées avec leurs multiplicités.

Exemples : les endomorphismes diagonalisables, resp. nilpotents, sont trigonalisables.

Proposition 1 : L’endomorphisme u de E est trigonalisable ss’il existe une suite croissante : d = ( F0 ⊂ F1 ⊂ ... ⊂ Fn ) de sous-espaces u-stables telle que (∀i) dim Fi = i. (Une telle suite s’appelle un drapeau u-stable).

Page 35: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

35

Remarque : Si BBBB = (e1 , ..., en) est une base telle que Mat(u, BBBB) soit trigonale supérieure, alors Mat(u, BBBB') est trigonale inférieure dans la base BBBB' = (en−1 , ..., e1). En effet Mat(u , BBBB') s’obtient en centro-symétrisant Mat(u , BBBB). 7.2. Endomorphismes scindés, espaces caractéristiques.

Définition 2 : Nous dirons pour abréger qu’un endomorphisme u est scindé si son polynôme carac-téristique est scindé dans K , et nous noterons :

χu(X) = (−1)n ∏=

−r

j

nj

jX1

)( λ et µu(X) = ∏=

−r

j

mj

jX1

)( λ où ∑=

r

jjn

1 = n et Sp u = λ1, λ2, ... , λr .

Bien entendu, si le corps K est algébriquement clos, tout endomorphisme est scindé.

Théorème 2 : a) Un endomorphisme est trigonalisable ss’il est scindé. b) E est alors la somme directe des sous-espaces caractéristiques Fj = Ker( u − λj.I )nj , et il existe une base BBBBj de Fj telle que la matrice de l’endomorphisme induit soit trigonale supérieure. Alors la matrice de u dans la base BBBB = BBBB1 ∪ ... ∪ BBBBr est trigonale supérieure : c’est ce qu’on appelle une forme trigonale supérieure réduite de u. c) En outre (∀j) dim Fj = nj . d) Les projecteurs spectraux, c’est-à-dire les projecteurs sur les sous-espaces caractéristques,

associés à la somme directe E = ⊕ Fj , sont des polynômes de u.

e) Tout sous-espace u-stable F vérifie F = ⊕ (F ∩ Fj), et donc est de la forme F = ⊕ Gj , où Gj est un sous-espace u-stable de Fj.

Preuve : Ce théorème très important n’est au fond qu’une conséquence de trois théorèmes antérieurs : le théorème des noyaux, le théorème de Hamilton-Cayley et le théorème de trigonalisation des nilpotents (§ 6.2., prop. 4).

Proposition 3 : décomposition additive d’un endomorphisme trigonalisable.9 Tout endomorphisme trigonalisable s’écrit de manière unique sous la forme : u = d + n , où d est diagonalisable, n est nilpotent, et d et n commutent. d et n s’appellent resp. composantes diagonalisable et nilpotente de u. Ce sont tous deux des polynômes de u (dépendant de u).

Existence : Les projecteurs spectraux pj sont des polynômes de u ; le couple (d0 , n0) défini par :

d0 = ∑ λj.pj et n0 = u − d0 répond à la question.

Unicité : Supposons u = d + n , où d est diagonalisable, n est nilpotent, et d et n commutent. Alors d et n commutent à u. Comme d commute à d0, d et d0 sont simultanément diagonalisables (§ 5.5). Comme n commute à n0, n − n0 est nilpotent. L’endomorphisme d − d0 = n0 − n est à la fois diagonalisable et nilpotent : il est donc nul. cqfd.

Remarques : 1) Pour montrer que u est diagonalisable, il suffit de montrer que sa composante nilpotente n est 0. 2) Attention, ce n’est pas une décomposition en somme directe : ni les diagonalisables, ni les nilpotents ne forment des sous-espaces vectoriels de LLLL(E) ; ce sont des cônes 10. Si DDDD est l’ensemble des endomorphismes diagonalisables et NNNN l’ensemble des nilpotents, on a u ∈ DDDD ⇒ λ.u ∈ DDDD et (u, v) ∈ DDDD×DDDD u.v = v.u ⇒ u + v ∈ DDDD. Idem pour NNNN.

9 Cette décomposition est souvent dite en France, « de Dunford », d’après le mathématicien américain Nelson Dunford, spécialiste de théorie spectrale, et co-auteur, avec Jacob T. Schwartz, d’une somme théologique sur le sujet. En réalité, elle est due à Camille Jordan (1870) et Claude Chevalley (ca 1950). On devrait l’appeler décomposition de Jordan-Chevalley. 10 Elles forment des réunions de conjugués de sous-espaces vectoriels, de dimensions n et n(n−1)/2 resp. Pour un intéressant complément, cf. le chapitre sur les espaces euclidiens, § 3.2., ex. 10.

Page 36: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

36

Exercice 5 : Trigonaliser les matrices :

−−−−−−

786675

161613 ,

−−−−

4671014566 ,

−−

−−

7221234

823 ,

−−−

10142681330

,

−−−

6455410322

,

−−−−−

8411362331

,

−−−

111221212

,

−−

212044010

,

−−−

76312104323

.

Pour chacune d’elles, déterminer la décomposition additive, calculer An, exp A, exp(tA), déterminer les sous-espaces stables et le commutant, les racines carrées.

Exercice 6 : Montrer que tout endomorphisme scindé est trigonalisable par récurrence sur n = dim E.

Exercice 7 : Soit u un endomorphisme scindé. 1) Montrer que pour tout polynôme f ∈ K [X] Sp f(u) = f(Sp u) (Frobenius, 1878). 2) Montrer que u annule son polynôme caractéristique. 3) Montrer que ce résultat subsiste même si u n’est pas scindé.

Exercice 8 : Soit K = C. 1) Montrer que les matrices diagonalisables forment un ensemble dense dans Mn(C), et que les matrices diagonalisables à valeurs propres distinctes forment un ouvert dense de Mn(C). 2) En déduire une nouvelle preuve du théorème de Hamilton-Cayley.

Exercice 9 : Soit K = R. 1) Montrer que les matrices trigonalisables forment un ensemble fermé de Mn(R). 2) Que dire de l’ensemble des matrices diagonalisables ?

Exercice 10 : « Toute matrice est diagonalisable ».

1) Si l’on interroge Maple, la matrice A =

dcba est inversible, d’inverse

bcad−1

−acbd , et

diagonalisable, et a deux valeurs propres distinctes : 21 a + d ± bcda 4)²( +− .

2) Maple a-t-il raison, ou tort, de juger ainsi ? 3) Donner une nouvelle preuve du théorème de Hamilton-Cayley.11 7.3. Réduction de Jordan.

Le théorème de Jordan (1870) 12, hors programme, est plus profond que les précédents. Un exposé plus complet de cette théorie permettrait de le situer au confluent du théorème de la forme trigonale supérieure réduite, et d’un théorème de décomposition monogène de Frobenius, non abordé ici.

Théorème 4 (Jordan) : Soit u un endomorphisme scindé de E. Il existe une base BBBB de E telle que :

Mat(u , BBBB) =

rJO

OJ

............

...1, où les matrices carrées Jk sont de la forme Jk =

λλ

λλ

0...001...00...............0...100...01

.

11 Pour une généralisation, cf. Y. Hellegouarch, Propriétés de la matrice générique d’ordre n, RMS fév 1990. 12 Camille Jordan (1838-1921) a introduit en analyse les fonctions à variation bornée et leurs applications à la rectification des courbes et aux séries de Fourier, et démontré le théorème de Jordan sur les courbes fermées simples. Mais il fut surtout algébriste et s’illustra en théorie des groupes, théorie des nombres et algèbre linéaire. Ses travaux en théorie des groupes ont permis de bien comprendre la théorie de Galois. Le livre de Pierre Gabriel explique que le théorème de Jordan fut aussi découvert par Karl Weierstrass en 1868, et fait le point sur cette querelle d’attribution franco-prussienne. Enfin, je ne résiste pas au plaisir de mentionner ici qu’un ancien élève et ami a épousé une descendante de Camille Jordan. Nul ne pourra constester que j’aie insufflé à mes taupins la passion de l’algèbre...

Page 37: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

37

Preuve : Ce théorème découle aussitôt du théorème de Hamilton-Cayley, du théorème des noyaux et du théorème de Jordan pour les nilpotents, par application de celui-ci à la restriction de u − λj.I à chacun des sous-espaces caractéristiques.

Exercice 1 : Réductions de Jordan des matrices :

−−−

76312104323

,

−−201110

113 ,

1000210032104321

,

−−−

−−−

1110430110310141

,

−−−−−−

80413130

130623031

On s’efforcera de résoudre les 2 exercices suivants sans faire appel au théorème de Jordan.

Exercice 2 : Réductions de Jordan des matrices (on pourra utiliser Maple) :

−−−−

0110110101110010012022313

−−

−−−−

1330010210111101410212111

−−−

−−−

321000400000163000100321010400001163

310000301000

100000100310010301001100

0000000000000010000000100000001000000010000000100

¶ Exercice 3 : On suppose K algébriquement clos. Quels sont les endomorphismes de E ayant un nombre fini de sous-espaces stables ?

Exercice 4 : Soit A ∈ Mn(C). Montrer que : 1) A est nilpotente ss’il existe une suite (Bk) de matrices semblables à A telle que lim Bk = O ; 2) A est diagonalisable ssi sa classe de similitude est fermée.

Exercice 5 : Montrer que toute matrice A ∈ Mn(C) est semblable à sa transposée. 7.4. Trigonalisation simultanée.

Définition 3 : Une famille AAAA = (ui)i∈I d’endomorphismes de E est dite trigonalisable ou simulta-nément trigonalisable, s’il existe une base BBBB de E trigonalisant simultanément tous les ui.

Proposition 5 : Soit u un endomorphisme trigonalisable. L’algèbre K [u] est trigonalisable.

Théorème 6 : Soit AAAA = (ui)i∈I une famille commutante d’endomorphismes trigonalisables. Alors AAAA est trigonalisable.

Preuve : Elle repose sur deux lemmes préalables.

Lemme 1 : Si u est un endomorphisme trigonalisable, et F un sous-espace u-stable, l’endomor-

phisme induit uF est trigonalisable.

Preuve : Le polynôme caractéristique de uF divise celui de u, donc est scindé. Par suite, uF est trigonalisable.

Lemme 2 : Sous les hypothèses du théorème, les ui ont un vecteur propre commun.

Preuve : Raisonnons par récurrence sur n = dim E. Si n = 1, il n’y a rien à montrer. Supposons le théorème vrai pour tout espace tel que dim E < n. Soit maintenant E de dimension n. Distinguons deux cas :

− Si tous les ui sont des homothéties, il n’y a rien à montrer.

− Sinon, un ui n’est pas une homothétie. Soit F un de ses sous-espaces propres. On a dim F < n, F est

uj-stable pour tout j et (uj|F)j∈I est une famille commutante d’endomorphismes trigonalisables de F

(lemme 1). Par hypothèse de récurrence, les uj|F admettent un vecteur propre commun, donc les uj aussi.

Page 38: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

38

Revenons au théorème. Montrons que les ui sont simultanément trigonalisables derechef par récurrence sur dim E.

Soit e1 un vecteur propre commun à tous les ui.

Complétons-le en une base provisoire BBBB’ = (e1, e’2 , …, e’n) de E.

Soit H l’hyperplan engendré par e’2 , …, e’n, p le projecteur sur H parallèlement à K .e1.

La matrice de ui relativement à cette base est Mi =

i

i

A0*λ , où Ai ∈ Mn−1(K ) est la matrice de

vi = (p o ui)H. La commutation des matrices Mi implique celle des matrices Ai, donc celle des

endomor-phismes vi, qui ont un polynôme caractéritique scindé (car il divise ceux des ui), donc sont trigonalisables.

Par hypothèse de récurrence, il existe une base (e2 , …, en) de H trigonalisant simultanément les vi.

La matrice de ui relativement à la base BBBB = (e1, e2 , …, en) est trigonale supérieure. Cqfd.

Exercice 1 : Soient u1, u2, ..., un n endomorphismes nilpotents de E commutant deux à deux. Montrer que : u1 o ... o un = 0 .

Remarque 1 : La commutation n’est qu’une condition suffisante de trigonalisabilité simultanée. Les exercices suivants en fournissent d’autres. Mais dans tous les cas, la première étape consiste à montrer l’existence d’un vecteur prorpe commun.

Exercice 2 : Soient u et v deux endomorphismes trigonalisables tels que u.v = 0. Montrer qu’ils ont un vecteur propre commun, puis qu’ils sont simultanément trigonalisables.

Exercice 3 : Soient u, v, w trois endomorphismes trigonalisables tels que : u.v − v.u = w , u.w = w.u , v.w = w.v. Montrer qu’ils ont un vecteur propre commun, trigonalisent dans une même base, et que w est nilpotent.

Exercice 4 : Si u et v sont simultanément trigonalisables, montrer que P(u, v).(u.v – v.u) est nilpotent, où P(u, v) est un « polynôme non commutatif » en u et v, autrement dit un élément de la sous-algèbre de LLLL(E) engendrée par u et v.

Remarque 2 : Une cns de trigonalisation simultanée est due à Sophus Lie 13 : si K est de caractéristique 0, AAAA est trigonalisable si et seulement si l’algèbre de Lie qu’elle engendre est « résoluble » (cf pb. ENS Lyon 1990 et Mines 2007). Par ailleurs la condition nécessaire donnée dans l’ex. 4 est aussi suffisante (cf. RMS mars 2006 et Mneimné). 7.5. Endomorphismes et matrices non trigonalisables.

Lorsque K n’est pas algébriquement clos, il y a des endomorphismes, des matrices non trigo-nalisables.

Ainsi, dans M2(R), les matrices A =

0110 et plus généralement A =

θθθθ

cossinsincos , pour θ ≠ 0

mod π, ont des polynômes caractéristiques X2 + 1 , resp. X

2 − 2X.cos θ + 1 non scindés.

− Si l’on se cantonne aux matrices, on peut toujours plonger K dans un corps de décomposition L de son polynôme caractéristique ; elles sont alors trigonalisables. Si l’on raisonne en termes d’applications linéaires, la situation est moins simple, car on ne peut prolonger à L le domaine des scalaires sans recourir au produit tensoriel.

− On peut obtenir des résultats de réduction sans changer de corps. En voici :

13 Le norvégien Sophus Lie (1842-1899) a étudié les transformations de contact et les groupes continus et leurs espaces tangents, appelés aujourd’hui groupes et algèbres de Lie.

Page 39: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

39

Théorème : Soient E un R-espace de dimension n, u un endomorphisme de E. Alors u admet un droite ou un plan vectoriel stables. Mieux, il existe une base BBBB de E telle que u ait pour matrice :

Mat(u , BBBB) =

rAO

A

............*...1

,

où les matrices A1, ..., Ar sont carrées d’ordres 1 ou 2, et dans ce dernier cas de la forme

abba .

Preuve : Soit BBBB une base de E, A la matrice de u relativement à BBBB. Si elle admet une valeur propre réelle λ, elle admet un vecteur propre réel X, et le vecteur x de coordonnées X engendre une droite u-stable. Sinon, soient λ = α + iβ une valeur propre complexe non réelle de A, et Z = X + iY un vecteur propre associé. On a AZ = λZ. Séparant partie réelle et imaginaire, il vient :

AX = α.X − β.Y , AY = β.X + α.Y . Soient x et y les vecteurs de E ayant X et Y comme coordonnées dans la base B . Ils vérifient u(x) = α.x − β.y , u(y) = β.x + α.y. Ils engendrent donc un plan u-stable. Une récurrence conclut.

Remarque : Voici une autre preuve de ce résultat, évitant le recours aux bases, mais pas le théorème de d’Alembert-Gauss. Soit P le polynôme minimal de f, Q un diviseur irréductible de P de degré 1 ou 2. Q(f) est non inversible, sans quoi P/Q annulerait f. Soit x ≠ 0 tel que Q(f)(x) = 0. Si Q est de degré 1, D = R.x est une droite f-stable ; si Q est de degré 2, P = Vect(x, u(x)) est un plan f-stable. Exercice 1 : 1) Montrer que toute matrice A ∈ M2(C) est semblable dans M2(C) à l’une des

matrices suivantes :

λλ0

0 ,

µλ0

0 ,

λλ0

1 , où λ ≠ µ ∈ C.

2) Montrer que toute matrice A ∈ M2(R) est semblable dans M2(R) à l’une des matrices suivantes

λλ0

0 ,

µλ0

0 ,

λλ0

1 ,

abba , où λ ≠ µ , a, b ∈ R et b ≠ 0 .

Remarque : cet exercice contient un dévissage de toutes les appplications linéaires du plan dans lui-même. Dans le cas réel, une application linéaire est, dans un repère convenable, soit une homothétie, soit une affinité, soit une transvection, soit la conjuguée d’une homothétie-rotation. Une trans-vection est somme d’une homothétie et de (x, y) → (0, y) → (y, 0), composée d’un projecteur et d’une symétrie.

Page 40: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

40

Ces figures supposent le plan euclidien et le repère orthonormé ; c’est sans gravité, car on peut toujours s’y ramener par conjugaison, ou construire un produit scalaire tel que la base soit orthonormée.

Exercice 2 : Montrer que deux matrices A et B ∈ Mn(R), semblables dans Mn(C), sont semblables

dans Mn(R).

[ Indication : Soit B = P–1.A.P où P ∈ Gln(C). Écrivant P = Q + i.R (parties réelle et imaginaire), montrer que (∀x ∈ R) (Q + x.R).B = A.(Q + x.R) , puis (∃x ∈ R) Q + x.R ∈ Gln(R). Il s’agit là d’une preuve anecdotique, mais à connaître ; le résultat reste évidemment vrai en remplaçant R ⊂ C par K ⊂ L , mais la preuve est moins simple : voir chap. Déterminants § 6.3. ex. 6 si K est infini ; sinon, recourir aux facteurs invariants. ]

Exercice 3 : Soit K un corps fini à q éléments, de caractéristique ≠ 2.

a) Montrer que Γ = x2 ; x ∈ K* est un groupe multiplicatif à

21−q

éléments.

b) Soit ω ∉ Γ∪0. Montrer que toute matrice de M2(K ) est semblable à l’une des matri-

ces suivantes :

λλ0

0 ,

µλ0

0 ,

λλ0

1 ,

αβωβα ( λ ≠ µ, β ≠ 0 ).

c) En déduire qu’il y a q + q2 classes de similitude dans M2(K ).

Exercice 4 : Soient E un K -espace vectoriel de dimension n, u ∈ L(E) de polynôme caractéristique : χu(X) = P1(X) ... Pr(X) , où les Pi sont irréductibles, distincts ou non.

Montrer qu’il existe une base BBBB de E telle que Mat(u, BBBB) =

rAO

A......*...1

, trigonale par blocs, où les

matrices Ai sont carrées de polynômes caractéristiques Pi, et que l’on peut même supposer matrices-compagnons de Pi.

8. Applications et compléments. 8.1. Calculs de déterminants, résolution de systèmes linéaires.

Bien que ce ne soit pas son principal objectif, la réduction des endomorphismes permet de calculer des déterminants et de résoudre des systèmes linéaires. Qui peut le plus, peut le moins : more may be less...

− Si A a un polynôme caractéristique scindé, det A est le produit des valeurs propres de A.

− Supposons A diagonalisable : P−1.A.P = D = diag(λ1 , ..., λr , 0 , ... , 0).

Le système A.X = B (1) s’écrit P.D.P−1.X = B,

C’est-à-dire, en changeant d’inconnues Y = P−1.X , et de second membre C = P−1.B : D.Y = C (2) Résoudre et discuter (2) est alors un jeu d’enfant : a) si l’un des ci , r+1 ≤ i ≤ n, est ≠ 0, le système est impossible ;

b) si tous les ci , r+1 ≤ i ≤ n, sont nuls, alors yi = i

icλ

pour 1 ≤ i ≤ r, les autres étant quelconques.

La structure affine de l’ensemble des solutions apparaît clairement.

Page 41: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

41

− Supposons A trigonalisable : P−1.A.P = T , trigonale supérieure.

Le système A.X = B (1) s’écrit P.T.P−1.X = B, c'est-à-dire,

en changeant d’inconnues Y = P−1.X , et de second membre C = P−1.B : T.Y = C (2) On peut alors le résoudre et le discuter par remontée. Si T est sous forme trigonale supérieure réduite, ou sous forme de Jordan, la discussion est bien sûr facilitée.

Exemple : déterminants et systèmes cycliques. 14

On appelle matrice cyclique une matrice de la forme :

M = M(a0 , ... , an−1) =

0121

102

101

110

...

...........................

......

aaaaaaa

aaaaaa

n

n

n

∈ Mn(C) .

Au fond, M(a0 , ... , an−1) = (mij ), où mij = aj−i , les calculs étant effectués modulo n. Il n’est pas du tout évident que M est diagonalisable, mais si l’on note :

Ω = M(0, 1, 0, ..., 0) =

00...0110...00...............0...1000...010

,

je dis que M(a0, ..., an−1) = a0.I + a1.Ω + ... + an−1.Ωn−1 = f(Ω) ,

où f est le polynôme : f(X) = a0 + a1.X + ... + an−1.Xn−1. De plus, Ωn = I, et Xn − 1 est le polynôme minimal de Ω. Par suite, l’ensemble des matrices cycliques est une sous-algèbre commutative Γn(C) de Mn(C). Ω est diagonalisable et de spectre Sp(Ω) = Un(C).

Notant ω = expniπ2 , la matrice des vecteurs propres de Ω est V = (ω(j−1)(k−1))1≤j,k≤n ∈ Mn(C) :

V−1.Ω.V = diag (1 , ω , ω2 , ... , ωn−1) .

Du coup, V−1.M.V = diag (f(1) , f(ω) , f(ω2) , ... , f(ωn−1)) , et :

det M(a0, ..., an−1) = f(1).f(ω).f(ω2) ... f(ωn−1) .

Exercice 1 : Convergence et limite des suites (an), (bn) et (cn) définies par :

an+1 = 41 bn +

43 cn , bn+1 =

43 an +

41 cn , cn+1 =

41 an +

43 bn .

Exercice 2 : Réduire les matrices en damier A =

............

...

...

...

ababababa

∈ Mn(C)

Exercice 3 : Matrices cycliques et stochastiques.

1) Montrer que l’ensemble CSn(R) des matrices A = M(a0 ,... , an−1) cycliques et stochastiques, i.e. à coefficients ≥ 0 et tels que a0 + ... + an−1 = 1 , est un polyèdre convexe compact stable par multiplication. Quels sont ses points extrémaux ?

2) Soit A ∈ CSn(R). Étudier la suite (Ak) des puissances de A ; discuter la convergence de cette suite ; montrer que dans tous les cas la suite (Ak) converge en moyenne de Cesàro.

14 Les déterminants cycliques ou circulants semblent avoir été introduits en 1846 par le français Eugène Catalan (1814-1894), avant d’être ensuite étudiés par les anglais Spottiswoode, Glaisher, Scott, etc. Les matrices cycliques jouent un grand rôle dans de nombreux domaines : transformations de Fourier discrète et rapide, codes correcteurs cycliques, matrices de Hadamard, etc.

Page 42: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

42

3) Illustrer les raisonnements précédents par des figures en dimensions 2 et 3.

Exercice 4 : Calculer det M, où M = (mij ) et mij = ( j − i + 1 ) mod n (reste euclidien).

Exercice 5 : 1) Montrer que Γn(C) = C[Ω] est le commutant de Ω.

2) Montrer que les algèbres Γn(C) = C[Ω] , C[X]/(X n − 1) et Cn sont isomorphes.

Exercice 6 : Pour tout p ≥ 1, soit Ap = p1 ∑

1

0

p

k

k . Montrer que Ap ∈ Gln(C) ⇔ p ∧ n = 1.

Exercice 7 : Combien y a-t-il de matrices cycliques A vérifiant A2 = A , resp. A2 = I ?

Exercice 8 : Etude (dimension, spectre, …) des matrices cycliques symétriques, resp. antisymé-triques, réelles.

Exercice 9 : Déterminants circulants. On appelle matrice circulante une matrice de la forme C(a0, ..., an−1) = (aj+i−2), les indices étant réduits mod n. 1) Calculer le déterminant de cette matrice, en le reliant à un déterminant cyclique. 2) Les matrices circulantes forment-elles une sous-algèbre de Mn(C) ? 3) Que dire de la somme des espaces des matrices cycliques et des matrices circulantes ?

Exercice 10 : On se place dans M3(R). Soit VVVV le sous-espace engendré par les deux matrices :

A =

−−

110011101

et B =

−−

101110011

1) Les matrices M ∈ VVVV sont-elles inversibles ?

2) Montrer que (VVVV , + , ×) est un corps commutatif, isomorphe à C.

Exercice 11 : Soient λ, a0, ..., an−1 ∈ C. Réduire la matrice

0121

102

1

101

110

...

........................

......

aaaaaaa

aaaa

aaa

n

n

n

n

λλλλ

λλ

.

Applications : 1) Calculer le déterminant anticyclique D = (mij ), où :

mij = j − i + 1 si i ≤ j et mij = − ( n + 1 − i + j ) si i > j . [ Réponse : 41 ( (2 + n)n + nn ) ].

2) Réduire la matrice M = (mij ), où : mij = j − i + 1 si i ≤ j et mij = α ( n + 1 − i + j ) si i > j .

3) Réduire la matrice M = (mij ), où : mij = 1 si i ≤ j et mij = − 1 si i > j , mii = 0.

Exercice 12 : Réduire la matrice Ω dans Mn(R), puis dans Mn(Q).

Exercice 13 : Soit p premier, M = M(a0 , ..., ap−1) =

0121

102

101

110

...

...........................

......

aaaaaaa

aaaaaa

p

p

p

∈ Mp(Z) .

Montrer que det M ≡ a0 + ... + ap−1 ( mod p ). 8.2. Equations matricielles polynomiales.

Problème : Soit f ∈ K [X] un polynôme ; chercher les matrices A ∈ Mn(K ) telles que f(A) = O.

Notons que si A annule le polynôme f, P−1.A.P aussi pour toute matrice P ∈ Gln(K ). Ainsi, il s’agit de décrire et classifier à similitude près les solutions de l’équation.

Page 43: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

43

Commençons par résoudre ce problème lorsque f est un trinôme.

Exercice 1 : Équations matricielles du second degré.

Soient (a, b) ∈ K2. On cherche les matrices A ∈ Mn(K ) telles que f(A) ≡ A2 + a.A + b.I = O (1).

1) On suppose que f a deux racines distinctes α et β. Montrer que si f(A) = O, A est diagonalisable. En déduire l’expression générale des solutions de (1). Combien (1) a-t-elle de classes de similitude de solutions ?

2) a) Soit N une matrice telle que N2 = O. Montrer que N est semblable à :

diag(N1, ..., Nq) où Nk = (0) (de format 1×1) ou

0010 (de format 2×2).

b) On suppose que f(X) = (X − α)2. Montrer que f(A) = O ssi A est semblable à :

diag(J1, ..., Jq) , où Jk = (α) (de format 1×1) ou

ααO

1 (de format 2×2).

Combien (1) a-t-elle de classes de similitude de solutions ?

3) On suppose f sans racines dans K , et f(A) = O.

i) Montrer que si x ∈ Kn est un vecteur non nul, (x, A.x) engendre un plan A-stable Px ;

ii) Montrer qu’il existe une famille (x1, ..., xq) telle que Kn = Px1 ⊕ ... ⊕ Pxq.

iii) En déduire que A est semblable à diag(M, ..., M) où M =

−−ab

10 .

iv) Résoudre et discuter l’équation f(A) = O.

4) Application : Résoudre l’équation A2 + I = O dans Mn(C), puis dans Mn(R).

Résoudre l’équation A3 − I = O dans Mn(C), puis dans Mn(R).

Exercice 2 : Symétries en caractéristique 2.

1) Soit K un corps de caractéristique 2, et s ∈ LLLL(E). Montrer l’équivalence : s2 = I ⇔ (s − I)

2 = 0.

2) Montrer que s n’est diagonalisable que si s = ± I.

3) Soit s ∈ LLLL(E) tel que s2 = I . Montrer qu’il existe une base BBBB de E telle que :

Mat(s ; BBBB) = diag (H, H, ..., H, O) où H =

1011 .

En déduire qu’il y a [n/2] + 1 classes de similitude de matrices A ∈ Mn(K ) telles que A2 = I.

4) Exemple : réduire l’endomorphisme u : x = (x1, x2, ... , xn) → (xn, ... , x2, x1) de Kn.

5) Si K est fini de cardinal q, combien y a-t-il de matrices A ∈ Mn(K ) telles que A2 = I ?

Exercice 3 : Résoudre l’équation Am

= I dans Mn(C), puis dans Mn(R), puis dans Mn(Q). 8.3. Racines carrées de matrices.

Problèmes : 1) Etant donnée une matrice A ∈ Mn(K ), trouver les matrices X ∈ Mn(K ) telles que X2 = A. 2) Quelles sont les matrices A ∈ Mn(K ) qui sont des carrés ?

Voici quelques indications générales pour résoudre ce problème : 1) Si A = X2 , det A est un carré du corps K . 2) Les solutions de X2 = I sont les symétries, celles de X2 = O sont les nilpotentes d’indice 1 ou 2. 3) Si X2 = A , X commute avec A. X est donc à rechercher parmi les matrices qui commutent avec A ; cela conduit à une recherche en deux temps : matrices commutant avec A, et, parmi elles, matrices dont le carré est A.

Page 44: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

44

4) Réduction de A. Si P−1

.A.P = R, forme réduite de A, alors A = X2 si et seulement si R = Y2 ,

où Y = P−1

.X.P .

On a donc en général intérêt à réduire A : P−1

.A.P = R, à chercher les matrices qui commutent avec R, puis, parmi elles, celles dont le carré est R, et enfin à revenir à l’ancienne base.

Exercice 1 : Résoudre dans M2(C) l’équation X2 = A, où A =

µλ0

0 ,

λλ0

1 , où λ et µ ∈ C sont

distincts. Plus généralement, résoudre X2 = A dans M2(C).

Exercice 2 : Résoudre dans M2(R) l’équation X2 = A, où A =

µλ0

0 ,

λλ0

1 ,

abba , où λ, µ,

a, b sont réels, et b ≠ 0 . Plus généralement, résoudre X2 = A dans M2(R).

Exercice 3 : Résoudre X2 = A, où

A =

000100010

,

000000010

,

000000100

,

−−−

7311462731

,

− 101040009

,

0000100000000010

.

Exercice 4 : On admet que l’application A → exp A réalise une sujection de Mn(C) sur Gln(C).

En déduire que toute matrice A ∈ Gln(C) est un carré, puis que toute matrice ayant un pseudo-inverse de groupe est un carré.

Exercice 5 : 1) Montrer que ∀n ≥ 2 ∃P ∈ C[X] Xn | 1 + X − P(X)

2.

[On pourra procéder par récurrence.]

2) En utilisant le développement limité de x+1 au V(0), trouver ce (ces) polynômes.

3) Soit N =

00...0010...00...............0...1000...010

. Trouver les matrices M telles que M2 = I + N, resp. M

2 = αI + N.

8.4. Puissances d’une matrice ; systèmes dynamiques linéaires.

La réduction de A permet notamment de calculer ses puissances successives, et donc d’étudier les systèmes itératifs discrets linéaires Xk+1 = A.Xk ( k ∈ N ). On a en effet Xk = Ak.X0 . Si l’on se place d’un point de vue dynamique, k s’interprète comme indice de temps. Lorsque A est inversible, k peut décrire Z, et l’on peut remonter les temps.

− Si A est diagonalisable, P−1.A.P = D = diag(λ1 , ... , λn). Alors Ak = P.Dk.P−1. Dans le nouveau repère, Dk = diag( (λ1)k , ..., (λn)k ) , suite facile à étudier.

− Si A est trigonalisable, P−1.A.P = T où T est trigonale supérieure, mais si T est seulement trigonale supérieure, ses puissances ne sont pas faciles à calculer, car T = D + N, somme d’une matrice diagonale et d’une matrice nilpotente qui ne commutent pas. Pour pouvoir calculer Tk grâce à la formule du binôme, il faut recourir à la forme trigonale supérieure réduite, ou, ce qui revient au même, à la décompostion additive de A. Ou, mieux encore, à la décomposition de Jordan de A. Si T = diag(J1 , ... , Jr), où les Ji sont des blocs de Jordan, Tk = diag((J1)k , ... , (Jr)k) ; or les puissances d’un bloc de Jordan sont faciles à calculer.

Dans les exercices suivants, on se place dans Mn(C) muni de sa topologie usuelle, définie par

exemple par la norme A → || A || = sup1≤i≤n ∑=

n

jjia

1, subordonnée à la norme ||X||∞ = max |xi| .

Page 45: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

45

Exercice 1 : Algorithme de Philolaos et Théon.

On se propose de montrer l’irrationnalité de 2 par une méthode qui nous a été transmise par Théon de Smyrne (IIème siècle ap. J.-C.). Cette méthode, qui remonte peut-être au pythagoricien Philolaos de Crotone, était en tout cas connue de Platon et Euclide. On considère les suites récurrentes x1 = y1 = 1 , xn+1 = xn + 2.yn , yn+1 = xn + yn .

Les xn sont appelés nombres diagonaux, les yn nombres latéraux.

1) Calculer ces deux suites ; quelle est la limite de la suite des fractions (n

n

yx ) ?

2) Calculer xn2 − 2.yn

2 et montrer que 2 est irrationnel.

3) Montrer que les fractions Fn = n

n

yx ne sont autres que les réduites du développement en fraction

continue de 2 . 15 4) On revient au cas général x0 et y0 quelconques. Étudier et discuter la convergence et la limite des deux suites (xn) et (yn) ; une figure est souhaitée.

Exercice 2 : Itérations de Thom-Anosov.

On considère les suites récurrentes : xn+1 = 2.xn + yn , yn+1 = xn + yn . 1) Calculer ces deux suites pour x0 = 1, y0 = 0 ;

limite de la suite (n

n

yx ) ? Irrationnalité de 5 .

2) Calculer ces deux suites en fonction de x0 et y0. Étudier et discuter la convergence et la limite des deux suites (xn) et (yn) ; une figure est souhaitée.

Remarque : Ce système dynamique « hyperbolique » (voir pb. 5), considéré, non dans R2, mais sur le tore R2/Z2, indiqué par Thom pour illustrer la théorie d’Anosov, est un modèle du chaos. Ces deux exercices voisins traversent 26 siècles de mathématiques ; ils en illustrent à merveille l’unité profonde.

Exercice 3 : Systèmes dynamiques linéaires dans le plan et l’espace.

Soit xn+1 = a.xn + b.yn , yn+1 = c.xn + d.yn un système dynamique dans R2.

En étudiant à similitude près la matrice A =

dcba (cf. ex. 1 du §6.5), étudier et discuter les

différentes formes géométriques de ce système dynamique. Distinguer notamment les cas où (0, 0) est attractif, répulsif, ou "col". Même question pour les systèmes dynamiques linéaires dans R3. Problème 4 : Étude globale de la suite (Ak).

1) Montrer que si la suite (Ak) converge, sa limite P est un projecteur vérifiant :

P2 = P , P.A = A.P = P , Im P = Ker(A − I) (*)

Montrer qu’alors la suite Mk =k1 ( I + A + ... + Ak−1) converge vers P, la réciproque étant fausse.

2) Montrer que si la suite Mk = k1 ( I + A + ... + Ak−1 ) converge, sa limite P vérifie (*).

Montrer que si P est une valeur d’adhérence de la suite (Mk), P vérifie (*).

3) On note ρ(A) = max |λ| ; λ ∈ Sp A le rayon spectral de A.

15 Elles tendent vers 2 en spirale, et moins vite, que les itérations dites de Héron d’Alexandrie données par

u0 = 1, un+1 = (un + 2/un)/2, qui, elles, tendent en décroissant vers 2 , et étaient connues des babyloniens (cf. Maurice Caveing, L'irrationalité dans les mathématiques grecques jusqu'à Euclide).

Page 46: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

46

− Si ρ(A) < 1 , montrer que lim Ak = 0 ; − Si ρ(A) > 1 , montrer que (Ak) est non bornée ; − Si ρ(A) = 1 , montrer l’équivalence des propriétés : a) (Ak) converge b) 1 est la seule valeur propre de module 1 et l’espace propre E1 et l’espace caractéristique F1 associés coïncident. c) 1 est racine simple du polynôme minimal de A. Retrouver et préciser le résultat de 1). Récapituler les résultats obtenus.

4) On dit que A est ergodique si la suite (Mk) converge. Montrer l’équivalence des propriétés : a) A est ergodique ; b) La suite (Ak) est bornée ; c) ρ(A) < 1 ou ρ(A) = 1 et, pour chaque valeur propre de module 1 de A, l’espace propre et l’espace caractéristique coïncident. Retrouver et préciser le résultat de 2). Problème 5 : Endomorphismes contractants, dilatants, hyperboliques.

Soient E un C-ev de dimension finie , u un endomorphisme de E.

1) Montrer l’équivalence des propriétés suivantes : a) ∀λ ∈ Sp u |λ| < 1 ; b) Il existe une norme sur E relativement à laquelle |||u||| < 1 ; c) Pour tout x ∈ E, limn→+∞ un(x) = 0 . L’endomorphisme u est alors dit contractant.

2) Montrer l’équivalence des propriétés suivantes : a) ∀λ ∈ Sp u |λ| > 1 ;

b) u est inversible et u−1 est contractant ; c) Il existe une norme sur E et une constante A > 1 telle que (∀x ∈ E) || u(x) || ≥ A.||x|| ; d) Pour tout x ≠ 0, limn→+∞ || un(x) || = +∞ . L’endomorphisme u est alors dit dilatant .

3) Montrer l’équivalence des propriétés suivantes : a) ∀λ ∈ Sp u |λ| ≠ 1 ; b) Il existe une décomposition de E en somme directe E = Ec ⊕ Ed de deux sous-espaces u-stables tels que uc = u|Ec soit contractant, et ud = u|Ed soit dilatant. L’endomorphisme u est alors dit hyperbolique. Déterminer alors x ∈ E ; limn→∞ un(x) = 0 et x ∈ E ; limn→∞ || un(x) || = +∞ . On les appelle resp. variétés stable et instable de u.

4) Montrer que l’ensemble des endomorphismes contractants, resp. dilatants, est un ouvert de LLLL(E), et que l’ensemble des endomorphismes hyperboliques est un ouvert dense de LLLL(E). Problème 6 : Rayon spectral.

1) Soient E un C-ev de dimension n, x → ||x|| une norme sur E, u → ||| u ||| la norme subordonnée sur LLLL(E). On appelle rayon spectral de u : ρ(u) = max |λ| ; λ ∈ Sp u . i) Montrer que ρ(u) ≤ ||| u ||| et plus généralement ρ(u) ≤ ||| uk |||1/k (∀k ≥ 1).

ii) Montrer que ρ(u) = limk→+∞ ||| uk |||1/k = infk≥1 ||| uk |||1/k .

2) Montrer que ρ(u) est la borne inférieure des ||| u ||| calculées relativement à toutes les normes sur E, et qu’on peut même se limiter aux seules normes hermitiennes sur E.

[ Indication : Soit x → )( xx une norme hermitienne sur E, a > ρ(u) ; montrer que :

( ∃m ≥ 1 ) (∀x) (um(x) | um(x)) ≤ a2m (x | x) ; définir < x | y > = ∑−

=

−−1

0

)1(2m

i

ima (ui(x) | ui(y)) .]

Page 47: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

47

3) Soit f(z) = ∑k≥0 ak.zk une série entière de rayon de convergence R > 0. Montrer qu’on peut définir f(u) pour ρ(u) < R. 8.5. Exponentielle d’une matrice ; systèmes différentiels linéaires.

On considère le système différentiel linéaire homogène à coefficients constants :

X'(t) = A.X(t) , où A ∈ Mn(C) (1)

Sa solution générale est X(t) = exp(t.A).X(0) (∀t ∈ R) (2) Cela se montre par variation des constantes, i.e. en cherchant X(t) sous la forme : X(t) = exp(t.A).C(t) , et cette méthode de variation des constantes permet également de résoudre : X'(t) = A.X(t) + b(t) (3)

où b est une fonction continue I → C.

Le calcul de exp(t.A) se fait par réduction de A.

− Si A est diagonalisable, P−1.A.P = D = diag(λ1 , ... , λn). Alors Ak = P.Dk.P−1, et :

exp(t.A) = P.exp(t.D).P−1, où exp(t.D) = diag(exp(t.λ1) , ..., exp(t.λn)) .

− Si A est trigonalisable, P−1.A.P = T où T est trigonale supérieure, mais si T est seulement trigonale supérieure, ses puissances ne sont pas faciles à calculer, car T = D + N, somme d’une matrice diagonale et d’une matrice nilpotente qui ne commutent pas, de sorte qu’on ne peut affirmer que exp(T) = exp(D).exp(N). Pour pouvoir affirmer cela à coup sûr, il suffit que D et N commutent, et l’on doit pour cela recourir à la forme trigonale supérieure réduite, ou, ce qui revient au même, à la décompostion additive de A. Ou, mieux encore, à la décomposition de Jordan de A : si T = diag(J1 , ... , Jr), où les Ji sont des blocs de Jordan, exp(t.T) = diag(exp(t.J1) , ... , exp(t.Jr)). Or l’exponentielle d’un bloc de Jordan est facile à calculer.

Exercice : Systèmes dynamiques différentiels dans le plan.

Soit x'(t) = a.x(t) + b.y(t) , y'(t) = c.x(t) + d.y(t) un système différentiel linéaire dans R2.

En étudiant à similitude près la matrice A =

dcba (cf. ex. 1 du §6.5), étudier les différentes

formes géométriques des courbes intégrales de ce système dynamique.

Exercice : Ressorts de Trubowitz. Dans des coordonnées angulaires, l’équation du système formé par des masses oscillant sur un rail circulaire sans frottement et réliées entre elles par des ressorts identiques est de la forme :

X’’ = A.X , où A = I − 21 (Ω +

tΩ) , où Ω =

00...0110...00...............0...1000...010

. Intégrer ce système.

Mentionnons pour finir quelques applications des valeurs et vecteurs propres en physique :

1) Électricité : oscillateurs couplés.

2) Optique : stabilité d’une cavité optique (utilité : laser).

3) Électromagnétisme : anisotropie de propagation d’ondes (effet Faraday).

4) Mécanique : systèmes formés par des masses reliées entre elles par des ressorts.

5) Formalisme mathématique de la mécanique quantique : à chaque grandeur observable (position, vitesse d’une particule, etc.) est associé un opérateur d’un espace de Hilbert, et les valeurs que peut

Page 48: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

48

prendre cette grandeur sont les valeurs propres de l’opérateur associé. Pour que deux grandeurs soient simultanément observables, il faut et il suffit que les opérateurs associés commutent. ___________

Otto SCHREIER (Vienne 1901 - Hambourg 1929)

Otto Schreier fit ses études à Vienne, où il entra à l’université en 1920. Il y suivit les cours de Wirtinger, Furtwängler, Hahn, Reidemeister, Rella, Lense et Vietoris. Sa thèse de 1923, supervisée par Furtwängler, portait sur les extensions de groupes, Uber die Erweiterung von Gruppen. Schreier fut ensuite nommé Privat-Dozent à l’Université de Hambourg, et y travailla jusqu’à sa mort au Séminaire mathématique. Il donna des conférences, tout en continuant ses travaux en vue de son habilitation. Celle-ci fut acquise en 1926 grâce à sa thèse Die Untergruppen der freien Gruppe (Les sous-groupes des groupes libres). En 1928, Schreier se vit proposer un poste de professeur à l’université de Rostock ; il l’accepta, mais décida d’attendre l’été 1929 pour l’occuper. Au début de la session 1928-29, il fit des cours sur la théorie des fonctions en parallèle à Hambourg et Rostock. Atteint vers la Noël 1928 d’une maladie qui ne cessa d’empirer, il dut abandonner son cours, et mourut de septicémie le 2 juin 1929, à 28 ans. Les médicaments au soufre découverts peu après l’auraient probablement sauvé, et le développement de la théorie combinatoire des groupes aurait été tout autre...

Schreier fut très influencé par Furtwängler et Reidemeister. Son papier de 1924 donne une preuve algébrique simple d’un théorème sur les groupes de nœuds, généralisant un théorème trouvé par Dehn dix ans plus tôt. Il a pu être dirigé vers le principal résultat, qui établit que certains nœuds sur le tore ne sont pas isomorphes à leur images réfléchies, par Reidemeister. Ces nœuds donnent des groupes qui sont produits libres avec un sous-groupe amalgamé, groupes que Schreier étudia en détail en 1927. Schreier est surtout connu pour ses travaux de 1926 sur les sous-groupes des groupes libres. Il crée en 1927 avec Emil Artin la théorie abstraite des corps ordonnés (cf. Bourbaki, Algèbre, chap.VI) ; un des plus remarquables résultats en est sans doute la découverte que l’existence d’une relation d’ordre sur un corps est liée à des propriétés purement algébriques de ce corps (th. d’Artin-Schreier). En 1928, Schreier trouve un important raffinement du théorème de Jordan-Hölder, 39 ans après sa publication, rare exemple d’approfondissement tardif d’un résultat. En algèbre linéaire, il est l’auteur d’un théorème caractérisant les endomorphismes diagonalisables.

Théorème d’Artin-Schreier : Soit K un corps commutatif. Pour qu’il existe sur K une structure d’ordre qui en fasse un corps ordonné (i.e. totalement ordonné et compatible avec les lois de K ), il faut et il suffit que la relation x1

2 + x22 + ... + xn

2 = 0 entraîne x1 = x2 = ... = xn = 0.

Ce théorème utilise l’axiome du choix, ainsi que le suivant :

Théorème de Nielsen-Schreier : Tout sous-groupe d’un groupe libre est un groupe libre.

Théorème de Schreier (1928) : On appelle suite de composition d’un groupe G une suite finie (Gi)1≤i≤n de sous-groupes de G, avec G0 = G, Gn = e et telle que Gi+1 soit un sous-groupe distingué de Gi pour 0 ≤ i ≤ n−1. Étant données deux suites de composition Σ1 et Σ2 d’un groupe à opérateurs G, il existe deux suites de composition équivalentes, Σ'1, Σ'2, plus fines respectivement que Σ1 et Σ2.

______________

Page 49: Réduction des endomorphismes · Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈

49

Bibliographie John Irving : Le monde selon Garp Nicolas Bourbaki : Algèbre VII Serge Lang : Algebra Saunders MacLane et Garret Birkhoff : Algèbre (Gauthier-Villars) Roger Godement : Cours d’algèbre (Hermann) Pierre Gabriel : Matrices, géométrie, algèbre linéaire (Cassini)

Rached Mneimné : Réduction des endomorphismes (Calvage et Mounet) Françoise Chatelin : Valeurs propres de matrices (Masson) Maurice Parodi : Localisation des valeurs caractéristiques des matrices (Gauthier-Villars) Cours de maths spé de Queysanne, Chambadal-Ovaert, Deschamps, Gostiaux, Arnaudiès, etc. Encyclopedia universalis : Théorie spectrale, Équations intégrales, Jordan, Hilbert ___________