problèmes d’algèbre linéaire

137
Problèmes d’algèbre linéaire ______________ « La langue de l’algèbre, mystérieuse et lumineuse, me saisissait. Ce que j’admirais surtout dans cet idiome, c’est qu’il ne consent à exprimer, à articuler que des vérités générales, universelles, et qu’il dédaigne les vérités particulières. Je lui attribuais en cela une fierté que je refusais aux idiomes humains ; à ce point de vue l’algèbre me semblait la langue du Dieu de l’esprit. » Edgar Quinet, Histoire de mes idées Sont ici réunis quelques dizaines de problèmes d’algèbre linéaire, mis au point au cours de trente-cinq années d’enseignement, de 1979 à 2014. En somme, pour reprendre la belle expression de Laurent Schwartz, il s’agit de mon « château intérieur » linéaire : tours de guet, donjon, redoutes, murs d’enceinte, machicoulis, pont-levis, douves, j’espère que rien ne manque à ce très pacifique monument d’architecture militaire. Une forteresse de mathématiques est toujours, en quelque manière, une forteresse contre les mathématiques, mais c’est d’abord, et avant tout, une façon efficace de compléter le cours, et d’organiser les savoirs. Les énoncés ont des sources diverses : cours de taupe, manuels français et étrangers, problèmes et exercices de concours (les références sont indiquées chaque fois que possible), mais ils ont parfois été remaniés à des fins pédagogiques. Il arrive souvent que plusieurs problèmes abordent le même thème : un professeur est obligé de poser régulièrement un problème sur un sujet important, avec de légères variantes selon les idées mises en valeur ou l’état d’avancement du programme. Ainsi, plusieurs énoncés portent sur les pseudo-inverses (thème fort à la mode dans les années 1980), les produits tensoriels, les endomorphismes monogènes, le théorème de Jordan... Enfin, la plupart de ces problèmes sont corrigés. Pierre-Jean Hormière ____________ Documents : Adhérence d’une classe de similitude : RMS novembre 1990, p. 198 (Sifre) Dimension maximale d’un sev de M n (C) ne rencontrant pas Gl n (C) : RMS 1988-89 n° 7, 1989-90 n° 2 et 8 (Barani, Exbrayat, Clarisse) Dimension maximale d’une sous-algèbre commutative de M n (C) : RMS Octobre 1993, p. 186 ; ENS 1998, Oral n° 294 ; ENS 2005, Oral n° 149, RMS mai 2006. Dimension maximale d’un sous-espace formé de matrices diagonalisables : RMS mars 1992, Randé Hyperplans de M n (K) stables par le crochet de Lie : RMS 2001 n° 3, p. 234, Gozard Sous-espaces vectoriels de matrices nilpotentes : RMS oct 2007, de Seguins Pazzis Sous-espaces vectoriels de matrices de rang au plus p : RMS mai 2008, de Seguins Pazzis Dénombrement de matrices nilpotentes d’indice donné : RMS septembre 2010

Upload: others

Post on 21-Jun-2022

5 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Problèmes d’algèbre linéaire

Problèmes d’algèbre linéaire ______________

« La langue de l’algèbre, mystérieuse et lumineuse, me saisissait. Ce que j’admirais surtout dans cet idiome, c’est qu’il ne consent à exprimer, à articuler que des vérités générales, universelles, et qu’il dédaigne les vérités particulières. Je lui attribuais en cela une fierté que je refusais aux idiomes humains ; à ce point de vue l’algèbre me semblait la langue du Dieu de l’esprit. »

Edgar Quinet, Histoire de mes idées

Sont ici réunis quelques dizaines de problèmes d’algèbre linéaire, mis au point au cours de trente-cinq années d’enseignement, de 1979 à 2014. En somme, pour reprendre la belle expression de Laurent Schwartz, il s’agit de mon « château intérieur » linéaire : tours de guet, donjon, redoutes, murs d’enceinte, machicoulis, pont-levis, douves, j’espère que rien ne manque à ce très pacifique monument d’architecture militaire. Une forteresse de mathématiques est toujours, en quelque manière, une forteresse contre les mathématiques, mais c’est d’abord, et avant tout, une façon efficace de compléter le cours, et d’organiser les savoirs.

Les énoncés ont des sources diverses : cours de taupe, manuels français et étrangers, problèmes et exercices de concours (les références sont indiquées chaque fois que possible), mais ils ont parfois été remaniés à des fins pédagogiques. Il arrive souvent que plusieurs problèmes abordent le même thème : un professeur est obligé de poser régulièrement un problème sur un sujet important, avec de légères variantes selon les idées mises en valeur ou l’état d’avancement du programme. Ainsi, plusieurs énoncés portent sur les pseudo-inverses (thème fort à la mode dans les années 1980), les produits tensoriels, les endomorphismes monogènes, le théorème de Jordan... Enfin, la plupart de ces problèmes sont corrigés.

Pierre-Jean Hormière ____________

Documents :

Adhérence d’une classe de similitude : RMS novembre 1990, p. 198 (Sifre)

Dimension maximale d’un sev de Mn(C) ne rencontrant pas Gln(C) : RMS 1988-89 n° 7, 1989-90 n° 2 et 8 (Barani, Exbrayat, Clarisse)

Dimension maximale d’une sous-algèbre commutative de Mn(C) : RMS Octobre 1993, p. 186 ; ENS 1998, Oral n° 294 ; ENS 2005, Oral n° 149, RMS mai 2006. Dimension maximale d’un sous-espace formé de matrices diagonalisables : RMS mars 1992, Randé

Hyperplans de Mn(K ) stables par le crochet de Lie : RMS 2001 n° 3, p. 234, Gozard Sous-espaces vectoriels de matrices nilpotentes : RMS oct 2007, de Seguins Pazzis Sous-espaces vectoriels de matrices de rang au plus p : RMS mai 2008, de Seguins Pazzis Dénombrement de matrices nilpotentes d’indice donné : RMS septembre 2010

Page 2: Problèmes d’algèbre linéaire

2

1. Algèbre linéaire sur les corps finis.

2. Un groupe fini simple, le groupe linéaire Gl3(F2).

3. Restriction du corps des scalaires.

4. Complexification.

5. Factorisation d’applications linéaires.

6. Propriétés des projecteurs.

7. Endomorphismes tripotents.

8. Automorphismes de LLLL(E) ; théorème de Skolem-Noether.

9. Espaces vectoriels en dualité.

10. Dualité en dimension infinie.

11. Idéaux à gauche et à droite de LLLL(E).

12. Dimension maximale de certains sous-espaces de Mn(R).

13. Exemples de groupes multiplicatifs matriciels.

14. Inverses généralisées d’une application linéaire.

15. Matrices pseudo-inversibles.

16. Matrices-blocs.

17. Construction matricielle de corps.

18. Générateurs et groupe dérivé de Sln(K).

19. Nilespace et cœur d’un endomorphisme.

20. Matrices de Hessenberg.

21. Matrices magiques.

22. Matrices de Hadamard.

23. Matrices positives.

24. Discrétisation d’une équation différentielle linéaire.

25. Matrices harmoniques.

26. Températures de plaques.

27. Localisation des valeurs propres.

28. Produits tensoriels de vecteurs et de matrices.

29. Déterminants de Hankel.

30. Déterminants de Casorati.

31. Equations fonctionnelles.

32. Théorème des drapeaux.

33. Matrices 2××××2.

34. Réduction des matrices de rang 1.

35. Réduction des matrices de petit rang.

36, 37. Endomorphismes diagonalisables.

38. Diagonalisation d’une dérivation.

39. Symétries commutantes et anticommutantes.

Page 3: Problèmes d’algèbre linéaire

3

40. Sous-groupes finis de Gln(C).

41. L’algèbre Kn, algèbres diagonales.

42. D’Hamilton à Frobenius.

43. Matrice de Vandermonde des racines de l’unité.

44. Primarité des nombres de Mersenne.

45. Matrices de tournoi.

46. Théorème de l’amitié d’Erdös.

47. Graphes et arbres ; théorème de Borchardt-Cayley.

48. Propriétés du polynôme caractéristique.

49. Un théorème de Kronecker.

50 et 51. Résultant et déterminant d’Hermite.

52 et 53. Endomorphismes monogènes.

54. Equations matricielles du second degré.

55. Racines carrées de matrices.

56. Endomorphismes semi-simples.

57, 58, 59. Endomorphismes nilpotents.

60. Trace.

61. I est-il un commutateur ?

62. Trace et commutateurs.

63. s-triplets.

64. Algèbres de Lie, théorème de Lie.

65. Endomorphismes de LLLL(E), de Mn(K).

66 et 67. Produits kroneckériens.

68. Topologie matricielle.

69. Géométrie matricielle.

70, 71, 72. Matrices stochastiques.

73. Puissances d’une matrice.

74. Contractions larges.

75. Applications semi-linéaires.

76. Fonctions propres d’un noyau.

77. Matrices à éléments polynomiaux.

78. Générateurs de Sl2(Z) et Gl2(Z).

79. Matrices à éléments dans un anneau euclidien.

80. Modules sur les anneaux commutatifs. ___________

Page 4: Problèmes d’algèbre linéaire

4

Problème 1 : Algèbre linéaire sur les corps finis Dans ce problème, K désigne un corps fini commutatif 1 ayant q éléments.

1) Soit E un K -espace vectoriel. Montrer que E est de dimension finie sur K si et seulement si E est un ensemble fini. Exprimer alors N = card E en fonction de q et n = dim E. On suppose cette condition remplie dans toute la suite.

2) Soit Lk(E) l’ensemble des familles libres (x1, x2, ..., xk) formées de k vecteurs de E.

Montrer par récurrence : card Lk(E) = ( qn − 1 )( qn − q ) ... ( qn − qk−1 ) .

3) Combien E possède-t-il de bases ? Montrer que le cardinal du groupe linéaire de E est :

card Gl(E) = ( qn − 1 )( qn − q ) ... ( qn − qn−1 ) = qn²∏=

−n

iiq1

)11( .

4) Soit Gk(E) l’ensemble des sous-espaces vectoriels de dimension k de E ( " grassmannienne

d’indice k " ). On note card Gk(E) = [ kn ]q . Montrer que [ k

n ]q = ∏−

=

1

0

k

iik

in

qqqq

−−

.

5) a) Montrer que [ kn ]q = [ kn

n− ]q pour 0 ≤ k ≤ n.

b) Montrer que [ kn 1+ ]q = [ 1−k

n ]q + qk [ k

n ]q = qn+1−k [ 1−k

n ]q + [ kn ]q pour 1 ≤ k ≤ n.

c) Montrer que [ kn ]q est une fonction polynomiale de q, de degré k(n−k) à coefficients dans N.

d) Que deviennent les [ kn ]q lorsque l’on fait q = 1 ?

6) Soit Gn =∑=

n

k 0

[ kn ]q le nombre total de sous-espaces vectoriels de E (n-ième nombre de Galois).

Montrer que G0 = 1 , G1 = 2 , Gn+1 = 2 Gn + ( qn − 1 ).Gn−1 pour tout n ≥ 1.

Calculer Gn pour tout n ≤ 5.

7) Soit F un sous-espace vectoriel fixé de dimension k de E.

a) Montrer que F admet qk(n−k)

supplémentaires dans E.

[ On pourra montrer que, si G0 est un supplémentaire de F, f → x − f(x) ; x ∈ G0 est une bijec-

tion de LLLL(G0, F) sur l’ensemble des supplémentaires de F dans E ; cette méthode n’est pas imposée.] b) Combien y a-t-il de sous-espaces affines de E de direction F ?

8) Soit Ak(E) l’ensemble des sous-espaces affines de E de dimension k. Exprimer card Ak(E) .

9) a) Combien y a-t-il d’applications de E dans E ? Parmi elles, combien sont bijectives ? b) Combien y a-t-il d’endomorphismes de E ? Parmi eux combien sont bijectifs ? de dét 1 ?

c) Combien y a-t-il de projecteurs dans E, resp. de symétries si K est de caractéristique ≠ 2 ? d) Combien y a-t-il d’applications affines de E dans E ? de bijections affines ?

10) Soient E un K-ev de dimension p, F un K -ev de dimension n. a) Combien y a-t-il d’applications linéaires de E dans F ?

b) Si p ≤ n, combien y a-t-il d’injections linéaires de E dans F ?

c) Si n ≤ p, combien y a-t-il de surjections linéaires de E dans F ?

d) Si 1 ≤ r ≤ min(n, p), combien y a-t-il d’applications linéaires de rang r de E dans F ?

11) Soit u un endomorphisme de E. Montrer qu’il est diagonalisable ssi uq = u.

1 On peut montrer que tout corps fini est commutatif (théorème de Wedderburn-Dickson, 1905).

Page 5: Problèmes d’algèbre linéaire

5

12) Dans cette question, on se place dans M2(K ).

a) Montrer que, si A =

dcba est de la forme a.I2, A n’est semblable qu’à elle-même, et que,

sinon, elle est semblable à

+−

daadbc

10 . Conclure que A est semblable à une, et une seule, des

matrices

aa0

0 ,

TD

10 , où (a, T, D) ∈ K

3. Combien M2(K ) a-t-elle de classes de similitudes ?

b) Combien y a-t-il de matrices diagonalisables, resp. nilpotentes, dans M2(K ) ?

13) Exemple 1 : K = Z/2Z, n = 2. On pose E = 0, x, y, z. Reconnaître le groupe additif (E , +). À quel groupe connu est isomorphe (Gl(E) , o) ?

14) Exemple 2 : K = Z/3Z, n = 2. Montrer que E contient 4 droites. Combien Gl(E) a-t-il d’élé-ments ? En observant que tout élément de Gl(E) permute les droites de E, construire un morphisme de groupes ε : Gl(E) → SSSS4 (groupe symétrique). Quel est son noyau ? En déduire que ε est surjectif. Montrer que ε définit un homomorphisme de Sl(E) = f ∈Gl(E) ; det f = 1 dans AAAA4 (groupe alterné).

15) Exemple 3 : Soit G un groupe multiplicatif tel que (∀x ∈ G) x2 = e.

a) Montrer que G est commutatif. On le note désormais additivement. b) Munir G d’une structure de Z/2Z-espace vectoriel. En déduire que si G est fini, il a pour cardinal une puissance de 2 et est isomorphe à (Z/2Z)n.

16) Exemple 4 : Soient K un corps fini à q éléments, p la caractéristique de K . Montrer que p est un nombre premier. Munir K d’une structure de Z/pZ-espace vectoriel.

En déduire que q est une puissance de p : q = pn. Montrer que tout sous-corps de K a pour cardinal

pd, où d divise n.

____________

Solution 1) Dénombrement des vecteurs. Si E est de dimension finie n sur le corps K , il admet une base (e1, …, en).

L’application (λ1, …, λn) →∑ ii eλ est une bijection de Kn sur E, donc E est fini de cardinal N = q

n.

Réciproquement, si E est fini, il admet une famille génératrice finie : E lui-même ! C’est donc un espace de type fini.

2) Dénombrement des familles libres. Montrons la propriété par récurrence sur k.

L1(E) est l’ensemble des vecteurs non nuls ; il y en a qn − 1.

Supposons la propriété vraie au rang k. Alors (x1, …, xk, xk+1) est une famille libre ssi (x1, …, xk)

est libre et xk+1 ∉ Vect(x1, …, xk). Il y a donc (qn − 1)(qn − q) ... (qn − qk−1)×(qn − qk) possibilités.

Remarque : Cela revient à appliquer le principe des bergers à la surjection

(x1, …, xk, xk+1) ∈ Lk+1(E) → (x1, …, xk) ∈ Lk(E) .

3) Dénombrement des bases et du groupe linéaire. Soit B(E) l’ensemble des bases de E. B(E) = Ln(E), donc :

card B(E) = ( qn − 1 )( qn − q ) ... ( qn − qn−1 ).

Choisissons une base B0 = (e1, …, en) de E. Pour tout f ∈ Gl(E), f(B0) = (f(e1), …, f(en)) est une

base de E, et l’application f ∈ Gl(E) → f(B0) ∈ B(E) ainsi définie est une bijection.

Page 6: Problèmes d’algèbre linéaire

6

Par conséquent, card Gl(E) = card B(E) = ( qn − 1 )( qn − q ) ... ( qn − qn−1 ) = qn²∏=

−n

iiq1

)11( .

Remarques : 1) Plus généralement, si un groupe G agit de manière simplement transitive sur un ensemble E, les ensembles G et E sont équipotents.

2) Notons Qn = card Gln(K ), il vient Q1 = q − 1 , n

n

QQ 1+ = q

n ( q

n+1 − 1 ) : (Qn) croit strictement.

Ceci montre au passage que si K est corps fini, Glm(K ) et Gln(K ) sont isomorphes ssi m = n.

3) Notons θn = )()(

KcardMKcardGl

n

n = ∏=

−n

iiq1

)11( la probabilité qu’une matrice d’ordre n soit inversible.

Lorsque n → ∞, la suite (θn) tend en décroissant vers φ(q1 ), où φ(x) = ∏

+∞

=−

1

)1(k

kx .

4) Pour q = 2, la suite (card Gln(K )) est répértoriée A002884 dans l’OEIS. Elle a pour premières valeurs : 1 , 1 , 6 , 168 , 20160 , 9999360 , …

5) Le fameux groupe Gl3(F2) sera étudié en détail dans le problème suivant.

4) Dénombrement des grassmanniennes. A toute famille libre L = (x1, …, xk) ∈ Lk(E) associons le sous-espace F = Vect(x1, …, xk) qu’elle engendre. F est un sous-espace de dimension k, et l’application u : L → F est surjective. Mais un même sous-espace F de dimension k peut provenir de plusieurs familles libres L : en fait,

autant que de bases de F. Or F admet ( qk − 1 )( q

k − q ) ... ( q

k − q

k−1 ) bases.

Il reste à appliquer le principe des bergers : card Gk(E) ≡ [ kn ]q = ∏

=

1

0

k

iik

in

qqqq

−−

.

En particulier, E a [ 1n ]q =

11

−−

qqn

= qn−1 + … + q + 1 droites vectorielles, et autant d’hyperplans.

5) Triangle de Gauss-Pascal.

a) On peut montrer la symétrie [ kn ]q = [ kn

n− ]q , pour 0 ≤ k ≤ n , de deux façons :

• Si l’on introduit les q-entiers nq = 1 + q + … + qn−1

= 11

−−

qqn

et les q-factorielles n!q = 1q.2q….nq ,

il vient, après simplification, [ kn ]q =

qq

q

knkn

)!(!!−

, forme symétrique.

• Par dualité, l’orthogonalité externe F ∈ Gk(E) → F° ∈ Gn−k(E*) met en bjiection les sev de dimen-sion k de E et ceux de dimension n−k du dual. Il reste à passer aux cardinaux. On pourrait aussi munir E d’une forme bilinéaire symétrique non dégénérée B, par exemple le

« produit scalaire standard » B(x, y) =∑ ii yx relativement à une base, et considérer l’orthogonalité

interne F ∈ Gk(E) → F⊥ ∈ Gn−k(E).

b) Il est facile de s’assurer que [ 1−kn ]q + q

k [ kn ]q = q

n+1−k [ 1−kn ]q + [ k

n ]q .

Il reste une seule formule à montrer, qui est facile en se plaçant dans C(q) ou Q(q).

Voici une preuve combinatoire de : [ kn 1+ ]q = q

n+1−k [ 1−kn ]q + [ k

n ]q .

Soit E un K -espace de dimension n + 1. Choisissons un hyperplan H de E. Dénombrons les sous-espaces F de dimension k de E.

• Soit F ⊂ H : [ kn ]q possibilités.

• Soit F ⊄ H. Alors dim(F ∩ H) = k − 1 par Grassmann, car F + H = E.

Page 7: Problèmes d’algèbre linéaire

7

Il faut donc se donner une famille libre (x1, …, xk−1) de k − 1 vecteurs de H, complétée en une base

(x1, …, xk) au moyen d’un vecteur xk de E − H, puis diviser par le nombre de bases de l’espace ainsi

construit : ))...()(1(

))()...()(1(1

12

+−

−−−−−−−

kkkk

nnknnn

qqqqqqqqqqqq

= qn+1−k [ 1−k

n ]q . Cqfd ! Vive moi !

> #introduction au q-calcul > ent:=proc(n,q) > local k;sum(q^k,k=0..n-1);end; > fact:=proc(n,q) > local k;if n=0 then 1;else expand(simplify(product(ent(k,q),k=1..n)));fi;end; > binom:=proc(n,k,q) > if k>=0 and n>=k then expand(simplify(fact(n,q)/(fa ct(k,q)*fact(n-k,q))));else 0;fi;end; > ent(0,q);ent(1,q);ent(3,q);

0 1

+ + 1 q q2

> fact(4,q);

+ + + + + + 5 q4 6 q3 5 q2 3 q 3 q5 q6 1 > for k from 0 to 4 do binom(4,k,q);od;

1

+ + + q3 q2 q 1

+ + + + q4 q3 2 q2 q 1

+ + + q3 q2 q 1 1

> with(linalg):A:=matrix(5,5,(n,k)->binom(n-1,k-1,q)) ;

:= A

1 0 0 0 0

1 1 0 0 0

1 + q 1 1 0 0

1 + + q2 q 1 + + q2 q 1 1 0

1 + + + q3 q2 q 1 + + + + q4 q3 2 q2 q 1 + + + q3 q2 q 1 1

Remarque : La suite des [ kn ]2 est répertoriée A022166 dans l’OEIS de Neil Sloane :

1 1 1 1 3 1 1 7 7 1 1 15 35 15 1 1 31 155 155 31 1 1 63 651 1395 651 63 1

c) On peut montrer par récurrence sur n, que, pour tout k : [ kn ]q = ∑

=

)(

0,, .

knk

a

aakn qc ,

polynôme unitaire de degré k(n − k), où les cn,k,a sont des entiers naturels

Remarque : Les coefficients c(n, k, a) ont une interprétation combinatoire tout à fait remarquable : c(n, k, a) est le nombre de chemins croissants joignant dans N×N le point O au point (k, n − k), et délimitant avec Ox une aire égale à a. Cela est laissé en exercice.

d) Lorsque « q = 1 », les [ kn ]q deviennent les binomiaux usuels ( k

n).

En effet, le triangle de Gauss de 5.b) devient le triangle de Pascal.

Page 8: Problèmes d’algèbre linéaire

8

Cela se voit aussi si l’on fait tendre q vers 1 dans [ kn ]q = ∏

=

1

0

k

iik

in

qqqq

−−

.

Cela découle de ce que qn – q

i ∼ q

n−i – 1 ∼ (n − i)(q − 1) quand q → 1.

6) Nombres « de Galois ».

Pour montrer Gn+1 = 2 Gn + (qn − 1) Gn−1 , nous allons utiliser les deux formules trouvées en 5.b).

Gn+1 = ∑k

[ kn 1+ ]q = ∑

k

[ 1−kn ]q + ∑

k

kq [ kn ]q = Gn + ∑

k

kq [ kn ]q

= Gn + ∑k

kq (qn−k [ 11

−−

kn ]q + [ k

n 1− ]q ) = Gn + qn ∑

k

[ 11

−−

kn ]q + ∑

k

kq [ kn 1− ]q

= Gn + qn Gn−1 + ∑

k

( [ kn ]q − [ 1

1−−

kn ]q ) = 2 Gn + (q

n − 1) Gn−1 .

Ces formules, jointes à G0 = 1 et G1 = 2, permettent un calcul récurrent des Gn.

> # nombres de Galois > g:=proc(n);if n=0 then 1 > elif n=1 then 2 > else expand(2*g(n-1)+(q^(n-1)-1)*g(n-2));fi;end; > for n from 0 to 8 do g(n);od;

1 2

+ 3 q

+ + 4 2q 2 q2

+ + + + 5 3q 4 q2 3 q3 q4

+ + + + + + 6 4q 6 q2 6 q3 6 q4 2 q5 2 q6

+ + + + + + + + + 7 5q 8 q2 9 q3 11q4 9 q5 7 q6 4 q7 3 q8 q9

+ + + + + + + + + + + + 8 6q 10q2 12q3 16q4 16q5 18q6 12q7 12q8 8 q9 6 q10 2 q11 2 q12

Remarques : 1) Lorsque q = 2, la suite des nombres dits de Galois est répertoriéeA006116 dans l’OEIS : 1 , 2 , 5 , 16 , 67 , 374 , 2825 , 29212 , …

2) On observe que Gn est un polynôme en q, à coefficients dans N, de coefficient dominant qm²

si n

= 2m, et 2qm(m+1)

si n = 2m+1. Cela se montre par récurrence sur n. 7) Dénombrement des supplémentaires.

a) Soient F un sous-espace de dimension k, (a1, …, ak) une base de F.

Il y a ( qn − q

k )( q

n − q

k−1 ) ... ( q

n − q

n−1 ) façons de compléter (a1, …, ak) en une base de E.

Chaque (ak+1, …, an) engendre un supplémentaire G de F. Mais plusieurs (n−k)-uplets engendrent le même supplémentaire G, à savoir autant que de bases de G. En vertu du principe des bergers, il y a

donc ))...()(1(

))...()((1

11

−−−−−

−−

−−−−−−

knknknkn

nnknkn

qqqqqqqqqqq

= qk(n−k)

supplémentaires de F.

Si l’on utilise le lemme suggéré par l’énoncé, et que nous admettrons (cf. mes exercices d’algèbre

linéaire), alors il y a autant de supplémentaires de F que d’éléments de L(G0, F). Or L(G0, F) est un sous-espace de dimension (n − k)k. Je renvoie aussi au problème sur les projecteurs.

Conséquence : Il y a qk(n−k)

projecteurs d’image F, et autant de symétries par rapport à F (si K est de caractéristique ≠ 2).

b) Il y a qn−k

sous-espaces affines de E de direction F.

Page 9: Problèmes d’algèbre linéaire

9

En effet, si l’on choisit un supplémentaire G de F, tout sous-espace affine de direction F s’écrit de façon unique x + F, où x ∈ G. Variante : les sous-espaces affines de direction F sont exactement les éléments de l’espace quotient E/F, qui est de dimension n − k.

8) Dénombrement des sous-espaces affines de dimension k.

Il découle de ce qui précède que ce nombre est card Ak(E) = qn−k

[ kn ]q .

9) Dénombrements d’applications de E dans E.

a) Il y a nnq

q applications de E dans E. Parmi elles, il y en a (qn)! Bijectives.

b) Il y a ²nq applications linéaires de E dans E, car LLLL(E) est un K -espace vectoriel de dimension

n2, ou car LLLL(E) est isomorphe à Mn(K ). Parmi elles, card Gl(E) = (qn − 1)(qn − q) ... (qn − qn−1)

sont bijectives. Enfin, le sous-groupe Sl(E) = u ; det u = 1 a *)(

)(Kcard

EcardGl =

1)(

−qEcardGl

éléments,

en vertu du lemme suivant, conséquence du principe des bergers :

Lemme : Si G est un groupe fini et f : G → H un homomorphisme de groupes, alors : card G = card ( Ker f ) × card ( Im f ).

Or u → det u est un morphisme surjectif de Gl(E) dans K*.

c) Se donner un projecteur, ou une symétrie en caractéristique ≠ 2, équivaut à se donner un

couple (F, G) de sous-espaces supplémentaires. Il y a ∑=

−n

k

knkq0

)( [ kn ]q tels couples.

Autre solution, matricielle : Les projecteurs de rang k sont les matrices semblables à

OOOI r .

Il suffit d’appliquer le principe de bergers à l’application Φ : P ∈ Gln(K ) → P−1

.

OOOI r .P .

Cela revient à dénombrer les matrices inversibles qui commutent à

OOOI r , car Φ(P) = Φ(Q) ⇔

Q−1

.P commute à

OOOI r . Or ces matrices sont de la forme

BOOA , où (A, B)∈Glr(K )×Gln−r(K )…

d) Une application affine est de la forme f(x) = f(0) + u(x), où u est linéaire, une bijection affine de la forme f(x) = f(0) + u(x), où u est linéaire bijective. La correspondance f ↔ (f(0), u) est

bijective, donc il y a : • qn.q

n² applications affines de E dans E ;

• qn.(qn − 1)(qn − q) ... (qn − qn−1) bijections affines de E dans E.

10) Dénombrements d’applications linéaires.

a) LLLL(E, F) est un K -espace vectoriel de dimension np, donc card LLLL(E, F) = qnp

.

b) Nombre d’injections linéaires de E dans F (si p ≤ n).

Soit (e1, …, ep) une base de E. Si f est une injection linéaire de E dans F, ( f(e1), …, f(ep) ) est une

famille libre à p éléments de F, et la correspondance f → ( f(e1), …, f(ep) ) est bijective.

Il y a donc card Lp(F) = (qn − 1)(qn − q) ... (qn − qp−1) injections linéaires de E dans F.

On peut aussi se donner un sev G de dimension p de F, et un isomorphisme de E sur G.

c) Nombre de surjections linéaires de E dans F (si p ≥ n).

Sortons notre joker : la dualité ! f ∈ LLLL(E, F) est surjective ssi tf ∈ LLLL(F*, E*) est injective.

Donc le nombre de surjections linéaires est : (qp − 1)(qp − q) ... (qp − qn−1).

Page 10: Problèmes d’algèbre linéaire

10

Remarque : C’est aussi le nombre de famille génératrices de p vecteurs dans un K -espace vectoriel de dimension n, mais je ne vois pas de justification directe à ce constat.

d) Nombre d’applications linéaires de rang r (1 ≤ r ≤ min(n, p)). Pour se donner une application linéaire de rang r de E dans F, il faut se donner un sous-espace G de dimension r de F et une surjection linéaire de E sur G.

En tout : [ rn ]q × (qp − 1)(qp − q) ... (qp − qr−1) = ∏

= −−−1

0 )())((r

iir

ipin

qqqqqq

applications.

Autre méthode : L’application Φ : (Q, P) ∈ Gln(K )×Glp(K ) → Q.Jr.P ∈ MK(n, p) est une surjection sur l’ensemble des matrices de rang r. Or cette surjection obéit au principe des bergers…

Remarque : Si l’on tient compte de l’application nulle, il vient :

qnp

= 1 + ∑=

),min(

1

pn

r

[ rn ]q × ( qp − 1 )( qp − q ) ... ( qp − qr−1 ) .

Cette formule implique, et découle de celle-ci, rencontrée en q-calcul :

Xn = 1 + ∑

=

n

r 1

[ rn ]q × ( X − 1 )( X − q ) ... ( X − qr−1 ) .

11) Cns de diagonalisabilité.

• Si u est diagonalisable, il existe une base BBBB telle que Mat(u, BBBB) = diag(λ1, λ2, …, λn). Alors

Mat(uq, BBBB) = In, en vertu du petit théorème de Fermat dans le corps K .

• Si uq = u, u annule le polynôme P(X) = X

q – X qui est scindé sans facteurs carrés dans K [X]. En

effet P’ = −1 est premier à P. Du reste, P(X) = ∏∈

−K

α)( . On conclut via le théorème de Schreier.

12) Dénombrements de matrices 2××××2.

a) Confondons une matrice et l’endomorphisme canoniquement associé. Si A est scalaire, c’est une homothétie, et A n’est semblable qu’à elle-même.

Sinon, il existe un vecteur x tel que Ax ne soit pas colinéaire à x. (x, Ax) est alors une base de K2, et

A est semblable à

TD

10 , où T est la trace, et D le déterminant de A.

En résumé A est semblable à une, et une seule, des matrices

aa0

0 ,

TD

10 , où (a, T, D)∈K

3.

Conclusion : M2(K ) a q4 éléments qui se groupent en q + q

2 classes de similitude.

b) Commençons par résoudre le problème suivant : étant donnée une matrice A∈Mn(K ), combien y-a-t-il de matrices semblables à A ?

Notons S(A) la classe de similitude de A, C(A) = P ∈ Gln(K ) ; PA = AP . Je dis que :

card S(A) = )()(

AcardCKcardGln .

Indeed, l’application f : P ∈ Gln(K ) → P−1

AP ∈ S(A) est surjective, et f(P) = f(Q) ⇔ P−1

.Q ∈ C(A).

Chaque élément de S(A) a donc card C(A) antécédants. On conclut via les bergers.

Notons DDDDn(K ) l’ensemble des matrices diagonalisables d’ordre n, Dn(K ) son cardinal.

Si A =

λλ0

0 , sa classe de similitude est réduite à A : il y a q matrices de ce type.

Si A =

µλ0

0 (λ ≠ µ), C(A) =

βα0

0 ; α, β ≠ 0 a (q − 1)2 éléments.

Page 11: Problèmes d’algèbre linéaire

11

Il y a donc )²1(

)²)(1²(−

−−q

qqq = q(q + 1) matrices semblables à A.

Mais attention, diag(λ, µ) est semblable à diag(µ, λ). Il faut donc compter les paires λ, µ.

Conclusion : D2(K ) = q + 2

)1( −qqq(q + 1) =

2

4q −

2

2q + q .

Notons Nn(K ) l’ensemble des matrices nilpotentes d’ordre n, Nn(K ) son cardinal.

Le principe est le même : toute matrice nilpotente d’ordre 2 est semblable à O ou à

0010 .

Si N =

0010 , C(N) =

αβα

0 ; α ≠ 0 a q(q − 1) éléments.

Conclusion : N2(K ) = 1 + )1(

)²)(1²(−

−−qq

qqq = q

2 . On peut aussi faire un comptage direct.

Remarques : 1) Sur les q+q2 classes de similitude trouvées en a),

2)1( +qq

correspondent aux

matrices diagonalisables, 2 aux matrices nilpotentes (dont une commune aux deux familles).

2) Supposons K de car. ≠ 2. Le groupe Γ = x2 ; x ∈ K* des carrés a

21−q

éléments.

Choisissons un ω ∉ Γ∪0. Je dis que toute matrice de M2(K ) est semblable à l’une des

matrices suivantes :

λλ0

0 ,

µλ0

0 ,

λλ0

1 ,

αβωβα ( λ ≠ µ, β ≠ 0 ).

Les premières forment q classes, les secondes 2

)1( −qq (on compte les paires λ, µ), les troisièmes

q classes, et les quatrièmes 2

)1( −qq (β peut être changé en −β). Le compte est bon ! La situation est

analogue à celle de M2(R).

3) On peut montrer que, pour tout n, Nn(K ) = qn²−n

. J’ai calculé D3K ) et D4(K ) (RMS mai 2006), mais n’ai pas trouvé de formule générale.

13) Plans sur Z/2Z. Si K = Z/2Z et n = 2, posons E = 0, x, y, z, où (x, y) est une base de E. Le groupe additif (E , +) est isomorphe à Z/2Z×Z/2Z : on reconnaît le groupe de Klein. En vertu de ce qui précède, E admet 3 droites vectorielles, 6 droites affines, 6 bases : (x, y), (y, x), (x, z), (z, x), (y, z) et (z, y), et le groupe (Gl(E) , o) a 6 éléments. Comme il permute x, y, z, on en déduit que les 6 permutations de 0, x, y, z laissant fixe le point 0 sont Z/2Z-linéaires. Matricielle-

ment : Gl2(Z/2Z) =

1001 ,

0110 ,

1011 ,

1101 ,

0111 ,

1110 .

Il y a 4×6 = 24 bijections affines, ce qui signifie que toute permutation de E est une bijection affine.

Remarque : Géométriquement, E est un curieux parallélogramme ! Ses diagonales ne se coupent pas, donc sont parallèles, car x + y = x – y.

Page 12: Problèmes d’algèbre linéaire

12

14) Plans sur Z/3Z.

Rapportons le plan E sur Z/3Z à une base (e1, e2). E a 4 droites

vectorielles D1, D2, D3 et D4, Gl(E) a 48 éléments, et Sl(E) a 24 éléments. Gl(E) agit naturellement sur l’ensemble DDDD des 4 droites, via (u, D) → u(D). On en déduit un morphisme de

groupes ϕ de Gl(E) dans SSSS4. Ce morphisme a pour noyau les

deux homothéties ± IdE. Du coup ϕ est surjectif. Il reste à montrer que u ∈ Sl(E) ssi ϕ(u) est une permutation paire. Pour cela, il suffit de montrer que ε(ϕ(u)) = det u pour toute u ∈ Gl(E).

15) Groupes finis involutifs.

a) Pour tout x ∈ G, x−1

= x, d’où yx = (yx)−1

= x−1

y−1

= xy : G est commutatif. b) Si on note G additivement, il vient (∀x ∈ G) x + x = 0. De plus G est un Z-module pour les lois (x, y) ∈ G×G → x + y ∈ G et (n, x) ∈ Z×G → n.x ∈ G.

Comme nx ne dépend que de la classe de n modulo 2, posons n .x = n.x, i.e. 1.x = x et 0 .x = 0. On munit G d’une structure de Z/2Z-espace vectoriel, les axiomes (EVI à EVIV ) étant automatique-

ment vérifiés. Dès lors G est isomorphe à (Z/2Z)n en tant que Z/2Z-espace vectoriel, et a fortiori en

tant que groupe additif.

16) Corps finis. a) Si K était de caractéristique nulle, n → n.1K serait une injection de Z dans K ; or K est fini.

Si K était de caractéristique c = ab (a, b > 1), on aurait ab1K = 0, donc (a1K)(b1K) = 0. Par

intégrité, on aurait a1K = 0 ou b1K = 0, contredisant la minimalité de c. En résumé, K est de caractéristique p, premier.

b) K est un Z-module pour les lois (x, y) ∈ K×K → x + y ∈ K et (n, x) ∈ Z×K → n.x ∈ K .

Comme nx ne dépend que de la classe de n modulo p, posons n .x = n.x. On munit K d’une structure de Z/pZ-espace vectoriel, les axiomes (EVI à EVIV ) étant automatiquement vérifiés. Dès lors K est

isomorphe à (Z/pZ)n en tant que Z/pZ-espace vectoriel, donc q = p

n .

c) Si L est un sous-corps de K , K est un L -espace vectoriel, et dimZ/pZ K = dimL K×dimZ/pZ L .

Passant aux effectifs, card L = pd , où d divise n.

Remarque : On peut montrer que, pour tout premier p et tout n ≥ 1, il existe un corps commutatif à

pn éléments, unique à isomorphisme près.

Annexe : et s’il existait un corps à un élément ?

Que faire ? Il faut rêver. Lénine

Il n’y a pas de corps à un élément, disent les livres, et donc les professeurs de maths. Passons outre,

inventons un tel corps, et notons-le F1 ! Nous appellerons F1–espace vectoriel de dimension n tout ensemble E à n éléments, application linéaire de E dans E toute application de E dans E, bijection linéaire de E dans E toute permutation de E, et sous-espace vectoriel de dimension k de E toute partie de E à k éléments. Alors les résultats précédents restent vrais avec q = 1. Références :

K. F. Gauss : Summatio quarundam serierum singularium, Opera, vol. 2, p. 16-17 N. Bourbaki : Algèbre II 202, ex. 9 P.-J. H. : Etude sur les corps finis, août 1971 G. Polya & G. Szegö : Problems and theorems in analysis, t. 1, p. 11 à 13 (Springer)

Page 13: Problèmes d’algèbre linéaire

13

Agrégation d’analyse, 1994 Victor Kac & Pokman Cheung : Quantum calculus (Springer, 2001) C. de Seguins Pazzis : Dénombrements matriciels (RMS, mai 2006) N. Tosel : Quelques dénombrements (RMS, octobre 2006) X. Caruso : Le rêve du corps à un élément (RMS, octobre 2006) Oral ENS 1994 et Oral Centrale 2006

__________

Problème 2 : Un groupe fini simple, le groupe linéaire Gl3(F2)

Dans ce problème, on se place dans l’algèbre M3(F2) des matrices carrées à 9 éléments, appartenant

au corps F2 = Z/2Z. On se propose d’étudier le groupe multiplicatif Gl3(F2) formé des matrices

inversibles de M3(F2). On note I la matrice unité.

1) Dénombrements.

a) Combien M3(F2) possède-t-elle d’éléments ?

b) Combien le groupe linéaire Gl3(F2) a-t-il d’éléments ?

c) Si l’on choisit au hasard une matrice de M3(F2), quelle est la probabilité pour qu’elle soit inversible ?

2) Générateurs de Gl3(F2).

a) On pose S =

010101100

et T =

100010101

. Vérifier que S7 = T

2 = (TS)

3 = (TS

4)4 = I.

b) Calculer ( TS4

)2 , T ( TS

4 )2 T et S ( TS

4 )2 S

−1. En déduire que S et T engendrent Gl3(F2)..

3) Classes de conjugaison.

Pour tout élément A de Gl3(F2), on note C(A) l’ensemble des matrices de Gl3(F2) qui commutent

avec A, S(A) la classe de similitude de A, PA(X) son polynôme caractéristique, MA(X) son polynôme minimal.

a) Démontrer que card C(A) × card S(A) = card Gl3(F2).

b) Montrer que PA(X) peut prendre 4 valeurs possibles. Les factoriser dans F2[X].

c) Montrer que le couple (PA(X)), MA(X)) peut prendre 6 valeurs possibles.

d) En examinant chacun de ces cas, montrer que A est semblable à l’une des 6 matrices :

100010001

,

100110001

,

100110011

,

110100001

,

010101100

,

110001100

.

e) Calculer les cardinaux de chacune des classes de similitude, et les ordres (multiplicatifs) des éléments de chaque classe.

3) Classes de conjugaison (version allégée).

On considère les 6 matrices :

100010001

,

100110001

,

100110011

,

110100001

,

010101100

,

110001100

.

En considérant les couples (P(X)), M(X)) associés, montrer que ces 6 matrices ne sont pas conjuguées. Calculer les cardinaux de leurs classes de conjugaison, et conclure.

4) Le groupe Gl3(F2) est « simple ».

Page 14: Problèmes d’algèbre linéaire

14

Un sous-groupe H de Gl3(F2) est dit distingué si, dès qu’il contient une élément, il contient tous ses

conjugués. On se propose de démontrer que les seuls sous-groupes distingués de Gl3(F2) sont I et

Gl3(F2).

Soit H un sous-groupe distingué de Gl3(F2), distinct de I et de Gl3(F2). On admet que, pour tout diviseur premier p de N, H contient un élément d’ordre p. a) Quelles valeurs peut prendre N ? b) Si H ne contient ni éléments d’ordre 3, ni éléments d’ordre 7, démontrer que card H | 8, et que H possède un élément d’ordre 2. Conclure.

c) Si H contient un élément d’ordre 3, montrer que card H ≥ 57, puis que card H = 84. Conclure.

d) Si H contient un élément d’ordre 7, montrer que card H ≥ 49, puis que card H = 56 ou 84.

Conclure. En déduire que Gl3(F2) ne contient pas de sous-groupe à 84 éléments.

5) Le plan de Fano.

a) On note V = (F2)3. Combien V admet-il de droites ? de plans ?

b) On appelle plan de Fano le couple FFFF = (DDDD, PPPP) formé des droites et des plans de V. Les droites de V sont appelées points de FFFF, les plans de V sont appelés droites de FFFF. On note A(1, 0, 0) , B(0, 1, 0) , C(0, 0, 1) , D(1, 1, 1) , E(0, 1, 1) , F(1, 0, 1) et G(1, 1, 0) les éléments de V – 0, qui sont en bijection naturelle avec DDDD. Vérifier que :

i) Deux droites distinctes se coupent en un point et un seul ; ii) Par deux points distincts passe une droite et une seule ; iii) Chaque droite contient trois points.

c) Définir une action de Gl3(F2) sur le plan de Fano FFFF = (DDDD, PPPP).

Quelles sont les permutations de DDDD = A, B, C, D, E, F, G induites par S, T, TS et TS4 ?

Montrer que l’on peut plonger Gl3(F2) dans SSSS7, et même dans AAAA7.

.6) Quelques sous-groupes de Gl3(F2).

a) Combien Gl3(F2) a-t-il de sous-groupes à 2, 3 et 7 éléments ?

b) En considérant les matrices de la forme

1001001

ba

,

10010

1aba

,

10010

1cba

,

dcba

00

001 et

dcbafe

001

, où

dcba décrit Gl2(F2),

indiquer quelques autres sous-groupes de Gl3(F2).

Remarque : On peut démontrer que Gl3(F2) admet 179 sous-groupes, et qu’il est isomorphe au

groupe de Galois du polynôme P = X7 – 7X + 3 qui est irréductible dans Q[X]. Par conséquent le

corps de décomposition de ce polynôme admet 179 sous-corps. __________ Solution Les groupes finis simples (i.e. non réduits à e et sans sous-groupes distingués non triviaux) se regroupent en plusieurs familles : • Les groupes cycliques d’ordre premier Z/pZ.

• Les groupes alternés AAAAn ( n ≥ 5 ). • Les 16 familles de groupes de type de Lie (groupes de Chevalley linéaires spécial projectif, symplectique, orthogonal ou unitaire) sur un corps fini, incluant le groupe de Tits. • Les 26 groupes dits sporadiques.

Page 15: Problèmes d’algèbre linéaire

15

Des travaux publiés entre 1955 et 1983, couvrant des dizaines de milliers de pages, démontrent qu’il n’y en a pas d’autre. C’est ce qu’on nomme parfois le « théorème énorme ».

Nous allons ici étudier le plus petit des groupes simples appartenant à la 3ème famille, le groupe simple à 168 éléments, en utilisant l’un de ses modèles les plus accessibles, le groupe linéaire

Gl3(F2) et son action sur le plan de Fano.

Si K est un corps de caractéristique ≠ 2, Gln(K ) a un sous-groupe distingué évident, Sln(K ), mais,

lorsque K est de caractéristique 2, Gln(K ) = Sln(K ). Le déterminant est alors une forme n-linéaire à la fois symétrique et antisymétrique, et alternée, qui coïncide avec le permanent.

En fait, ici, Gl3(F2) = PGL3(F2) = Sl3(F2) = PSL3(F2).

0) Préliminaire : étude de Gl2(F2).

Ce groupe contient 6 éléments :

1001 ,

1110 ,

0111 .

1011 ,

1101 ,

0110 .

Il est isomorphe à SSSS3, comme nous l’avons vu à la fin du problème précédent.

Il est engendré par les deux transvections :

1011 ,

1101 , ou aussi par

0110 et

1110 .

Il contient 3 classes de conjugaison ( ≡ de similitude ) :

1001 ,

1110 ,

0111 .

1011 ,

1101 ,

0110 .

Les polynômes caractéristiques et minimaux sont resp.

((P(X), M(X)) = ( (X – 1)2

, X – 1 ) , ( X2 + X + 1, X

2 + X + 1 ) , ( (X – 1)

2 , (X – 1)

2 )

Les ordres multiplicatifs sont resp. 1, 3 et 2.

Remarque : Il est paradoxal que les matrices

1011 ,

1101 ,

0110 soient semblables. Cela ne se

produit qu’en caractéristique 2 !

1) Cardinaux et probas.

a) M3(F2) a 29 = 512 éléments

b) Le groupe linéaire Gl3(F2) a 7×6×4 = 168 éléments.

En effet, pour se donner une matrice A inversible, il faut se donner ses trois colonnes.

La première c1 est un vecteur non nul de (F2)3 : 7 possibilités.

La seconde c2 n’appartient pas à Vect(c1) = 0, c1 : 6 possibilités.

La troisième c3 n’appartient pas à Vect(c1, c2) : 4 possibilités.

c) Si on choisit « au hasard » une matrice de M3(F2), la probabilité qu’elle soit inversible est donc

p = 512168 =

3221 = 0,65625.

2) Générateurs de Gl3(F2) = Sl3(F2).

Il découle de la théorie du pivot (voir chapitre de calcul matriciel) que Gln(K ) est engendré par les matrices d’affinité, de transposition et de transvection. Ici, les affinités se réduisent à I.

Gl3(F2) a 9 générateurs : les 3 transpositions et les 6 transvections.

P1 =

010100001

, P2 =

001010100

, P3 =

100001010

,

Page 16: Problèmes d’algèbre linéaire

16

T12 =

100010011

, T13 =

100010101

, T23 =

100110001

, T21 =

100011001

, T31 =

101010001

, T32 =

110010001

.

A noter que ces 9 générateurs sont tous des éléments d’ordre (multiplicatif) 2.

P1 , P2 et P3 (et en fait P1 et P2 seuls) engendrent un groupe à 6 éléments, isomorphe à SSSS3.

Ce système de 9 générateurs est donc pléthorique. On peut chercher des sous-systèmes générateurs

minimaux. Je dis que (P1, P2, T = T13) en est un. En effet, P1.P2.P1 = P3 , et :

P1.T.P1 = T12 , P2.T.P2 = T31 , P3.T.P3 = T23 , P2.T23.P2 = T21 et P1.T23.P1 = T32 .

a) Soient S =

010101100

et T =

100010101

. On vérifie aisément que S7 = T

2 = (TS)

3 = (TS

4)4 = I,

les exposants étant les plus petits possible. Notons que ( TS4

)2 = T31.

b) Le groupe G engendré par S et T contient < S >, < TS > et < TS4 >, qui sont des groupes à 7, 3

et 4 éléments. Donc G a 84 ou 168 éléments.

Pour conclure, il suffit d’exprimer P2 et P3 comme produits de S et T.

Or P2 = T13.T31.T13 = T ( TS4

)2 T et S ( TS

4 )2 S

−1 = P3 . Cqfd.

3) Classification à conjugaison près des éléments de Gl3(F2).

a) La formule card C(A) × card S(A) = card Gl3(F2) est un simple cas particulier de la formule générale card F(x) × card O(x) = card G relative aux groupes finis G agissant sur un ensemble, F(x)

étant le groupe fixateur de x, et O(x) l’orbite de x. Ici on choisit l’action par conjugaison de Gl3(F2) sur lui-même.

b) Comme det A = 1, le polynôme caractéristique de A est de la forme

P(X) = det(A – X.I) = det(A + X.I) = X3 + aX

2 + bX + 1.

Il a 4 valeurs possibles :

♣ P(X) = X3 + X

2 + X + 1 = ( X + 1 )

3

♦ P(X) = X3 + 1 = ( X + 1 )( X

2 + X + 1 )

♥ P(X) = X3 + X + 1

♠ P(X) = X3 + X

2 + 1.

Ces deux derniers sont irréductibles. c) Le polynôme minimal M(X) de A divise le polynôme caractéristique, et possède les mêmes facteurs irréductibles. Par conséquent, le couple (P(X), M(X)) a 6 valeurs possibles :

♣ i) P(X) = X3 + X

3 + X + 1 = (X + 1)

3 M(X) = X + 1

♣ ii) P(X) = X3 + X

2 + X + 1 = (X + 1)

3 M(X) = (X + 1)

2

♣ iii) P(X) = X3 + X

2 + X + 1 = (X + 1)

3 M(X) = (X + 1)

3

♦ P(X) = M(X) = X3 + 1 = (X + 1)(X

3 + X + 1).

♥ P(X) = M(X) = X3 + X + 1

♠ P(X) = M(X) = X3 + X

2 + 1.

d) Notons V = (F2)3, et confondons A et l’endomorphisme canoniquement associé.

♣ i) Si P(X) = (X + 1)3 et M(X) = X + 1, A = I.

La classe de similitude a 1 élément, qui est d’ordre 1.

♣ ii) Si P(X) = (X + 1)3 et M(X) = (X + 1)

2 .

La matrice N = A + I est nilpotente d’indice 2. Im N ⊂ Ker N. En vertu du théorème du rang, dim Im N = 1, dim Ker N = 2.

Page 17: Problèmes d’algèbre linéaire

17

Soit e3 ∉ Ker N, e2 = N.e3 ∈ Im N − 0. Soit (e1, e2) une base de Ker N.

La matrice de l’endomorphisme associé à N dans la base (e1, e2, e3) est

000100000

Celle de l’endomorphisme associé à A est

100110001

. A est semblable à

100110001

.

On constate après calculs que C(N) = C(A) =

100101

fdc

; (c, d, f) a 8 éléments.

La classe de similitude de A a donc 8

168 = 21 éléments.

♣ iii) Si P(X) = M(X) = X3 + X

2 + X + 1 = (X + 1)

3

La matrice N = A + I est nilpotente d’indice 3.

Soit e ∉ Ker N2. Il est facile de montrer que (N

2e, Ne, e) est libre, donc c’est une base de V.

La matrice de l’endomorphisme associé à N dans cette base est

000100010

.

Celle de l’endomorphisme associé à A est

100110011

. A est semblable à

100110011

.

On constate que C(A) =

10010

1bcb

; (b, c) a 4 éléments.

La classe de similitude de A a donc 4

168 = 42 éléments.

♦ Si P(X) = M(X) = X3 + 1 = ( X + 1 )( X

2 + X + 1 ),

En vertu du théorème des noyaux, V = Ker(A + I) ⊕ Ker(A2 + A + I).

Ker(A + I) est de dimension 1; Ker(A2 + A + I).de dimension 2.

A est semblable à

110100001

. C(A) =

110100001

,

100010001

,

010110001

a 3 éléments.

La classe de similitude de A a donc 3

168 = 56 éléments.

♥ Si P(X) = M(X) = X3 + X + 1, soit e un vecteur non nul. (e, Ae, A

2e) est une base de V et la

matrice de l’endomorphisme associé à A relativement à cette base est

010101100

.

A est semblable à

010101100

. Les matrices commutant à A sont de la forme B =

+++bacbcbbac

cba.

On voit que det(B) = a + b + c + ab + bc + ca + abc, donc det B = 1 ⇔ (1 + a)(1 + b)(1 + c) = 0 ⇔ (a, b, c) ≠ (0,0,0)

Par conséquent C(A) =

+++bacbcbbac

cba ; (a, b, c) ≠ (0,0,0) a 7 éléments.

Page 18: Problèmes d’algèbre linéaire

18

La classe de similitude de A a donc 7

168 = 24 éléments.

♠ Si P(X) = M(X) = X3 + X

2 + 1, soit x un vecteur non nul. (x, Ax, A

2x) est une base de V et la

matrice de l’endomorphisme associé à A relativement à cette base est

110001100

.

A est semblable à

110001100

. Les matrices commutant à A sont de la forme B =

++

cacbbacbcba

.

On voit que det(B) = a + b + c + ab + bc + ca + abc, donc det B = 1 ⇔ (1 + a)(1 + b)(1 + c) = 0 ⇔ (a, b, c) ≠ (0,0,0)

Par conséquent C(A) =

++

cacbbacbcba

; (a, b, c) ≠ (0,0,0) a 7 éléments.

La classe de similitude de A a donc 7

168 = 24 éléments.

Théorème : Le groupe Gl3(F2) a 168 éléments.

Ses éléments ont pour ordres multiplicatifs 1, 2, 3, 4 ou 7. Ils se groupent en 6 classes de similitude (ou conjugaison) :

P. caractéristique Pol. Minimal Matrice Ordre mult cardinal

(X + 1)3

X + 1

100010001

1

1

(X + 1)3

(X + 1)2

100110001

2

21

X3 + 1 =

(X+1)(X2+X+1)

X3 + 1 =

(X+1)(X2+X+1)

110100001

3

56

(X + 1)3

(X + 1)3

100110011

4

42

X3 + X + 1

X3 + X + 1

010101100

7

24

X3 + X

2 + 1

X3 + X

2 + 1

110001100

7

24

Il importe d’observer que les deux dernières classes de conjugaison sont étroitement liées : les

éléments de l’une sont les inverses de ceux de l’autre. En effet, A annule X3 + X + 1 ssi son inverse

annule X3 + X

2 + 1.

Conséquences :

1) Aucun des 21 éléments d’ordre 2 ne commute avec un quelconque des 56 éléments d’ordre 3.

2) Aucun des 21 éléments d’ordre 2 ne commute avec un quelconque des 48 éléments d’ordre 7.

Page 19: Problèmes d’algèbre linéaire

19

3) Aucun des 56 éléments d’ordre 3 ne commute avec un quelconque des 42 éléments d’ordre 4.

4) Aucun des 56 éléments d’ordre 3 ne commute avec un quelconque des 48 éléments d’ordre 7.

5) Aucun des 42 éléments d’ordre 4 ne commute avec un quelconque des 48 éléments d’ordre 7.

Sans quoi leur produit serait d’ordre 6, resp. 14, resp. 12, resp. 21, resp. 28 ; impossible.

Remarque savante : Notons F4 = 0, 1, a, b le corps à 4 éléments, corps de scindage de X

2 + X + 1 sur F2.

Si P(X) = X3 + 1 = (X + 1)( X

2 + X + 1 ) = ( X + 1 )( X + a )( X + b ), A a trois valeurs propres

distinctes, donc est diagonalisable dans M2(F4).

Notons F8 le corps à 8 éléments, corps de scindage de X3 + X + 1 sur F2.

F8 = VectF2( 1, α, α2 ) = 0, 1, α, α2, α3

, α4, α5

, α6

Attention, ce corps ne contient pas (n’est pas un surcorps de) F4.

Si P(X) = X3 + X + 1 = ( X − α )( X − α2 )( X − α − α2 ) = ( X − α )( X − α2 )( X − α4 ),

A a trois valeurs propres distinctes, donc est diagonalisable dans M3(F8).

Elle est semblable à

4

2

000000

αα

α.

Si P(X) = X3 + X

2 + 1 = ( X − α3 )( X − α5 )( X − α6 ) , A est semblable à

6

5

3

000000

αα

α.

Pour conclure, il faut disposer du théorème affirmant que, si L est un surcorps de K , deux matrices

de Mn(K ) semblables dans Mn(L ) sont semblables dans Mn(K ), résultat qui, dans le cas des corps finis, repose sur les facteurs invariants. On pourrait même appliquer le théorème de Jordan dans une clôture algébrique ΩΩΩΩ de F2.

3 bis) Version allégée de 3).

Si l’on parachute les 6 matrices

100010001

,

100110001

,

110100001

,

100110011

,

010101100

,

110001100

,

on constate qu’elles ne sont pas semblables, car les couples (P(X), M(X)) associés sont deux à deux distincts. Par ailleurs, leurs classes de similitude respectives ont 1, 21, 56, 42, 24 et 24 éléments. Le compte est bon, et il n’y a pas lieu d’en chercher d’autres ! Ce raccourci évite les raisonnement linéaires ci-dessus.

4) Montrons que le groupe Gl3(F2) est simple.

168 = 8×3×7 admet τ(168) = τ(8).τ(3).τ(7) = 16 diviseurs :

1, 2, 3, 4, 6, 7, 8, 12, 14, 21, 24, 28, 42, 56, 84, 168

Soit H un sous-groupe distingué non trivial. Son cardinal N divise 168, avec 2 ≤ N ≤ 84.

N ∈ 2, 3, 4, 6, 7, 8, 12, 14, 21, 24, 28, 42, 56, 84

• Si H ne contient ni éléments d’ordre 3, ni éléments d’ordre 7, il n’a que des éléments d’ordre 2 ou 4. Son cardinal est une puissance de 2 qui divise 168, donc N | 8. H possède un élément d’ordre 2, et tous ses conjugués, au nombre de 21. Impossible !

• Si H contient un élément d’ordre 3, il contient ses 56 conjugués, plus le neutre I ; donc card H ≥ 57. Donc card H = 84. En vertu du théorème de Cauchy, H possède un élément d’ordre 7, et un élément d’ordre 2, donc au moins 57 + 21 + 24 = 102 éléments. Impossible !

• Si H contient un élément A d’ordre 7, il contient ses 24 conjugués ; mais il contient aussi A−1, qui est aussi d’ordre 7, et dans l’autre classe. Donc H contient au moins 24 + 24 + 1 = 49 éléments.

Page 20: Problèmes d’algèbre linéaire

20

Donc card H = 56 ou 84. Dans les deux cas, en vertu du théorème de Cauchy, H possède un élément d’ordre 2, et un élément d’ordre 3, et tous leurs conjugués, donc au moins 49 + 21 + 56 = 126 éléments. N’en jetez plus !

Théorème : Le groupe Gl3(F2) est simple.

Corollaire : Gl3(F2) n’admet pas de sous-groupe à 84 éléments.

Preuve : En effet, si H était un tel sous-groupe, il serait distingué, car l’on aurait x.H = H.x pour tout

x ∈ Gl3(F2). Si x ∈ H, ce serait évident, si x ∉ H, x.H et H.x seraient deux parties de 84 éléments disjointes de H, donc complétentaires de H et égales.

5) Le plan de Fano.

L’espace vectoriel V = (F2)3 possède 8 éléments, sur lesquels agit Gl3(F2).

Mais Gl3(F2) laisse stable le vecteur nul, donc il agit sur DDDD = V−0 qui a 7 éléments :

A(1, 0, 0) , B(0, 1, 0) , C(0, 0, 1) , D(1, 1, 1) , E(0, 1, 1) , F(1, 0, 1) et G(1, 1, 0).

Cet ensemble DDDD = V−0 s’identifie à l’ensemble des 7 droites vectorielles de V. On l’appelle le

plan de Fano. Ce n’est autre que le plan projectif P2(F2).

L’action de Gl3(F2) sur le plan de Fano est fidèle, car (A, B, C) est une base de V. Par conséquent,

Gl3(F2) s’identifie à un sous-groupe de SSSS7 .

Mais Gl3(F2) agit aussi sur l’ensemble des plans vectoriels de V, qui sont aussi au nombre de 7, et qu’on appelle droites du plan de Fano. Voici une représentation de ces droites :

Les 7 points et les 7 droites du plan de Fano

La droite (BEC) a pour équation x = 0, la droite (CFA) y = 0, la droite (AGB) z = 0,

La droite (ADE) a pour équation y + z = 0, la droite (BDF) z + x = 0, la droite (CDG) x + y = 0,

Enfin la droite (sic) (EFG) a pour équation x + y + z = 0. Il s’agit d’équations projectives.

Le groupe Gl3(F2) permute les points (et les droites) du plan de Fano ; il conserve l’alignement de trois points et le concours de trois droites.

Au premier regard, on trouve le groupe diédral des permutations DDDD3 = SSSS3.

P1 =

FGEDBCAGFEDCBA = [ B C ][ F G ] P2 =

EFGDABCGFEDCBA = [ A C ][ E G ]

P3 =

GEFDCABGFEDCBA = [ A B ][ E F ] P1 P2 =

EGFDACBGFEDCBA = [ A B C ][ E F G ]

Page 21: Problèmes d’algèbre linéaire

21

P2 P1 =

FEGDBACGFEDCBA = [ A C B ][ E G F ]

S =

EADFGCBGFEDCBA = [ A B C G E D F ]

T =

GCDEFBAGFEDCBA = [ C F ] [ D E ] laisse fixe les points alignés, A, G, B.

TS4 =

AGBFCEDGFEDCBA = [ A D F G ][ B E ]

TS =

DAECGFBGFEDCBA = [ A B F ][ C G D ]

6) Inventaire des sous-groupes de Gl3(F2).

Ils ont a priori 1, 2, 3, 4, 6, 7, 8, 12, 14, 21, 24, 28, 42, 56, 84 ou 168 éléments (mais 84 a été exclu).

• Les sous-groupes d’ordre 2 sont engendrés par les éléments d’ordre 2 ; il y en 21.

• Les sous-groupes d’ordre 3 sont au nombre de 28, car il y a 56 éléments d’ordre 3 ; tout élément x

d’ordre 3 engendre un groupe d’ordre 3, mais x et x2 engendrent le même sous-groupe.

• Les sous-groupes d’ordre 7 sont au nombre de 8, car il y a 48 éléments d’ordre 7 ; tout élément x

d’ordre 7 engendre un groupe d’ordre 7, mais x, x2 , …, x

6 engendrent le même sous-groupe.

• Les sous-groupes cycliques d’ordre 4 sont au nombre de 21, car il y a 42 éléments d’ordre 4 ; tout

élément d’ordre 4 engendre un groupe d’ordre 4, mais x et x3 engendrent le même sous-groupe.

Jean-Mathieu Magot a fait une étude complète des sous-groupes de Gl3(F2), dans un mémoire que l’on peut trouver sur internet.

Théorème : Gl3(F2) admet 179 sous-groupes. Ils ont pour ordres 1, 2, 3, 4, 7, 8, 12, 21, 24 et 168.

n 1 2 3 4 6 7 8 12 21 24 168

N 1 21 28 21 + 14 28 8 21 14 8 14 1

Il y a 21 sous-groupes cycliques d’ordre 4 et 14 sous-groupes de Klein.

Les sous-groupes d’ordre 6 sont isomorphes à SSSS3 ≈ DDDD3. Les sous-groupes d’ordre 8, à DDDD4.

Les sous-groupes d’ordre 21

Les sous-groupes d’ordre 24 sont isomorphes à SSSS4, les groupes d’ordre 12 à chacun de leurs leurs

sous-groupes alternés A A A A4.

Cet inventaire utilise les théorèmes de Sylow et les notions de centralisateur et de normalisateur.

Nous n’irons pas aussi loin et nous contenterons d’indiquer ici quelques exemples de sous-groupes de chacune des classes.

1) Les matrices de la forme

1001001

ba

forment un sous-groupe à 4 éléments, isomorphe au groupe de

Klein (Z/2Z)×(Z/2Z). Plus généralement si u est un vecteur non nul, les transvections T de vecteur u

forment un groupe isomorphe à celui-là. En effet, complétons u en une base (e1, e2, e3 = u) de V.

Soit (a, b, c) une forme linéaire annulée par u. Elle est de la forme (a, b, 0), et T(x) = x + (a, b, 0).x

a pour matrice

1010001

ba.

Page 22: Problèmes d’algèbre linéaire

22

2) Les matrices de la forme

10010

1aba

forment un sous-groupe à 4 éléments, cyclique.

3) Les matrices de la forme

dcba

00

001, où

dcba décrit Gl2(F2), décrit forment un sous-groupe à 6

éléments.

4) Les matrices de la forme

10010

1cba

forment un sous-groupe à 8 éléments, isomorphe à DDDD4.

5) Les matrices de la forme

dcbafe

001

, où

dcba décrit Gl2(F2), forment un sous-groupe à 24

éléments. Elles correspondent au sous-groupe formé des permutations laissant fixe A.

6) Les matrices S =

010101100

et V =

100111110

engendrent un sous-groupe à 21 éléments, qui corres-

pond au sous-groupe de SSSS7 engendré par :

S =

EADFGCBGFEDCBA = [A, B, C, G, E, D, F]

& V =

AFCEDGBGFEDCBA = [A, B, G] o [C, D, E].

7) Un peu de théorie de Galois.

Le polynôme P = X7 – 7X + 3 est irréductible dans Q[X]. Soient N son corps de décomposition dans

C, G = Gal(N : Q) le groupe de Galois de P ou N. Admettons que G est isomorphe à Gl3(F2).

Du coup, dimQ N = card G = 168, et N admet 179 sous-corps :

1 corps de Q-dimension 168, N 21 sous-corps de Q-dimension 84, 28 sous-corps de Q-dimension 56 35 sous-corps de Q-dimension 42 28 sous-corps de Q-dimension 28 8 sous-corps de Q-dimension 24 21 sous-corps de Q-dimension 21 14 sous-corps de Q-dimension 14 8 sous-corps de Q-dimension 8 14 sous-corps de Q-dimension 7 1 sous-corps de Q-dimension 1, Q 8) Feuille de calcul Maple.

La feuille de calculs Maple ci-dessous liste les 168 permutations de G, classées selon les classes de conjugaison : il y a deux classes formées d’élément d’ordre 7. Ces permutations sont toutes paires, donc incluses dans AAAA7.

> with(group); DerivedSLCS NormalClosureRandElementSnConjugatesSylow areconjugate, , , , , , ,[

center centralizer core cosets cosrep derived elements groupmember grouporder, , , , , , , , ,

inter invperm isabelian isnormal issubgroup mulperms normalizer orbit parity, , , , , , , , ,

permrep pres transgroup, , ]

> s:=[[1,2,3,7,5,4,6]];t:=[[3,6],[4,5]];parity(s);par ity(t);mulperms(s,t); mulperms(t,s);mulperms(t,s,s,s,s);

:= s [ ][ ], , , , , ,1 2 3 7 5 4 6

Page 23: Problèmes d’algèbre linéaire

23

:= t [ ],[ ],3 6 [ ],4 5 1 1

[ ],[ ], ,1 2 6 [ ], ,3 7 4 [ ],[ ], ,1 2 3 [ ], ,5 6 7 [ ],[ ], ,1 2 3 [ ], ,5 6 7

> G:=permgroup(7,s,t);isabelian(G);center(G); := G ( )permgroup ,7 ,[ ][ ], , , , , ,1 2 3 7 5 4 6 [ ],[ ],3 6 [ ],4 5

false ( )permgroup ,7

> p1:=[[2,3],[6,7]];p2:=[[1,3],[5,7]];sigma:=[[1,2,3, 4,5,6,7]];groupmember(p1,G);groupmember(p2,G);groupmember(sigma,G);areconj ugate(G,s,invperm(s));

:= p1 [ ],[ ],2 3 [ ],6 7 := p2 [ ],[ ],1 3 [ ],5 7

:= σ [ ][ ], , , , , ,1 2 3 4 5 6 7 true true false false

> grouporder(G);L:=elements(G): 168

> C2:=:for x in L do if grouporder(permgroup(7,x) )=2 then C2:=C2 union x:fi;od;nops(C2);print(C2); > C3:=:for x in L do if grouporder(permgroup(7,x) )=3 then C3:=C3 union x:fi;od;nops(C3);print(C3); > C4:=:for x in L do if grouporder(permgroup(7,x) )=4 then C4:=C4 union x:fi;od;nops(C4);print(C4); > C7:=:for x in L do if areconjugate(G,x,s) then C7 :=C7 union x:fi;od;nops(C7);print(C7);C7b:=:for x in L do if areconjugate(G,x,invperm(s)) then C7b:=C7b union x:fi;od;nops(C7b);print(C7b);

21 [ ],[ ],1 2 [ ],5 6 [ ],[ ],3 4 [ ],5 6 [ ],[ ],1 6 [ ],2 5 [ ],[ ],2 4 [ ],5 7 [ ],[ ],2 6 [ ],3 7, , , , ,

[ ],[ ],1 3 [ ],2 4 [ ],[ ],1 6 [ ],4 7 [ ],[ ],3 6 [ ],4 5 [ ],[ ],1 4 [ ],2 3 [ ],[ ],2 7 [ ],4 5, , , , ,

[ ],[ ],2 5 [ ],4 7 [ ],[ ],1 7 [ ],4 6 [ ],[ ],3 5 [ ],4 6 [ ],[ ],1 5 [ ],2 6 [ ],[ ],1 7 [ ],3 5, , , , ,

[ ],[ ],2 3 [ ],6 7 [ ],[ ],1 3 [ ],5 7 [ ],[ ],1 2 [ ],3 4 [ ],[ ],1 4 [ ],6 7 [ ],[ ],2 7 [ ],3 6, , , , ,

[ ],[ ],1 5 [ ],3 7

56

Page 24: Problèmes d’algèbre linéaire

24

[ ],[ ], ,1 5 4 [ ], ,2 7 6 [ ],[ ], ,1 7 4 [ ], ,2 3 5 [ ],[ ], ,1 7 3 [ ], ,2 4 6 [ ],[ ], ,1 6 3 [ ], ,2 7 5, , , ,

[ ],[ ], ,2 5 3 [ ], ,4 6 7 [ ],[ ], ,1 2 5 [ ], ,3 4 7 [ ],[ ], ,1 6 3 [ ], ,4 5 7 [ ],[ ], ,2 6 4 [ ], ,3 5 7, , , ,

[ ],[ ], ,1 4 7 [ ], ,2 5 3 [ ],[ ], ,1 5 2 [ ], ,3 7 4 [ ],[ ], ,1 3 6 [ ], ,2 4 5 [ ],[ ], ,1 4 5 [ ], ,2 7 3, , , ,

[ ],[ ], ,1 7 2 [ ], ,3 4 6 [ ],[ ], ,1 5 3 [ ], ,2 6 4 [ ],[ ], ,1 5 4 [ ], ,2 6 3 [ ],[ ], ,1 2 3 [ ], ,5 6 7, , , ,

[ ],[ ], ,1 3 6 [ ], ,2 7 4 [ ],[ ], ,1 2 6 [ ], ,3 7 4 [ ],[ ], ,1 3 6 [ ], ,2 5 7 [ ],[ ], ,2 3 4 [ ], ,5 7 6, , , ,[ ],[ ], ,1 6 2 [ ], ,3 4 7 [ ],[ ], ,1 4 5 [ ], ,2 3 6 [ ],[ ], ,1 2 7 [ ], ,3 5 6 [ ],[ ], ,1 6 5 [ ], ,3 7 4, , , ,

[ ],[ ], ,1 2 7 [ ], ,3 6 4 [ ],[ ], ,1 6 3 [ ], ,2 5 4 [ ],[ ], ,1 6 3 [ ], ,2 4 7 [ ],[ ], ,1 7 2 [ ], ,3 6 5, , , ,

[ ],[ ], ,2 6 5 [ ], ,3 4 7 [ ],[ ], ,1 3 5 [ ], ,2 4 6 [ ],[ ], ,2 4 6 [ ], ,3 7 5 [ ],[ ], ,1 5 7 [ ], ,2 4 6, , , ,

[ ],[ ], ,1 6 7 [ ], ,2 3 5 [ ],[ ], ,1 7 2 [ ], ,4 5 6 [ ],[ ], ,1 5 6 [ ], ,3 4 7 [ ],[ ], ,1 7 5 [ ], ,2 6 4, , , ,

[ ],[ ], ,1 2 4 [ ], ,5 7 6 [ ],[ ], ,1 4 5 [ ], ,3 7 6 [ ],[ ], ,2 5 6 [ ], ,3 7 4 [ ],[ ], ,1 4 5 [ ], ,2 6 7, , , ,[ ],[ ], ,1 4 6 [ ], ,2 3 5 [ ],[ ], ,1 7 2 [ ], ,3 5 4 [ ],[ ], ,1 3 4 [ ], ,5 6 7 [ ],[ ], ,1 3 7 [ ], ,2 6 4, , , ,

[ ],[ ], ,2 4 3 [ ], ,5 6 7 [ ],[ ], ,1 6 4 [ ], ,2 5 3 [ ],[ ], ,1 5 4 [ ], ,3 6 7 [ ],[ ], ,1 4 3 [ ], ,5 7 6, , , ,

[ ],[ ], ,1 7 6 [ ], ,2 5 3 [ ],[ ], ,1 3 2 [ ], ,5 7 6 [ ],[ ], ,1 2 7 [ ], ,4 6 5 [ ],[ ], ,1 4 2 [ ], ,5 6 7, , , ,

[ ],[ ], ,1 3 6 [ ], ,4 7 5 [ ],[ ], ,1 5 4 [ ], ,2 3 7 [ ],[ ], ,1 2 7 [ ], ,3 4 5 [ ],[ ], ,2 3 5 [ ], ,4 7 6, , ,

42 [ ],[ ], , ,1 5 3 7 [ ],2 4 [ ],[ ], , ,1 4 7 6 [ ],3 5 [ ],[ ],1 6 [ ], , ,2 4 5 7 [ ],[ ], , ,1 2 5 6 [ ],3 7, , , ,

[ ],[ ], , ,1 2 4 3 [ ],6 7 [ ],[ ], , ,1 7 4 6 [ ],2 3 [ ],[ ],1 7 [ ], , ,3 6 5 4 [ ],[ ], , ,1 3 7 5 [ ],4 6, , , ,

[ ],[ ], , ,1 2 6 5 [ ],4 7 [ ],[ ], , ,1 7 3 5 [ ],2 4 [ ],[ ],1 6 [ ], , ,2 7 5 4 [ ],[ ],1 7 [ ], , ,3 4 5 6, , , ,

[ ],[ ], , ,1 5 7 3 [ ],4 6 [ ],[ ], , ,1 4 3 2 [ ],5 7 [ ],[ ],1 2 [ ], , ,3 6 4 5 [ ],[ ], , ,1 3 2 4 [ ],5 6, , , ,

[ ],[ ],1 2 [ ], , ,3 5 4 6 [ ],[ ], , ,2 4 7 5 [ ],3 6 [ ],[ ], , ,2 5 7 4 [ ],3 6 [ ],[ ], , ,1 4 2 3 [ ],5 6, , , ,[ ],[ ], , ,1 3 4 2 [ ],6 7 [ ],[ ],1 5 [ ], , ,2 3 6 7 [ ],[ ],1 4 [ ], , ,2 6 3 7 [ ],[ ], , ,1 2 3 4 [ ],5 7, , , ,

[ ],[ ], , ,1 6 7 4 [ ],3 5 [ ],[ ], , ,1 6 5 2 [ ],3 7 [ ],[ ], , ,2 6 7 3 [ ],4 5 [ ],[ ], , ,1 3 5 7 [ ],2 6, , , ,

[ ],[ ],1 3 [ ], , ,2 5 4 7 [ ],[ ], , ,1 6 2 5 [ ],3 4 [ ],[ ], , ,1 6 4 7 [ ],2 3 [ ],[ ],1 3 [ ], , ,2 7 4 5, , , ,

[ ],[ ], , ,2 3 7 6 [ ],4 5 [ ],[ ],2 7 [ ], , ,3 5 6 4 [ ],[ ],1 5 [ ], , ,2 7 6 3 [ ],[ ],2 7 [ ], , ,3 4 6 5, , , ,

[ ],[ ],1 4 [ ], , ,2 7 3 6 [ ],[ ], , ,1 5 6 2 [ ],4 7 [ ],[ ], , ,1 4 6 7 [ ],2 5 [ ],[ ], , ,1 7 5 3 [ ],2 6, , , ,[ ],[ ], , ,1 5 2 6 [ ],3 4 [ ],[ ], , ,1 7 6 4 [ ],2 5,

24 [ ][ ], , , , , ,1 3 7 6 4 5 2 [ ][ ], , , , , ,1 2 6 7 4 5 3 [ ][ ], , , , , ,1 4 3 5 7 2 6 [ ][ ], , , , , ,1 6 2 3 4 5 7, , , ,

[ ][ ], , , , , ,1 2 4 7 6 3 5 [ ][ ], , , , , ,1 5 2 4 3 6 7 [ ][ ], , , , , ,1 7 3 2 4 5 6, , ,

[ ][ ], , , , , ,1 4 6 5 2 7 3 [ ][ ], , , , , ,1 7 5 2 6 3 4 [ ][ ], , , , , ,1 2 3 7 5 4 6, , ,

[ ][ ], , , , , ,1 7 4 2 3 6 5 [ ][ ], , , , , ,1 4 7 5 3 6 2 [ ][ ], , , , , ,1 3 4 6 7 2 5, , ,

[ ][ ], , , , , ,1 6 4 3 2 7 5 [ ][ ], , , , , ,1 3 2 6 5 4 7 [ ][ ], , , , , ,1 3 5 6 2 7 4, , ,[ ][ ], , , , , ,1 6 7 3 5 4 2 [ ][ ], , , , , ,1 2 5 7 3 6 4 [ ][ ], , , , , ,1 5 7 4 6 3 2, , ,

[ ][ ], , , , , ,1 7 6 2 5 4 3 [ ][ ], , , , , ,1 5 6 4 7 2 3 [ ][ ], , , , , ,1 6 5 3 7 2 4, , ,

[ ][ ], , , , , ,1 5 3 4 2 7 6 [ ][ ], , , , , ,1 4 2 5 6 3 7,

24

Page 25: Problèmes d’algèbre linéaire

25

[ ][ ], , , , , ,1 6 5 4 2 3 7 [ ][ ], , , , , ,1 3 7 2 5 6 4 [ ][ ], , , , , ,1 4 7 2 6 5 3 [ ][ ], , , , , ,1 7 6 3 4 2 5, , , ,

[ ][ ], , , , , ,1 5 3 6 7 4 2 [ ][ ], , , , , ,1 7 5 4 3 2 6 [ ][ ], , , , , ,1 7 4 5 6 2 3, , ,

[ ][ ], , , , , ,1 5 7 2 3 4 6 [ ][ ], , , , , ,1 7 3 6 5 2 4 [ ][ ], , , , , ,1 6 2 7 5 3 4, , ,

[ ][ ], , , , , ,1 3 5 4 7 6 2 [ ][ ], , , , , ,1 5 2 7 6 4 3 [ ][ ], , , , , ,1 3 4 5 2 6 7, , ,

[ ][ ], , , , , ,1 2 6 3 5 7 4 [ ][ ], , , , , ,1 3 2 7 4 6 5 [ ][ ], , , , , ,1 4 2 7 3 5 6, , ,[ ][ ], , , , , ,1 2 5 4 6 7 3 [ ][ ], , , , , ,1 6 4 5 7 3 2 [ ][ ], , , , , ,1 6 7 2 4 3 5, , ,

[ ][ ], , , , , ,1 2 3 6 4 7 5 [ ][ ], , , , , ,1 4 6 3 7 5 2 [ ][ ], , , , , ,1 5 6 3 2 4 7, , ,

[ ][ ], , , , , ,1 4 3 6 2 5 7 [ ][ ], , , , , ,1 2 4 5 3 7 6,

> H:=permgroup(7,p1,p2);grouporder(H);elements(H); issubgroup(H,G);isnormal(G,H);

:= H ( )permgroup ,7 ,[ ],[ ],2 3 [ ],6 7 [ ],[ ],1 3 [ ],5 7 6

[ ],[ ],1 2 [ ],5 6 [ ] [ ],[ ], ,1 2 3 [ ], ,5 6 7 [ ],[ ],2 3 [ ],6 7 [ ],[ ],1 3 [ ],5 7, , , , ,

[ ],[ ], ,1 3 2 [ ], ,5 7 6

true false

> Sylow(G,2);Sylow(G,3);Sylow(G,7); ( )permgroup ,7 ,[ ],[ ], , ,1 6 7 4 [ ],3 5 [ ],[ ],3 5 [ ],4 6

( )permgroup ,7 [ ],[ ], ,1 4 6 [ ], ,2 3 5 ( )permgroup ,7 [ ][ ], , , , , ,1 6 5 4 2 3 7

> DG:=derived(G);grouporder(DG); := DG ( )permgroup ,7 , ,[ ],[ ],1 7 [ ], , ,3 4 5 6 [ ] [ ],[ ], , ,1 7 6 4 [ ],2 5

168 > u:=[[1, 7],[3, 6, 5, 4]];mulperms(u,t);mulperms(t,invperm(u));K:=permgro up(7,[[1, 7], [3, 6, 5, 4]],t);grouporder(K); elements(K);

:= u [ ],[ ],1 7 [ ], , ,3 6 5 4 [ ],[ ],1 7 [ ],4 6 [ ],[ ],1 7 [ ],4 6

:= K ( )permgroup ,7 ,[ ],[ ],1 7 [ ], , ,3 6 5 4 [ ],[ ],3 6 [ ],4 5 8

[ ],[ ],1 7 [ ], , ,3 6 5 4 [ ],[ ],3 4 [ ],5 6 [ ],[ ],1 7 [ ], , ,3 4 5 6 [ ] [ ],[ ],3 6 [ ],4 5, , , , ,

[ ],[ ],1 7 [ ],4 6 [ ],[ ],3 5 [ ],4 6 [ ],[ ],1 7 [ ],3 5, ,

> v:=[[1,2,7],[3,4,5]];L:=permgroup(7,s,v);groupord er(L);issubgroup(L,G); elements(L);

:= v [ ],[ ], ,1 2 7 [ ], ,3 4 5 := L ( )permgroup ,7 ,[ ][ ], , , , , ,1 2 3 7 5 4 6 [ ],[ ], ,1 2 7 [ ], ,3 4 5

21 true

[ ] [ ][ ], , , , , ,1 2 3 7 5 4 6 [ ],[ ], ,1 6 5 [ ], ,3 7 4 [ ],[ ], ,1 7 3 [ ], ,2 4 6, , , ,

[ ],[ ], ,1 3 6 [ ], ,2 5 7 [ ][ ], , , , , ,1 6 4 5 7 3 2 [ ],[ ], ,1 2 4 [ ], ,5 7 6 [ ],[ ], ,1 5 6 [ ], ,3 4 7, , , ,

[ ],[ ], ,2 5 3 [ ], ,4 6 7 [ ],[ ], ,1 4 2 [ ], ,5 6 7 [ ],[ ], ,1 3 7 [ ], ,2 6 4 [ ][ ], , , , , ,1 4 7 2 6 5 3, , , ,

[ ][ ], , , , , ,1 3 5 6 2 7 4 [ ],[ ], ,1 7 2 [ ], ,3 5 4 [ ],[ ], ,1 5 4 [ ], ,2 6 3 [ ],[ ], ,1 2 7 [ ], ,3 4 5, , , ,

[ ],[ ], ,1 4 5 [ ], ,2 3 6 [ ],[ ], ,1 6 3 [ ], ,2 7 5 [ ][ ], , , , , ,1 5 2 4 3 6 7 [ ][ ], , , , , ,1 7 6 3 4 2 5, , , ,[ ],[ ], ,2 3 5 [ ], ,4 7 6

Exercice : On considère la matrice carrée M = (aij) ∈ M7(R) indexée par les couples

(i, j) ∈ A, B, C, …, G × D1, …, D7 , où les Dj sont les 7 droites. (aij) = 1 si i ∈ Dj, 0 sinon. 1) Ecrire une telle matrice. Quid si l’on permute les points, ou les droites ?

Page 26: Problèmes d’algèbre linéaire

26

2) Que valent tM.M , M.

tM , M.e et

te.M, où e =

t( 1,1,1,1,1,1,1 ) ?

Remarque finale : l’OEIS donne, sous la référence A006951, la suite des nombres de classes de

conjugaison de Gln(F2): En voici les premières valeurs : 1 , 1 , 3 , 6 , 14 , 27 , 60 , 117 , 246 , 490 , 1002 , 1998 , …

Références :

Jean-Marie Arnaudiès & José Bertin : Groupes, algèbres et géométrie (Ellipses), tome 1, p. 273-279 Jean-Yves Mérindol : Nombres et algèbre (EDP), p. 453-455, 595-597 Jean-Mathieu Magot : Le groupe simple à 168 éléments (2009) (mémoire sur internet) Wikipedia : Groupe simple d’ordre 168, Plan de Fano, Quartique de Klein, etc. Internet :La quartique de Klein et le groupe simple d’ordre 168 ___________ Problème 3 : Restriction du corps des scalaires Soit E un C-espace vectoriel. Si l’on munit le groupe additif (E, +) de la loi externe (λ, x) ∈ R×E

→ λ x ∈ E, on fait de l’ensemble E un R-espace vectoriel, dit sous-jacent à E et noté ER.

Une application f : E → E est dite semi-linéaire si elle vérifie :

∀(x, y) ∈ E×E f(x + y) = f(x) + f(y) et ∀(λ, x) ∈ C×E f(λ x) = λ f(x) .

Dans les questions 1 et 2, E est supposé de C-dimension n ; soit BBBB = (e1, e2, …, en) une C-base de E.

1) Montrer que ER est un R-espace vectoriel de dimension finie ; quelle est cette dimension ?

2) a) Montrer que l’application j : x → i.x est un endomorphisme de ER ; calculer j2.

Matrice de j relativement à BBBB0 = (e1, e2, …, en, i.e1, i.e2, …, i.en) ?

b) Montrer que les applications C-linéaires E → E ne sont autres que les applications R-

linéaires ER → ER qui commutent à j ; caractériser de même les applications semi-linéaires E → E.

c) Montrer que tout endomorphisme f de ER s’écrit de façon unique comme somme d’une application C-linéaire et d’une application semi-linéaire. Expressions matricielles ?

3) Soit F un R-espace vectoriel de dimension finie p. Démontrer l’équivalence des 3 propriétés :

i) F est l’espace vectoriel sous-jacent d’un espace vectoriel complexe ;

ii) Il existe un endomorphisme u de F tel que u2 = − IdF ;

iii) p est pair p = 2n.

Démontrer qu’il existe alors une base de F telle que u ait pour matrice

−OIIO

n

n .

4) Application : Résoudre et discuter dans Mp(R) l’équation A2 = − Ip .

___________

Page 27: Problèmes d’algèbre linéaire

27

Solution Ce problème, facile au début, démontre un résultat non trivial. Ne le sous-estimons donc pas !

1) Dimension de l’espace réel sous-jacent. Montrons que l’espace vectoriel ER admet pour base BBBB0 = (e1, e2, …, en, i.e1, i.e2, …, i.en). Il aura donc comme R-dimension 2n.

C’est une famille génératrice, car si x est un vecteur de E, il s’écrit : x = λ1.e1 + … + λn.en,

où les λj sont complexes. Posons λj = αj + i.βj , où αj et βj sont réels, alors

x = α1.e1 + … + αn.en + β1.ie1 + … + βn.ien ,

C’est une famille libre, car α1.e1 + … + αn.en + β1.ie1 + … + βn.ien = 0 s’écrit aussi :

(α1 + i.β1).e1 + … + (αn + i.βn).en = 0.

Comme (e1, e2, …, en) est C-libre, αj + i.βj = 0 pour tout j.

Comme (1, i) est R-libre dans C, αj = βj = 0 pour tout j. cqfd.

Remarque : Attention à un point de rigueur ! Il n’y a pas moyen de raccourcir cette preuve. Deux existences et unicités emboîtées n’impliquent pas une existence et unicité, mais seulement une existence ! S’il y a un chemin unique joignant Lyon à Saint-Etienne, et un chemin unique joignant Saint-Etienne à Clermont-Ferrand, il y a au moins un chemin joignant Lyon à Clermont-Ferrand !

2) Applications R-linéaires, C-linéaires, semi-linéaires.

a) j est C-linéaire, donc a fortiori R-linéaire, et j2 = − id.

La matrice de j relativement à BBBBR = (e1, e2, …, en, i.e1, i.e2, …, i.en) s’écrit J =

−OIIO

n

n .

La matrice de j relativement à (e1, i.e1, …, en, i.en) s’écrit par blocs

HOOO

HOOOH

.........

.........

, où H =

0110 .

b) Les applications C-linéaires E → E ne sont autres que les applications R-linéaires ER → ER

qui commutent à j. Les applications semi-linéaires E → E sont les applications R-linéaires ER → ER qui anticommutent à j.

c) Tout endomorphisme f de ER s’écrit de façon unique comme somme d’une application C-linéaire et d’une application semi-linéaire.

Analyse. Supposons que f = g + h, où g o j = j o g et h o j = − j o h.

Alors j o f o j = − g + h , donc g = 2jofojf −

et h = 2jofojf +

.

Synthèse. Réciproquement, g et h ainsi définies, vérifient g + h = f , j o g = g o j et h o j = − j o h.

En termes de somme directe, on a : LLLLR(ER) = LC(E) R ⊕ )(ELC R.

Matriciellement,

DCBA =

PQQP +

−RSSR , où P =

2DA+ , Q =

2BC− , R =

2DA− , S =

2BC+ .

3) Dévissage des endomorphismes de carré −−−− id.

Soit F un R-espace vectoriel de dimension finie p. Montrons l’équivalence des propriétés : i) F est l’espace vectoriel sous-jacent d’un espace vectoriel complexe ;

ii) Il existe un endomorphisme u de F tel que u2 = − IdF ;

iii) p est pair p = 2n.

Page 28: Problèmes d’algèbre linéaire

28

Sous ces hypothèses, il existe une base de F telle que u ait pour matrice

−OIIO

n

n .

Preuve : i) ⇒ ii) Si F est l’espace sous-jacent d’un C-espace vectoriel E, l’endomorphisme j : x → ix

déjà considéré vérifie j2 = − IdF .

ii) ⇒ iii) se montre aisément par les déterminants :

det(u2) = det(− IdF) ⇒ (det u)

2 = (−1)

p . Or un carré est ≥ 0…

iii) ⇒ ii) Soient (a1, a2, …, a2n) une base de F, u l’endomorphisme ayant pour matrice relativement

à cette base

−OIIO

n

n . On a aussitôt u2 = − IdF .

ii) ⇒ i) est le point le plus abstrait de la preuve. Soit u un endomorphisme de F tel que u2 = − IdF .

Adjoignons à l’addition de F une loi externe (λ, x) ∈ C×F → λ.x ∈ F telle que (∀x ∈ F) u(x) = i.x. Pour cela, si λ = α + i.β où (α, β) ∈ R×R, posons λ.x = α.x + β.u(x). Il reste à vérifier les quatre axiomes : λ.(x + y) = λ.x + λ.y , (λ + µ).x = λ.x + µ.x , λ.(µ.x) = (λ.µ).x , 1.x = x. et enfin vérifier que la loi prolonge la loi externe R×F → F. Tout repose sur λ.x = (α.I + β.u)(x). Les axiomes I, II et IV sont immédiats. Seul le III mérite le détour : si µ = α’ + i.β’,

λ.(µ.x) = (α.I + β.u) o (α’.I + β’.u)(x) = [(αα’ − ββ’).I + (α’β + αβ’).u](x) = (λ.µ).x.

4) Traduction matricielle .

Si p est impair, l’équation A2 = − Ip est sans solution dans Mp(R).

Si p est pair, p = 2n, l’équation A2 = − Ip a, à similitude près, une unique solution dans Mp(R), à

savoir H =

−OIIO

n

n . Autrement dit, A ; A2 = − Ip = P

−1.H.P ; P ∈ Gl2n(R) .

Remarque finale : Ce problème sera généralisé plus tard, dans le problème sur les équations matricielles du second degré et dans le problème sur les endomorphismes semi-simples. ___________ Problème 4 : Complexification Soit E un R-espace vectoriel. On munit l’ensemble E×E des deux lois

(x, y) + (x’, y’) = (x + x’, y + y’) et (ζ, z) ∈ C×(E×E) → ζ.z ∈ E×E

ζ.z étant défini par ζ.z = (λ.x − µ.y, λ.y + µ.x) si ζ = λ + iµ ∈ C et z = (x, y) ∈ E×E.

1) a) Montrer que, pour ces deux lois, E×E est un C-espace vectoriel ; on le note EC

et on l’appelle complexifié de E.

b) Quel est le R-espace vectoriel sous-jacent de EC

?

c) On plonge E dans EC

via x → (x, 0). Montrer que l’application : σ : (x, y) = x + i.y → (x, −y) = x – i.y

est une involution semi-linéaire de EC

, dite conjugaison, que E = z ; σ(z) = z , et que E×E = E ⊕ iE (en tant que R-espaces vectoriels).

2) a) On suppose que E est de R-dimension finie n. Soit (e1, e2, …, en) une R-base de E.

Montrer que (e1, e2, …, en) est une C-base de EC

. En déduire que dimR E = dimC EC

.

b) On suppose que (a1, a2, …, an) est une C-base de EC

. Montrer que les 2n vecteurs

aj + σ(aj) et i1( aj − σ(aj) ) (1 ≤ j ≤ n)

appartiennent à E, et que l’on peut extraire de cette famille une R-base de E.

Page 29: Problèmes d’algèbre linéaire

29

3) Soient E et F deux R-espaces vectoriels, f : E → F une application R-linéaire.

a) Montrer qu’il existe une unique application C-linéaire f C

: EC

→ FC

telle que fC |E = f.

b) Montrer que σ o f C

= f C

o σ pour les conjugaisons de E et F.

c) Si f a pour matrice A pour deux R-bases de E et F, montrer que f C

a pour matrice A pour ces

mêmes bases considérées comme bases de EC

et FC

resp.

d) Enfin, si g : F → G est R-linéaire, montrer que ( g o f ) C

= gC

o f C

.

4) Soient E un R-espace vectoriel, F un sous-espace vectoriel de E. Montrer que FC

est un sous C-

espace vectoriel de EC

, et qu’il est engendré par F.

Réciproquement, soit S un sous C-espace vectoriel de EC

tel que σ(S) = S ; montrer que S ∩ E est

un sous R-espace vectoriel de E, tel que dimR S ∩ E = dimC S ; en outre S = (S ∩ E)C

.

5) Soit E un R-espace vectoriel de dimension finie, f un endomorphisme de E. Montrer qu’il existe au moins un sous-espace vectoriel P de E, de dimension 1 ou 2, et f-stable, i.e. tel que f(P) ⊂ P. ___________ Problème 5 : Factorisation d’applications linéaires Dans ce problème, tous les espaces vectoriels sont supposés de dimension finie.

1) Soient E et F deux espaces vectoriels, LLLL(E, F) l’espace des applications linéaires de E dans F.

a) Soit B un sous-espace vectoriel de F. Montrer que f ∈ LLLL(E, F) ; Im f ⊂ B est un sous-espace vectoriel de LLLL(E, F). Trouver sa dimension à l’aide des dimensions de E, F et B.

b) Soit A un sous-espace vectoriel de E. Montrer que f ∈ LLLL(E, F) ; Ker f ⊃ A est un sous-espace vectoriel de LLLL(E, F). Trouver sa dimension à l’aide des dimensions de E, F et A.

c) Montrer que f ∈ LLLL(E, F) ; Ker f ⊃ A et Im f ⊂ B est un sous-espace vectoriel de LLLL(E, F). Trouver sa dimension à l’aide des dimensions de E, F, A et B.

d) Même question pour f ∈ LLLL(E, F) ; f(A) ⊂ B .

2) Soient E, F et G trois espaces vectoriels, u ∈ LLLL(F, E) et v ∈ LLLL(G, E). Montrer l’équivalence des propriétés suivantes : a) Il existe w ∈ LLLL(F, G) telle que u = v o w ; b) Im u ⊂ Im v.

3) Soient E, F et G trois espaces vectoriels, u ∈ LLLL(E, F) et v ∈ LLLL(E, G). Montrer l’équivalence des propriétés suivantes : a) Il existe w ∈ LLLL(G, F) telle que u = w o v ; b) Ker v ⊂ Ker u.

4) Soient E, F, G, H quatre espaces vectoriels, a ∈ LLLL(G, H), b ∈ LLLL(E, F), v ∈ LLLL(E, H). Montrer l’équivalence des propriétés suivantes : a) Il existe w ∈ LLLL(F, G) telle que v = a o w o b ; b) Im v ⊂ Im a et Ker b ⊂ Ker v. ____________

Page 30: Problèmes d’algèbre linéaire

30

Solution : factorisation d’applications linéaires Nous ne montrons que les points les plus délicats.

1) a) I(B) = f ∈ LLLL(E, F) ; Im f ⊂ B « est » l’ensemble des applications linéaires de E dans B. Du coup, dim I(B) = dim E × dim B .

En réalité, il faut dire que f ∈ I(B) → B

Ef ∈ LLLL(E, B) est un isomorphisme (canonique).

Autre preuve, matricielle : Soient (a1, …, ap) une base quelconque de E, et (b1, …, bk) une base de

B complétée en une base (b1, …, bn) de F. Pour que f ∈ I(B), il faut et il suffit que sa matrice

relativement à ces bases soit de la forme [ O* ] . Il reste à passer aux dimensions.

b) Notons N(A) = f ∈ LLLL(E, F) ; Ker f ⊃ A . Choisissons un supplémentaire A’ de A dans E Pour se donner une application linéaire f ∈ N(A), il suffit de se donner sa restriction g à A’. En effet, si p et p’ sont les projecteurs associés à la somme directe E = A ⊕ A’, on a f = f o p + f o p’ = g o p’. L’application g ∈ LLLL(A’, F) → g o p’∈N(A) est un isomorphisme d’espaces vectoriels, donc

dim N(A) = (dim E – dim A)×dim F .

Autre preuve, matricielle : Soient (a1, …, ak) une base de A, complétée en une base (a1, …, ap) de E,

et (b1, …, bn) une base de F. Pour que f ∈ N(A), il faut et il suffit que sa matrice relativement à ces

bases soit de la forme [* O] . Il reste à passer aux dimensions.

c) I(B) ∩ N(A) est un sous-espace vectoriel comme intersection de sous-espaces. Soit A’ un supplémentaire de A dans E. Pour se donner un élément f de I(B) ∩ N(A), il suffit de se donner une application linéaire de A’ dans B, et de la prolonger par 0 sur A. I(B) ∩ N(A) est donc isomorphe à LLLL(A’, B), donc :

dim I(B) ∩ N(A) = ( dim E – dim A )×dim B .

Matriciellement, soient (a1, …, ak) une base de A complétée en une base (a1, …, ap) de E et (b1, …,

bm) une base de B complétée en une base (b1, …, bn) de F. Pour que f ∈ N(A) ∩ I(B), il faut et il

suffit que sa matrice relativement à ces bases soit de la forme

OOO * . Puis passer aux dimensions.

d) Il est clair que H(A, B) = f ∈ LLLL(E, F) ; f(A) ⊂ B est un sev de LLLL(E, F). Pour se donner f ∈ H(A, B), il suffit de se donner une application linéaire de A dans B, et une application linéaire de A’ dans F. Ainsi H(A, B) est isomorphe à LLLL(A, B)×LLLL(A’, F). Donc dim H(A, B) = (dim A)×(dim B) + ( dim E – dim A )×dim F .

Matriciellement, avec les notations de c), pour que f ∈ H(A, B), il faut et il suffit que sa matrice

relativement aux bases de E et F soit de la forme

***

O . Il reste à passer aux dimensions.

2) Factorisation à droite.

Soient E, F et G trois espaces vectoriels, u ∈ LLLL(F, E) et v ∈ LLLL(G, E). Montrons l’équivalence : a) Il existe w ∈ LLLL(F, G) telle que u = v o w ; b) Im u ⊂ Im v.

a) ⇒ b) est immédiat. b) ⇒ a) Soit y un vecteur de F. u(y) est de la forme v(z), pour au moins un vecteur de G. Si, pour tout y ∈ F on choisit z ∈ G tel que u(y) = v(z), on définit une application w : F → G telle que u(y) = v(w(y)) pour tout y ∈ F. Mais cette application n’a aucune raison d’être linéaire !…

Reprenons ! Soit (b1, …, bn) une base de F. Pour tout i, choisissons un vecteur ci ∈ G tel que u(bi) =

v(ci). Soit w l’application linéaire de F dans G définie par (∀i) w(bi) = ci .

Page 31: Problèmes d’algèbre linéaire

31

Alors u = v o w, car ces deux applications sont linéaires et coincident sur la base (b1, …, bn) de F.

Autre méthode.

Si v est bijective, il suffit de poser w = v−1

o u. Dans le cas général, soit G’ un supplémentaire de

Ker v dans G : G = G’ ⊕ Ker v. Soient v = v

Gv

Im

' l’isomorphisme induit, et w = j ov−1

o i ou

Fu

Im, où

i est l’injection canonique de Im u dans Im v, et j l’injection canonique de G’ dans G. w est bien linéaire de F dans G et l’on a u = v o w.

Autre méthode. Nous allons déduire b) ⇒ a) de a) ⇒ b), en dimension finie, via une inclusion et l’égalité des dimensions. L’application Φ : f ∈ LLLL(F, G) → v o f ∈ LLLL(F, E) est linéaire.

Il s’agit de montrer que Im Φ = u ∈ LLLL(F, E) ; Im u ⊂ Im v . Or l’inclusion ⊂ est facile. Ker Φ = f ∈ LLLL(F, G) ; v o f = 0 = f ∈ LLLL(F, G) ; Im f ⊂ Ker v . En vertu de 1), dim Ker Φ = dim F×dim Ker v, d’où dim Im Φ = dim F×dim Im v = dim u ∈ LLLL(F, E) ; Im u ⊂ Im v .

3) Factorisation à gauche. Soient E, F et G trois espaces vectoriels, u ∈ LLLL(E, F) et v ∈ LLLL(E, G). Montrons l’équivalence : a) Il existe w ∈ LLLL(G, F) telle que u = w o v ; b) Ker v ⊂ Ker u.

a) ⇒ b) est immédiat. b) ⇒ a) On cherche à construire une fonction w telle que (∀x ∈ E) u(x) = w(v(x)). Commençons par constuire w sur Im v. Soit z ∈ Im v. Il existe x ∈ E tel que z = v(x). Nous n’avons pas d’autre choix que de poser w(z) = u(x)… Encore faut-il s’assurer que ce u(x) ne dépend pas du x choisi. Or tel est bien le cas, car z = v(x) = v(x’) ⇒ x − x’ ∈ Ker v ⇒ x – x’ ∈ Ker u ⇒ u(x) = u(x’). L’application w ainsi définie est linéaire de Im v dans F. Il reste à la prolonger en une application linéaire de G dans F, ce qui est facile au moyen d’un supplémentaire.

Autre méthode.

Si v est bijective, il suffit de poser w = u o v−1

. Dans le cas général, soit E’ un supplémentaire de

Ker v dans E : E = E’ ⊕ Ker v. Soient v = v

Ev

Im

' l’isomorphisme induit, et w = u o i o v−1

, où i est

l’injection canonique de E’ dans E. w est linéaire de Im v dans F, et F

Eu

' = w o v .

Il reste à prolonger w en une application linéaire de G dans F.

Autre méthode. Nous allons déduire b) ⇒ a) de a) ⇒ b), en dimension finie, via une inclusion et l’égalité des dimensions. L’application Ψ : f ∈ LLLL(G, F) → f o v ∈LLLL(E, F) est linéaire.

Il s’agit de montrer que Im Ψ = u ∈ LLLL(E, F) ; Ker v ⊂ Ker u . Or l’inclusion ⊂ est facile. Ker Ψ = f ∈ LLLL(G, F) ; f o v = 0 = f ∈ LLLL(G, F) ; Im v ⊂ Ker f . En vertu de 1) dim Ker Ψ = dim F×( dim E − dim Im v ) = dim F×dim Ker v, d’où dim Im Ψ = dim F×(dim E − dim Ker v) = dim u ∈ LLLL(E, F) ; Ker v ⊂ Ker u . cqfd.

4) Double factorisation. Soient E, F, G, H quatre espaces vectoriels, a ∈ LLLL(G, H), b ∈ LLLL(E, F), v ∈ LLLL(E, H). Montrer l’équivalence des propriétés suivantes : a) Il existe w ∈ LLLL(F, G) telle que v = a o w o b ; b) Im v ⊂ Im a et Ker b ⊂ Ker v.

a) ⇒ b) est immédiat.

Page 32: Problèmes d’algèbre linéaire

32

Nous allons déduire b) ⇒ a) de a) ⇒ b), en dimension finie, via une inclusion et l’égalité des dimensions. L’application Ξ : f ∈ LLLL(F, G) → a o f o b ∈ LLLL(E, H) est linéaire.

Il s’agit de montrer que Im Ξ = v ∈ LLLL(E, H) ; Im v ⊂ Im a et Ker b ⊂ Ker v . Or l’inclusion ⊂ n’est autre que a). Ker Ξ = f ∈ LLLL(F, G) ; a o f o b = 0 = f ∈ LLLL(F, G) ; f(Im b) ⊂ Ker a . En vertu de 1.d) dim Ker Ξ = dim Im b × dim Ker a + ( dim F − dim Im b )×dim G , d’où dim Im Ξ = dim Im b × dim G − dim Im b × dim Ker a = v ∈ LLLL(E, H) ; Im v ⊂ Im a et Ker b ⊂ Ker v .

Remarque finale : Le problème sur les g-inverses et f-inverses d’applications linéaires reprend et approfondit ces questions. ___________

Problème 6 : Propriétés des projecteurs

Soient E un K -espace vectoriel, LLLL(E) l’algèbre des endomorphismes de E, I = idE. Si (u, v) ∈ LLLL(E)×LLLL(E), on note u.v = u o v le composé, et [u, v] = u.v – v.u le commutant de u et v.

1) On appelle projecteur de E tout endomorphisme de E tel que p2 = p.

Montrer que x ∈ Im p ⇔ x = p(x) , que E = Ker p ⊕ Im p , et que p’ = I − p est un projecteur ; p’ est dit projecteur associé à p. Liens entre les images et noyaux de p et p’ ?

2) Soient p et q deux projecteurs de E. Montrer les équivalences :

p.q = 0 ⇔ Im q ⊂ Ker p ; p.q = p ⇔ Ker q ⊂ Ker p ; p.q = q ⇔ Im q ⊂ Im p.

3) Soient p un projecteur, u un endomorphisme de E. Montrer les trois équivalences :

a) Im p est u-stable ⇔ p.u.p = u.p ;

b) Ker p est u-stable ⇔ p.u.p = p.u ;

c) Im p et Ker p sont u-stables ⇔ p.u = u.p.

Montrer que u ∈ LLLL(E) ; u.p = p.u est une sous-algèbre de LLLL(E), isomorphe à LLLL(Im p)×LLLL(Ker p).

4) Soient p un projecteur, f un endomorphisme de E.

Montrer l’équivalence : f est un projecteur d’image Im p ⇔ p.f = f et f.p = p. En déduire que les projecteurs ayant même image que p forment un sous-espave affine de L(E), dont on indiquera la direction vectorielle. Application : Soient K un corps fini à q éléments, E un K -espace vectoriel de dimension n, F un sous-espace vectoriel de E de dimension k. Combien F admet-il de supplémentaires ?

5) Soient p, q deux projecteurs de E. Montrer l’équivalence des propriétés : i) p.q = q.p

ii) q( Im p ) ⊂ Im p et q ( Ker p ) ⊂ Ker p

iii) Il existe quatre sous-espaces F1, F2, F3 et F4 de E tels que E = F1 ⊕ F2 ⊕ F3 ⊕ F4 , et

Im p = F1 ⊕ F2 , Ker p = F3 ⊕ F4 , Im q = F1 ⊕ F3 , Ker q = F2 ⊕ F4 .

Montrer qu’alors p.q et p+q−p.q sont des projecteurs dont on exprimera les images et noyaux comme sommes et intersections de ceux de p et q. Quel lien voyez-vous entre p.q et p+q−p.q ?

Si E est de dimension finie, donner une traduction matricelle de la commutation de deux projecteurs.

6) Généralisation. Soient p et q deux projecteurs de E.

Montrer l’équivalence : p.q est un projecteur ⇔ [p, q] applique Im q dans Ker p.

Montrer que, s’il en est ainsi, Im(p.q) = Im p ∩ ( Im q + ( Ker p ∩ Ker q ) )

Ker(p.q) = Ker q + ( Ker p ∩ ( Im p + Im q ) )

Page 33: Problèmes d’algèbre linéaire

33

Etablir des énoncés analogues concernant p + q − p.q.

7) Deux projecteurs p et q sont dits orthogonaux si p.q = q.p = 0. Donner diverses caractérisations de cette propriété. Montrer que p + q est alors un projecteur ; noyau et image ?

Montrer que, si p et q sont orthogonaux et non nuls, A = λp + µq ; (λ, µ) ∈ K×K est une sous-

algèbre de LLLL(E), commutative et isomorphe à K2.

8) Soient p et q deux projecteurs. Montrer, si K est de caract ≠ 2, l’équivalence des propriétés :

i) p + q est un projecteur ii) p.q = − q.p iii) ∃α ∉ 0, 1 p.q = α.q.p iv) p et q sont orthogonaux.

9) On note PPPP l’ensemble des projecteurs de E.

a) Montrer que p ≤ q ⇔ p = p.q = q.p est une relation d’ordre sur PPPP.

b) Montrer que p ≤ q ⇔ q − p ∈ PPPP.

c) Plus petit, plus grand élément de PPPP ? Vérifier que p ≤ q ⇔ q’ ≥ p’.

d) Montrer que, si p et q commutent, ils ont une borne inférieure et une borne supérieure. Cas où ils sont orthogonaux. e) Quels sont les projecteurs minimaux parmi ceux qui sont non nuls ?

__________ Solution : Propriétés des projecteurs

1) Endomorphismes idempotents. Montrons x ∈ Im p ⇔ x = p(x) . En effet x ∈ Im p ⇔ (∃y) x = p(y) ⇒ p(x) = (p.p)(y) = p(y) = x. Réciproque évidente. Ker p ∩ Im p = 0 car x ∈ Ker p ∩ Im p ⇒ x = p(x) = 0. Et E = Ker p + Im p : écrire x = (x – p(x)) + p(x).

Il est clair que p’ = I − p est un projecteur vérifiant Im p’ = Ker p et Ker p’ = Im p. 2) Soient p et q deux projecteurs de E. Montrons les équivalences :

p.q = 0 ⇔ Im q ⊂ Ker p ; p.q = p ⇔ Ker q ⊂ Ker p ; p.q = q ⇔ Im q ⊂ Im p.

p.q = 0 ⇔ Im q ⊂ Ker p est toujours vraie, dès que p et q sont des endomorphismes.

p.q = p ⇔ p.q’ = 0 ⇔ Im q’ ⊂ Ker p ⇔ Ker p ⊂ Ker p.

p.q = q ⇔ p’.q = 0 ⇔ Im q ⊂ Ker p’ ⇔ Im q ⊂ Im p.

3) Soient p un projecteur, u un endomorphisme de E.

a) Montrons que Im p est u-stable ⇔ p.u.p = u.p ;

Supposons u(Im p) ⊂ Im p. Soit x ∈ E, (u.p)(x) ∈ Im p, donc (p.u.p)(x) = (u.p)(x). Supposons p.u.p = u.p. Si y ∈ Im p ; alors u(y) = (u.p)(y) = (p.u.p)(y) ∈ Im p.

b) Montrons que Ker p est u-stable ⇔ p.u.p = p.u ;

Ker p est u-stable ⇔ Im p’ est u-stable ⇔ p’.u.p’ = u.p’ ⇔ (I – p).u.(I – p) = u.(I – p) ⇔ p.u.p = p.u.

c) Montrons que Im p et Ker p sont u-stables ⇔ p.u = u.p.

Il découle de a) et b) que Im p et Ker p sont u-stables ⇔ u.p = p.u.p = p.u ⇒ p.u = u.p. Réciproquement p.u = u.p implique p.u.p = u.p.p = u.p, et finalement p.u = p.u.p = u.p.

Pour tout f ∈ L(E), son commutant C(f) = u ∈ L(E) ; u.f = f.u est tjs une sous-algèbre de L(E) Si u commute à p, soient v et w les endomorphismes induits par u sur Im p et Ker p resp. L’application u → (v, w) est un isomorphisme d’algèbre de C(p) sur L(Im p)×L(Ker p) .

4) Projecteurs d’image donnée. Soient p un projecteur, f un endomorphisme de E.

Montrons que f est un projecteur d’image Im p ⇔ p.f = f et f.p = p. Si f est un projecteur d’image Im p,

(p.f)(x) = f(x) , car f(x) ∈ Im f = Im p . Et (f.p)(x) = p(x) , car p(x) ∈ Im p = Im f.

Page 34: Problèmes d’algèbre linéaire

34

Réciproquement, p.f = f et f.p = p ⇒ f 2 = f.p.f = p.f = f , et Im f ⊂ Im p et Im p ⊂ Im f.

Posons alors f = p + u. Le système p.f = f et f.p = p équivaut à p’.u = u.p = 0. Soit A l’ensemble des projecteurs de même image que p. On vient d’établir que :

A = p + B, où B = u ∈L(E) ; p’.u = u.p = 0 = u ∈L(E) ; Im u ⊂ Ker p’ = Im p et Im p ⊂ Ker u

est un sous-espace vectoriel de L(E).

B est isomorphe à L(Ker p, Im p). En effet, si u ∈ B, u est nulle sur Im p, donc entièrement définie par sa restriction à Ker p. Et cette restriction est à valeurs dans Im p.

En dimension finie, si BBBB est une base telle que Mat(p, BBBB) =

OOOI p , alors Mat(f, BBBB) =

OOBI p , et il

y a autant de supplémentaires de Im p que de matrices B possibles.

Conséquence : Soient K un corps fini à q éléments, E un K -espace vectoriel de dimension n, F un

sous-espace vectoriel de E de dimension k. Je dis que F admet )( knkq − supplémentaires.

En effet, il y a autant de supplémentaires de F que de projecteurs sur F, c’est-à-dire d’applications linéaires de Ker p dans Im p = F, où p est un projecteur fixé sur F.

5) Projecteurs commutants. Soient p et q deux projecteurs. Montrons l’équivalence :

i) p.q = q.p

ii) q( Im p ) ⊂ Im p et q ( Ker p ) ⊂ Ker p

iii) Il existe quatre sous-espaces F1, F2, F3 et F4 de E tels que E = F1 ⊕ F2 ⊕ F3 ⊕ F4 , et

Im p = F1 ⊕ F2 , Ker p = F3 ⊕ F4 , Im q = F1 ⊕ F3 , Ker q = F2 ⊕ F4 .

i) ⇒ ii) par application de 3.c) à p et u = q.

ii) ⇒ iii) Si Im p est q-stable, q induit un projecteur f de Im p.

Im p = F1 ⊕ F2 , où F1 = Im f = q(Im p) = Im(q.p) et F2 = Ker f = Im p ∩ Ker q. Si Ker p est q-stable, q induit un projecteur g de Ker p.

Ker p = F3 ⊕ F4 , où F3 = Im g = q(Ker p) et F4 = Ker g = Ker p ∩ Ker q.

Comme E = Im p ⊕ Ker p , E = F1 ⊕ F2 ⊕ F3 ⊕ F4 .

Soit x ∈ E. Ecrivons x = x1 + x2 + x3 + x4 , où xk ∈ Fk pour 1 ≤ k ≤ 4.

On a : p(x) = x1 + x2 et q(x) = x1 + x3 . Par conséquent, Im q = F1 ⊕ F3 et Ker q = F2 ⊕ F4 .

Avec ces notations, (p.q)(x) = x1 et (p + q − p.q)(x) = x1 + x2 + x3

p.q est le projecteur sur F1 parallèlement à F2 ⊕ F3 ⊕ F4 . Autrement dit, Im(p.q) = Im p ∩ Im q et Ker(p.q) = Ker p + Ker q.

p + q − p.q est le projecteur sur F1 ⊕ F2 ⊕ F3 parallèlement à F4 . Autrement dit, Im(p + q – p.q) = Im p + Im q et Ker(p + q – p.q) = Ker p ∩ Ker q. Notons que ces dernières affirmations concernant p + q – p.q se déduisent de celles concernant p.q, car p’ et q’ commutent et (p + q − p.q)’ = I – (p + q − p.q) = (I – p).(I – q) = p’.q’.

En dimension finie, deux projecteurs p et q commutent ss’ils sont simultanément diagonalisables, i.e. ss’il existe une base BBBB de E telle que :

Mat(p, BBBB) =

OOOOOOOOOOIOOOOI

q

p

et Mat(q, BBBB) =

OOOOOIOOOOOOOOOI

r

p

.

6) Généralisation. Soient p et q deux projecteurs de E.

Montrons que : p.q est un projecteur ⇔ [p, q] applique Im q dans Ker p ,

et alors : Im(p.q) = Im p ∩ ( Im q + ( Ker p ∩ Ker q ) )

Ker(p.q) = Ker q + ( Ker p ∩ ( Im p + Im q ) ) .

Page 35: Problèmes d’algèbre linéaire

35

a) Si p et q sont deux projecteurs, p.[p, q].q = p.p.q.q – p.q.p.q = p.q – (p.q)2 .

On en déduit aussitôt que p.q est un projecteur ssi [p, q] envoie Im q dans Ker p.

b) Im(p.q) ⊂ Im p est tjs vrai. Et x ∈ Im(p.q) ⇒ x = (p.q)(x) = q((p.q)(x)) + [ (p.q)(x) − (q.p.q)(x) ]. q((p.q)(x)) ∈ Im q et (p.q)(x) − (q.p.q)(x) ∈ Ker p ∩ Ker q. En effet (p.p.q)(x) – (p.q.p.q)(x) = (p.q)(x) – (p.q)(x) = 0 Et (q.p.q)(x) – (q.q.p.q)(x) = (q.p.q)(x) – (q.p.q)(x) = 0. Ainsi Im(p.q) ⊂ Im p ∩ ( Im q + (Ker p ∩ Ker q) )

c) Réciproquement, soit x ∈ Im p ∩ ( Im q + (Ker p ∩ Ker q) ) = Im p ∩ ( Im q + (Im p’ ∩ Im q’) ). Alors x = p(x) et x = y + z, où y = q(y) et z = z – p(z) = z – q(z), donc p(z) = q(z). (p.q)(x) = (p.q)(y) + (p.q)(z) = p(y) + (p.p)(z) = p(y) + p(z) = p(x) = x. QED.

d) Ker q ⊂ Ker(p.q) est tjs vrai. Et x ∈ Ker p ∩ ( Im p + Im q )) implique 0 = p(x) et x = p(y) + q(z).

Alors 0 = p(y) + (p.q)(z) et (p.q)(x) = (p.q.p)(y) + (p.q)(z) = (p.q) [ p(y) + (p.q)(z) ] = 0.

Ainsi Ker q + ( Ker p ∩ ( Im p + Im q ) ) ⊂ Ker(p.q).

e) Réciproquement, soit x ∈ Ker(p.q). Ecrivons x = q(x) + x’ , où x’ = x – q(x) ∈ Ker q. Il reste à montrer que q(x) ∈ Ker p ∩ ( Im p + Im q ). q(x) ∈ Ker p découle de (p.q)(x) = 0 ; et q(x) ∈ Im q ⊂ Im p + Im q.

Je dis que : p + q – p.q est un projecteur ⇔ [p, q] applique Ker q dans Im p ,

et alors : Ker(p + q – p.q) = Ker p ∩ ( Ker q + ( Im p ∩ Im q ) )

Im(p + q – p.q) = Im q + ( Im p ∩ ( Ker p + Ker q ) ).

Il suffit d’appliquer le résultat ci-dessus à p’ et q’.

7) Projecteurs orthogonaux. Deux projecteurs p et q sont orthogonaux si p.q = q.p = 0.

p et q sont orthogonaux ssi Im q ⊂ Ker p et Im p ⊂ Ker p,

ou encore ssi p et q commutent et Im p ∩ Im q = 0. En dimension finie, p et q sont orthogonaux ss’il existe une base BBBB de E telle que :

Mat(p, BBBB) =

OOOOOOOOIq

et Mat(q, BBBB) =

OOOOIOOOO

r .

Alors, p + q est un projecteur, d’image Im p ⊕ Im q et de noyau Ker p ∩ Ker q.

Si p et q sont orthogonaux et non nuls, A = λp + µq ; (λ, µ) ∈ K×K est une sous-algèbre de L(E),

commutative et isomorphe à K2.

8) Autres caractérisations de l’orthogonalité.

Soient p et q deux projecteurs. Montrons, si K est de caract ≠ 2, l’équivalence des propriétés :

i) p + q est un projecteur ii) p.q = − q.p iii) ∃α ∉ 0, 1 p.q = α.q.p iv) p et q sont orthogonaux.

Tout d’abord, (p + q)2 = p

2 + q

2 + p.q + q.p = p + q + p.q + q.p.

On en déduit aussitôt que iv) ⇒ i) ⇔ ii) ⇒ iii). Reste à montrer iii) ⇒ iv).

iv) ⇒ i) car alors (p + q)2 = p

2 + q

2 + p.q + q.p = p + q .

i) ⇔ ii) (p + q)2 = p

2 + q

2 + p.q + q.p = p + q + p.q + q.p ; donc (p + q)

2 = p + q ⇔ p.q + q.p = 0.

ii) ⇒ iii) découle de l’hypothèse faite sur la caractéristique de K , car −1∉0, 1.

iii) ⇒ iv) x ∈ Im q ⇒ x = q(x) ⇒ p(x) = (p.q)(x) = α.q(p(x)) ⇒ p(x) ∈ Ker(αq − I) = Ker(q − α−1I)

= 0, car α ≠ 0 et α−1 n’est pas valeur propre de q. Ainsi Im q ⊂ Ker p, i.e. p.q = 0.

De même, en échangeant les rôles de p et q, α devenant α−1, Im p ⊂ Ker p, i.e. q.p = 0.

iii) ⇒ iv) par le calcul. Tout d’abord p.q.p = α.q.p.p = α.q.p = p.q, donc p.q.p.q = p.q.q = p.q ; ainsi, p.q est un projecteur.

Page 36: Problèmes d’algèbre linéaire

36

p.q = α.q.p ⇒ (p.q)2 = α2

.(q.p)2 ⇒ p.q = α2

.(q.p)2 ⇒ α.q.p = α2

.(q.p)2 ⇒ q.p = α.(q.p)

2 (car α ≠ 0)

⇒ q.p = α.q.p.q.p = p.q.q.p = p.q.p ; donc p.q.p = p.q = q.p = α.q.p ; comme α ≠ 1, q.p = p.q = 0.

iii) ⇒ iv) par les matrices (en dimension finie).

Choisissons une base de E telle que p ait pour matrice

OOOI ; soit alors M =

DCBA celle de q.

La relation p.q = α.q.p se traduit par A = αA, B = O et O = αC. Comme α est différent de 0 et 1, A,

B et C sont nulles, et M =

DOOO . Il est immédiat que p.q = q.p = 0.

Cette méthode s’étend sans peine en dimension infinie, si l’on généralise les matrices-blocs.

9) L’ensemble ordonné (PPPP , ≤≤≤≤) des projecteurs de E. a) Montrons que p ≤ q ⇔ p = p.q = q.p est une relation d’ordre sur PPPP.

La réflexivité découle de p = p.p ; l’antisymétrie : p ≤ q et q ≤ p impliquent p = p.q = q.

Transitivité : p ≤ q ≤ r implique p = p.q = q.p et q = q.r = r.q, donc p = p.q.r = p.r et r.p = r.q.p = q.p = p. On peut retrouver cela en notant l’équivalence :

p ≤ q ⇔ p = p.q = q.p ⇔ p et q’ sont orthogonaux ⇔ Im p ⊂ Im q et Ker q ⊂ Ker p .

b) Montrons que p ≤ q ⇔ q − p ∈ PPPP.

p ≤ q ⇒ (q − p)2 = q

2 + p

2 – q.p – p.q = q + p – 2p = q – p , donc q – p ∈ PPPP.

q − p ∈ PPPP ⇔ (q − p)2 = q – p ⇔ 2p = p.q + q.p . Multipliant à droite et à gauche par p, il vient

2p = p.q + p.q.p = p.q.p + q.p, donc p.q = q.p = p.

c) Le plus petit élément de PPPP est 0, le plus grand I. Il est clair que p ≤ q ⇔ q’ ≥ p’.

d) Si p et q commutent, ils ont pour borne inférieure inf(p, q) = p.q, et pour borne supérieure sup(p, q) = p + q – p.q. En particulier, s’ils sont orthogonaux, leur borne inférieure est 0, leur borne supérieure p + q. Deux projecteurs associés p et p’ ont pour inf 0 et pour sup I. Exemple de borne supérieure. Soient E un plan, D et D’ deux droites distinctes de E, p et p’ des projecteurs sur D et D’ resp.

Alors p ≤ q et p’ ≤ q ⇔ Im p + Im p’ ⊂ Im q et Ker q ⊂ Ker p ∩ Ker p’.

Mais Ker p ∩ Ker p’ = 0, donc q = I. Donc sup(p, p’) = I. e) Les projecteurs minimaux parmi ceux qui sont non nuls sont les projecteurs de rang 1, i.e. les projecteurs sur les droites. Les projecteurs maximaux parmi ceux qui sont ≠ I sont les projecteurs de rang n – 1, i.e. les projecteurs sur les hyperplans.

Remarque finale : Sur les propriétés topologiques de PPPP, voir le problème de topologie matricielle en fin de volume.

Références : Bourbaki, Algèbre linéaire, chap. II, n° 38 p. 283 Chambadal-Ovaert, Algèbre I, n° 32, p. 289 (Gauthier-Villars) Glazman-Lioubitch, Analyse linéaire dans les espaces de dimension finie, éd. Mir, 1974

__________

Page 37: Problèmes d’algèbre linéaire

37

Problème 7 : Endomorphismes tripotents Soient K un corps de caractéristique ≠ 2, E un K -espace vectoriel. Un endomorphisme u de E est dit

tripotent 2 si u3 = u. Une matrice carrée A ∈ Mn(K ) est dite tripotente si A

3 = A ; on la confond

avec l’endomorphisme canoniquement associé.

1) Exemples.

a) Montrer qu’un projecteur et son opposé, une symétrie, sont des endomorphismes tripotents.

b) Montrer que A =

−−−97514118432

est tripotente ; est-elle d’un des types précédents ?

2) Propriétés générales. Soit u un endomorphisme tripotent.

a) Montrer que −u est tripotent, ainsi que ϕ−1.u.ϕ pour tout automorphisme ϕ de E.

b) Montrer que p = u2 est un projecteur, dont l’image est Im u, et le noyau Ker u.

c) Montrer que Im u est u-stable et que u induit une symétrie vectorielle dans Im u.

d) Montrer que E = Ker( u – idE ) ⊕ Ker( u + idE ) ⊕ Ker(u).

e) Montrer que u est tripotent ssi u s’écrit u = p – q, où p et q sont deux projecteurs tels que p.q

= q.p = 0. Montrer que p et q sont uniques ; les exprimer à l’aide de u et u2.

3) On suppose E de dimension finie n.

a) Montrer u tripotent ⇔ u2 est un projecteur et rg(u) = rg(u

2).

b) Soit u tripotent, a = dim Ker u , b = dim Ker( u – idE ) , c = dim Ker( u + idE ).

Montrer que a = tr( I – u2

) , b = 21 tr( u

2 + u ) , c =

21 tr( u

2 − u ).

4) Matrices tripotentes.

Montrer que A ∈ Mn(K ) est tripotente ssi A est semblable à une matrice de la forme

− c

b

a

IOOOIOOOO

,

où a + b + c = n. Combien y a-t-il de matrices tripotentes d’ordre n, à similitude près ?

5) Application à une équation différentielle.

On cherche les fonctions trois fois dérivables R → R telles que y’’’ = y’ (E).

Montrer qu’elles forment un sous-espace vectoriel de C∞

(R, R) stable par la dérivation D : y → y’.

Que dire de l’endomorphisme induit ? Quelles sont les solutions de (E) ? __________ Solution Cet exercice prélude au théorème des noyaux. Il suppose connus les projecteurs et les symétries.

1) b) Avec Maple :

> with(linalg): > A:=matrix(3,3,[2,3,4,-8,-11,-14,5,7,9]);

:= A

2 3 4

-8 -11 -14

5 7 9

2 Un endomorphisme tripotent n’est pas nécessairement tripotant…

Page 38: Problèmes d’algèbre linéaire

38

> iszero(A^3-A);iszero(evalm(A^2-A));iszero(evalm(A^2 +A));iszero(evalm(A^2-1));

true false false false

> m:=factor(minpoly(A,x));c:=factor(minpoly(A,x)); := m x ( ) − x 1 ( ) + x 1 := c x ( ) − x 1 ( ) + x 1

> k0:=kernel(A);k1:=kernel(A-1);k2:=kernel(A+1); := k0 [ ], ,1 -2 1

:= k1

, ,

12

-32

1

:= k2

, ,

13

-53

1

> P:=transpose(matrix([op(k0),op(k1),op(k2)]));multip ly(inverse(P),A,P);

:= P

112

13

-2-32

-53

1 1 1

0 0 0

0 1 0

0 0 -1

2) b) On a p2 = u

4 = u

2 = p.

p = u2 ⇒ Im p ⊂ Im u et Ker u ⊂ Ker p.

u = pu = up ⇒ Im u ⊂ Im p et Ker p ⊂ Ker u. Conclusion : p est un projecteur tel que Im p = Im u et Ker p = Ker u. Du coup, E = Ker u ⊕ Im u. c) Im u est toujours u-stable, car u(Im u) ⊂ Im u.

Soient F = Im u, et v = uF l’endomorphisme induit. Je dis que v2 = IdF.

En effet y ∈ F ⇒ (∃x) y = u(x) et v2(y) = u

2(u(x)) = u

3(x) = u(x) = y.

d) Il découle de b) et c) que : E = Ker u ⊕ F = Ker u ⊕ Ker(v − IdF) ⊕ Ker(v + IdF).

Or on vérifie que Ker(v − IdF) = Ker(u − IdE) et que Ker(v + IdF) = Ker(u + IdE). Variante plus directe : p étant un projecteur, on a, en vertu du petit théorème des noyaux :

E = Ker p ⊕ Ker(p − IdE) = Ker u ⊕ Ker(u2 − IdE) = Ker u ⊕ Ker(u − IdE) ⊕ Ker(u + IdE) .

e) Analyse. Soit u tripotent. Si u = p – q, avec p2 = p, q

2 = q et pq = qp = 0, alors

u2 = p + q, d’où p =

2² uu + , q =

2² uu − . Voilà pour l’unicité de p et q !

Synthèse : p et q ainsi définis vérifient p2 = p, q

2 = q et pq = qp = 0, et u = p – q.

3) a) Si u est tripotent, p est un projecteur et Im u = Im p, donc rg u = rg p.

b) Soit u tripotent, a = dim Ker u , b = dim Ker(u – idE) , c = dim Ker(u + idE).

Formons une base de E en recollant des bases de Ker u , Ker(u – idE) et Ker(u + idE).

La matrice de u relativement à la base obtenue est

− c

b

a

IOOOIOOOO

Page 39: Problèmes d’algèbre linéaire

39

On voit aussitôt que a = tr( I – u2

) , b = 21 tr( u

2 + u ) , c =

21 tr( u

2 − u ).

4) Matrices tripotentes.

Appliquant le résultat de 3b) à l’endomorphisme canoniquement associé, on voit que A∈Mn(K ) est

tripotente ssi elle est semblable à une matrice de la forme

− c

b

a

IOOOIOOOO

, où a + b + c = n.

Le triplet (a, b, c) est lié aux dimensions de Ker A et Ker (A ± I), donc est unique. Il y a autant de classes de similitude de telles matrices que de triplets (a, b, c) d’entiers ≥ 0 de

somme n, c’est-à-dire 2

)2)(1( ++ nn.

Remarque : Une matrice est tripotente ssi elle est pseudo-inversible et telle que A = A+ (cf. pb 12).

____________

Problème 8 : Automorphismes de LLLL(E) Soient K un corps commutatif, E un K -espace vectoriel de dimension n.

On se propose de déterminer tous les automorphismes d’algèbre de LLLL(E), i.e. toutes les bijections ϕ : LLLL(E) → LLLL(E) vérifiant :

∀(u, v) ∈ LLLL(E)×LLLL(E) ϕ(λ.u + µ.v) = λ.ϕ(u) + µ.ϕ(v) ϕ(u o v) = ϕ(u) o ϕ(v) ϕ(IdE) = idE .

1) Soit σ ∈ Gl(E). Vérifier que χσ : u → σ o u o σ−1 est un automorphisme de l’algèbre LLLL(E).

2) On appelle système d’unités toute famille (uij)(i,j)∈[1,n]² d’endomorphismes non nuls de E

vérifiant la condition : ∀(i, j, k, l) uij o ukl = δjk.uil (U)

A toute base BBBB = (e1, …, en) on associe la famille d’endomorphismes (uij) définie par :

(∀k) uij(ek) = δjk.ei

Montrer que (uij) est un système d’unités, dit associé à la base BBBB, et une base de LLLL(E).

3) Soit (vij) un système d’unités ; on pose pi = vii pour i = 1, …, n.

a) Calculer pi o pi et pi o pj ( j ≠ i ). Nature géométrique des endomorphismes pi ?

b) Montrer que E = ⊕1≤i≤n Im pi . En déduire que (∀i) rg pi = 1.

c) Soit b1 ∈ Im p1−0]. On pose bi = vi1(b1) (i = 2, ..., n). Montrer que (b1, …, bn) est une base

de E, et que (vij) est le système d’unités associé à cette base.

4) A l’aide des questions 2) et 3), établir que tout automorphisme ϕ de LLLL(E) est de la forme

u → σ o u o σ−1, où σ ∈ Gl(E) (théorème de Skolem-Noether). Montrer que σ → χσ est un

morphisme du groupe Gl(E) sur le groupe des automorphismes de LLLL(E) ; quel est son noyau ? ___________ Références : Michel Cognet, Algèbre linéaire (Bréal) p. 36, Th de Skolem-Noether ___________

Page 40: Problèmes d’algèbre linéaire

40

Problème 9 : Espaces vectoriels en dualité Soit K un corps commutatif. Deux K -espaces vectoriels E et F sont dits en dualité s’il existe une forme bilinéaire B sur E×F séparante, en ce sens que :

• ∀(x, x') ∈ E2 x ≠ x' ⇒ (∃y ∈ F) B(x , y) ≠ B(x' , y)

• ∀(y, y') ∈ F2 y ≠ y' ⇒ (∃x ∈ E) B(x , y) ≠ B(x , y').

1) Soit B une forme bilinéaire séparante. Montrer que x → B(x, .) est linéaire injective de E dans F*, et y → B(. , y) est linéaire injective de F dans E*. Réciproque ?

2) Soient E et F deux espaces en dualité. Montrer que si l’un est de dimension finie, l’autre aussi, et qu’alors ils ont même dimension.

3) Les vecteurs x de E et y de F sont dits orthogonaux si B(x, y) = 0.

Pour tout sev L de E, on note L° = y ∈ F ; (∀x ∈ L) B(x, y) = 0

Pour tout sev M de F, on note °M = x ∈ E ; (∀y ∈ M) B(x, y) = 0 Montrer que 0° = F et E° = 0 ; °0 = E et °F = 0 ;

L ⊂ L' ⇒ L° ⊃ L'° et M ⊂ M' ⇒ °M ⊃ °M' ;

( L + L' )° = L° ∩ L'° et °( M + M' ) = °M ∩ °M' ( L ∩ L' )° ⊃ L° + L'° et °( M ∩ M' ) ⊃ °M + °M'

L ⊂ °(L°) et M ⊂ (°M)° .

4) a) Montrer que, si E et F sont de dimension finie, les 4 dernières inclusions sont des égalités.

b) Soient E = K(N)

l’espace des suites nulles à partir d’un certain rang, F = KN

l’espace des

suites. Montrer que B(x, y) = ∑+∞

=0

.n

nn yx est une forme bilinéaire séparante sur E×F, et donner des

exemples où les inclusions vues en 3) sont strictes.

5) Soient A, B, C ∈ Mn(K ). Montrer l’équivalence des propriétés :

i) ∃X ∈ Mn(K ) A.X + X.A = B ;

ii) ∀C ∈ Mn(K ) A.C + C.A = 0 ⇒ tr(B.C) = 0 . ___________

Solution 1) est très facile.

2) Si E est de dimension finie n, E* aussi, et F est de dimension finie p ≤ n, puisqu’il existe une injection linéaire de F dans E*. Comme il existe une injection linéaire de E dans F*, n ≤ p. Finalement p = n.

3) E et F jouant le même rôle, il suffit de montrer les propriétés relatives aux sous-espaces de E. C’est facile : « L’âne trotte », dirait Bourbaki.

4) a) Si E et F sont de dimension finie n, montrons que : dim L + dim L° = n et dim M + dim °M = n. En effet, Φ : x → B(x, .) est alors un isomorphisme de E sur F*. L° = y ∈ F ; (∀x ∈ L) B(x, y) = 0 = y ∈ F ; (∀x ∈ L) < Φ(x) , y > = 0 = Φ(L)°, au sens de l’orthogonalité du cours sur la dualité. Du coup dim L° = dim Φ(L)° = n − dim Φ(L) = n – dim L. dim M + dim °M = n s’en déduit aussitôt en échangeant E et F.

b) Tout d’abord B est bien définie E×F → K , et évidemment bilinéaire. Elle est séparante car :

Page 41: Problèmes d’algèbre linéaire

41

• Si x ∈ E est non nul, il existe y ∈ F tel que B(x, y) ≠ 0 : il existe n tel que xn ≠ 0, et il suffit de

prendre yn = 1, yp = 0 pour p ≠ n .

• Si y ∈ F est non nul, il existe x ∈ E tel que B(x, y) ≠ 0 : il existe n tel que yn ≠ 0, et il suffit de

prendre xn = 1, xp = 0 pour p ≠ n .

Soit (en) la base canonique de E ; c’est une famille libre de F.

On a (∀n) ∀(x, y) ∈ E×F B(en, y) = yn et B(x, en) = xn. Du coup °F = °E = 0. Ceci a deux conséquences : − La correspondance M → °M n’est pas bijective ; en fait °M = 0 pour tout sev de F contenant E. − De plus (°E)° = F ≠ E.

Remarque : En réalité, F « est » le dual de E, en ce sens que toute forme linéaire sur E s’écrit de

façon unique sous la forme f : x = (xn) → ∑ nnyx , où (yn) est élément de F : poser yn = f(en).

En revanche, E « n’est pas » le dual de F. Il est strictement inclus dans ce dual, en ce sens que l’application x → B(x, .) est linéaire injective, mais non surjective de E dans F*. Soit en effet G le sous-espace de F formé des suites constantes à partir d’un certain rang.

On a G = E ⊕ Ke, où e est la suite constante (1, 1, 1, …). L’application f : y ∈ G → lim∞ yn est une

forme linéaire sur G, est n’est pas combinaison linéaire des B(en, .). F* est en effet de dimension non dénombrable, en vertu du théorème d’Erdös-Kaplansky ! Si L et L’ sont des sev de E, je dis que (L ∩ L')° = L° + L'° et L = °(L°).

Soit f une forme linéaire nulle sur L ∩ L'. Complétons une base (ai) de L ∩ L', d’une part en une

base ((ai), (bj)) de L, d’autre part en une base ((ai), (ck)) de L'. Alors ((ai), (bj), (ck)) est une base de

L + L’. Complétons-là en une base ((ai), (bj), (ck), (dp)) de E. Définissons les formes linéaires g et h sur E par :

g(ai) = 0 , g(bj) = 0 , g(ck) = f(ck) , g(dp) = f(dk) .

h(ai) = 0 , h(bj) = f(bj) , h(ck) = 0 , h(dp) = 0 .

Alors g est nulle sur L, h nulle sur L’, et f = g + h.

Montrons que L = °(L°). Soit (ai) une base de L, complétée en une base ((ai), (bj)) de E.

Notons ((fi), (gj)) la base duale. Je dis que L° = Vect(gj) et que °(L°) = Vect(ai) = L.

Si M et M’ sont des sev de F, je dis que °(M ∩ M') ⊃ °M + °M' et M ⊂ (°M)° .

5) Trace et dualité. Il est clair que i) ⇒ ii), car tr(B.C) = tr(AXC + XAC) = tr(AXC) + tr(XAC) = tr(XCA) + tr(XAC) = tr(X(AC + CA)) = 0, par invariance circulaire de la trace. L’implication réciproque va provenir d’un argument de dualité.

Φ(P, Q) = tr(P.Q) est une forme bilinéaire séparante sur Mn(K ).

L : M → AM + MA est un endomorphisme de Mn(K ), autoadjoint pour Φ, en ce sens que Φ(L(P), Q) = Φ(P, L(Q)). En effet Φ(L(P), Q) = tr((AP + PA).Q) = tr(APQ) + tr(PAQ) = tr(PQA) + tr(PAQ) = tr(P(QA + AQ)) = Φ(P, L(Q)). On en déduit que (Im L)° = Ker L. Car Q∈(Im L)° ⇔ (∀P) Φ(L(P), Q) = 0 ⇔ (∀P) Φ(P, L(Q)) = 0 ⇔ L(Q) = 0 ⇔ Q∈Ker L. ii) s’écrit ∀C ∈ Mn(K ) C ∈ Ker L ⇒ Φ(B, C) = 0 , autrement dit Ker L ⊂ (KB)°. Mais Ker L ⊂ (KB)° ⇔ KB ⊂ (Ker L)° ⇔ B ∈ (Ker L)° ⇔ B ∈ (Im L)°° = Im L. CQFD! ___________

Page 42: Problèmes d’algèbre linéaire

42

Problème 10 : Dualité en dimension infinie Dans ce problème, E désigne un K -espace vectoriel de dimension infinie. Nous nous proposons de montrer que certaines propriétés de dualité établies en dimension finie subsistent, et d’autres pas.

Rappels : i) Tout K -espace vectoriel E admet au moins un base ; deux bases sont équipotentes, et l’on appelle dimension de E le cardinal d’une quelconque de ses bases. Toute famille libre peut être complétée en une base. ii) Le cardinal ℵ1 est strictement inférieur au cardinal ℵ2 s’il existe une injection de tout ensemble de cardinal ℵ1 dans tout ensemble de cardinal ℵ2 , et non l’inverse.

A. Dimensions.

1) Soit B = (ei)i∈I une base de E. Tout vecteur x s’écrit de façon unique x = ∑i∈I xi.ei , où les scalaires xi sont nuls sauf un nombre fini d’entre eux. Montrer que les formes coordonnées ei* : x → xi forment une famille libre de E*, mais non une base de E* (considérer la forme linéaire f telle que f(ei) = 1 pour tout i).

2) Montrer que l’homomorphisme ε : x∈E → εx∈E** est injectif mais non surjectif.

3) Pour toute partie J de I, on note fJ la forme linéaire telle que fJ(ei) = 1 si i∈J , 0 sinon. Montrer que (fJ)J∈ (I) est une famille libre de E* et en déduire que dim(E) < dim(E*) puis que :

dim E < dim E* < dim E** < dim E*** < ... 3 B. Sous-espaces de codimension finie, orthogonalité.

4) Montrer que le crochet de dualité (f , x) → < f , x > = f(x) est une forme bilinéaire séparante, en

ce sens que : ∀(x, y) ∈ E2 x ≠ y ⇒ ∃f ∈ E* f(x) ≠ f(y) ;

∀(f, g) ∈ E*2 f ≠ g ⇒ ∃x ∈ E f(x) ≠ g(x).

5) Soit F un sous-espace de E. Montrer l’équivalence des propriétés : i) F est un sous-espace de codimension p ; ii) il existe p formes linéaires indépendantes f1, ..., fp telles que F = ∩ Ker(fi) ; iii) F est l’orthogonal d’un sous-espace M de dimension p de E* : F = °M ; iv) E/F est un espace de dimension p.

6) Étude des correspondances L ∈ V(E) → L° ∈ V(E*) et M ∈ V(E*) → °M ∈ V(E). i) 0° = E* et E° = 0 ; °0 = E et °E* = 0 ;

ii) décroissance pour l’inclusion : L ⊂ L' ⇒ L° ⊃ L'° et M ⊂ M' ⇒ °M ⊃ °M' ; iii) compatibilité avec la structure de treillis : ( L + L' )° = L° ∩ L'° et °( M + M' ) = °M ∩ °M' ( L ∩ L' )° = L° + L'° et °( M ∩ M' ) = °M + °M'

iv) involution : °(L°) = L et M ⊂ (°M)° . Montrer que si M est de dimension finie, alors M = (°M)° .

Donner un exemple de sous-espace M de E* tel que M ≠ (°M)°.

7) Transposition : Soit u ∈ LLLL(E, F), tu l’application transposée tu ∈ LLLL(F*, E*). i) Montrer que Ker tu = Im(u)° et Im tu = ° Ker(u) . ii) Montrer que u est injective ⇔ tu est surjective ; u est surjective ⇔ tu est injective. iii) Montrer que u est de rang fini ⇔ tu est de rang fini , et alors rg u = rg tu. _________

3 La situation en dimension infinie est sur ce point très différente de celle qui prévaut en dimension finie. Un spectaculaire théorème d’Erdös-Kaplansky établit que si E est de dimension infinie, E* a pour dimension card(E*). Cela ne signifie pas que E* est une base de lui-même, mais que toute base de E* est équipotente à E*; c’est dire qu’elle est très grande ! Ce théorème est établi dans le cours de taupe de Gostiaux, t. 1, p. 221.

Page 43: Problèmes d’algèbre linéaire

43

Problème 10 : Idéaux d’endomorphismes Soient K un corps commutatif, V un K -espace vectoriel de dimension finie, LLLL(V) l’algèbre des endomorphismes de V. On note f.g le produit des éléments f et g de LLLL(V), i.e. f.g = fog. On appelle :

• idéal à gauche de LLLL(V) tout sous-espace M de LLLL(V) tel que : ∀ϕ ∈ LLLL(V) ∀f ∈ M ϕ.f ∈M ;

• idéal à droite de LLLL(V) tout sous-espace M de LLLL(V) tel que : ∀ϕ ∈ LLLL(V) ∀f ∈ M f.ϕ ∈M .

Si W est un sous-espace vectoriel de V, on note :

• JW l’ensemble des endomorphismes de V dont l’image est contenue dans W ;

• KW l’ensemble des endomorphismes de V dont le noyau contient W.

Si f est un endomorphisme de V, on note : • ∆f = f.ϕ ; ϕ ∈ LLLL(V) Df = ψ ∈ LLLL(V) ; f.ψ = 0 • Γf = ϕ.f ; ϕ ∈ LLLL(V) Gf = ψ ∈ LLLL(V) ; ψ.f = 0 1) Soit W un sous-espace vectoriel de V.

a) Montrer que JW est un idéal à droite, et KW un idéal à gauche, de LLLL(V) .

b) Exprimer dim JW et dim KW en fonction de dim V et dim W.

2) Soit f un endomorphisme de V.

a) Montrer qu’il existe des sous-espaces W et W' de V tels que Df = JW et Gf = KW' .

b) Préciser les dimensions des idéaux Df et Gf à l’aide de dim V et rg f ;

c) Montrer qu’il existe des sous-espaces W" et W''' de V tels que ∆f = JW" et Γf = KW''' .

3) Soit W un sous-espace vectoriel de V. Montrer qu’il existe f, g, h, k ∈ LLLL(V) tels que : JW = Df = ∆g et KW = Gh = Γk .

4) Soient W et W' deux sous-espaces vectoriels de V.

a) Montrer que JW ∩ JW' = JW∩W' et KW ∩ KW' = KW+W' .

b) Montrer que JW + JW' = JW+W' et KW + KW' = KW∩W' .

5) a) Soit M un idéal à droite de LLLL(V). Soit W un sous-espace de V tel que JW ⊂ M et tel qu'aucun sous-espace W' de V ne vérifie JW' ⊂ M et dim W' > dim W. Montrer que JW = M .

b) Soit M un idéal à gauche de LLLL(V). Montrer de même qu’il existe un sous-espace W de V tel que KW = M.

6) a) Soient U et W des sous-espaces de V. Calculer dim( JU ∩ KW ).

b) Montrer que 0 et LLLL(V) sont les seuls idéaux à droite et à gauche de LLLL(V) .

c) Y a-t-il un homomorphisme d’algèbres f : LLLL(V) → K tel que f(IdV) = 1 ? ___________ Solution

à Pierre A*, Fabrice H*, Laurent M* et Laurent D*, les quatre mousquetaires de l’HX1 1983-84.

1) Les idéaux JW et KW .

a) Montrons que JW est un idéal à droite, et KW un idéal à gauche, de LLLL(V) .

L’application nulle est élément de JW et de KW .

Si g, h ∈ JW , αg + h ∈ JW car ∀y ∈ Im(αg + h) (∃x) y = αg(x) + h(x) ∈ W.

Si g ∈ JW et ϕ ∈ L(V), g.ϕ ∈ JW car ∀y ∈ Im(g.ϕ) (∃x) y = (g.ϕ)(x) = g(ϕ(x)) ∈ Im g ⊂ W.

Page 44: Problèmes d’algèbre linéaire

44

Si g, h ∈ KW , αg + h ∈KW car ∀x ∈ W (αg + h)(x) = αg(x) + h(x) = 0.

Si g ∈ KW et ϕ ∈ LLLL(V), ϕ.g ∈ KW car ∀x ∈ W (ϕ.g)(x) = ϕ(g(x)) = 0.

Remarque : au fond, tout ceci repose sur les inclusions suivantes :

Im 0 = 0 , Im(g + h) ⊂ Im g + Im h , Im(λg) = 0 si λ = 0, Im g si λ ≠ 0,

Ker 0 = V , Ker(g + h) ⊃ Kerg ∩ Ker h , Ker(λg) = V si λ = 0, Ker g si λ ≠ 0,

Im(g.ϕ) = g( Im ϕ ) ⊂ Im g et Ker(ϕ.g) = g−1

( Ker ϕ ) ⊃ Ker g.

b) Calcul des dimensions.

• Se donner un endomorphisme g de V dont l’image est incluse dans W, revient à se donner une application linéaire de V dans W, à savoir sa « corestriction » à W. On peut dire par abus que JW =

LLLL(V, W), ou plutôt que JW est isomorphe à L(V, W) via l’application g → W

Vg . Donc

dim JW = (dim V)×(dim W) . • Se donner un endomorphisme g de V nul sur W, revient à se donner une application linéaire h : W’ → V, où W’ est un supplémentaire de W : sa restriction à W’. Autrement dit, KW est isomorphe à

LLLL(W’, V) via l’application linéaire bijective g → h = V

Wg

'. Donc

dim KW = (dim W’)×(dim V) = (dim V − dim W)×(dim V) .

Matriciellement, soient n = dim V, p = dim W.

Complétons une base (a1, …, ap) de W en une base BBBB = (a1, …, ap, ap+1, …, an) de V. Alors :

g ∈ JW ⇔ Mat(g, BBBB) = [ OA] , où A ∈ MK(p, n).

g ∈ KW ⇔ Mat(g, BBBB) = [O B] , où B ∈ MK(n, n−p).

Par suite, JW est isomorphe à MK(p, n), et KW est isomorphe à MK(n, n−p). Il reste à passer aux dimensions.

Remarques : 1) Isomorphismes canoniques. JW est canoniquement isomorphe à LLLL(V, W), KW canoniquement

isomorphe à LLLL(V/W, V). En effet, si g ∈ KW, x ≡ y (mod W) ⇒ g(x) = g(y). Notant x la classe de x

modulo W, g(x) ne dépend que de x . Si l’on pose g ( x ) = g(x), on voit que g est une application

linéaire de V/W dans V, et la correspondance g → g est un isomorphisme. Il reste à passer aux dimensions.

2) Approche par dualité. Soient V* le dual de V, tg la transposée de g, W° l’orthogonal de W.

Si g ∈ LLLL(V), g ∈ KW ⇔ W ⊂ Ker g ⇔ (Ker g)° ⊂ W° ⇔ Im tg ⊂ W° ⇔

tg ∈ °WJ .

Ainsi, g → tg induit un isomorphisme de KW sur °WJ . Le fait que KW soit un idéal à gauche de LLLL(V)

découle du fait que °WJ est un idéal à droite de LLLL(V*). Enfin,

dim KW = dim °WJ = (dim V*)×(dim W°) = (dim V)×( dim V − dim W ). 2) Autres exemples d’idéaux.

a) Soit f ∈ LLLL(V). Je dis que Df = JKer f et que Gf = KIm f .

Df = JKer f car ψ ∈ Df ⇔ f.ψ = 0 ⇔ Im ψ ⊂ Ker f ⇔ ψ ∈ JKer f .

Gf = KIm f car ψ ∈ Gf ⇔ ψ.f = 0 ⇔ Ker ψ ⊃ Im f ⇔ ψ ∈ KIm f .

b) Dimensions des idéaux Df et G f . Il découle de 1) et 2.a) que :

dim Df = dim JKer f = (dim V)×dim( Ker f ) = (dim V)×( dim V − rg f )

dim Gf = dim KIm f = (dim V)×( dimV – rg f )

Page 45: Problèmes d’algèbre linéaire

45

c) Montrons que ∆f = JIm f et Γf = KKer f .

Nous allons montrer cela par inclusion et égalité des dimensions.

Il est clair que ∆f ⊂ JIm f et Γf ⊂ KKer f .

∆f est l’image, et Df le noyau, de l’endomorphisme ϕ → f.ϕ de LLLL(V) ;

Γf est l’image, et Gf le noyau, de l’endomorphisme ϕ → ϕ.f de LLLL(V).

En vertu du théorème du rang :

dim ∆f = (dim V)2 − dim Df = (dim V)×rg f = dim JIm f .

dim Γf = (dim V)2 − dim Gf = (dim V)×rg f = dim KKer f .

NB : Les égalités ∆f = JIm f et Γf = KKer f sont des théorèmes de factorisation, qu’on peut établir directement, sans recourir à l’égalité des dimensions, donc aussi en dimension infinie : cf. pb 4. 3) Equivalence des formes.

Soient W un sous-espace vectoriel de V, p un projecteur sur W, q = I – p le projecteur associé. Il découle de 2) que :

JW = Dq = ∆p et KW = Gp = Γq .

4) Etude des correspondances W →→→→ JW et W →→→→ KW.

Soient W et W' deux sous-espaces vectoriels de V. Montrons que :

JW ∩ JW’ = JW∩W’ et KW ∩ KW’ = KW+W’ .

JW + JW' = JW+W' et KW + KW' = KW∩W' .

4 égalités, donc 8 inclusions ; 6 sont très faciles, 2 demandent du soin.

f ∈ JW ∩ JW’ ⇔ Im f ⊂ W et Im f ⊂ W’ ⇔ Im f ⊂ W ∩ W’ ⇔ f ∈ JW∩W' .

f ∈ KW ∩ KW’ ⇔ W ⊂ Ker f et W’ ⊂ Ker f ⇔ W + W’ ⊂ Ker f ⇔ f ∈ KW+W’ .

• Il est facile de montrer que JW + JW' ⊂ JW+W' .

En effet, soit f ∈ JW + JW' ; ∃(g, h)∈JW×JW' f = g + h.

Alors Im f = Im(g + h) ⊂ Im g + Im h ⊂ W + W’, donc f ∈ JW+W' .

L’inclusion réciproque peut se montrer de deux façons :

1ère méthode : par égalité des dimensions.

dim JW+W’ = (dim V)×dim(W + W’) par 1.b)

= (dim V)×[dim W + dim W’ − dim(W∩W’)] par Grassmann

= (dim V)×(dim W) + (dim V)×(dim W’) − (dim V)×dim(W∩W’)

= dim JW + dim JW’ − dim JW∩W’ par 1.b)

= dim JW + dim JW’ − dim (JW ∩ JW’) par 4.a)

= dim (JW + JW’) par Grassmann .

2ème méthode : directe.

Soit f ∈ JW+W’ . Construisons un couple (g, h) ∈ JW×JW' tel que f = g + h.

Soit (ei) une base de V. Comme Im f ⊂ W + W’, pour tout i, on peut choisir (ai, bi)∈W×W’ tel que

f(ei) = ai + bi . Définissons g ∈ LLLL(V) et h ∈ LLLL(V) par (∀i) g(ei) = ai et h(ei) = bi .

Il est clair que f = g + h (elles sont linéaires et coincident sur une base), et que (g, h) ∈ JW×JW' .

Remarque : La seconde méthode est plus générale que la première, car valable même en dimension infinie, moyennant l’axiome du choix.

Page 46: Problèmes d’algèbre linéaire

46

• Il est facile de montrer que KW + KW' ⊂ KW∩W' .

En effet, soit f ∈ KW + KW' ; ∃(g, h) ∈ KW×KW' f = g + h.

Alors Ker f = Ker(g + h) ⊃ Ker g ∩ Ker h ⊃ W ∩ W’, donc f ∈ KW∩W' .

L’inclusion réciproque peut se montrer de deux façons :

1ère méthode : par égalité des dimensions.

dim KW∩W’ = (dim V)×[ dim V − dim(W∩W’) ] par 1.b)

= (dim V)×[ dim V − dim W − dim W’ + dim(W∩W’) ] par Grassmann

= (dim V)×(dim V − dim W) + (dim V)×(dim V − dim W’) − (dim V)×(dim V − dim(W∩W’))

= dim KW + dim KW’ − dim KW+W’ par 1.b)

= dim KW + dim KW’ − dim (KW ∩ KW’) par 4.a)

= dim (KW + KW’) par Grassmann

2ème méthode : directe.

Soit f ∈ KW∩W’ . Construisons un couple (g, h) ∈ KW×KW’ tel que f = g + h.

Soit (e1, …, er) une base de W ∩ W’, complétée, d’une part en une base (e1, …, er, er+1, …, es) de

W, d’autre part en une base (e1, …, er, es+1, …, et) de W’. On sait que la famille (e1, …, et) est une

base de W + W’. Complétons-la en une base (e1, …, en) de V.

On a f(ei) = 0 pour 1 ≤ i ≤ r. Posons f(ei) = ai pour r+1 ≤ i ≤ n.

Définissons les endomorphismes g et h de V par :

♣ g(ei) = 0 , h(ei) = 0 pour 1 ≤ i ≤ r

♦ g(ei) = 0 , h(ei) = ai pour r+1 ≤ i ≤ s

♥ g(ei) = ai , h(ei) = 0 pour s+1 ≤ i ≤ t

♠ g(ei) = 0 , h(ei) = ai pour t+1 ≤ i ≤ n.

On a f = g + h, car g et h coincident sur la base (ei), et g|W = h|W’ = 0

Remarque : Ici encore, la seconde méthode est plus générale que la première.

Enfin, les fanas de dualité peuvent mettre en dualité les propriétés de J et celles de K, et déduire les unes des autres : cf. question 1, remarque 2. 5) Caractérisation des idéaux à droite, et des idéaux à gauche, de LLLL(V).

a) Idéaux à droite. Soit M un idéal à droite de LLLL(V). La famille des sous-espaces vectoriels W de V tels que JW ⊂ M est non vide, car elle contient 0. Elle admet des éléments maximaux pour l’inclusion : ce sont ceux de dimension maximum. Soit W l’un d’entre eux. Je dis que JW = M .

On a déjà JW ⊂ M. Il reste à montrer que M ⊂ JW , i.e. (∀g ∈ M) Im g ⊂ W.

Si g ∈ M, on a ∆g = JIm g ⊂ W, donc JW + JIm g = JW + Im g ⊂ M.

Or l’inclusion W ⊂ W + Im g et la maximalité de W imposent W + Im g = W, donc Im g ⊂ W.

Théorème 1 : L’application W → JW est un isomorphisme du treillis VVVV des sous-espaces vectoriels

de V sur celui des idéaux à droite de LLLL(V). La bijection réciproque est M → W = ∑∈Mf

fIm .

Montrons que M = JW ⇒ W = ∑∈Mf

fIm . L’injectivité de W → JW en découlera. Si f ∈ JW, Im f ⊂

W, donc∑∈Mf

fIm ⊂ W ; par ailleurs, si p est un projecteur sur W, p ∈ JW et W = Im p ⊂ ∑∈Mf

fIm .

Page 47: Problèmes d’algèbre linéaire

47

b) Idéaux à gauche. Soit M un idéal à gauche de L(V). Montrons qu’il existe un sous-espace W de V tel que KW = M.

La famille des sev W de V tels que KW ⊂ M est non vide car elle contient V. Elle a des éléments minimaux pour l’inclusion : ce sont les sev de dimension minimum. Soit W l’un d’eux. Montrons

que M = KW. On a déjà KW ⊂ M. Il reste à montrer que M ⊂ KW, i.e. (∀g ∈ M) Ker g ⊃ W.

Si g ∈ M, on a Γg = KKerg ⊂ M, donc KW + KKerg = KW∩Kerg ⊂ M. Or l’inclusion W ∩ Ker g ⊂ W et la minimalité de W imposent W ∩ Ker g = W, donc Ker g ⊃ W. cqfd.

Théorème 2 : L’application W → KW est un anti-isomorphisme du treillis VVVV des sous-espaces vec-

toriels de V sur celui des idéaux à gauche de LLLL(V). La bijection réciproque est M → W =IMf

Kerf∈

.

La dernière assertion est laissée en exercice. Par ailleurs, on peut déduire le théorème 2 du théorème 1 par dualité. 6) Idéaux bilatères et caractères de LLLL(V).

a) Soient U et W des sous-espaces de V. Calculons dim(JU ∩ KW).

Complétons une base (a1, …, ap) de W en une base BBBB = (a1, …, ap, ap+1, …, an) de V.

Complétons une base (b1, …, bq) de U en une base BBBB’ = (b1, …, bq, bq+1, …, bn) de V.

Alors g ∈ JU ∩ KW ⇔ Mat(g, BBBB, BBBB’) =

OOBO , où B∈MK(q, n − p), et la correspondance g → B

est un isomorphisme : JU ∩ KW est isomorphe à un sous-espace de dimension q×(n − p) de Mn(K ).

dim( JU ∩ KW ) = (dim U) × (dim V − dim W) .

Une solution linéaire consiste à choisir un supplémentaire W’ de W, et à noter que g → U

Wg

' est un

isomorphisme de JU ∩ KW sur LLLL(W’, U).

b) Idéaux bilatères de LLLL(V) .

Soit M un idéal bilatère de LLLL(V). Alors, par 5), il existe U et W tels que M = JU = KW . Mais alors M = JU ∩ KW . Passant aux dimensions, il vient :

(dim V)×(dim U) = (dim V)×(dim V − dim W) = (dim U)×(dim V − dim W).

Supposons dim V > 0. Alors cela équivaut à dim U = dim V − dim W et (dim U)×(dim W) = 0. Si dim U = 0, M = 0. Sinon, dim W = 0 et M = LLLL(V).

Si dim V = 0, il n’y a rien à montrer, car LLLL(V) = 0.

Théorème 3 : Si V est un espace vectoriel de dimension finie, les seuls idéaux bilaètres de L(V) sont 0 et LLLL(V).

Remarque : En dimension infinie, il n’en est plus de même. L’ensemble des endomorphismes de rang fini de V est un idéal bilatère non trivial de LLLL(V).

Exercice : Montrer, par des techniques matricielles, que les seuls idéaux bilatères de Mn(K ) sont 0

et Mn(K ).

c) Si dim V ≥ 2, il n’y a pas d’homomorphisme d’algèbres f : LLLL(V) → K tel que f( Id V ) = 1.

En effet, son noyau serait un idéal bilatère de LLLL(V), strictement inclus dans LLLL(V). Ce serait donc 0, et f serait injectif. Cela implique dim LLLL(V) = 1, donc dim V = 1. Références : ENSAE 1983, Deuxième composition de maths, 1ère partie.

Page 48: Problèmes d’algèbre linéaire

48

Problème 11 : dimension maximale de certains sous-espaces de Mn(R) Dans ce problème, on confond librement vecteurs et matrices-colonnes, matrices et applications linéaires canoniquement associées. Soient n un entier ≥ 2, r un entier tel que 1 ≤ r ≤ n − 1.

On se propose de calculer la dimension maximale d’un sous-espace vectoriel de Mn(R) formé de matrices de rang ≤ r.

A) Résultats préliminaires.

1) a) Soit X = t(x1, …, xn) ∈ R

n = MR(n, 1). Si

tX.X = 0, que dire de X ?

b) Soit M ∈ Mn(R). Montrer que Ker M = Ker(tM.M).

2) Soit M =

DCBA ∈ Mn(R) une matrice-blocs, où A ∈ Glr(R).

a) Soit Z = [ YX ] ∈ R

n , où X ∈ R

r , Y ∈ R

n−r . Ecrire les relations entre A, B, C, D, X et Y

traduisant l’appartenance de Z à Ker M. En déduire que Ker M est l’image de Ker(D − C.A−1

.B) par

l’application linéaire f : Y ∈ Rn−r

→ [Y

YBA .1−− ] ∈ Rn .

b) Montrer que rg M ≥ r , et que rg M = r ⇔ D = C.A−1

.B.

3) Soit W(r) =

DBBO

t ∈ Mn(R) ; B ∈ MR(r, n − r) , D ∈ Mn−r(R) .

Montrer que W(r) est un sous-espace vectoriel de Mn(R). Quelle est sa dimension ?

B) Dimension maximale.

Dans cette partie, V désigne un sous-espace vectoriel de Mn(R) tel que ∀M ∈ V rg M ≤ r.

1) On suppose dans cette question que

OOOI r ∈ V.

a) Soit

DBBO

t ∈ V , avec B ∈ MR(r, n − r) , D ∈ Mn−r(R).

Montrer que D = t B.B = O, puis que B = O. [ On utilisera la question A.2 avec M =

DBBI

tr.λ .]

b) Prouver que dim V ≤ n×r .

2) a) Montrer que la majoration dim V ≤ n×r subsiste si on ne fait plus l’hypothèse indiquée au début de la question précédente.

b) Indiquer un sous-espace de Mn(R) de dimension n×r, ne contenant que des matrices de rang au plus égal à r.

____________ Solution

A) Résultats préliminaires.

1) a) Soit X = t(x1, …, xn) ∈ R

n = MR(n, 1).

tX.X = 0 ⇔ X = 0, car ∑ )²( ix = 0 ⇔ (∀i) xi = 0.

Remarque : Il s’agit là d’une propriété particulière du corps des réels : −1 n’est pas une somme de carrés. Cette propriété caractérise les corps ordonnés (théorème d’Artin-Schreier).

Page 49: Problèmes d’algèbre linéaire

49

b) Soit M ∈ Mn(R). Ker M ⊂ Ker(tM.M), car M.X = 0 ⇒ (

tM.M).X = 0.

Ker(tM.M) ⊂ Ker(M) car (

tM.M).X = 0 ⇒

tX.(

tM.M).X = 0 ⇒

t(M.X).(M.X) = 0 ⇒ M.X = 0.

2) Soit M =

DCBA ∈ Mn(R) une matrice-blocs, où A ∈ Glr(R).

a) Etude de Ker M. Soit Z = [ YX ] ∈ R

n , où X ∈ R

r , Y ∈ R

n−r .

Z ∈ Ker M ⇔ A.X + B.Y = 0 et C.X + D.Y = 0 ⇔ X = − A−1

.B.Y et ( D − C.A−1

.B ).Y = 0

On en déduit que Ker M est l’image de Ker(D − C.A−1

.B) par l’application linéaire :

f : Y ∈ Rn−r

→ [Y

YBA .1−− ] ∈ Rn .

b) Cette application est injective, dim Ker M = dim Ker(D − C.A−1

.B) ≤ n – r , et rg M ≥ r .

De plus, rg M = r ⇔ dim Ker M = n – r ⇔ D = C.A−1

.B.

3) Soit W(r) =

DBBO

t ∈ Mn(R) ; B ∈ MR(r, n − r) , D ∈ Mn−r(R) .

L’application u : (B, D) →

DBBO

t est linéaire injective de MR(r, n − r)×Mn−r(R) dans Mn(R).

Son image est donc un sous-espace vectoriel de dimension r×(n − r) + (n− r)2 = n×(n − r) de Mn(R).

B) Dimension maximale.

Soit V un sous-espace vectoriel de Mn(R) tel que ∀M ∈ V rg M ≤ r.

1) Supposons d’abord que

OOOI r ∈ V.

a) Soit

DBBO

t ∈ V , avec B ∈ MR(r, n − r) , D ∈ Mn−r(R).

Pour tout λ ∈ R , M(λ) =

DBBI

tr.λ ∈ V comme combinaison linéaire.

Si λ est non nul, λ.Ir est inversible. Comme rg M(λ) ≤ r , D = λ1 t

B.B en vertu de A.2.

Comme cela est vrai pour tout λ ∈ R* , D = t B.B = O, donc B = O en vertu de A.1).

b) Il résulte de a) que V ∩ W(r) = 0.

Par conséquent, dim V + dim W(r) ≤ n2 et dim V ≤ n×r .

2) a) Soient s le rang maximal d’une matrice de V, et M0 une matrice de V de rang s.

Alors ∃P ∈ Gln(R) P−1

.M0.P =

OOOIs . Notons V’ = P

−1.M.P ; M ∈ V .

Toutes les matrices de V’ sont de rang ≤ s, et il résulte de 1) que dim V’ ≤ n×s .

V étant isomorphe à V, on a de même dim V ≤ n×s , et a fortiori dim V ≤ n×r .

b) Voici un sous-espace de Mn(R) de dimension n×r, ne contenant que des matrices de rang ≤ r.

Il s’agit de

OOBA ; A ∈ Mr(R) , B ∈ MR(r, n − r) et de tous ses conjugués.

Théorème de Flanders (1962) : La dimension maximale d’un sous-espace vectoriel de Mn(R) formé de matrices de rang ≤ r est n×r .

Page 50: Problèmes d’algèbre linéaire

50

Remarque : Ce résultat subsiste si l’on remplace R par un corps infini. La preuve est un peu plus élaborée, car les résultats de A.1) tombent en défaut. Sur ces sujets, cf. :

Dimension maximale d’un sev de Mn(C) ne rencontrant pas Gln(C) : RMS 1988-89 n° 7, 1989-90 n° 2 et 8 (Barani, Exbrayat, Clarisse) Sous-espaces vectoriels de matrices de rang au plus p : RMS mai 2008, de Seguins Pazzis ___________ Problème 12 : Exemples de groupes multiplicatifs matriciels Dans ce problème, on étudie quelques sous-groupes multiplicatifs de Gln(K ), K corps commutatif.

On note I la matrice unité. Les questions sont indépendantes.

1) Montrer que

θθθθ

cossinsincos ; θ ∈ R ,

θθθθ

chshshch ; θ ∈ R et

101 θ ; θ ∈ R sont des

sous-groupes multiplicatifs de Gl2(R).

2) Décrire le sous-groupe de Gl2(R) engendré par R =

nn

nnππππ

2cos2sin

2sin2cos et S =

−+

1001 .

Interprétation géométrique ?

3) Montrer que R =

1101 et S =

−1011 engendrent un sous-groupe de Gl2(R) à 6 éléments,

isomorphe au groupe SSSS3 des permutations de 1, 2, 3.

4) Soit D = R − ( Zπ+2π ). Montrer que G =

aa

aa

cos1tan

tancos

1 ; a ∈ D est un sous-groupe de Gl2(R).

5) Montrer que

+

100310

2²321

t

ttt ; t ∈ R est un sous-groupe de Gl3(R).

6) Soient A =

1201 et B =

−− 1111 dans M2(R).

a) Pour tout couple (x, y) ∈ R2, et tout n ∈ N, calculer (x.A + y.B)

n, puis exp(x.A + y.B).

b) Montrer que exp(x.A + y.B) ; (x, y) ∈ R2

est un sous-groupe de Gl2(R).

7) Dans M4(C), on considère les quatre matrices :

A =

0001001001001000

, B =

000000000

000

ii

ii

, C =

0010000110000100

, D =

−−

1000010000100001

.

a) Calculer pour (x, y, z, t) ∈ C4, le carré de la matrice M = xA + yB + zC + tD. Quelles relations

en déduit-on pour A, B, C, D ?

b) Soit G le sous-groupe de Gl4(C) engendré par A, B, C et D. Montrer que toute matrice de G se

met sous la forme ± Aα.B

β.C

γ.D

δ, où (α, β, γ, δ) ∈ 0, 1

4.

c) Trouver le cardinal de G.

Page 51: Problèmes d’algèbre linéaire

51

8) Soit A = 31

−−−

012102220

∈ M3(R). Montrer que G = Ak ; k ∈ N* est un groupe pour la

multiplication. Quel est son cardinal ? Si U est la matrice élément neutre de ce groupe, quelle est la nature géométrique de l’endomorphisme canoniquement associé à U ?

9) Soit p un nombre premier.

a) Quel est le cardinal de Gl2(Z/pZ) et de Sl2(Z/pZ) = A ∈ Gl2(Z/pZ) ; det A = 1 ?

b) Montrer que G =

10

mk ; (k, m) ∈ (Z/5Z)*×(Z/5Z) est un sous-groupe de Gl2(Z/5Z) à 20

éléments, ayant deux générateurs A et B vérifiant A5 = B

4 = I , AB = BA

2.

_________ Problème 13 : Inverses généralisées d’applications linéaires

Dans ce problème, tous les espaces vectoriels sont supposés de dimensions finies sur le corps commutatif K .

Le but du problème est de généraliser la notion d’inverse d’une application linéaire u ∈ LLLL(E, F).

Soient u ∈ LLLL(E, F), v ∈ LLLL(F, E). On considère les relations suivantes :

(1) u.v.u = u (2) v.u.v = v (3) dim E = dim F et u.v = v.u.

Si la relation (1) est vérifiée, on dit que v est une inverse généralisée ou g-inverse de u.

Si les relations (1) et (2) sont vérifiées, v est dite inverse faible, ou f-inverse de u.

Si les trois relations sont vérifiées, v est dite pseudo-inverse ou p-inverse de u.

A. Etude des g-inverses.

1) Dans cette question, on suppose que u admet une g-inverse v , et l’on note p = v.u et q = u.v.

a) Calculer p2, q

2 . Montrer que Im q = Im u, Ker p = Ker u .

b) Montrer que rg p = rg q = rg u ≤ rg v.

c) Montrer qu’il existe un supplémentaire E1 de Ker u dans E, tel que v prolonge l’iso-

morphisme ( uE

u Im1

)−1.

2) a) Déduire de l’analyse précédente l’existence d’au moins une g-inverse v de u .

b) Montrer qu’en fait rg v peut prendre toute valeur comprise entre rg u et min(dim E, dim F).

c) Montrer que les g-inverses de u forment un sous-espace affine de LLLL(F, E) ; quelle est sa dimension ?

d) Quelles sont les g-inverses de u si u est nulle, injective, surjective, bijective ?

3) En choisissant des bases convenables de E et F, et en cherchant v par sa matrice dans ces bases, retrouver tous les résultats de la question 2).

B. Etude des f-inverses.

1) On suppose dans cette question que u admet une f-inverse v.

Montrer que E = Im v ⊕ Ker u , F = Ker v ⊕ Im u et rg u = rg v .

2) a) Montrer que si E = Ker u ⊕ E1 et F = Im u ⊕ F1, il existe une unique f-inverse v de u telle

que Ker v = F1 et Im v = E1.

Page 52: Problèmes d’algèbre linéaire

52

b) En déduire l’existence d’une f-inverse de u.

c) Quelles sont les f-inverses de u si u est nulle, injective, surjective, bijective ?

3) Retrouver 2b) et 2c) au moyen de matrices appropriées, et montrer l’équivalence :

v est une f-inverse de u ⇔ v est une g-inverse de u et rg u = rg v.

C. Applications.

1) Résolution d’une équation linéaire. Soient u ∈ LLLL(E, F), v une g-inverse de u. On considère l’équation linéaire u(x) = b, où b ∈ F. Montrer que cette équation a une solution si et seulement si b = (u.v)(b), et qu’alors ses solutions

sont données par : x = v(b) + ( IdE – v.u )(z) , où z décrit E.

2) Factorisation à droite. Soient a ∈ LLLL(E, F), c ∈ LLLL(G, F), a’ une g-inverse de a. Montrer l’équivalence des propriétés : i) ∃x ∈ LLLL(G, E) a.x = c ; ii) a.a’.c = c ; iii) Im c ⊂ Im a. Montrer que si ces conditions sont satisfaites, les solutions x forment un sous-espace affine de LLLL(G, E) dont on déterminera la dimension.

3) Factorisation à gauche. Soient c ∈ LLLL(G, F), b ∈ LLLL(G, H), b’ une g-inverse de b. Montrer l’équivalence des propriétés :

i) ∃x ∈ LLLL(H, F) x.b = c ; ii) c.b’.b = c ; iii) Ker b ⊂ Ker c. Montrer que si ces conditions sont satisfaites, les solutions x forment un sous-espace affine de LLLL(H, F) dont on déterminera la dimension.

4) Double factorisation. Soient a ∈ LLLL(E, F), c ∈ LLLL(G, F), b ∈ LLLL(G, H), a’ une g-inverse de a, b’ une g-inverse de b. Montrer l’équivalence des propriétés suivantes : i) ∃x ∈ LLLL(H, E) a.x.b = c ; ii) a.a’.c.b’.b = c ; iii) Im c ⊂ Im a et Ker b ⊂ Ker c. Montrer que si ces conditions sont satisfaites, les solutions x forment un sous-espace affine de dimension (dim E).(dim H) − (rg a).(rg b), et sont les applications de la forme

x = a’.c.b’ + t − a’.a.t.b.b’ , où t décrit LLLL(H, E).

5) Factorisation simultanée. On garde a, b, a’, b’ comme en 3), et on considère d ∈ LLLL(H, F) et e ∈ LLLL(G, E). Prouver qu’une cns pour que le système de deux équations a.z = d et z.b = e ait une solution z ∈ LLLL(H, E) est que chacune de ces équations ait une solution et qu’on ait l’égalité a.e = d.b.

D. Etude des pseudo-inverses.

Dans la suite, on se place dans LLLL(E). Soit u ∈ LLLL(E).

1) Soient v et v’ deux p-inverses de u. Calculant uovouov’, prouver que u.v’ = v.u, puis v = v’.

2) Si u admet un pseudo-inverse, celui-ci est donc unique. On l’appellera le pseudo-inverse de u et on le notera v = u+. Montrer que les endomorphismes suivants ont un pseudoinverse, et le déterminer :

u+ , λu (λ ∈ K*) , uk (k ∈ N*) , r−1.u.r (où r ∈ Gl(E)) , O (application nulle).

Page 53: Problèmes d’algèbre linéaire

53

Montrer l’implication u inversible ⇒ u pseudoinversible ; que vaut alors u+ ?

3) Caractérisation des endomorphismes pseudoinversibles.

Montrer l’équivalence des douze propriétés suivantes : i) u est pseudoinversible ; ii) Im u ∩ Ker u = 0 ;

iii) Ker u = Ker u2 ;

iv) E = Im u + Ker u ;

v) Im u = Im u2 ;

vi) rg u = rg u2

; vii) E = Im u ⊕ Ker u ;

viii) ∃v ∈ LLLL(E) u2.v = u ;

ix) ∃w ∈ LLLL(E) w.u2 = u ;

x) Il existe une base BBBB de E telle Mat(u, BBBB) =

OOOR ∈ Mn(K ), où R ∈ GLr(K ), 0 ≤ r ≤ n ;

xi) Le polynôme minimal µu(X) de u n’est pas divisible par X2 ;

xii) u ∈ Vect( u2

, u3

, … ).

4) Donner des exemples d’endomorphismes pseudo-inversibles, non pseudo-inversibles, ainsi que deux endomorphismes pseudoinversibles dont le produit ne l’est pas. ___________ Solution : g-inverses, f-inverses, p-inverses C’est le mathématicien américain Eliakim Hastings Moore (1862-1932) qui a cherché le premier à étendre la notion d’inverse à une matrice carrée singulière ou à une matrice rectangulaire, à partir de 1920. En 1955, l’astronome et physicien Roger Penrose a mis en évidence le rôle particulier du pseudo-inverse de Moore-Penrose, ou pseudo-inverse des moindres carrés. Ces notions ont des applications considérables en économétrie.

A. Etude des g-inverses.

1) Analyse : propriétés des g-inverses.

a) p = v.u est un projecteur de E, car p2 = v.u.v.u = v.u = p.

q = u.v est un projecteur de F, car q2 = u.v.u.v = u.v = q.

q = u.v ⇒ Im q ⊂ Im u , et u = q.u ⇒ Im u ⊂ Im q . Donc Im q = Im u p = v.u ⇒ Ker u ⊂ Ker p , et u = u.p ⇒ Ker p ⊂ Ker u. Donc Ker p = Ker u .

b) Montrons que rg p = rg q = rg u ≤ rg v.

rg p = dim E – dim Ker p = dim E – dim Ker u = rg u = dim Im u = dim Im q = rg q.

Enfin, p = v.u ⇒ Im p ⊂ Im v ⇒ rg p ≤ rg v.

c) Soit alors E1 = Im p ; c’est un supplémentaire de Ker p = Ker u dans E.

On sait que u induit un isomorphisme ϕ = uE

u Im1

de E1 sur Im u.

Soient y un vecteur de Im u, x l’unique vecteur de E1 tel que u(x) = y. Je dis que x = v(y). En effet v(y) = (v.u)(x) = p(x) = x, puisque x appartient à Im p.

2) Synthèse : existence des g-inverses.

a) Construction d’une g-inverse. Soit E1 un supplémentaire quelconque de Ker u dans E.

Soit ϕ = uE

u Im1

l’isomorphisme de E1 sur Im u induit (restreint-corestreint) par u.

Page 54: Problèmes d’algèbre linéaire

54

Enfin, soit v ∈ LLLL(F, E) une application linéaire de F dans E prolongeant ϕ−1.

Une telle application existe : il suffit de se donner sa restriction w à un supplémentaire F1 de Im u

dans F (par exemple l’application nulle), et de poser v(y) = ϕ−1( uyIm ) + w(

1Fy ).

Je dis que v est une g-inverse de u. Soit en effet x ∈ E ; écrivons x = Kerux + 1E

x .

On a u(x) = u(1E

x ), et (v.u)(x) = 1E

x , et pour finir (u.v.u)(x) = u(1E

x ) = u(x). CQFD !

b) Le rang de v peut prendre toute valeur comprise entre rg u et min(dim E, dim F).

En effet, v prolongeant ϕ−1 est telle que rg v ≥ rg ϕ−1

= rg u .

Si l’on prend pour w une application linéaire de F1 dans Ker u, alors rg v = rg ϕ−1 + rg w .

Or rg w prend toute valeur comprise entre 0 et min(dim F1, Ker u) = min(dim F – rg u, Ker u).

c) Les g-inverses de u forment un sous-espace affine de LLLL(F, E).

En effet, si v0 est une g-inverse, les autres sont de la forme v = v0 + w, où u.w.u = 0, c’est-à-dire w(Im u) ⊂ Ker u. Or ces fonctions forment un sous-espace vectoriel de dimension

(dim Im u)×(dim Ker u) + (dim F − dim Im u)×dim E = (dim E)×(dim F) − (rg u)2.

e) Cas particuliers.

• Si u = 0, toute application v est une g-inverse.

• Si u est injective, u.v.u = u ⇔ v.u = idE . Les g-inverses de u sont ses inverses à gauche.

• Si u est surjective, u.v.u = u ⇔ u.v = idF . Les g-inverses de u sont ses inverses à droite.

• Enfin, si u est bijective, u.v.u = u ⇔ v = u−1

, seule g-inverse.

3) Retrouvons ces résultats matriciellement :

Choisissons des bases de E et F telles que Mat(u, BBBBE, BBBBF) =

OOOI r .

Cherchons v par sa matrice Mat(v, BBBBF, BBBBE) =

TZYX . Alors u.v.u = u se traduit par

OOOI r

TZYX

OOOI r =

OOOI r , c’est-à-dire par X = Ir , Y , Z et T étant quelconques.

Toute application linéaire de F dans E telle que Mat(v, BBBBF, BBBBE) =

TZYI r est une g-inverse de u.

Cela montre l’existence d’une g-inverse et le fait que les g-inverses forment un espace affine de

dimension n×p − r2. De plus, le rang de

TZYI r peut prendre toute valeur comprise entre r et min(n,

p) : prendre Y et Z nulles et T = Is , 0 ≤ s ≤ min(n, p) − r.

Bien entendu, la plus simple des g-inverses est celle qui vérifie Mat(v, BBBBF, BBBBE) =

OOOI r .

B. Etude des f-inverses.

1) Analyse : propriétés des f-inverses. Supposons que u admette une f-inverse v ; u est alors une g-inverse de u, donc :

p = v.u est un projecteur tel que Ker p = Ker u et Im p = Im v ;

q = u.v est un projecteur tel que Ker q = Ker v et Im q = Im u.

Du coup, E = Im p ⊕ Ker p = Im v ⊕ Ker u , F = Ker q ⊕ Im q = Ker v ⊕ Im u et rg u = rg v .

2) Synthèse : existence de f-inverses.

Page 55: Problèmes d’algèbre linéaire

55

a) Si E = Ker u ⊕ E1 et F = Im u ⊕ F1, et s’il existe une f-inverse v de u telle que Ker v = F1 et

Im v = E1, alors, soit y ∈ F , y = uyIm + 1F

y ; v(y) = v( uyIm ) = ( uE

u Im1

)−1

( uyIm ) = ( uE

u Im1

)−1

.q(y), où q

est le projecteur sur Im u parallèlement à F1. Réciproquement, définissons v ainsi.

Soit x ∈ E , x = Kerux + 1E

x ; u(x) = u(1E

x ) , v.u(x) = 1E

x et (u.v.u)(x) = u(1E

x ) = u(x).

Soit y ∈ F , y = uyIm + 1F

y ; v(y) = ( uE

u Im1

)−1( uyIm ) , (u.v)(y) = uyIm , (v.u.v)(y) = v( uyIm ) = v(y).

c) Cas particuliers.

• Si u est nulle, la seule f-inverse de u est l’application nulle.

• Si u est injective, u.v.u = u et v.u.v = v ⇔ v.u = idE . Les f-inverses sont les inverses à gauche.

• Si u est surjective, u.v.u = u et v.u.v = v ⇔ u.v = idF . Les f-inverses sont les inverses à droite.

• Si u est bijective, la seule f-inverse de u est la bijection réciproque v = u−1

.

3) Méthode matricielle.

Choisissons des bases de E et F telles que Mat(u, BBBBE, BBBBF) =

OOOI r .

Cherchons v par sa matrice Mat(v, BBBBF, BBBBE) =

TZYX . Alors u.v.u = u et v.u.v = v se traduisent par

OOOI r

TZYX

OOOI r =

OOOI r et

TZYX

OOOI r

TZYX =

TZYX

c’est-à-dire par X = Ir et T = Z.Y, autrement dit Mat(v, BBBBF, BBBBE) =

ZYZYI r .

Exemple : La matrice

0001 a pour f-inverses toutes les matrices

zyzy1 .

On retouve l’équivalence : v est une f-inverse de u ⇔ v est une g-inverse de u et rg u = rg v ,

car les matrices

TZYI r de rang r sont les matrices

ZYZYI r .

− −rn

r

IZOI

TZYI r

−−rp

r

IOYI =

−ZYTOOI r est de rang r ssi T = ZY.

Exemple de f-inverse : Soit A = X.tY une matrice de rang 1. Cherchons ses f-inverses B.

B est une g-inverse de rang 1 ; écrivons B = U. tV . On veut X.

tY.U.

tV.X.

tY = X.

tY .

Cela s’écrit (tY.U).(

tV.X).X.

tY = X.

tY , i.e. (

tY.U).(

tV.X) = 1. Il y a beaucoup de couples (U, V).

Si K = R, on peut prendre, U = ²Y

Y et V = ²X

X (norme euclidienne usuelle).

Ainsi, si A =

333322221111

, B = 281

321321321321

est une f-inverse de A.

Remarque : Contrairement aux g-inverses, les f-inverses de u ne forment pas un sous-espace affine de LLLL(F, E), en général : la condition v.u.v = v est de nature quadratique.

C. Applications.

Dans cette partie on montre comment l’introduction des g-inverses permet de résoudre les systèmes linéaires, et simplifie grandement les problèmes de factorisation d’applications linéaires déjà traités dans un problème antérieur. Dans les questions 2, 3 et 4, pour montrer iii) ⇒ i), on passe par ii).

1) Résolution d’une équation linéaire.

Page 56: Problèmes d’algèbre linéaire

56

Pour que l’équation u(x) = b ait au moins une solution, il faut et il suffit que b ∈ Im u.

Comme Im u = Im q , b ∈ Im u ⇔ b ∈ Im q ⇔ b = q(b) = (u.v)(b).

• Si b ≠ (u.v)(b), l’équation u(x) = b est sans solution.

• Si b = (u.v)(b), l’équation u(x) = b a au moins une solution, à savoir x0 = v(b).

Ses solutions sont de la forme x = x0 + y , où y décrit Ker u. Or Ker u = Ker p = Im(idE – p).

Par conséquent, les solutions de u(x) = b sont de la forme v(b) + (idE – v.u)(z), où z décrit E.

2) Factorisation à droite. Soient a ∈ LLLL(E, F), c ∈ LLLL(G, F), a’ une g-inverse de a. Montrons l’équivalence des propriétés :

i) ∃x ∈ LLLL(G, E) a.x = c ; ii) a.a’.c = c ; iii) Im c ⊂ Im a.

i) ⇒ ii) a.a’.c = a.a’.a.x = a.x = c ; ii) ⇒ iii) a.a’.c = c implique Im c ⊂ Im a ; iii) ⇒ ii) ∀z ∈ G c(z) ∈ Im a ⇒ a.a’(c(z)) = c(z), car a.a’ est projecteur sur Im a. ii) ⇒ i) évident : prendre x = a’.c !

Supposons ces conditions satisfaites. Les solutions x de a.x = c sont de la forme a’.c + w, où w est telle que a.w = 0, i.e. Im w ⊂ Ker a. On peut dire que w est une application linéaire de G dans Ker a. Les solutions de a.x = c forment un sous-espace affine de dimension dim G×dim Ker a de LLLL(G, E) .

3) Factorisation à gauche. Soient c ∈ LLLL(G, F), b ∈ LLLL(G, H), b’ une g-inverse de b. Montrons l’équivalence des propriétés :

i) ∃x ∈ LLLL(H, F) x.b = c ; ii) c.b’.b = c ; iii) Ker b ⊂ Ker c.

i) ⇒ ii) c.b’.b = x.b.b’.b = x.b = c ; ii) ⇒ iii) c.b’.b = c implique Ker b ⊂ Ker c ; iii) ⇒ ii) ∀z ∈ G c(z) ∈ Im a ⇒ a.a’(c(z)) = c(z), car a.a’ est projecteur sur Im a. ii) ⇒ i) évident : prendre x = a’.c !

Supposons ces conditions satisfaites. Les solutions x de x.b = c sont de la forme c.b’ + w, où w est telle que w.b = 0, i.e. Im b ⊂ Ker w. w est entièrement déterminée par sa restriction à un supplémentaire de Im b dans H. Elles forment donc un sous-espace affine de LLLL(H, F) de dimension (dim H – rg b)×dim F .

4) Double factorisation. Soient a ∈ LLLL(E, F), c ∈ LLLL(G, F), b ∈ LLLL(G, H), a’ une g-inverse de a, b’ une g-inverse de b. Montrons l’équivalence des propriétés suivantes :

i) ∃x ∈ L(H, E) a.x.b = c ; ii) a.a’.c.b’.b = c ; iii) Im c ⊂ Im a et Ker b ⊂ Ker c.

i) ⇒ ii) car a.a’.c.b’.b = a.a’.a.x.b.b’.b = a.x.b = c.

ii) ⇒ iii) car a.a’.c.b’.b = c ⇒ Im c ⊂ Im a et Ker b ⊂ Ker c.

iii) ⇒ ii) découle de 2) et 3), car Im c ⊂ Im a et Ker b ⊂ Ker c impliquent a.a’.c = c et c.b’.b = c, donc a.a’.c.b’.b = c.b’.b = c.

ii) ⇒ i) est évident, car x = a’cb’ est solution de a.x.b = c.

Supposons ces conditions satisfaites. Les solutions x de a.x.b = c sont de la forme a’.c.b’ + w, où a.w.b = 0, i.e. w(Im b) ⊂ Ker a ; w induit une application de Im b dans Ker a, sa restriction à un supplémentaire de Im b étant quelconque. Donc ces solutions forment un sous-espace affine de dimension dim Im b × dim Ker a + (dim H − dim Im b)×dim E = (dim E).(dim H) − (rg a).(rg b).

Je dis que les solutions de a.x.b = c sont données par x = a’.c.b’ + t − a’.a.t.b.b’, où t décrit LLLL(H, E). Il revient au même de dire que les solutions de a.w.b = 0 sont w = t − a’.a.t.b.b’, où t décrit LLLL(H, E). Tout d’abord, pour tout t ∈ LLLL(H, E), a.(t − a’.a.t.b.b’).b = a.t.b – (a.a’.a).t.(b.b’.b) = 0. Réciproquement, si a.w.b = 0, alors w = w − a’.a.w.b.b’ : t existe bel et bien !

Remarque : On peut déduire partiellement 4) de 1).

Page 57: Problèmes d’algèbre linéaire

57

Considérons en effet l’application linéaire f : x ∈ L L L L(H, E) → a.x.b ∈ L L L L(G, F). Elle admet pour g-inverse l’application g : y ∈ L L L L(G, F) → a’.x.b’ ∈ L L L L(H, E). En effet, pour toute x : (f.g.f)(x) = a.a’.a.x.b.b’.b = a.x.b = f(x). Du coup, en appliquant 1), l’équation f(x) = c a une solution ssi (f.g)(c) = c, i.e. a.a’.c.b.b’ = c et

alors ses solutions sont x = g(c) + (idLLLL(H, E) – g .f)(t) = a’.c.b’ + t – a’.a.t.b.b’ , où t décrit LLLL(H, E).

5) Factorisation simultanée. Gardons a, b, a’, b’ comme en 4), et soient d ∈ LLLL(H, F) et e ∈ LLLL(G, E). Montrons que le système de deux équations a.z = d et z.b = e a une solution z ∈ LLLL(H, E) ssi chacune de ces équations a une solution et a.e = d.b. Un sens est facile, comme toujours ! S’il existe z ∈ LLLL(H, E) telle que a.z = d et z.b = e, chacune des équations a.z = b et z.b = e a une solution, et de plus a.e = a.z.b = d.b. Réciproquement, en vertu de 4) : L’équation a.z = d a une solution ssi a.a’.d = d ; et ses solutions sont z = a’.d + t – a’.a.t ; L’équation z.b = e a une solution ssi e.b’.b = e ; et ses solutions sont z = e.b’ + s – s.b.b’. Si de plus a.e = d.b , z = a’.d + e.b’ – a’.a.e.b’ = e.b’ + a’.d – a’.d.b.b’ est de l’une et l’autre forme.

D. Etude des pseudo-inverses.

1) Unicité du p-inverse. Soient v et v’ deux p-inverses de u.

D’une part, u.v.u.v’ = (u.v.u)v’ = u.v’. D’autre part, u.v.u.v’ = (u.v)(u.v’) = (v.u)(v’.u) = v.(u.v’.u) = v.u. Conclusion : u.v’ = v.u. D’où v = v.u.v = v.v.u = v.u.v’ = u.v’.v’ = v’.u.v’ = v’. CQFD. 2) Généralités. u et v jouant des rôles symétriques, v = u

+ ⇒ u = v

+ , et u

++ = u.

Si λ ∈ K* , λu a pour pseudoinverse (λu)+ = λ−1

u+ .

Pour tout k ∈ N, uk a pour pseudoinverse (u

k)+ = (u

+)k

.

En effet, en vertu de la commutation de u et u+,

(uk).(u

+)k.(u

k) = (u.u

+.u)

k = (A

k) , (u

k)+.(u)

k.(u

k)+ = u

k , (u

k).(u

+)k = (u

k)+.(u)

k .

tu a pour pseudoinverse (tu)+ = t(u

+) . r

−1.u.r a pour pseudoinverse (r

−1.u.r)

+ = r

−1.u

+.r .

Enfin, O a pour pseudoinverse O elle-même, car OOO = O, etc !

c) Si u est inversible, u est pseudoinversible et u+ = u

−1 .

Remarque : Si u2

= u, u est un projecteur, u est pseudoinversible et u+ = u.

Plus généralement encore, si k ≥ 2, uk

= u ⇔ u est pseudoinversible et u+ = u

k−1 .

3) Caractérisation des endomorphismes pseudoinversibles.

Montrons l’équivalence des 12 propriétés suivantes : i) u est pseudoinversible ;

ii) Im u ∩ Ker u = 0 ; iii) Ker u = Ker u2 ;

iv) E = Im u + Ker u ; v) Im u = Im u2 ; vi) rg u = rg u

2 ;

vii) E = Im u ⊕ Ker u ;

viii) ∃v ∈ LLLL(E) u2.v = u ; ix) ∃w ∈ LLLL(E) w.u

2 = u ;

x) Il existe une base BBBB de E telle Mat(u, BBBB) =

OOOR ∈ Mn(K ), où R ∈ GLr(K ), 0 ≤ r ≤ n ;

xi) Le polynôme minimal µu(X) de u n’est pas divisible par X2 ;

xii) u ∈ Vect(u2

, u3

, … ) .

Allons d’abord à l’essentiel. i) ⇒ vii) En effet, avec les notations de A), p = q, E = Im p ⊕ Ker p s’écrit E = Im u ⊕ Ker u. vii) ⇒ x) Im u est toujours u-stable, car u( Im u ) ⊂ Im u.

Page 58: Problèmes d’algèbre linéaire

58

Notons w l’endomorphisme induit. Il est injectif, car Ker w = Ker u ∩ Im u = 0. Comme Im u est un espace vectoriel de dimension finie, w est bijectif.

Soient (a1, …, ar) une base de Im u, (ar+1, …, an) une base de Ker u, et BBBB = (a1, …, an) la base

« recollée ». Alors Mat(u, BBBB) =

OOOR , où R ∈ Glr(K ) en tant que matrice de w relativement à la

base (a1, …, ar). Remarque : Si r = 0, u est nul.

x) ⇒ i) Soit v l’endomorphisme tel que Mat(v, BBBB) =

OOOR 1

.

Il est facile de vérifier que v est p-inverse de u. x) ⇒ xi) Soit M = diag(A, B), où A ∈ Mr(K ) et B ∈ Mn−r(K ), une matrice diagonale par blocs. Le polynôme minimal de M est le ppcm des polynômes minimaux de A et de B.

Du coup, le minimal de M =

OOOR ∈ Mn(K ), où R ∈ GLr(K ), 0 ≤ r ≤ n, est le ppcom des

minimaux de R et O. • Si r = n, le minimal d’une matrice inversible R est de valuation nulle. • Si r = 0, le minimal de M est X. • Si 0 < r < n, le minimal de A est le ppcm d’un polynôme de valuation 0 et de X. Dans les trois cas, il est de la forme X, Q(X) ou X.Q(X), avec Q(0) ≠ 0.

L’équivalence de xi) et xii) est facile.

xi) ⇒ i) De deux choses l’une :

• Soit le minimal de u est de la forme µu(X) = a + X.Q(X), avec a ≠ 0.

Alors u est inversible, et u−1

= − a1 Q(u).

• Soit le minimal de u est de la forme µu(X) = bX + X2.Q(X), avec b ≠ 0.

Alors u n’est pas inversible, mais a pour pseudoinverse : v = − b1 Q(u).

Le reste est facile, et laissé en exercice.

4) Exemples et contre-exemples.

Les endomorphismes inversibles et les endomorphismes diagonalisables sont pseudo-inversibles.

La matrice A =

0010 n’est pas pseudoinversible, car rg A ≠ rg A

2 , Ker A = Im A, etc.

Plus généralement, le seul endomorphisme nilpotent et pseudoinversible est l’endomorphisme nul.

Le produit de deux matrices pseudoinversibles ne l’est pas toujours :

0001

1010 =

0010 .

Plus généralement, toute matrice A s’écrit sous la forme E.B, où E est un projecteur et B une matrice

inversible. En effet si Q−1

.A.P =

OOOI r , il suffit d’écrire A = Q

OOOI r Q

−1.Q.P

−1.

Donc toute matrice carrée est produit de deux matrices pseudoinversibles. Les endomorphismes pseudoinversibles ne forment donc pas un groupe multiplicatif, mais une réunion de groupes, comme on le verra dans le problème suivant.

Annexe : division vectorielle et pseudo-inverses

Voici un tout autre exemple d’endomorphisme pseudoinversible.

Soient E un espace vectoriel euclidien orienté de dimension 3, ω un vecteur non nul de E, u l’endomorphisme de E défini par u(x) = ω ∧ x. Il est clair que Im u ∩ Ker u = 0.

En effet, Im u ⊂ (R.ω)⊥ car tout vecteur de la forme ω ∧ x est orthogonal à ω, et Ker u = R.ω.

Les résultats précédents impliquent que E = Im u ⊕ Ker u et que Im u = (R.ω)⊥ .

Page 59: Problèmes d’algèbre linéaire

59

Autrement dit u n’est pas inversible mais est pseudo-inversible.

Reste à en trouver un pseudoinverse.

Introduisons une base orthonormée BBBB directe de la forme (i , j , k = ωω ).

La matrice de u relativement à BBBB est A = || ω ||.

000001010

.

On en déduit A2 = − || ω ||

2.

000010001

, puis A3 = − || ω ||

3.

000001010

= − || ω ||2.A.

Ainsi A+ = −

²1

ω .A, et u+ = −

²1

ω .u.

Du coup, cherchons à résoudre ω ∧ x = b. Si (ω | b) ≠ 0, pas de solution.

Si (ω | b) = 0, les solutions sont x = u+(b) + λω, où λ décrit R.

Remarque : le polynôme minimal de A, donc de u, est µu(X) = X3 + || ω ||

2.X.

Références : Téchené, RMS janvier 1984 Glazman-Lioubitch: Analyse linéaire dans les espaces de dimension finie (Mir), p. 323-325 Ikramov, Exercices d’algèbre linéaire (Mir), p. 179 et 214-219 Rao-Mitra : Generalized inverse of matrices (Wiley) Problèmes ENSAE 1970 et 1985, X 1981 et 1986, ENS 1988, INT 1989, etc. ____________ Problème 13 : Matrices pseudo-inversibles

Toutes les matrices considérées dans ce problème sont à coefficients dans le corps commutatif K . Soient Mn(K ) l’algèbre des matrices carrées d’ordre n, In sa matrice unité.

Pour tout matrice A ∈ Mn(K ), on identifie A et l’endomorphisme de Kn qu’elle définit dans la base canonique de cet espace, ce qui autorise à considérer l’image Im A et le noyau Ker A de A.

Pour tout entier d ≥ 1, on définit Ad = A.Ad−1 avec A0 = In.

Pour toute matrice A inversible, c’est-à-dire appartenant au groupe linéaire GLn(K ), on note A−1 l’inverse de A.

Première partie : matrices pseudoinversibles.

La matrice A ∈ Mn(K ) est dite pseudo-inversible s’il existe une matrice B ∈ Mn(K ) vérifiant :

ABA = A , BAB = B et AB = BA . B est dite pseudoinverse de A.

1) Premières propriétés.

a) Soit A une matrice pseudoinversible, B et B' deux pseudoinverses de A. Calculant ABAB' , établir que AB' = BA , puis que B = B'. Si A est pseudoinversible, sa pseudoinverse est unique : on la note B = A+ .

b) Montrer que les matrices suivantes ont une pseudoinverse, et la déterminer :

A+ , λA (λ ∈ K*) , Ak (k ∈ N*) , tA , R−1AR (R ∈ GLn(K )) , O (matrice nulle).

c) Exemples : • Montrer que si A est inversible, A est pseudoinversible ; que vaut alors A+ ?

• Montrer que si A2 = A, A est pseudoinversible ; que vaut alors A+ ?

Page 60: Problèmes d’algèbre linéaire

60

2) Caractérisation des matrices pseudoinversibles.

Dans cette question, on se propose d’établir l’équivalence des 4 propriétés suivantes :

i) A est pseudoinversible ;

ii) Kn = Im A ⊕ Ker A ;

iii) A est semblable à une matrice-bloc

OOOA1 ∈ Mn(K ) , où A1 ∈ GLr(K ), 0 ≤ r ≤ n.

iv) Le polynôme minimal µA(X) de A n’est pas divisible par X2.

a) Soit A pseudoinversible, B = A+ . On note P = AB.

Comparer P2 et P , Ker P et Ker A , Im P et Im A. En déduire i) ⇒ ii).

b) Soit A ∈ Mn(K ) telle que Kn = Im A ⊕ Ker A . Montrer que Im A est un sous-espace A-stable de Kn , et que A induit un automorphisme de Im A. En déduire ii) ⇒ iii).

c) Montrer iii) ⇒ i).

d) Soit M = diag(A1, A2)∈Mn(K ), où A1 ∈ Mr(K ) et A2 ∈ Mn−r(K ), une matrice diagonale par blocs. Exprimer le polynôme minimal de M en fonction de ceux de A1 et A2. En déduire iii) ⇒ iv).

e) On suppose µA(X) = X.Q(X) , où Q(0) ≠ 0 . Déterminer deux polynômes U et V tels que 1 = X.U(X) + V(X).Q(X).

Montrer que A a pour pseudoinverse A+ = A.U(A)2. Montrer que iv) ⇒ i)

3) Exemples :

a) Montrer que les matrices suivantes sont pseudoinversibles, et calculer leur pseudoinverse :

D = diag(λ1, …, λr, 0, …, 0) (λk ≠ 0) ,

111111111

,

001242121

.

b) Montrer que A est de rang 1 si et seulement si A s’écrit A = X.tY, où X et Y sont des

vecteurs colonnes non nuls. Trouver une cns portant sur tr A = tY.X pour que A soit pseudo-

inversible ; si cette condition est remplie, que vaut A+ ?

c) Soit A =

OOAA 21 , où A1 ∈ Glr(K ). Montrer que A est pseudoinversible et que A

+ a la même

forme

OOBB 21 , où l’on calculera B1 et B2 en fonction de A1 et A2.

d) Indiquer une matrice non pseudo-inversible dans M2(K ), puis deux matrices pseudo-inversibles dont le produit ne l’est pas.

Deuxième partie : groupes multiplicatifs matriciels.

Dans cette partie, on se propose d’étudier les groupes multiplicatifs de matrices contenus dans

Mn(K ), et de caractériser leurs éléments. On souligne qu’en général de tels groupes G ne sont pas

toujours des sous-groupes de Gln(K ), et peuvent contenir des matrices de rang r < n : ainsi, O est un groupe multiplicatif de matrices.

1) Exemples :

a) Montrer que G =

00

xx ; x ∈ K−0 est un groupe multiplicatif de matrices.

Page 61: Problèmes d’algèbre linéaire

61

b) La matrice A = 31

−−−

012102220

∈ M3(R) est-elle inversible ? Montrer que G = Ak ; k ∈ N*

est un groupe multiplicatif de matrices. Combien a-t-il d’éléments ? Quel est son neutre E ? Nature géométrique de l’endomorphisme canoniquement associé à E ? Quel est l’inverse de A dans G ?

2) Soient GGGG un groupe multiplicatif inclus dans Mn(K ), et E son élément neutre. Si A ∈ GGGG, on note

A’ son inverse dans GGGG : on a donc A.E = E.A = A et A.A’ = A’.A = E.

a) Montrer que Kn = Im E ⊕ Ker E , et que E est semblable à une matrice

OOOI r , où 0 ≤ r ≤ n.

b) Soit A∈GGGG. Comparer Im A et Im E, Ker A et Ker E. En déduire que toutes les matrices A∈GGGG

ont même rang r, et sont semblables à des matrices de la forme

OOOA1 , où A1 ∈ GLr(K ).

3) Pour chaque entier r, caractériser les groupes multiplicatifs de matrices de rang r, à l’aide des sous-groupes de GLr(K ).

4) Soit A ∈ Mn(K ). Montrer l’équivalence des propriétés :

i) A appartient à un groupe multiplicatif ;

ii) A est pseudo-inversible.

Comparer A+ et A’. En déduire que A’ est indépendant du groupe GGGG auquel A appartient.

5) On se propose de trouver toutes les fonctions M : t∈R → M(t)∈Mn(R) de classe C1 et vérifiant

∀(s, t) ∈ R×R M(s + t) = M(s).M(t).

a) Montrer que M(t) ; t ∈ R est un groupe multiplicatif de matrices.

b) Montrer qu’il existe, dans Mn(R), deux matrices P et A telles que

P2 = P , PA = AP = A et (∀t ∈ R) M(t) = P.e

tA .

____________ Solution Ce problème un peu dérangeant se propose d’étendre la notion de matrice inversible à une classe

plus grande que Gln(K ), tout en conservant le caractère involutif de la pseudo-inversion : A → A+.

En revanche, la classe des matrices obtenues ne sera pas stable par produit.

Première partie. 1) Généralités.

a) Unicité de la pseudo-inverse. D’une part, ABAB’ = (ABA)B’ = AB’. D’autre part, ABAB’ = (AB)(AB’) = (BA)(B’A) = B(AB’ A) = BA. Conclusion : AB’ = BA. D’où B = BAB = BBA = BAB’ = AB’B’ = B’AB’ = B’. CQFD.

b) A et B jouant des rôles symétriques, B = A+ ⇒ A = B

+ , et A

++ = A.

Si λ ∈ K* , λA a pour pseudoinverse (λA)+ = λ−1

A+ .

Pour tout k ∈ N, Ak a pour pseudoinverse (A

k)+ = (A

+)k

.

En effet, en vertu de la commutation de A et A+,

(Ak).(A

+)k.(A

k) = (A.A

+.A)

k = (A

k) , (A

k)+.(A)

k.(A

k)+ = A

k , (A

k).(A

+)k = (A

k)+.(A)

k .

tA a pour pseudoinverse (tA)+ = t(A

+) .

Page 62: Problèmes d’algèbre linéaire

62

R−1

AR a pour pseudoinverse (R−1

AR)+ = R

−1A

+R .

Enfin, la matrice O a pour pseudoinverse O elle-même, car OOO = O, etc !

c) Si A est inversible, A est pseudoinversible et A+ = A

−1 .

Si A2

= A, A est un projecteur, A est pseudoinversible et A+ = A.

Remarques et compléments :

1) Plus généralement, si k ≥ 2, Ak

= A ⇔ A est pseudoinversible et A+ = A

k−1 (cf. II.1.b).

2) Si A = MP, où M ∈ Gln(K ), P2 = P et MP = PM, alors A est pseudoinversible et A

+ = M

−1P.

3) Si A et B sont pseudoinversibles, alors diag(A, B) aussi, et diag(A, B)+ = diag(A

+, B

+).

De même, A ⊗ B est pseudoinversible et (A ⊗ B)+ = A

+ ⊗ B+.

2) Caractérisation des matrices pseudoinversibles.

a) Si A a pour pseudoinverse B, P = AB est un projecteur car P2 = ABAB = AB = P. De plus :

♣ P = AB ⇒ Im P ⊂ Im A ♦ P = BA ⇒ Ker A ⊂ Ker P. ♥ A = ABA = PA ⇒ Im A ⊂ Im P ♠ A = ABA = AAB = AP ⇒ Ker P ⊂ Ker A. Au final, Ker A = Ker P et Im A = Im P.

Comme P est un projecteur, Kn = Im P ⊕ Ker P = Im A ⊕ Ker A.

b) Supposons Kn = Im A ⊕ Ker A.

Im A est toujours A-stable, car A( Im A ) ⊂ Im A. Notons U l’endomorphisme induit. Il est injectif, car Ker U = Ker A ∩ Im A = 0. Comme Im A est un espace vectoriel de dimension finie, U est bijectif.

Soient (a1, …, ar) une base de Im A, (ar+1, …, an) une base de Ker A, et B = (a1, …, an) la base

recollée. Alors l’endomorphisme ϕA canoniquement associé à A a pour matrice

Mat(ϕA, BBBB) =

OOOA1 , où A1 ∈ Glr(K ) en tant que matrice de U relativement à la base (a1, …, ar).

Cela revient à dire que R−1

AR =

OOOA1 , où A1 ∈ Glr(K ) et R est la matrice de passage de la base

canonique de Kn à BBBB.

Remarque : Si r = 0, A est nulle.

c) Si D =

OOOA1 , où A1 ∈ Glr(K ), alors D est pseudoinversible et D

+ =

OOOA 1

1 : facile.

Par 1b), si R−1

AR =

OOOA1 , où A1 ∈ Glr(K ), A est pseudoinversible et R

−1A

+ R =

OOOA 1

1 .

Ainsi, iii) ⇒ i). Remarque : On en déduit au passage une réciproque d’une précédente remarque : si A est pseudo-

inversible, elle s’écrit A = MP, où M ∈ Gln(K ), P2 = P et MP = PM. En effet, si R

−1AR =

OOOA1 ,

où A1 ∈ Glr(K ), on posera R−1

MR =

2

1

AOOA , où A2 ∈ Gln−r(K ), et R

−1PR =

OOOI r .

d) Soit M = diag(A1, A2), où A1 ∈ Mr(K ) et A2 ∈ Mn−r(K ), une matrice diagonale par blocs. Le polynôme minimal de M est le ppcm des polynômes minimaux de A1 et de A2, car

P(M) = diag(P(A1), P(A2)) = O ⇔ P(A1) = P(A2) = 0 ⇔ P est multiple commun des polynômes minimaux de A1 et A2 .

Page 63: Problèmes d’algèbre linéaire

63

Du coup, si A est semblable à une matrice-bloc

OOOA1 ∈ Mn(K ), où A1 ∈ GLr(K ), 0 ≤ r ≤ n, alors

le polynôme minimal de A est le ppcm des minimaux de A1 et O. • Si r = n, le minimal d’une matrice inversible A est de valuation nulle. • Si r = 0, le minimal de A est X. • Si 0 < r < n, le minimal de A est le ppcm d’un polynôme de valuation 0 et de X. Dans les trois cas, il est de la forme X, Q(X) ou X.Q(X), avec Q(0) ≠ 0.

Remarque : Ainsi, comme l’inverse, la pseudoinverse de A est un polynôme de A, dépendant de A.

Il en résulte que si A appartient à une sous algèbre de Mn(K ), il en est de même de sa pseudoinverse

éventuelle. Par exemple, si A est trigonale supérieure, A+ itou.

3) Critères de pseudoinversibilité.

a) Si rg A = rg A2, alors Ker A = Ker A

2 (inclusion Ker A ⊂ Ker A

2 et égalité des dimensions).

Du coup, Ker A ∩ Im A = 0.

En effet y ∈ Ker A ∩ Im A ⇒ (∃x) y = Ax et Ay = 0 ⇒ A2x = 0 ⇒ y = Ax = 0.

En vertu du th. du rang, dim (Ker A ⊕ Im A) = dim Ker A + dim Im A = n, donc E = Im A ⊕ Ker A.

Réciproquement, si R−1

AR =

OOOA1 , où A1 ∈ Glr(K ), R

−1A

2R =

OOOA2

1 , et r = rg A = rg A2.

b) Si A ∈ Vect( A2, A

3, … ), alors on peut écrire A = A

2.Q(A), où Q est un polynôme de A.

Il en résulte que Im A ⊂ Im A2 ; comme l’inclusion réciproque est toujours vraie, rg A = rg A

2 et A

est pseudoinversible.

Remarque : je dis que si A = A2.Q(A) où Q ∈ K [X], alors A

+ = A.Q(A)

2. Notons B = A.Q(A)

2.

B étant un polynôme de A, commute avec A. Il reste à montrer que A2B = A et B

2A = B.

• A2B = A

3.Q(A)

2 = A

2.Q(A).AQ(A) = AA.Q(A) = A

2.Q(A) = A.

• L’autre égalité n’est pas coton ! Tout d’abord (∀k ≥ 1) Ak = A

k+1.Q(A).

Attention, cela est faux pour k = 0. En tout cas, par linéarité, on en déduit que :

∀P ∈ K [X] A.P(A) = A2.P(A).Q(A).

En particulier A.Q(A) = A2.Q(A)

2. Le lecteur peut alors conclure.

4) Exemples.

a) Toute matrice diagonale D = diag( λ1, …, λr, 0, …, 0 ) (λk ≠ 0), est pseudoinversible et

D+ = diag( λ1

−1, …, λr

−1, 0, …, 0 ) .

Vérification facile directe. On notera que Im D = Vect(e1, …, er) et Ker D = Vect(er+1, …, en). Conséquence : toute matrice diagonalisable est pseudoinversible.

La matrice A =

111111111

∈ M3(R) est de rang 1. Elle a pour image R.(1, 1, 1) et pour noyau le plan

d’équation x + y + z = 0. Image et noyau sont supplémentaires.

Posons R =

−−

101111011

, alors R−1

.A.R =

000000003

, d’où R−1

.A+.R =

000000003/1

, et A+ =

91

111111111

.

b) Matrices de rang 1.

Soit A∈Mn(K ) de rang 1. On sait qu’elle s’écrit A = X.tY, où X et Y sont des vecteurs colonnes non

nuls. Im A = K .X et Ker A = Z ; tY.Z = 0 sont supplémentaires ssi X∉Ker A, i.e. tr A =

tY.X ≠ 0.

Comme on a toujours Im A+ = Im A et Ker A

+ = Ker A, on a A

+ = αA.

Page 64: Problèmes d’algèbre linéaire

64

Et A2 = (tr A).A implique assez vite que A

+ =

)²(trAA .

Application à l’étude des matrices de M2(K ). • Si rg A = 2, A est inversible. • Si rg A = 0, A est nulle, donc pseudoinversible. • Si rg A = 1 et tr A ≠ 0, A est pseudoinversible. • Si rg A = 1 et tr A = 0, A n’est pas pseudoinversible.

Autrement dit, dans M2(K ) on a l’alternative : soit A est pseudoinversible, soit A est nilpotente non

nulle. Ce n’est plus vrai dans M3(K ).

c) Soit A =

OOAA 21 , A1∈Glr(K ). A

2 =

OOAAA 21

21 est de rang r, donc A est pseudo-inversible.

Il est logique de chercher B = A+ sous la même forme

OOBB 21 , car on sait que Im A

+ = Im A.

Cela découle de la forme réduite, ou de ce que A = BA2 et B = AB

2, avec B = A

+.

Un calcul par blocs montre alors que A+ =

−−

OOAAA 2

21

11 .

On peut aussi réduire A par pivot matriciel : si P =

− −

OOAAI r 2

11 , alors P

−1 =

OOAAI r 2

11 ,

P−1

AP =

OOOA1 et P

−1A

+P =

OOOA 1

1 ...

d) Contre-exemples.

La matrice A =

0010 n’est pas pseudoinversible, car rg A ≠ rg A

2 , Ker A = Im A, etc.

De façon plus générale, la seule matrice nilpotente et pseudoinversible est la matrice nulle.

Car si r > 0, les puissances successives de

OOOA1 ∈ Mn(R), où A1 ∈ Glr(K ), ne sont jamais nulles.

Le produit de deux matrices pseudoinversibles ne l’est pas toujours :

0001

1010 =

0010 .

Plus généralement, toute matrice A s’écrit sous la forme E.B, où E est un projecteur et B une matrice

inversible. En effet si Q−1

.A.P =

OOOI r , il suffit d’écrire A = Q

OOOI r Q

−1.Q.P

−1.

Donc toute matrice carrée est produit de deux matrices pseudoinversibles. Les matrices pseudoinversibles ne forment donc pas un groupe multiplicatif, mais une réunion de groupes, comme on le verra dans la partie II Annexe : Programmes informatiques.

Nous allons donner deux programmes de reconnaissance de la pseudoinversibilité d’une matrice et de calcul de A+, l’un fondé sur le polynôme minimal, le second plus linéaire.

> #pseudoinversibilité d'une matrice carrée. > with(linalg): > pseudoinv1:=proc(A) > local M,p,R,x; > M:=minpoly(A,x);M:=M/tcoeff(M);p:=ldegree(M); > if p=0 then R:=quo(1-M,x,x); > print(`A est inversible d'inverse:`, evalm(subs(x=A ,R))); > elif p=1 then R:=quo(x-M,x^2,x);

Page 65: Problèmes d’algèbre linéaire

65

> print(`A est pseudoinversible de pseudoinverse:`,evalm(subs(x=A,expand(x*R^2)))); > else print(`A n'est pas pseudoinversible`);fi;end; > A:=diag(1,1/2,3);pseudoinv1(A);

> A:=diag(1,1/2,0);pseudoinv1(A);

> A:=matrix(3,3,1);pseudoinv1(A);

> A:=matrix(3,3,[1,2,1,2,4,2,1,0,0]);pseudoinv1(A);

> A:=matrix(2,2,[0,1,0,0]);pseudoinv1(A);

> pseudoinv2:=proc(A) > local im,ker,P,reduc,B,n,p,r; > n:=rowdim(A);p:=coldim(A); > if n<>p then print(`A non carrée`); > else r:=rank(A);im:=colspan(A);ker:=kernel(A); > P:=transpose(matrix([op(im),op(ker)])); > if rank(P)<>n then print(`A n'est pas pseudoinversi ble`); > elif iszero(A) then print(`A a pour pseudoinverse:` ,A); > elif r=n then print(`A est inversible, d'inverse:`, inverse(A)); > else reduc:=multiply(inverse(P),A,P); > B:=multiply(P,diag(inverse(submatrix(reduc,1..r,1.. r)),band([0],n-r)),inverse(P)); print(`A a pour pseudoinverse:`,B) ;fi;fi;end; > A:=matrix(3,2,1);pseudoinv2(A);

> A:=matrix(2,2,0);pseudoinv2(A);

> A:=matrix(2,2,[0,1,0,0]);pseudoinv2(A);

:= A

0 0

0 0,A a pour pseudoinverse:

0 0

0 0

:= A

1 1 1

1 1 1

1 1 1

,A est pseudoinversible de pseudoinverse:

19

19

19

19

19

19

19

19

19

:= A

1 2 1

2 4 2

1 0 0

,A est pseudoinversible de pseudoinverse:

-4 2 1

-8 4 2

21 -10 -5

:= A

0 1

0 0A n'est pas pseudoinversible

:= A

1 1

1 1

1 1

A non carrée

:= A

0 1

0 0A n'est pas pseudoinversible

:= A

1 0 0

012

0

0 0 3

,A est inversible d'inverse:

1 0 0

0 2 0

0 013

:= A

1 0 0

012

0

0 0 0

,A est pseudoinversible de pseudoinverse:

1 0 0

0 2 0

0 0 0

Page 66: Problèmes d’algèbre linéaire

66

> A:=matrix(3,3,1);pseudoinv2(A);

> A:=matrix(3,3,[1,2,1,2,4,2,1,0,0]);pseudoinv2(A);

> A:=diag(1,2,3,0);pseudoinv2(A);

Deuxième partie. 1) Exemples.

a) Les sous-groupes de Gln(K ) sont des groupes multiplicatifs de matrices, mais il en est d’autres.

b) Ainsi, si on pose M(x) =

00

xx pour tout x ∈ K*, on a aussitôt M(x).M(y) = M(xy).

L’ensemble G = M(x) ; x ∈ K* est stable par multiplication. La loi induite est associative, admet pour neutre E = M(1), et M(x) est inversible dans G d’inverse M(1/x).

G est donc un groupe multiplicatif de matrices sans être un sous-groupe de Gl2(K ).

c) Il en est de même de H =

0000cossin0sincos

θθθθ

; θ ∈ R .

d) On constate que A3 = − A, A

4 = − A

2 , puis A

5 = A, de sorte que G = A, A

2, A

3, A

4 .

G a 4 éléments, est stable pour la multiplication, et la loi induite est commutative.

× A A2 A

3 A

4

A A2 A

3 A

4 A

A2 A

3 A

4 A A

2

A3 A

4 A A

2 A

3

A4 A A

2 A

3 A

4

On voit sur la table que l’élément neutre est E = A4, et que tout élément est inversible.

Ainsi, G est un groupe, d’ailleurs cyclique et engendré par A.

E2 = E, donc E est un projecteur, auto-adjoint car A est antisymétrique.

On constate après calcul que c’est l’orthoprojecteur sur le plan d’équation x – 2y + 2z = 0.

L’inverse de A dans G est A3 ; c’est aussi (voir la suite !) la pseudo-inverse de A.

Plus généralement, si A est une matrice telle que Ak = A, où k ≥ 2, k étant le plus petit indice tel que

Ak = A, alors G = A

n , n ≥ 1 est un groupe multiplicatif à k éléments, de neutre A

k−1, et cyclique.

2) a) On a aussitôt E2 = E : E est un projecteur, donc K

n = Im E ⊕ Ker E.

:= A

1 1 1

1 1 1

1 1 1

,A a pour pseudoinverse:

19

19

19

19

19

19

19

19

19

:= A

1 2 1

2 4 2

1 0 0,A a pour pseudoinverse:

-4 2 1

-8 4 2

21 -10 -5

:= A

1 0 0 0

0 2 0 0

0 0 3 0

0 0 0 0

,A a pour pseudoinverse:

1 0 0 0

012

0 0

0 013

0

0 0 0 0

Page 67: Problèmes d’algèbre linéaire

67

Soient B la réunion d’une base de Im E et d’une base de Ker E, et P la matrice de passage de la base

canonique de Kn à cette base, P

−1EP =

OOOI r .

b) AE = EA = A implique Im A ⊂ Im E et Ker E ⊂ Ker A. AA’ = A’A = E implique Im E ⊂ Im A et Ker A ⊂ Ker E.

Ainsi P−1

AP =

OOOA1 , où A1 ∈ Mr(K ).

De plus A induit un automorphisme de Im A, puisque Kn = Im A ⊕ Ker A. Donc toutes les matrices

appartenant à GGGG ont même rang, et A1 ∈ Glr(K ).

3) L’application Φ : A → A1 est un homomorphisme de groupes de GGGG dans Glr(K ). Son image est

un sous-groupe de Glr(K ). Réciproquement, si l’on se donne un entier r ∈ 0, 1, …, n, un sous-

groupe H de Glr(K ) et une matrice carrée inversible P, il est facile de vérifier que :

P−1

OOOA1 P ; A1 ∈ H est un groupe multiplicatif matriciel.

4) Il découle de 2b) que si A appartient à un groupe GGGG, elle est pseudoinversible.

Réciproquement, si A est pseudoinversible, et si P−1

AP =

OOOA1 , où A1 ∈ Glr(K ), alors A ∈ GGGG, où

GGGG = P−1

OOOB1 P ; B1 ∈ Glr(K ) .

Du coup, A’AA’ = A, A’AA’ = E et AA’ = A’A : A+ = A’. En vertu de l’unicité de la pseudo-

inverse, A’ est indépendant du groupe multiplicatif auquel A appartient.

5) Application à une équation fonctionnelle.

a) G = M(t) ; t ∈ R est stable car M(s).M(t) = M(s + t). La loi induite est associative, a pour neutre P = M(0), et M(s) a pour inverse M(−s) dans G.

b) Posons M(0) = P. Dérivons en s et en t : M’(s + t) = M’(s).M(t) = M(s).M’(t). En particulier M’(t) = A.M(t) = M(t).A, où A = M’(0), et A = AP = PA. On conclut que M(t) = P.exp(tA) par la méthode de variation des constantes : t → M(t).exp(−tA) a une dérivée nulle et vaut P en 0. cqfd.

Remarque : le même résultat vaut si l’on suppose M seulement continue, grâce à la méthode de renforcement d’Euler. Références : X M’ 1986, ENS Ulm 1988, etc. __________

Page 68: Problèmes d’algèbre linéaire

68

Problème 14 : matrices-blocs Ce problème est consacré à l’étude des matrices partitionnées en blocs.

K désigne un corps commutatif. A toute matrice A à n lignes et p colonnes à éléments dans K

correspond l’application linéaire canoniquement associée ϕA : Kp → K

n .

I. Généralités.

1) Soit A =

43

21

AAAA ∈ MK(n, p) une matrice rectangulaire, partitionnée en blocs rectangulaires.

De quelles applications linéaires

3

1

AA ,

OOOA1 et A1 sont-elles les matrices ?

On peut déduire de ces résultats la formule donnant le produit de deux matrices blocs de formats

convenables,

43

21

AAAA et

43

21

BBBB ; cette formule sera admise dans la suite.

2) a) Soit A ∈ MK(n, p) de rang r. Démontrer qu’il existe des matrices inversibles P ∈ Glp(K ) et Q

∈ Gln(K ) telles que Q−1

.A.P =

OOOI r .

b) Montrer qu’une matrice de rang r peut s’écrire comme somme de r matrices de rang 1, mais ne peut pas s’écrire comme somme de moins de r matrices de rang 1.

c) Soit A une matrice carrée d’ordre n, à termes réels ou complexes, de rang r < n. Montrer qu’elle est limite d’une suite de matrices inversibles.

3) a) Démontrer qu’il existe au moins une matrice B ∈ MK(p, n) telle que A.B.A = A.

[ On pourra poser P−1

.B.Q =

TZYX , avec les notations de 1.a) ]

b) On cherche à résoudre le système linéaire (S) Ax = b, où b est un vecteur donné de Kn et x le

vecteur-colonne des inconnues dans Kp. Montrer que (S) a une solution si et seulement si b = AB.b,

et que les solutions de (S) sont données par x = B.b + ( Ip – BA ).z , où z décrit Kp

.

4) a) Soient A ∈ MK(n, p) et B ∈ MK(p, n). Montrer que rg( Ip − BA ) + n = p + rg( In − AB ).

En déduire que rg( In − AB ) = n – p ⇔ BA = Ip . [ Raisonner comme en 3.a) ]

b) Soient A ∈ MR(3, 2) et B ∈ MR(2, 3) deux matrices telles que AB =

−−−−

211101110

.

Calculer (AB)2 ; conséquence ? Montrer que BA = I2 .

5) a) Soit A∈Mn(K ). Montrer que si A est de rang < n, A est équivalente à une matrice nilpotente.

b) Soit f : Mn(K ) → K une application non constante vérifiant ∀(A, B) f(AB) = f(A).f(B). Montrer l’équivalence : A non inversible ⇔ f(A) = 0. c) Donner des exemples de telles applications.

6) Soit A ∈ MK (n, p) de rang r. Montrer qu’il existe une sous-matrice carrée d’ordre r inversible. Que peut-on dire des sous-matrices extraites d’ordre > r ?

Par quelles opérations peut-on ramener A à la forme

43

21

AAAA , où A1 ∈ Glr(K ) ?

7) On suppose toujours A ∈ MK (n, p) de rang r, et de la forme A =

43

21

AAAA , où A1 ∈ Glr(K ).

Page 69: Problèmes d’algèbre linéaire

69

a) Montrer que A4 = A3.A1−1

.A2 .

b) Im A est un sous-espace de dimension r de Kn. En indiquer une base.

Indiquer une matrice B ∈ MK(n−r , n) telle que : y ∈ Im ϕA ⇔ B.y = 0.

c) Ker A est un sous-espace de dimension p − r de Kp. En indiquer une base.

Indiquer une matrice C ∈ MK(n−r, p) telle que : x ∈ Ker ϕA ⇔ C.x = 0.

Partie II : Inversion de matrices-blocs.

1) Soit M =

DOBA une matrice-blocs carrée, où A et D sont carrées.

Montrer que M est inversible ssi A et D le sont, et qu’alors M−1 =

−−

−−−

1

111 ..DO

DBAA.

2) Soit M =

DCBA une matrice-blocs carrée, où A et D sont supposées carrées.

a) Montrer que, si A est inversible, det M = det(A).det( D − C.A−1.B ) .

b) Montrer que, si A, B, C et D sont carrées de même format et commutent, det M = det( AD – BC ). [ On commencera par supposer A inversible. ]

c) On suppose que A est inversible, que B est un vecteur-colonne X , C un vecteur-ligne tY, enfin que D est un scalaire z.

i) Indiquer une cns pour que M soit inversible. On note M−1 =

wVUB

t .

ii) Exprimer B, U, V, w à l’aide de A, X, Y et z . On trouvera :

w = ( z − tY.A−1.X )−1 , B = A−1 + w.A−1.X.tY.A−1 , U = − w.A−1.X et V = − w.tA−1.Y.

iii) Si l’on connaît A−1, combien d’opérations sont nécessaires pour calculer M−1 ?

3) Inversion de certaines matrices d’ordre 2n.

Si A =

dcba ∈ M2(K ) et B ∈ Mn(K ), on note A ⊗ B la matrice

dBcBbBaB ∈ M2n(K ).

Reconnaître la matrice (A ⊗ B).(A’ ⊗ B’). Indiquer une cns pour que A ⊗ B soit inversible ; quelle est son inverse ?

Partie III : Factorisations LU et PLU .

Si A = (aij ) ∈ Mn(K ). Pour tout 1 ≤ k ≤ n, on note Ak = (aij )1≤i,j≤k ∈ Mk(K ).

Une matrice triangulaire est dite unipotente si sa diagonale principale est formée de 1.

1) Montrer l’équivalence des propriétés suivantes :

a) (∀k) Ak ∈ Glk(K ) ;

b) Il existe trois matrices inversibles L, D, U telles que A = L.D.U , où L est triangulaire infé-rieure unipotente, U triangulaire supérieure unipotente, et D diagonale.

[ Pour a) ⇒ b), on raisonnera par récurrence. ] Montrer que la factorisation A = L.D.U est unique. Que dire si A est symétrique ?

2) Soit A = (aij )∈Mn(C) vérifiant (∀i) |aii | > ∑≠ij

ija . Montrer qu’elle satisfait les conditions de 1).

Page 70: Problèmes d’algèbre linéaire

70

3) Soit A ∈ Gln(K ). Montrer qu’il existe une matrice de permutation P telle que P.A satisfait la

condition a) de 1). En déduire que toute matrice A ∈ Gln(K ) s’écrit sous la forme A = P.L.D.U. ___________ Solution

Partie I : Généralités. 1) Sous-matrices.

Soit A =

43

21

AAAA ∈ MK(n, p) une matrice rectangulaire, partitionnée en blocs rectangulaires.

Supposons A1 ∈ MK(m, q). Notons (a1, … , ap) la base canonique de Kp, (b1, … , bn) celle de K

n.

3

1

AA est la matrice de la restriction de ϕA à Vect(a1, … , aq).

OOOA1 est la matrice de p o ϕA o q , où p et q sont des projecteurs de K

n et K

p resp. :

q est le projecteur de Kp sur F = Vect(a1, … , aq) parallèlement à Vect(aq+1, … , ap)

p est le projecteur de Kn sur G = Vect(b1, … , bm) parallèlement à Vect(bm+1, … , bn).

A1 est alors la matrice de (p o ϕA o q)|GF .

2) Le rang.

a) est une question de cours. Il faut apprendre son cours !

b) Il découle de a) que A = Q.

OOOI r .P

−1 = ∑

=

−r

iii PEQ

1

1.. est somme de r matrices de rang 1.

En vertu de la relation rg(u + v) ≤ rg u + rg v, qui découle de Im(u + v) ⊂ Im u + Im v, A ne peut s’écrire comme somme de moins de r matrices de rang 1.

c) A = Q.

OOOI r .P

−1 = lim k→+∞ Q.

−rn

r

Ik

OOI

1 .P−1

, par exemple.

3) g-inverses et systèmes linéaires.

a) Soient Q et P inversibles telles que Q−1

AP =

OOOI r .

Cherchons B sous la forme B = P

TZYX Q

−1.

ABA = A ⇔ Q−1

.A.P.P−1

.B.Q.Q−1

.A.P = Q−1

AP ⇔

OOOI r

TZYX

OOOI r =

OOOI r ⇔ X = Ir.

b) Si x est solution de Ax = b, alors AB.b = ABA.x = A.x = b. Si ABb = b, (S) a une solution : Bb. Il reste à montrer que Ker A = Im(I – BA). A(I – BA) = 0 ⇒ Im(I – BA) ⊂ Ker A, et x ∈ Ker A ⇒ x = x – BAx = (I − BA)x ∈ Im(I − BA).

4) AB donne BA…

a) Les questions de rang relèvent de l’équivalence matricielle

Soient Q et P inversibles telles que Q−1

.A.P =

OOOI r . Posons P

−1.B.Q =

VUYX .

Alors AB = Q.

OOYX .Q

−1 et BA = P.

OUOX .P

−1.

Page 71: Problèmes d’algèbre linéaire

71

D’où : P−1

.( Ip – BA ).P =

−−

−rp

r

IUOXI et Q

−1.( In – AB ).Q =

−−−rn

r

IOYXI .

Or il est clair que rg

rIOYD

= r + rg D .

Donc rg( Ip – BA ) = p – r + rg( Ir – X ) et rg( In – AB ) = n – r + rg( Ir – X ) . C’est fini !

b) Pour la première question, faisons confiance à Maple : > with(linalg): > P:=matrix(3,3,[0,-1,-1,-1,0,-1,1,1,2]);evalm(P^2);r ank(P);

Conclusion : P = AB est un projecteur de rang 2.

On peut conclure en appliquant la question a) précédente avec n = 3 et p = 2. Mais on peut aussi donner de cette question une preuve directe, que voici : On a 2 = rg(AB) ≤ rg(A) ≤ 2, donc rg(A) = 2 et 2 = rg(AB) ≤ rg(B) ≤ 2, donc rg(B) = 2. A est donc injective, et B surjective, en tant qu’applications linéaires.

Or P2 = P s’écrit ABAB = AB , ou encore A.(BA − I2).B = 0.

Comme A est injective, (BA − I2).B = 0 [car ∀X A.(BA − I2).B.X = 0 ⇒ (BA − I2).B.X = 0].

Comme B est surjective, BA − I2 = 0 [car ∀Y ∃X Y = BA ; donc (BA − I2).Y = (BA − I2).B.X = 0].

Rappelons que rg(AB) ≤ rg(A) découle de Im(AB) ⊂ Im A et que rg(AB) ≤ rg(B) découle de Ker(AB) ⊃ Ker B et du théorème du rang.

5) Une équation fonctionnelle.

a) Toute matrice de rang r < n est équivalente à N =

OOIO r (même rang). Or N est nilpotente.

b) Soit f : Mn(K ) → K une application non constante vérifiant ∀(A, B) f(A.B) = f(A).f(B).

• On a f(On) = f(On)2, donc f(On) = 0 ou 1. Mais f(On) = 1 impliquerait 1 = f(On) = f(On).f(A) =

f(A) pour toute A : impossible, car f n’est pas constante. Donc f(On) = 0.

• On a f(In) = f(In)2 , donc f(In) = 0 ou 1. Mais f(In) = 0 impliquerait f(A) = f(In).f(A) = 0 pour

toute A : impossible, car f n’est pas constante. Donc f(In) = 1.

♦ Si P est inversible, 1 = f(P).f(P−1

), donc f(P) ≠ 0.

♦ Si P n’est pas inversible, d’après 1), P est équivalente à une matrice nilpotente N : P = A−1

.N.B

(A et B inversibles), donc f(P) = f(A−1

).f(N).f(B).

Or 0 = f(On) = f(Nr) = f(N)

r ; donc f(N) = 0, et f(P) = 0. cqfd.

c) Exemples de telles applications f : A → det A , A → (det A)2 , A → (det A)

m, etc.

6) Rang et sous-matrices.

Soit A ∈ MK (n, p) de rang r. On peut choisir r colonnes de A libres, disons c1, …, cr. La sous-matrice n×r obtenue en barrant les autres colonnes est de rang r. Ce rang est aussi celui des lignes : on peut donc choisir r lignes libres. Les sous-matrices extraites d’ordre > r ne sont pas inversibles, car si B est une sous-matrice de A, rg B ≤ rg A.

A se ramène à la forme

43

21

AAAA , où A1 ∈ Glr(K ) par simple permutation de lignes et de colonnes.

7) Descriptions duales de l’image et du noyau d’une matrice.

:= P

0 -1 -1

-1 0 -1

1 1 2

0 -1 -1

-1 0 -1

1 1 22

Page 72: Problèmes d’algèbre linéaire

72

Soit A ∈ MK (n, p) de rang r, et de la forme A =

43

21

AAAA , où A1 ∈ Glr(K ).

a) Montrons que A4 = A3.A1−1

.A2 .

En effet A.

− −

IOAAI 2

11 =

− −

21

1343

1

AAAAAOA .

Nécessairement A4 = A3.A1−1

.A2 , sans quoi rg A > r.

b) Im A est un sous-espace de dimension r de Kn.

rg A = rg

3

1

AA . Les colonnes de cette matrice forment base de Im A.

Cherchons une matrice de contrôle de Im A, c’est-à-dire une matrice B ∈ MK(n−r, n) telle que : Y ∈ Im A ⇔ B.y = 0 (autrement dit un système d’équations).

2

1

YY =

43

21

AAAA

2

1

XX ⇔ Y1 = A1.X1 + A2.X2 et Y2 = A3.X1 + A3.A1

−1.A2.X2

Cela équivaut à Y2 = A3.A1−1

.Y1 , donc à [ A3.A1−1

| − In−r ]

2

1

YY = O.

L’implication est facile. Réciproquement, si Y2 = A3.A1−1

.Y1 , poser X1 = A1−1

.Y1 , X2 = 0.

Alors A.

2

1

XX =

2

1

YY .

c) Ker A est un sous-espace de dimension p − r de Kp. Cherchons-en une matrice génératrice et une matrice de contrôle.

43

21

AAAA

2

1

XX = 0 ⇔ 0 = A1.X1 + A2.X2 et 0 = A3.X1 + A3.A1

−1.A2.X2 ⇔ 0 = A1.X1 + A2.X2

Ker A =

− −

2

221

1

XXAA ; X2 est quelconque .

Une base de Ker A est

− −

21

1 AAI r . Enfin X =

2

1

XX ∈ Ker A ⇔ [ Ir

| − A1−1 A2 ]

2

1

XX = O.

Exemple : matrices de Hamming (théorie des codes correcteurs)

> with(linalg): > A:=transpose(matrix(7,3,[1,0,0,0,1,0,1,1,0,0,0,1,1, 0,1,0,1,1,1,1,1] mod 2));

:= A

1 0 1 0 1 0 1

0 1 1 0 0 1 1

0 0 0 1 1 1 1

> rank(A);colspace(A);Nullspace(A) mod 2; 3

, ,[ ], ,0 1 0 [ ], ,1 0 0 [ ], ,0 0 1 , , ,[ ], , , , , ,1 0 0 1 1 0 0 [ ], , , , , ,0 1 0 1 0 1 0 [ ], , , , , ,1 1 1 0 0 0 0 [ ], , , , , ,1 1 0 1 0 0 1

> GenIm:=transpose(matrix([op(colspace(A))])); > GenKer:=transpose(matrix([op(Nullspace(A) mod 2)])) ;

:= GenIm

0 1 0

1 0 0

0 0 1 := GenKer

1 0 1 1

1 1 1 0

0 0 1 0

1 1 0 1

0 0 0 1

0 1 0 0

1 0 0 0

Page 73: Problèmes d’algèbre linéaire

73

Partie II : Inversion de matrices-blocs.

1) Matrices-blocs trigonales.

Soit M =

DOBA une matrice-blocs carrée, où A et D sont carrées et inversibles.

M.[ YX ] = [ V

U ] ⇔ AX + BY = U et DY = V ⇔ Y = D−1.V et X = A−1 ( U – B.D−1.V )

⇔ [ YX ] =

−−

−−−

1

111 ..DO

DBAA [ VU ].

On en conclut que M est inversible et que M−1 =

−−

−−−

1

111 ..DO

DBAA.

Si M est inversible, A et D aussi, en vertu de det M = (det A)(det D).

Remarque : variantes nombreuses.

2) Soit M =

DCBA une matrice-blocs carrée, où A et D sont supposées carrées.

a) Si A est inversible, je dis que det M = det(A).det( D − C.A−1.B ) .

Cela découle de

DCBA

− −

IOBAI 1

=

− − BCADC

OA1 , en passant aux déterminants.

Remarque : Si D est inversible, on montera de même que det M = det(D).det( A − B.D−1.C ) .

b) Si A, B, C et D sont carrées de même format et commutent, det M = det(AD – BC). Supposons d’abord A inversible. Alors, en vertu de a) :

det M = det(A).det( D − C.A−1.B ) = det( AD − ACA−1B ) = det(AD – CB) = det(AD – BC).

Si A n’est pas inversible, procédons par densité. A − λ.I, B, C et D sont de même format et commuent. Or, pour 0 < |λ| < ρ, A − λ.I est inversible, car A ne possède qu’un nombre fini de valeurs propres. Dès lors, pour ces valeurs de λ :

det

DCBIA λ = det((A − λI).D – B.C).

Il reste à faire tendre λ vers 0 en restant tel que 0 < |λ| < ρ.

Remarques : i) Si A et C commutent, det M = det(AD – CB) ; si D et C commutent, det M = det(AD – BC). ii) Ce raisonnement par densité n’est valable que pour K = R ou C. Si l’on veut l’établir dans le cas

général, il faut procéder par « densité algébrique », en se plaçant dans Mn(K (X)). Les matrices A − X.I, B, C et D sont de même format et commutent, et A – X.I est inversible dans

Mn(K (X)). Dès lors det

DCBXIA = det((A − X.I).D – B.C). Il reste à faire X = 0.

iii) La formule det M = det(AD – BC) n’est pas toujours vraie comme le montre l’exemple de

A = D =

0110 , B = C =

0110 .

c) Inversion de matrices bordées.

i) Cns pour que M =

zYXA

t soit inversible.

Il découle de 2.a) que det M = (det A).det( z – tY.A

−1.X ) = ( z –

tY.A

−1.X ).det A.

Par conséquent, M est inversible ssi z – tY.A

−1.X ≠ 0.

Page 74: Problèmes d’algèbre linéaire

74

ii) On note M−1 =

wVUB

t . Ecrivant que M.M−1 =

zYXA

t

wVUB

t = I, il vient :

A.B + X.tV = I (1) , A.U + w.X = 0 (2) ,

tY.B + z.

tV = 0 (3) ,

tY.U + z.w = 1 (4).

(2) donne U = − w.A−1

.X. Si l’on reporte dans (4), il vient : w = ( z − tY.A−1.X )−1 .

(1) donne B = A−1 − A−1.X.tV (5).

Reportons dans (3) : tY.A−1 −

tY.A−1.X.tV + z.

tV = 0 .

Cela s’écrit : tY.A−1 + ( z −

tY.A−1.X ).tV = 0 , d’où l’on déduit V = − w.tA−1.Y.

Reportons dans (5). Il vient : B = A−1 + w.A−1.X.tY.A−1 .

Bref, w = ( z − tY.A−1.X )−1 , B = A−1 + w.A−1.X.tY.A−1 , U = − w.A−1.X et V = − w.tA−1.Y.

iii) Si l’on connaît A−1, combien d’opérations sont nécessaires pour calculer M−1 ?

On calcule successivement A−1.X , tY.A−1 , w , U , V et B.

En tout, si A est de format n×n , 3n2 – n – 1 additions, 3n

2 + 3n multiplications, et 1 division.

Remarque : Frobenius a généralisé cela à l’inversion de matrices M =

DCBA .

3) Inversion de produits tensoriels.

Si A =

dcba ∈ M2(K ) et B ∈ Mn(K ), on note A ⊗ B la matrice

dBcBbBaB ∈ M2n(K ).

Un calcul aisé montre que (A ⊗ B).(A’ ⊗ B’) = (A.A’) ⊗ (B.B’). Je dis que A ⊗ B est inversible ssi A et B le sont. Cela découle de 2), car aB, bB, cB et dB commutent, donc

det(A ⊗ B) = det(( ad – bc ).B2) = ( ad – bc )

n.det(B)

2 .

Alors, il est facile de vérifier que (A ⊗ B)−1 = A−1 ⊗ B−1.

Partie III : Factorisations LU et PLU .

1) Factorisation L.U. Montrons l’équivalence des propriétés suivantes :

a) Les sous-matrices principales de A sont toutes inversibles : (∀k) Ak ∈ Glk(K ) ;

b) Il existe trois matrices inversibles L, D, U telles que A = L.D.U , où L est triangulaire infé-rieure unipotente, U triangulaire supérieure unipotente, et D diagonale.

b) ⇒ a) est facile. A =

1*...*0...............1*0...01

nd

dd

...000...............00...0

2

1

10...0*...............10*...*1

est inversible, et ses sous-matrices

principales Ak sont les produits des sous-matrices principales de L, D et U : Ak = Lk.Dk.Uk, donc Ak

est inversible. Mieux ! on a d1 … dk = ∆k(A) = det Ak , donc dk = 1−∆

∆k

k .

a) ⇒ b) Raisonnons par récurrence sur n. Pour n = 1 il n’y a rien à montrer.

Supposons le résultat acquis au rang n−1. Alors si l’on note A =

aYXB

t , comme les sous-matrices

principales de B sont toutes inversibles, B = L’D’U’, matrices carrées d’ordre n − 1.

Cherchons L, D et U sous les formes : L =

10'

vLt , D =

dD0

0' , U =

10' uU .

Page 75: Problèmes d’algèbre linéaire

75

L.D.U =

+duvDUvDuDLUDL

tt ''''''''

= A ⇔ L’.D’.U’ = B , L’.D’.u = X , tv.D’.U’ =

tY ,

tv.D’.u + d = a.

Cela équivaut à u = (L’.D’)−1

.X , tv =

tY.(D’.U’)

−1 et d = a −

tv.D’.u.

Il reste à montrer que, u, v et d étant ainsi définis, d est non nul. Or cela découle de ce que det A = det D = det D’.d .

Unicité de la factorisation A = L.D.U. On a déjà noté au passage l’unicité de D.

Si A = L.D.U = L’.D’.U’, alors L’−1

.L = D’.U’.U−1

.D−1

.

Cette matrice est triangulaire inférieure unipotente et triangulaire supérieure, donc c’est l’identité : L = L’, et de même U = U’, etc.

Si A est symétrique, l’unicité et le fait que tA =

t U.D.

t L impliquent que L =

t U.

Remarque : Les matrices dont tous les mineurs diagonaux sont non nuls sont dites cellulaires. Si K = R ou C, elles forment un ouvert dense de Gln(K ).

2) Théorème d’Hadamard.

cf. le cours. Les sous-matrices principales sont aussi diagonalement dominantes

3) Factorisation PLU.

Soit A ∈ Gln(K ). Montrons par récurrence qu’il existe une matrice de permutation P (autrement dit un échange des lignes) telle que B = P.A ait tous ses mineurs principaux non nuls.

• Si ∆n−1(A) ≠ 0, il existe une matrice de permutation P’ d’ordre n−1 telle que P.An−1 = Bn−1 soit

cellulaire. La matrice P =

100'P répond à la question.

• Si ∆n−1(A) ≠ 0, il y a une sous-matrice AHK , |H| = n−1, K = 1, …, n−1 de déterminant non nul, donc il y a une permutation des lignes qui nous ramène à la situation précédente.

On en déduit aussitôt que toute matrice A ∈ Gln(K ) s’écrit sous la forme A = P.L.D.U.

En particulier, le groupe Gln(K ) est engendré par 4 sous-groupes : le sous-groupe des matrices de permutations, le sous-groupe des matrices trigonales inférieures unipotentes, le sous-groupe des matrices diagonales inversibles et le sous-groupe des matrices trigonales supérieures unipotentes. Chacun de ces sous-groupes a lui-même des générateurs. Attention, la factorisation n’est plus unique.

Annexe : Maple sait tout ça !

> with(linalg): > A:=matrix(3,3,[1,2,3,1,1,1,3,2,0]);

:= A

1 2 3

1 1 1

3 2 0

> LUdecomp(A,P='P',L='L',U='U',rank='r',det='d'):prin t(P);print(L); print(U);multiply(P,L,U);print(r);print(d);

> B:=matrix(3,3,[2,2,1,1,1,1,3,2,1]);

1 0 0

0 1 0

0 0 1

1 0 0

1 1 0

3 4 1

1 2 3

0 -1 -2

0 0 -1

1 2 3

1 1 1

3 2 03 1

Page 76: Problèmes d’algèbre linéaire

76

:= B

2 2 1

1 1 1

3 2 1

> LUdecomp(B,P='P',L='L',U='U',rank='r',det='d'):prin t(P);print(L); print(U);multiply(P,L,U);print(r);print(d);

> C:=matrix(4,4,[1,2,1,2,1,2,-1,3,-2,-2,-1,-1,1,3,2,3 ]);

:= C

1 2 1 2

1 2 -1 3

-2 -2 -1 -1

1 3 2 3

> LUdecomp(C,P='P',L='L',U='U',rank='r',det='d'):prin t(P);print(L); print(U);multiply(P,L,U);print(r);print(d);

Références : Ikramov : Problèmes d’algèbre linéaire (éd. de Moscou) J. Tuloup, etc. ____________ Problème 16 : Construction matricielle de certains corps Dans tout ce problème, K désigne un corps commutatif de caractéristique différente de 2.

A. Première partie.

Soient d un élément de K , E la matrice unité de M2(K ). Si (x, y) ∈ K2, on note M(x, y) =

xydyx .

1) Montrer que l’ensemble Ad de ces matrices est un plan vectoriel. En indiquer la dimension et

une base ( E, I ). Montrer que Ad est une sous-algèbre commutative de M2(K ).

2) Calculer M(x, y).M(x, −y). En déduire une caractérisation des éléments inversibles de Ad.

3) Montrer l’équivalence des propriétés suivantes : i) d n’est le carré d’aucun élément de K ;

ii) L’algèbre Ad est intègre ;

iii) L’algèbre Ad est un corps.

4) Exemples : a) Si K = R et d = −1, reconnaître Ad .

b) Montrer l’existence d’un corps à 9, 25, 49, 81 éléments. Généraliser.

B. Deuxième partie.

1 0 0

0 0 1

0 1 0

1 0 0

32

1 0

12

0 1

2 2 1

0 -1-12

0 012

2 2 1

1 1 1

3 2 13 -1

1 0 0 0

0 0 1 0

0 1 0 0

0 0 0 1

1 0 0 0

-2 1 0 0

1 0 1 0

112

-14

1

1 2 1 2

0 2 1 3

0 0 -2 1

0 0 0-14

1 2 1 2

1 2 -1 3

-2 -2 -1 -1

1 3 2 3

4 1

Page 77: Problèmes d’algèbre linéaire

77

On note E la matrice unité de M4(K ). Si (t, x, y, z) ∈ K4, on note M(t, x, y, z) =

−−

−−−−

txyzxtzyyztxzyxt

.

1) Montrer que l’ensemble H des matrices M(t, x, y, z) est un espace vectoriel pour les lois usuelles. En indiquer la dimension et une base (E, I, J, K). 2) Effectuer les produits deux à deux des matrices E, I, J, K, et présenter les résultats dans un

tableau en précisant l’ordre. En déduire que H est une sous-algèbre de M4(K ).

Est-elle commutative ? Quel est son centre ?

3) a) Montrer que M → tM définit une involution linéaire de H telle que

t(M.M’) =

tM’.

tM.

Quand a-t-on M = tM ?

b) Soit M ∈ H. Vérifier que M.tM =

tM.M = N(M).E, où l’on calculera N(M) ∈ K , et que

N(M.M’) = N(M).N(M’). c) En déduire une caractérisation des éléments inversibles de H, et calculer leur inverse.

4) Soit Σ = z ∈ K* ; ∃(x, y)∈ K×K z = x2 + y

2 .

a) Montrer que Σ est un sous-groupe multiplicatif de K*.

b) Montrer l’équivalence : H est un corps ⇔ −1 ∉ Σ. c) Examiner les cas où K = R, C et Z/pZ ( p premier > 2 ).

d) Si K = R, résoudre dans H l’équation M2 = −E. Ceci contredit-il le théorème relatif au

nombre de racines d’une équation ? En déduire qu’il existe une infinité de façons de plonger le corps C dans le corps H. ___________

Problème 17 : Générateurs et groupe dérivé de Gln(K) Dans ce problème, K désigne un corps commutatif, n un entier ≥ 2, Mn(K ) l’ensemble des matrices

carrées d’ordre n sur K , I l’élément unité de Mn(K ). On note diag(α1, α2, …, αn) la matrice

diagonale dont les éléments diagonaux sont α1, α2, …, αn.

Partie I

I.1) On suppose, jusqu’au I.4), que n ≥ 2.

a) On désigne par Eij la matrice dont tous les termes sont nuls sauf le terme intersection de la ième ligne et de la jème colonne, qui est égal à 1.

Vérifier que Ejk.Eqr = δkq.Ejr , où δkq = 1 si k = q , 0 si k ≠ q.

b) Soit A ∈ Mn(K ). Montrer que l’addition à un vecteur ligne de A d’un vecteur proportionnel à un autre vecteur ligne peut se faire en multipliant A à gauche par une matrice convenable. Donner un énoncé analogue relatif aux colonnes.

I.2) On suppose que la première ligne de A comporte au moins un élément ≠ 0. Montrer qu’il existe

des matrices P et Q, produits de matrices de la forme I + λ.Eij avec i ≠ j et λ ∈ K , telles que P.A.Q

soit de la forme : P.A.Q = B =

0'...

00...01

B . On pourra, dans un premier temps, transformer A en

une matrice comportant un élément égal à 1 à l’intersection de la 1ère ligne et de la 1ère colonne.

Page 78: Problèmes d’algèbre linéaire

78

I.3) On suppose que A est de rang r > 0. Montrer qu’il existe des matrices P et Q, produits de

matrices de la forme I + λ.Eij avec i ≠ j et λ ∈ K , telles que P.A.Q = B = diag(1, …, 1, d, 0, …, 0), le terme d ≠ 0 étant à la place d’indice r sur la diagonale.

Montrer en outre que si r < n, on peut choisir d = 1. [ On pourra raisonner par récurrence. ]

I.4) En déduire que le groupe Sn(K ) = A ∈ Mn(K ) ; det A = 1 est engendré par les matrices

I + λ.Eij avec i ≠ j et λ ∈ K . Montrer que le groupe Gln(K ) est engendré par ces mêmes matrices et par les matrices diag(α, 1, …, 1) où α décrit K*.

I.5) Si G est un groupe multiplicatif, on appelle groupe dérivé de G le sous-groupe engendré par les

commutateurs [a, b] = a−1

.b−1

.a.b , où (a, b) décrit G×G.

i) On suppose n ≥ 3. Montrer que toute matrice de la forme I + λ.Eij avec i ≠ j et λ ∈ K ,

s’exprime comme un commutateur de telles matrices : I + λ.Eij = A−1

.B−1

.A .B , où A et B sont de

la forme I + α.Ekl avec k ≠ l et α ∈ K .

ii) On suppose n = 2 et card K ≥ 4. Calculer

101 a

bb

/100

101 a

bb

00/1 ( a ∈ K , b ∈ K* ).

iii) Montrer que, si n ≥ 3, ou si n = 2 et card K ≥ 4, Sn(K ) est égal à son propre groupe dérivé.

Quel est alors le groupe dérivé de Gln(K ) ?

Partie II

On suppose n ≥ 3, ou n = 2 et card K ≥ 4. Soient G un groupe abélien noté multiplicativement, de

neutre e, et Φ une application Gln(K ) → G vérifiant :

∀A, B ∈ Gln(K ) Φ(A.B) = Φ(A).Φ(B)

II.1) Montrer que Φ( I + λ.Eij ) = e ∀λ ∈ K ∀i ≠ j .

II.2) On pose ϕ(α) = Φ(diag(α, 1, …, 1)) pour tout α ∈ K*. Montrer que ϕ est un morphisme de groupes K* → G.

II.3) Déduire de ce qui précède que ∀X ∈ Gln(K ) Φ(X) = ϕ( det X ). Réciproque ?

II.4) Quels sont les homomorphimes continus de Gln(R) dans R*, de Gln(C) dans C* ?

Partie III

On suppose n ≥ 3, ou n = 2 et card K ≥ 4. Soit Φ une application Mn(K ) → K vérifiant :

∀A, B ∈ Mn(K ) Φ(A.B) = Φ(A).Φ(B)

III.1) Quelles valeurs peut prendre Φ(I) ? Que dire de Φ si Φ(I) = 0 ?

III.2) On suppose désormais Φ(I) = 1. Montrer que ∀A ∈ Gln(K ) Φ(A) ∈ K*. Conclusion ?

III.3) Soit A ∈ Mn(K ) de rang r < n. Montrer que Φ(A) = Φ(Xr) , où Xr =

OOOI r .

III.4) Quelles valeurs peut prendre ϕ(0) = Φ(diag(0, 1, …, 1)) ?

III.5) Quelle est la forme générale des fonctions Φ cherchées ?

Page 79: Problèmes d’algèbre linéaire

79

Partie IV

On suppose toujours n ≥ 3, ou n = 2 et card K ≥ 4. Soit Ψ une application de Mn(K ) dans un

ensemble E telle que : ∀(X, Y, Z) ∈ Mn(K )3 Ψ(X.Y.Z) = Ψ(X.Z.Y)

IV.1) Démontrer que pour toute matrice X de Mn(K ) et toute matrice U de Sn(K ) on a :

Ψ(X.U) = Ψ(X) = Ψ(U.X).

IV.2) Pour tout r ∈ 1, 2, …, n−1, on définit Xr =

OOOI r comme en III.3).

a) Montrer que pour A et B, matrices de Mn(K ) telles que rg A = rg B = r < n, on a Ψ(A) = Ψ(B).

b) Montrer qu’il existe une matrice Y de rang r telle que Xr−1 = Y.Xr et que Y = Xr.Y.

[ On pourra raisonner sur les endomorphismes associés. ]

c) En déduire que ψ prend la même valeur sur toutes les matrices de rang strictement inférieur à n.

IV.3) En conclure que ∀X, Y ∈ Mn(K ) det X = det Y ⇒ Ψ(X) = Ψ(Y).

Quelle est la forme générale des fonctions Ψ ? ___________

Solution : générateurs, groupe dérivé de Gln(K), caractérisations fonctionnelles liées au déterminant.

I. Groupes dérivés de Sn(K) et Gln(K ).

I.1) Opérations élémentaires.

a) Table de multiplication de la base canonique de Mn(K ).

Notons ei = t(0, …, 0, 1, 0, …, 0) la base canonique de K

n. Alors Eij = ei.

tej et

tep.eq = δpq.

Du coup Ejk.Eqr = ( ej.tek ).( eq.

ter ) = ej.(

tek.eq ).

ter = δkq.( ej.

teq ) = δkq.Ejr .

b) Notons Li → Li + αLj l’addition à la i-ème ligne de α fois la j-ème (i ≠ j).

La matrice A’ déduite de A par cette transformation est A’ = ( I + α.Eij ).A.

En effet, ( I + α.Eij ).A = A + α.ei.tej.A = A + α.ei.Lj , où Lj est la j-ème ligne de A.

Or ei.Lj est la matrice dont toutes les lignes sont nulles, sauf la i-ème, qui est Lj . cqfd.

Si l’on note Ci → Ci + αCj l’addition à la i-ème colonne de α fois la j-ème (i ≠ j).

La matrice A’’ déduite de A par cette transformation est A’’ = A.( I + α.Eji ). Cela se montre directement, ou se déduit de ce qui précède par transposition.

Les matrices Tij (α) = I + α.Eij s’appellent matrices de transvection.

I.2) Supposons d’abord que a11 = 1. Notons alors :

P =

1...00...............10...01

1

21

na

a = ( I−a21.E21)…( I−an1.En1) et Q =

−−

1...000...............10

...1 112 naa= ( I−a12.E12)…( I−a1n.E1n).

les produits étant d’ailleurs commutatifs, en vertu de I.1.a).

Page 80: Problèmes d’algèbre linéaire

80

On a P.A.Q =

0'...

00...01

B compte tenu de I.1.b)

La difficulté consiste à se ramener à a11 = 1 en n’effectuant que des transvections.

1er cas : si ∃j ≥ 2 a1j ≠ 0, on fait c1 → c1 + ja

a1

111− cj et A → A’ = A ( I + ja

a1

111− Ej1 ),

matrice dans laquelle a’11 = 1.

2ème cas : si ∀j ≥ 2 a1j = 0, alors A =

............

0...011a

. On fait c2 → c2 + c1 et on est ramené au 1er cas.

Remarque : en terme de produits, pour tout a ∈ K*,

101 a

− 1/1

01a

101 a =

− 0/1

0a

a et

− 0/1

0a

a

0110 =

aa

/100

formules qui s’étendent sans peine à des matrices carrées d’ordre n.

I.3) Forme réduite unicorde d’une matrice de rang r.

Raisonnons par récurrence sur r, quel que soit le format. Pour r = 0, A = O et il n’y a rien à montrer. Supposons le théorème vrai de toute matrice de rang r – 1. Soit maintenant A de rang r. Une des lignes de A est non nulle. Quitte à l’échanger avec la première, via une matrice de la forme

10...............00.........10.........0...000...01......01..................................0......100...01......00

(qui est produit de transvections), on peut supposer que c’est la première ligne.

Alors, par I.2) il existe P et Q, produits de transvections, telles que P.A.Q =

0'...

00...01

B , où rg B’ =

r – 1. Par hyp. de récurrence, il existe R et S produits de transvections de Mn−1(K ) telles que R.B’.S = diag(1, …, 1, d, 0, …, 0), d élément non nul placé à la (r – 1)-ème place.

Les matrices bordées R’ =

0...0

0...01

R et S’ =

0...0

0...01

S sont produits de transvections de Mn(K )

et R’.P.A.Q.S’ =

0'...

00...01

SRB = diag(1, …, 1, d, 0, …, 0), d étant placé à la r-ème place.

Lorsque r < n, multipliant diag(1, …, 1, d, 0, …, 0) par diag(1, …, 1, 1/d, d, 1, …, 1), qui est produit de transvections (remarque ci-dessus), on ramène B à diag(1, …, 1, 0, …, 0). Lorsque r = n, cela n’est pas possible car d = det A.

Théorème : Soit H le sous-groupe de Gln(K ) engendré par les matrices de transvection. Alors

i) ∀A ∈ Mn(K ) rg A = r < n ⇒ ∃(P, Q) ∈ H×H P.A.Q = diag(1, …, 1, 1, 0, …, 0).

ii) ∀A ∈ Gln(K ) ∃(P, Q) ∈ H×H P.A.Q = diag( 1, …, 1, d ).

Notons que cela fournit un algorithme de calcul du rang et du déterminant d’une matrice carrée, qui s’étend pour partie aux matrices rectangulaires.

Page 81: Problèmes d’algèbre linéaire

81

I.4) Les transvections engendrent le groupe spécial linéaire Sn(K).

En effet, ∀A ∈ Sn(K ) ∃(P, Q) ∈ H×H P.A.Q = I . Alors A = P−1

.Q−1

∈ H.

I.5) Le groupe dérivé de Sn(K) est Sn(K) pour n ≥≥≥≥ 3.

Remarque préliminaire pour bourbakistes zéclairés : Si G est un groupe multiplicatif, on nomme groupe dérivé de G, et on note D(G), le sous-groupe engendré par les commutateurs [a, b] =

a−1

.b−1

.a.b , où (a, b) décrit G×G. D(G) est un sous-groupe distingué (et même caractéristique) de G (c’est-à-dire invariant par tous les automorphismes intérieurs, et même par tous les automor-phismes), et l’on montre aisément que le groupe quotient G/D(G) est commutatif. D(G) est le plus petit sous-groupe distingué de G tel que G/H soit commutatif. Bien entendu, G est commutatif ⇔

D(G) = e. D(G) mesure la non-commutativité de G. Pour montrer que D(Sn(K )) = Sn(K ) lorsque n ≥ 3, il suffit d’établir que toute transvection est un commutateur de transvections.

i) Supposons n ≥ 3. Soient i ≠ j, k ∉ i, j .

( I + α.Ekj)−1

.( I + β.Eik)−1

.( I + α.Ekj).( I + β.Eik) = ( I − α.Ekj).( I − β.Eik).( I + α.Ekj).( I + β.Eik).

= ( I − α.Ekj − β.Eik ).( I + α.Ekj + β.Eik ) = I − αβ.Eij , après développement et utilisation de I.1).

ii) Supposons n = 2 et card K ≥ 4.

Si a ∈ K et b ∈ K*, on a :

101 a

bb

/100

101 a

bb

00/1 =

10²)1(1 ba .

Or tout scalaire λ s’écrit sous la forme λ = a( 1 – b2

) : choisir b tel que b2 ≠ 1, ce qui est possible à

cause de card K , puis a = ²1 b−

λ . Ainsi

101 λ est un commutateur, et sa transposée aussi.

iii) Concluons : Si n ≥ 3, ou si n = 2 et card K ≥ 4, Sn(K ) est égal à son propre groupe dérivé.

Le groupe dérivé de Gln(K ) est inclus dans Sn(K ), car tout commutateur est de déterminant 1, et

contient Sn(K ), dont il est égal à Sn(K ).

Remarque : il reste deux cas à examiner : n = 2, K = F2 et n = 2, K = F3.

• Si n = 2 et K = F2, Gl2(K ) = S2(K ) a 6 éléments, est isomorphe à SSSS3, son groupe dérivée a 3

éléments et est isomorphe à AAAA3.

• Si n = 2 et K = F3, Gl3(K ) a 48 éléments, et S3(K ) a 24 éléments en tant que noyau du morphisme

surjectif det : Gl3(K ) → K*. S3(K ) est isomorphe à SSSS4. Or le groupe dérivé SSSS4 est inclus dans AAAA4

donc D(S3(K )) ≠ S3(K ) (tout ceci resterait à détailler).

Partie II : Morphismes de groupes ΦΦΦΦ : Gln(K) →→→→ G , où G est abélien.

On note e le neutre de G et on suppose n ≥ 3, ou n = 2 et card K ≥ 4.

II.1) Montrons que Φ(I + λ.Eij) = e ∀λ ∈ K ∀i ≠ j .

Notons d’abord que Φ(I) = e. Il est résulte que si A ∈∈∈∈ Gln(K ), Φ(A).Φ(A−1

) = Φ(A.A−1

) = Φ(I) = e.

On a vu (partie I) que I + λ.Eij est un commutateur, I + λ.Eij = A−1

B−1

A B, donc Φ(I + λ.Eij) = e.

II.2) Posons ϕ(α) = Φ(diag(α, 1, …, 1)) pour tout α ∈ K*.

Il est immédiat que ϕ(αβ) = ϕ(α).ϕ(β), donc ϕ est un morphisme de groupes K* → G.

II.3) Montrons que ∀X ∈ Gln(K ) Φ(X) = ϕ(det X).

On a vu en I) que le sous-groupe Sn(K ) est engendré par les transections, et que

∀X ∈ Gln(K ) ∃(P, Q) ∈ Sn(K )×Sn(K ) P.A.Q = diag(det A, 1, …, 1),

Par suite Φ(A) = Φ(P).Φ(A).Φ(Q) = Φ(diag(det A, 1, …, 1)) = ϕ(det A).

Page 82: Problèmes d’algèbre linéaire

82

Réciproquement, si ϕ : K* → G est un morphisme de groupes, alors Φ(X) = ϕ(det X) sera un

morphisme de groupes de Gln(K ) dans G comme composé.

Théorème : Si n ≥ 3, ou si n = 2 et card K ≥ 4, et si G est un groupe abélien, les homomorphismes

de groupes Φ : Gln(K ) → G sont de la forme Φ(X) = ϕ(det X) , où ϕ : K* → G est un morphisme de groupes.

II.4) Homomorphimes continus de groupes de Gln(R) dans R*, de Gln(C) dans C*.

Si K = R ou C et si Φ : Gln(K ) → K* est continu, ϕ : K* → K* est un endomorphisme continu.

Comme ϕ(1) = 1, ϕ(R*+) ⊂ R*+ en vertu du théorème des valeurs intermédiaires.

ϕ induit un endomorphisme continu de R*+ , donc est de la forme ϕ(x) = xa sur les x > 0.

De plus, ϕ(−1) = ±1, donc ϕ(x) = ± ϕ(|x|).

En résumé, soit pour tout x, ϕ(x) = |x|a , soit pour tout x, ϕ(x) = sgn(x).|x|

a . Réciproque facile.

Les homomorphismes continus de Gln(R) dans R* sont de l’une des formes suivantes :

Φ(X) = | det X |a ou Φ(X) = sgn(det X).| det X |

a .

Partie III : Applications ΦΦΦΦ : Mn(K) →→→→ K vérifiant : ∀∀∀∀A, B ∈∈∈∈ Mn(K) ΦΦΦΦ(A.B) = ΦΦΦΦ(A).ΦΦΦΦ(B).

III.1) On a Φ(I) = Φ(I)2, donc Φ(I) = 0 ou 1.

Si Φ(I) = 0, alors Φ = 0, car ∀A Φ(A) = Φ(A).Φ(I) = 0.

III.2) On suppose désormais Φ(I) = 1.

Soit A ∈ Gln(K ), d’inverse B. Alors Φ(A).Φ(B) = Φ(I) = 1, donc Φ(A) ∈ K*.

Il en résulte que Φ induit un morphisme de groupes multiplicatifs de Gln(K ) dans K*, et que Sn(K ) est inclus dans le noyau de Φ. De plus, deux matrices semblables ont même image par Φ.

Désormais on suppose n ≥ 3, ou n = 2 et card K ≥ 4.

III.3) Soit A ∈ Mn(K ) de rang r < n. Je dis que Φ(A) = Φ(Xr) , où Xr =

OOOI r .

En effet, ∃P, Q ∈ Sn(K ) P.A.Q = Xr. Φ(A) = Φ(P).Φ(A).Φ(Q) = Φ(P.A.Q) = Φ(Xr).

III.4) Valeurs prises par ϕ(0) = Φ(diag(0, 1, …, 1)) .

Comme diag(0, 1, …, 1)2 = diag(0, 1, …, 1) , ϕ(0)

2 = ϕ(0) , donc ϕ(0) = 0 ou 1.

Si ϕ(0) = 0, Φ(Xn−1) = Φ(diag(0, 1, …, 1) = 0 (car les matrices sont semblables).

Φ(Xr) = Φ(Xr).Φ(Xn−1) = 0, donc Φ(A) = 0 pour toute matrice de rang < n.

Si ϕ(0) = 1, Φ(diag(1, …, 1, 0, 1, …, 1) = 1 (car les matrices sont semblables), donc Φ(Xr) = 1 pour

tout r, car Xr est produit de telles matrices. Mais ϕ(0.β) = ϕ(0).ϕ(β) pour tout β, donc ϕ(β) = 1 pour tout β.

III.5) Enonçons le théorème obtenu :

Théorème : Si n ≥ 3, ou si n = 2 et card K ≥ 4, alors les applications Φ : Mn(K ) → K vérifiant :

∀A, B ∈ Mn(K ) Φ(A.B) = Φ(A).Φ(B).

sont de trois types : i) Φ ≡ 0 , ii) Φ ≡ 1, iii) Φ(A) = ϕ(det A), où ϕ : K → K est telle que ϕ(0) = 0 et ϕ induit un endomorphisme du groupe multiplicatif K*.

Partie IV : Applications ΨΨΨΨ : Mn(K) →→→→ E vérifiant ∀∀∀∀(X, Y, Z) ∈∈∈∈Mn(K)3 ΨΨΨΨ(X.Y.Z) = ΨΨΨΨ(X.Z.Y).

IV.0) Notons d’abord que Ψ(Y.Z) = Ψ(Z.Y) [ prendre X = I ]. D’où Ψ(X.Y.Z) = Ψ(Z.X.Y) = Ψ(Y.Z.X) = Ψ(X.Z.Y) = Ψ(Y.X.Z) = Ψ(Z.Y.X).

Page 83: Problèmes d’algèbre linéaire

83

Par suite Ψ(A.B.C.D) = Ψ(A.B.D.C) = Ψ(C.B.D.A) = Ψ(C.B.A.D) .

Plus généralement, Ψ(A1 … Am) est inchangé si on échange A1 et Ai.

Cela découle de ce qui précède en coupant A1… Ai … Am en 3 ou 4 selon que i = 2, m ou 2 < i < m.

Comme les transpositions [1, i] engendrent Sm, Ψ est invariante par permutation. Attention, ceci découle de Ψ(X.Y.Z) = Ψ(X.Z.Y), non de Ψ(X.Y) = Ψ(Y.X) seule.

IV.1) Montrons que ∀X ∈ Mn(K ) ∀U ∈ Sn(K ) Ψ(X.U) = Ψ(X) = Ψ(U.X).

En effet, ∀A, B ∈ Gln(K ) Ψ(X.A−1

.B−1

.A.B) = Ψ(X.A−1

.B−1

.B.A) = Ψ(X).

Comme Sn(K ) est le groupe dérivé de Gln(K ), Ψ(X.U) = Ψ(X). Enfin Ψ(X.U) = Ψ(U.X) comme observé en IV.0).

IV.2) a) Montrons que ∀A, B ∈ Mn(K ) rg A = rg B = r < n ⇒ Ψ(A) = Ψ(B).

Soit A ∈ Mn(K ) de rang r. En vertu de I.3), ∃P, Q ∈ Sn(K ) P.A.Q = Xr =

OOOI r .

Ψ(Xr) = Ψ(P.A.Q) = Ψ(P.Q.A) = Ψ(A.P.Q) = Ψ(A) par IV.1). On conclut aussitôt.

b) Montrons qu’il existe une matrice Y de rang r telle que Xr−1 = Y.Xr et Y = Xr.Y.

Cherchons Y sous forme blocs Y =

DCBA , A de format r×r.

Soit X’ la matrice r×r obtenue en bordant Ir−1 par une r-ème ligne et une r-ème colonne nulles.

Xr−1 = Y.Xr ⇔ A = X’ et C = O ; Y = Xr.Y ⇔ D = O. On veut de plus que rg Y = r.

Il suffit de prendre Y =

OOBX' , où B =

OOO

1 .

c) Ψ prend la même valeur sur toutes les matrices de rang < n.

Ψ(Xr−1) = Ψ(Y.X r) = Ψ(Xr.Y) = Ψ(Y) = Ψ(Xr) par b) et a). On conclut.

IV.3) Montrons que ∀X, Y ∈ Mn(K ) det X = det Y ⇒ Ψ(X) = Ψ(Y).

Si det X = det Y = 0, on vient de le voir.

Si det X ≠ 0, soient P et Q dans Sn(K ) telles que P.X.Q = diag(1, …, 1 , d), où d = det X. Par ce qui précède, Ψ(X) = Ψ(X.Q.P) = Ψ(P.X.Q) = Ψ(diag(1, …, 1, d)). Donc si det X = det Y ≠ 0, Ψ(X) = Ψ(Y). Par conséquent, Ψ(X) ne dépend que de det X, et il existe une fonction f : K → E telle que, pour tout X, Ψ(X) = f(det X) ; réciproque évidente.

Théorème : Si n ≥ 3 ou si n = 2 et card K ≥ 4, les fonctions Ψ : Mn(K ) → E telles que ∀(A, B, C) Ψ(A.B.C) = Ψ(A.C.B) sont les fonctions de la forme Ψ(X) = f(det X), où f : K → E est une fonction quelconque. Références :

Bourbaki : Algèbre II 206 n° 11, 12, 13 Chambadal Ovaert : Algèbre 2, p. 331-334 et 377-379 Concours TPE 1987, Mathématiques I Oral ENS 2002, etc.

___________

Page 84: Problèmes d’algèbre linéaire

84

Problème 18 : Nilespace et cœur d’un endomorphisme Dans ce problème, E désigne un K -espace vectoriel de dimension n, u un endomorphisme de E.

Pour tout k ∈ N, on note Nk = Ker uk , et Ik = Im u

k , avec la convention u

0 = idE.

1) a) Montrer que la suite (Nk) est croissante pour l’inclusion et que u(Nk+1) ⊂ Nk pour tout k.

b) Montrer que la suite (Ik) est décroissante pour l’inclusion et que u(Ik) = Ik+1 pour tout k.

2) a) Montrer qu’il existe un entier k tel que Nk = Nk+1. Soit r le plus petit entier tel que Nr = Nr+1. Montrer que r ≤ n et que Nr = Nr+1 = Nr+2 = … .

b) Montrer que la suite (Ik) décroit strictement pour 0 ≤ k ≤ r, et vérifie Ir = Ir+1 = Ir+2 = … .

3) Il découle de 2) que la suite nk = dim Nk vérifie : n0 = 0 < n1 < … < nr = nr+1 = … .

Montrer de plus que cette suite « s’essouffle », en ce sens que nk+2 – nk+1 ≤ nk+1 – nk, ce qui revient

à dire que (nk) est concave. Pour cela, on établira que si F est un supplémentaire de Nk+1 dans Nk+2,

alors u|F est injective, u(F) ⊂ Nk+1 et u(F) ∩ Nk = 0.

4) Montrer que les espaces N = Nr et I = Ir , appelés resp. nilespace et cœur de l’endomorphisme u, sont supplémentaires, que u induit un endomorphisme nilpotent de N et un automorphisme de I. Etablir l’unicité d’un tel couple (N, I).

En déduire que, pour toute matrice A ∈ Mn(K ) il existe une matrice P ∈ Gln(K ) telle que :

P−1

.A.P =

ROOT , où R ∈ Glk(K ) et T est nilpotente, et même trigonale supérieure nilpotente.

5) Soit P un polynôme non nul annulant u ; on écrit P(X) = Xk.Q(X), où Q(0) ≠ 0.

Exprimer le nilespace et le cœur de u comme noyaux de polynômes de u.

6) Indiquer une ou deux méthodes pour obtenir le nilespace et le cœur de u, ainsi que la forme réduite de A indiquée en 3).

Application (avec Maple) : A =

−−−−−−−−−−

87422591054222014889441901033

(Oral Centrale 1999) 4.

7) Soit E = CCCC∞

(R, C), D l’opérateur de dérivation. Existe-t-il T ∈ LLLL(E) tel que T2 = D ?

Remarque : Il résulte de ce problème et du problème 12 que, pour toute matrice A ∈ Mn(K), il existe

un entier r ≥ 1 tel que Ar soit pseudo-inversible.

___________ Solution : nilespace et cœur d’un endomorphisme

1) Les suites (Nk) et (Ik).

a) La suite (Nk) est croissante pour l’inclusion et u(Nk+1) ⊂ Nk pour tout k.

En effet, x ∈ Nk ⇔ uk(x) = 0 ⇒ u

k+1(x) = 0 ⇔ x ∈ Nk+1.

De plus, x ∈ Nk+1 ⇒ u(x) ∈ Nk, car uk+1

(x) = 0.

Remarque : plus précisément, u(Nk+1) = Im u ∩ Nk .

4 Les centraliens apprennent à calculer en cent leçons.

Page 85: Problèmes d’algèbre linéaire

85

b) La suite (Ik) est décroissante pour l’inclusion et u(Ik) = Ik+1 pour tout k.

En effet, x ∈ Ik+1 ⇔ ∃y x = uk+1

(y) ⇒ ∃z ( z = u(y) ) x = uk(z) ⇒ x ∈ Ik.

De plus, x ∈ Ik ⇒ ∃y x = uk(y) ⇒ u(x) = u

k+1(y) ⇒ u(x) ∈ Ik+1.

Inversement, x ∈ Ik+1 ⇒ ∃y x = uk+1

(y) ⇒ x = u(uk(y)) ⇒ x ∈ u(Ik).

2) a) Il existe nécessairement un entier k tel que Nk = Nk+1. Sans quoi, la suite (Nk) serait strictement croissante pour l’inclusion, et E serait de dimension infinie.

Soit r le plus petit entier tel que Nr = Nr+1. Alors r ≤ n , car, les inclusions N0 = 0 ⊂ … ⊂ Nr étant

strictes, dim Nk ≥ k pour 0 ≤ k ≤ r. En particulier, r ≤ dim Nk ≤ n.

Je dis que Nr = Nr+1 = Nr+2 = … .

Il suffit de montrer que Nr = Nr+1 ⇒ Nr+1 = Nr+2 , et de réitérer.

Or x ∈ Nr+2 ⇔ u(x) ∈ Nr+1 . Comme Nr+1 = Nr , u(x) ∈ Nr , donc x ∈ Nr+1 .

L’autre inclusion est déjà acquise.

b) La suite (Ik) décroit strictement pour 0 ≤ k ≤ r, et vérifie Ir = Ir+1 = Ir+2 = … . Cela découle de a) et du théorème du rang : dim Ik + dim Nk = n.

Conclusion : La suite N0 = 0 ⊂ N1 ⊂ N2 ⊂ … est croissante pour l’inclusion, plus exactement

strictement croissante jusqu’à un rang r ≤ n, puis constante. La suite I0 = E ⊃ I1 ⊃ I2 ⊃… est décroissante pour l’inclusion, strictement croissante jusqu’au même rang r, puis constante.

Remarque : La suite nk = dim Nk vérifie : n0 = 0 < n1 < … < nr = nr+1 = … .

De plus, on peut montrer qu’elle « s’essouffle », en ce sens que nk+2 – nk+1 ≤ nk+1 – nk, ce qui

revient à dire que (nk) est concave. Pour cela, le lecteur montrera que si F est un supplémentaire de

Nk+1 dans Nk+2, alors u|F est injective, u(F) ⊂ Nk+1 et u(F) ∩ Nk = 0.

3) Nilespace et cœur.

Montrons que les sous-espaces N = Nr et I = Ir sont supplémentaires.

Leur intersection est réduite à 0, car x ∈ Nr ∩ Ir ⇒ ur(x) = 0 et ∃y x = u

r(y) ⇒ u

2r(y) = 0 ⇒ x =

ur(y) = 0 , car N2r = Nr . Finalement, Nr ⊕ Ir = E en vertu du théorème du rang.

u induit un endomorphisme nilpotent de N et un automorphisme de I.

En effet, N est u-stable, car u(N) = u(Nr+1) ⊂ Nr = N et, si v est l’endomorphisme induit, vr = 0.

I est u-stable, car u(I) = u(Ir) = Ir+1 = I. Le fait que u(I) = I montre que u induit un endomorphisme w de I surjectif, donc bijectif.

Du reste x ∈ Ker w ⇔ x ∈ I et u(x) = 0 ⇒ x ∈ Ir ∩ N1 ⊂ Ir ∩ Nr = 0.

Unicité du couple (N, I). Si (N’, I’) est un couple de sev supplémentaires u-stables tels que uN’ est

nilpotent et uI’ inversible, alors soit x = y + z, (y, z) ∈ N’×I’. On a uk(x) = u

k(y) + u

k(z).

uk(x) = 0 implique u

k(z) = 0, donc z = 0 et Nk ⊂ N’. Donc N ⊂ N’. Comme N’ ∩ I = 0, N = N’.

Tout vecteur z ∈ I’ est élement de Im uk, pour tout k, donc I’ ⊂ I, et finalement I = I’.

Traduction matricielle .

Pour toute matrice A ∈ Mn(K ) il existe une matrice P ∈ Gln(K ) telle que :

P−1

.A.P =

ROOT , où R ∈ Glk(K ) et T est trigonale supérieure nilpotente.

En effet, soient u l’endomorphisme canoniquement attaché à A, N le cœur et I le nilespace de u.

Page 86: Problèmes d’algèbre linéaire

86

Si BBBBN est une base de N, BBBBI une base de I, BBBB = BBBBN ∪ BBBBI, et P la matrice de passage de la base

canonique de Kn à BBBB, alors P

−1.A.P =

ROOT , où R ∈ Glk(K ) en tant que matrice de w, et T est

nilpotente. Pour avoir T trigonale supérieure, il faut construire BBBBN en complétant progressivement

une base de N1 en une base de N2, puis celle-ci en une base de N3, et ainsi de suite jusqu’à Nr.

4) Expressions polynomiales. Soit P un polynôme non nul annulant u, par exemple le caractérstique, ou le minimal.

Ecrivons P(X) = Xk.Q(X), où Q(0) ≠ 0. Les polynômes X

k et Q étant premiers entre eux, il existe A

et B tels que 1 = A.Xk + B.Q. Je dis que N = Ker u

k et I = Ker Q(u).

En effet, Ker uk et I = Ker Q(u) sont supplémentaires u-stables par le théorème des noyaux.

La restriction de u à Ker uk est nilpotente, celle de u à Ker Q(u) est inversible, car

x ∈ Ker u ∩ Nk ⇒ x = [ A(u) o uk

](x) + [ B(u) o Q(u) ](x) = 0.

5) Exemple. > with(linalg):A:=matrix(5,5,[3,3,0,-1,0,19,-4,-4,9,- 8,8,4,-1,0,-2,22,-4,-5,10,-9,25,2,-4,7,-8]);

:= A

3 3 0 -1 0

19 -4 -4 9 -8

8 4 -1 0 -2

22 -4 -5 10 -9

25 2 -4 7 -8

1ère solution. > r1:=rank(A);k1:=kernel(A);i1:=colspan(A);

:= r1 4 := k1 [ ], , , ,1 -2 0 -3 0

:= i1 , , ,[ ], , , ,0 0 21 33 0 [ ], , , ,0 0 0 21 0 [ ], , , ,3 19 8 22 25 [ ], , , ,0 -69 -12 -78 -69 > r2:=rank(A^2);k2:=kernel(A^2);i2:=colspan(A^2);

:= r2 3 := k2 ,[ ], , , ,1 -2 0 -3 0 [ ], , , ,0 1 2 2 1

:= i2 , ,[ ], , , ,1 5 0 4 7 [ ], , , ,0 42 -7 35 42 [ ], , , ,0 0 -49 -49 0 > r3:=rank(A^3);k3:=kernel(A^3);i3:=colspan(A^3);

:= r3 2 := k3 , ,[ ], , , ,1 0 4 0 1 [ ], , , ,1 1 6 0 0 [ ], , , ,-1 0 -4 1 0 := i3 ,[ ], , , ,0 343 0 343 343 [ ], , , ,-7 -14 -7 -14 -28

> r4:=rank(A^4);k4:=kernel(A^4);i4:=colspan(A^4); := r4 2

:= k4 , ,[ ], , , ,1 0 4 0 1 [ ], , , ,1 1 6 0 0 [ ], , , ,-1 0 -4 1 0 := i4 ,[ ], , , ,-49 49 -49 49 -49 [ ], , , ,0 -2401 0 -2401 -2401

> P:=transpose(matrix([op(k3),op(i3)]));

:= P

1 -1 1 0 -7

1 0 0 343 -14

6 -4 4 0 -7

0 1 0 343 -14

0 0 1 343 -28

> P:=multiply(P,diag(1,1,1,1/7,1/343));

Page 87: Problèmes d’algèbre linéaire

87

:= P

1 -1 1 0-149

1 0 0 49-249

6 -4 4 0-149

0 1 0 49-249

0 0 1 49-449

> R:=multiply(inverse(P),A,P);

:= R

-9 6 -5 0 0

-12 8 -7 0 0

3 -2 1 0 0

0 0 0 -73

343

0 0 0 -4802 7

> evalm(R^2);evalm(R^3);

-6 4 -2 0 0

-9 6 -3 0 0

0 0 0 0 0

0 0 0 7 0

0 0 0 0 7

1ère solution, améliorée avec réduite trigonale. > Q:=multiply(transpose(matrix([op(k1),op(2,k2),op(3, k3),op(i3)])),diag(1,1,1,1/7,1/343));

:= Q

1 0 1 0-149

-2 1 0 49-249

0 2 4 0-149

-3 2 0 49-249

0 1 1 49-449

> det(Q); -1

> S:=multiply(inverse(Q),A,Q);

:= S

0 1 3 0 0

0 0 1 0 0

0 0 0 0 0

0 0 0 -73

343

0 0 0 -4802 7

2ème solution, via le polynôme minimal. > M:=factor(minpoly(A,x));

0 0 0 0 0

0 0 0 0 0

0 0 0 0 0

0 0 0 -49349

0 0 0 -33614 49

Page 88: Problèmes d’algèbre linéaire

88

:= M x3 ( )− + 7 x2

> k:=kernel(A^3);l:=kernel(A^2-7); := k , ,[ ], , , ,0 0 0 1 1 [ ], , , ,0 1 2 1 0 [ ], , , ,1 0 4 -1 0

:= l ,[ ], , , ,1 -2 1 -2 0 [ ], , , ,0 1 0 1 1 > F:=transpose(matrix([op(k),op(l)]));

:= F

0 0 1 1 0

0 1 0 -2 1

0 2 4 1 0

1 1 -1 -2 1

1 0 0 0 1

> T:=multiply(inverse(F),A,F); > evalm(T^3);

6) Supposons qu’il existe un endomorphisme T de E tel que D = T2.

T ne serait pas injectif, sans quoi D le serait. On a donc 0 ≠ Ker T ⊂ Ker D = ctes , donc Ker T = ctes.

Mais alors Ker T = Ker T2 = Ker T

3 = Ker T

4 = … Or dim Ker T

2n = dim Ker D

n = n.

Autre approche : On a Ker Dn = Cn−1[X], et comme T et D commutent, Cn−1[X] serait T-stable.

T induirait dans cet espace un endomorphisme nilpotent d’indice 2n ou 2n−1, contredisant la majoration classique de l’indice de nilpotence.

Remarque : Ce résultat reste vrai si l’on remplace CCCC∞

(R, C) par CCCC∞

(R, R). Mais Emilien Courtine5

observe qu’il est faux si l’on considère E = CCCC∞

(R, C) comme R-espace vectoriel. En effet, si f = g + ih, où g et h sont les parties réelle et imaginaire de f, l’opérateur T défini par T(f)

= h + ig’ est R-linéaire et tel que T2 = D.

____________

Problème 19 : Matrices de Hessenberg

Soit K un corps commutatif. Une matrice carrée A = (aij) ∈ Mn(K ) est dite de Hessenberg si aij = 0

pour j ≥ i + 2, autrement dit si A est de la forme :

− nnnn

n

n

n

aa

aaaaaaaaaaa

,1

33332

2232221

1131211

0...00..................

......0

......

......

1) Montrer que ces matrices forment un sous-espace vectoriel H de Mn(K ) ; quelle est sa

dimension ? H est-elle une sous-algèbre de Mn(K ) ?

2) Soient E un K -espace vectoriel de dimension n, u un endomorphisme de E. Montrer qu’il existe une base de E relativement à laquelle u a une matrice de Hessenberg.

En déduire que toute matrice A = (aij) ∈ Mn(K ) est semblable à une matrice de Hessenberg.

5 Emilien, empereur romain qui a régné trois mois, en 253, le temps d’assassiner son prédécesseur, et d’être assassiné par son successeur.

:= T

-1 1 2 0 0

1 -3 -6 0 0

-1 2 4 0 0

0 0 0 -1 2

0 0 0 3 1

0 0 0 0 0

0 0 0 0 0

0 0 0 0 0

0 0 0 -7 14

0 0 0 21 7

Page 89: Problèmes d’algèbre linéaire

89

Exemple : Réduire à une forme de Hessenberg la matrice A =

97514118432

∈ M3(R).

3) Calcul du déterminant.

Soient A = (aij) ∈ Mn(K ) une matrice de Hessenberg, B la sous-matrice obtenue en barrant la

dernière ligne et les deux dernières colonnes de A. Enfin, on note u =

−−

1,1

1,1

...nn

n

a

a et v =

nn

n

a

a

,

,1

... .

Montrer que det(A) = det(B | c) , où c = ann.u – an,n−1.v

Si l’on procède ainsi, combien d’opérations nécessite le calcul du déterminant d’une matrice de Hessenberg d’ordre n ?

Calculer le déterminant d’ordre n suivant :

aba

abab

ba

0...00...............00...0

...00

__________

Problème 20 : Matrices magiques

On rapporte l’espace vectoriel Mn(R) des matrices carrées d’ordre n à coefficients réels à sa base

canonique (Eij). Pour toute matrice A = (aij) ∈ Mn(R), on note :

li(A) = ∑=

n

jija

1

, cj(A) = ∑=

n

iija

1

, t(A) = ∑=

n

kkka

1

, at(A) = ∑=

+−

n

kknka

11, .

1) Matrices de permutations.

À toute permutation σ ∈ SSSSn de 1, 2, ..., n, on associe la matrice : Pσ = (δiσ(j)).

Montrer que P : σ → Pσ est un morphisme injectif de groupes de SSSSn dans Gln(R).

2) L’espace vectoriel L.

On note L l’ensemble des matrices A = (aij) ∈ Mn(R) telles que l1(A) = … = ln(A) , et

L0 l’ensemble des matrices A = (aij) ∈ Mn(R) telles que l1(A) = … = ln(A) = 0.

a) Montrer que L0 est un sous-espace vectoriel de Mn(R) ; quelle est sa dimension ? Montrer que

les (Eij − Ein ) (1 ≤ i ≤ n, 1 ≤ j ≤ n−1) forment une base de L0.

b) Montrer que L est un sous-espace vectoriel de Mn(R), et que L = L0 ⊕ R.J, où J désigne la matrice d’élément général 1. Dimension et base de L ?

3) L’espace vectoriel L ∩∩∩∩ C.

On note C l’ensemble des matrices A = (aij) ∈ Mn(R) telles que c1(A) = … = cn(A) , et

C0 l’ensemble des matrices A = (aij) ∈ Mn(R) telles que c1(A) = … = cn(A) = 0.

a) Montrer que L0 ∩ C0 est un sous-espace vectoriel de L0 ; quelle est sa dimension ? Montrer

que les (Eij − Ein − Enj + Enn) (1 ≤ i ≤ n−1, 1 ≤ j ≤ n−1) forment une base de L0 ∩ C0 .

b) Montrer que L ∩ C est un espace vectoriel ; en indiquer la dimension et une base. Montrer que A ∈ L ∩ C ⇒ ∀(σ, σ’) Pσ.A.Pσ’ ∈ L ∩ C.

4) L’espace vectoriel M.

Page 90: Problèmes d’algèbre linéaire

90

On note M l’ensemble des matrices A = (aij) ∈ Mn(R) telles que :

l1(A) = … = ln(A) = c1(A) = … = cn(A) = t(A) = at(A).

M0 l’ensemble des matrices A = (aij) ∈ Mn(R) telles que :

l1(A) = … = ln(A) = c1(A) = … = cn(A) = t(A) = at(A) = 0.

On note MS, resp. MS0, l’ensemble des matrices A ∈ M, resp. A ∈ M0, symétriques,

MA, resp. MA0, l’ensemble des matrices A ∈ M, resp. A ∈ M0, antisymétriques.

a) Montrer que M = MS ⊕ MA et M0 = MS0 ⊕ MA0 .

b) Montrer que MA0 = MA ; quelle est sa dimension ?

c) Montrer que MS = MS0 ⊕ R.J ; dimensions de MS0 et MS ?

d) Indiquer des bases de M et M0 lorsque n = 2, n = 3 et n = 4. e) Soit σ une permutation de 1, 2, …, n telle que (∀k) σ(n + 1 − k) = n + 1 − σ(k). Montrer que A ∈ M ⇒ Pσ.A.Pσ−1 ∈ M, et que l’on définit ainsi une action d’un sous-groupe G de

SSSSn sur M ; combien G a-t-il d’éléments ?

5) Carrés magiques.

Un carré magique d’ordre n est une matrice A ∈ M dont les éléments sont les entiers 1, 2, … , n2

rangés dans un certain ordre. On note Γn l’ensemble des carrés magiques d’ordre n.

a) Si A ∈ Γn , que vaut sa somme magique s = t(A) ?

b) Y a-t-il un carré magique d’ordre 2 ?

c) Soit A = (aij) ∈ Γ3, montrer 1, 9 ⊂ a12 , a21 , a23 , a32 . En déduire les éléments de Γ3. Comment se déduisent-ils de l’un d’entre eux ? (Chine, 2200 ans av. J. C.)

d) Montrer que Γ4 est non vide (Indication : rechercher une reproduction de l’eau-forte d’Albrecht Dürer intitulée Melancholia).

e) Montrer que si Γn est non vide, son cardinal est un multiple de 8.

f) Soient A un carré magique d’ordre p, et B un carré magique d’ordre q. On considère la matri-

ce D = (duv) d’ordre pq, définie par duv = akl + (bij − 1).p2 pour (k, l) ∈ [1, p]

2, (i, j) ∈ [1, q]

2, et

u = (i − 1).p + k , v = (j − 1).p + l.

Montrer que D est un carré magique d’ordre pq. Construire un carré magique d’ordre 9, d’ordre 12.

g) Soit n un nombre impair, non multiple de 3.

Montrer que, pour tout couple (k, l) ∈ [1, n]2, il existe un unique couple (i, j) ∈ [1, n]

2 tel que :

k ≡ 2.i + j ( mod n ) , l ≡ i + 2.j ( mod n ).

On le note (i, j) = (α(k, l), β(k, l)). Soit W = (gkl) ∈ Mn(R) la matrice donnée par wij = n.(i − 1) + j .

Montrer que G = (gkl) donnée par gkl = wα(k,l), β(k,l) est un carré magique d’ordre n.

Expliciter G pour n = 5. Conséquences ?

Page 91: Problèmes d’algèbre linéaire

91

Problème 21 : Matrices de Hadamard

On note Mn(R) l’algèbre des matrices carrées d’ordre n à éléments réels, Gln(R) le groupe des

matrices inversibles, In la matrice unité d’ordre n, tA la transposée de la matrice A.

On appelle matrice de Hadamard, en abrégé H-matrice, d’ordre n, toute matrice A ∈ Mn(R) à

éléments dans U = +1, −1, et telle que tA.A = n.In.

Une H-matrice est dite normalisée si sa première ligne et sa première colonne ne comportent que des +1.

On note Hn l’ensemble des H-matrices, NHn l’ensemble des H-matrices normalisées, et SHn l’ensemble des H-matrices symétriques, d’ordre n.

1) H-matrices d’ordres 2 et 3.

a) Montrer qu’il existe une unique H-matrice normalisée d’ordre 2 ; on la note N .

b) Expliciter les ensembles H2 et SH2 .

c) Existe-t-il une H-matrice d’ordre 3 ?

2) Généralités sur Hn.

a) Montrer que A ∈ Hn ⇒ tA ∈ Hn .

b) Montrer que Hn ⊂ Gln(R). Si A ∈ Hn, que dire de det A ? A-t-on A−1

∈ Hn ?

c) A toute permutation σ de 1, 2, ..., n, on associe la matrice d’ordre n : Pσ = (δi,σ(j)).

Montrer que l’ensemble de ces matrices est un sous-groupe de Gln(R), et que (Pσ)−1 = tPσ .

Montrer que A ∈ Hn ⇒ Pσ.A ∈ Hn et A.Pσ ∈ Hn .

d) Soit Dn l’ensemble des matrices diagonales d’ordre n, dont les termes diagonaux appar-

tiennent à U = +1, −1. Montrer que Dn est un sous-groupe de Gln(R), et que :

A ∈ Hn et ∆ ∈ Dn ⇒ ∆.A ∈ Hn et A.∆ ∈ Hn .

e) Montrer que, pour toute A ∈ Hn, il existe un couple (∆, ∆’) ∈ Dn×Dn tel que ∆.A.∆’ soit une H-matrice normalisée. Le couple (∆, ∆’) est-il unique ?

3) Condition nécessaire pour que Hn soit non vide.

On suppose Hn non vide. Soit A = (ajk) une H-matrice normalisée d’ordre n. On note c1, c2, …, cn

les colonnes de A, et l’on munit Rn du produit scalaire usuel, noté < x , y >.

a) Expliciter les produits scalaires < cj , ck >.

b) En considérant < c1 , c2 >, montrer que n est pair.

c) On suppose n > 2, et on note :

x = card j ; aj2 > 0 et aj3 > 0 , y = card j ; aj2 > 0 et 0 > aj3

z = card j ; aj2 < 0 et 0 < aj3 , t = card j ; aj2 < 0 et aj3 < 0

Montrer que (x, y, z, t) est solution d’un système linéaire de quatre équations à quatre inconnues. En déduire que 4 divise n.

4) Un procédé de fabrication de H-matrices.

a) Montrer que A ∈ Hn ⇒

−AAAA ∈ H2n .

Page 92: Problèmes d’algèbre linéaire

92

Si A = (αij ) ∈ Mn(R) et B = (βij ) ∈ Mp(R), on note A ⊗ B la matrice carrée d’ordre np, définie par

blocs par : A ⊗ B =

BB

BB

nnn

n

αα

αα

............

...

1

111 .

b) Montrer que A ∈ Hn et B ∈ Hp ⇒ A ⊗ B ∈ Hn.p .

c) Démontrer que si n = 2m

, où m ∈ N, Hn et SHn sont non vides .

5) Un autre procédé de fabrication de H-matrices.

Soient A, B, C et D quatre matrices symétriques de Mn(R) ; on suppose qu’elles commutent deux à deux, et on considère la matrice-blocs d’ordre 4n :

M =

−−

−−−−

ABCDBADCCDABDCBA

.

Soient (e1, e2, …, en) la base canonique de Rn, p l’endomorphisme de R

n défini par :

p(e1) = en et p(ej) = ej−1 pour 2 ≤ j ≤ n.

a) Ecrire la matrice P de p dans la base canonique.

b) Soit A(P) le sous-espace de Mn(R) engendré par les Pk, k ∈ N. Montrer que (In, P, …, P

n−1)

est une base de A(P).

c) A quelles conditions portant sur les réels λk la matrice ∑−

=

1

0

.n

k

kk Pλ est-elle symétrique ?

d) On suppose que A, B, C et D appartiennent à A(P), qu’elles ont leurs éléments dans U, et

qu’elles vérifient A2 + B

2 + C

2 + D

2 = 4n.In.

Calculer tM.M. Conclusion ?

e) Montrer que H12 est non vide.

f) Montrer plus généralement que si n = 3.2m+2

, où m ∈ N, alors Hn et SHn sont non vides.

Remarque finale : La conjecture selon laquelle Hn est non vide pour tout entier n multiple de 4, est indémontrée à ce jour.

___________ Références :

A. Tissier, Matrices de Hadamard, RMS, mars 1990 Problème ENSI (CCP) 1991, P, Deuxième épreuve de maths Codes correcteurs, Agrégation, etc. V. Mazya et T. Shaposhnikova, Jacques Hadamard, EDP, p. 342. Wikipedia : matrices de Hadamard

__________

Page 93: Problèmes d’algèbre linéaire

93

Problème 22 : Matrices positives

Dans cet exercice, on munit l’espace vectoriel Rn de la relation d’ordre entre deux vecteurs

x = (x1, …, xn) et y = (y1, …, yn) définie par x ≤ y ⇔ (∀i) xi ≤ yi . Si x et y ∈ Rn ont note :

x ∨ y = (x1 ∨ y1 , … , xn ∨ yn) , x ∧ y = (x1 ∧ y1 , … , xn ∧ yn) , | x | = ( |x1| , … , |xn| ).

Une matrice A = (aij) ∈ Mn(R) est dite positive, et on note A ≥ 0, si ∀(i, j) aij ≥ 0.

1) Soit A = (aij) ∈ Mn(R). Montrer l’équivalence : a) A ≥ 0

b) ∀x ∈ Rn x ≥ 0 ⇒ A.x ≥ 0

c) ∀(x, y) ∈ Rn × R

n x ≤ y ⇒ A.x ≤ A.y

2) Soit A = (aij) ∈ Mn(R). Montrer l’équivalence :

a) ∀(x, y) ∈ Rn × R

n A.( x ∨ y ) = A.x ∨ A.y

b) ∀(x, y) ∈ Rn × R

n A.( x ∧ y ) = A.x ∧ A.y

c) ∀x ∈ Rn A.|x| = |A.x|

d) Chaque ligne de A contient au plus un élément ≠ 0, qui est > 0.

3) Quelles sont les matrices A ∈ Gln(R) telles que (∀x) x ≥ 0 ⇒ A.x ≥ 0, resp A.|x| = |A.x| ?

4) On dit que A est monotone si A est inversible et A−1

est positive. Montrer que A est monotone ⇔ [ (∀X) A.X ≥ 0 ⇒ X ≥ 0 ]. Caractériser les matrices positives et monotones. Références : Oral X 1999 ___________ Problème 23 : Discrétisation d’une équation différentielle linéaire On désigne par a et b des fonctions continues [0, 1] → R ; on suppose ∀t ∈ [0, 1] a(t) ≥ 0.

On se propose d’étudier un procédé d’approximation d’une fonction f ∈ C4([0, 1], R), vérifiant :

∀t ∈ [0, 1] f’’(t) − a(t).f(t) = b(t) , f(0) = λ , f(1) = µ ,

où λ et µ sont des réels donnés. A cet effet on introduit une subdivision (t0, t1, …, tn+1) à pas

constant h = 1

1+n

de [0, 1], où n est un entier > 2. On a donc ∀k ∈ [0, n+1] tk = kh.

Dans la partie I on montre que, pour approcher f sur [0, 1], il suffit de connaître une valeur

approchée uk de f(tk) en chaque point tk. Les parties II et III décrivent un algorithme de construction

des valeurs approchées uk.

Pour toute g ∈ Cp([0, 1], R), on pose Mp(g) = supt∈[0, 1] | g

(p)(t) |.

I. Approximation de f par une fonction affine par morceaux.

1) Soient g ∈ C2([0, 1], R), (α, β) un couple d’éléments de [0, 1] tel que α < β, g(α) = g(β) = 0.

a) Soit G la fonction définie sur [0, 1] par G(t) = α−ttg )(

si t ≠ α , g’(α) si t = α.

Montrer que G est C1 et que ∀t ∈ [0, 1] | G’(t) | ≤

21 .M2(g) .

Page 94: Problèmes d’algèbre linéaire

94

b) En conclure que ∀t ∈ [0, 1] | g(t) | ≤ 21 |(t − α).(t − β)|.M2(g) .

2) Soit ψh la fonction définie sur [0, 1] par les conditions :

• ∀k ∈ [0, n+1] ψh(tk) = f(tk) • pour tout k ∈ [0, n] la restriction de ψh à [tk, tk+1] est affine.

Montrer que ∀t ∈ [0, 1] | f(t) − ψh(t) | ≤ 8²h M2(f) .

3) Soit enfin (u0, u1, …, un+1) une suite de réels, et ϕh la fonction définie sur [0, 1] par les conditions :

• ∀k ∈ [0, n+1] ϕh(tk) = uk • pour tout k ∈ [0, n], la restriction de ϕh à [tk, tk+1] est affine.

Montrer que ∀t ∈ [0, 1] | f(t) − ϕh(t) | ≤ 8²h M2(f) + δh , où δh = sup0≤k≤n+1 | f(tk) − uk | .

II. Algorithme de résolution d’un système linéaire.

Soient (a1, …, an) et (b1, …, bn) deux suites de réels. On suppose (∀k) ak ≥ 2, et on considère le système linéaire :

a1.u1 – u2 = b1

− u1 + a2.u2 – u3 = b2 (1) . . . . . . . . . . . .

− un−2 + an−1.un−1 – un = bn−1

− un−1 + an.un = bn

1) Montrer que l’on peut construire une suite (c1, …, cn) de réels appartenant à ]0, 1] vérifiant :

c1 = 1

1a

et ∀k ∈ [1, n − 1] ck+1 = kk ca −+1

1

2) Soit (d1, d2, …, dn) la suite de réels définie par les relations de récurrence :

d1 = b1.c1 et ∀k ∈ [1, n − 1] dk+1 = (bk+1 + dk).ck+1 .

Montrer que le système (1) admet une solution et une seule, et que celle-ci est déterminée par les

relations : un = dn et ∀k ∈ [1, n−1] uk = dk + ck.uk+1 .

3) Montrer que si les nombres b1, b2, …, bn sont ≥ 0, il en est de même des nombres u1, u2, …, un.

4) Dans cette question, on suppose b1 = b2 = … = bn = 1. Montrer ∀k ∈ [1, n] 0 ≤ uk ≤ 2

)²1( +n.

5) Dans le cas général, montrer sup1≤k≤n | uk | ≤ 2

)²1( +nsup1≤k≤n | bk | .

III. Obtention de valeurs approchées de f aux point tk.

1) Soit t un réel tel que [t−h, t+h] ⊂ [0, 1]. Montrer | f(t+h) − f(t−h) − 2 f(t) − h2

f’’(t) | ≤ 12

4hM4(f)

A cet effet, on pourra introduire la fonction auxiliaire :

F : x ∈ [−h, h] → F(x) = f(t + x) + f(t − x) − 2 f(t) − x2

f’’(t).

On calculera les dérivées successives de F jusqu’à l’ordre 3 et en particulier leurs valeurs à l’origine,

et on majorera | F’’’(x) | à l’aide de M4(f).

Page 95: Problèmes d’algèbre linéaire

95

2) En déduire

∀k ∈ [1, n] − f(tk−1) + [2 + h2

a(tk)] f(tk) − f(tk+1) = − h2

b(tk) + εk , où | εk | ≤ 12

²h M4(f) (2).

3) On connaît déjà f(t0) = f(0) = λ et f(tn+1) = f(1) = µ. Pour approcher f(t1), f(t2), …, f(tn), on remplace les relations (2) par le système linéaire :

− uk−1 + [2 + h2

a(tk)].uk − uk+1 = − h2

b(tk) , 1 ≤ k ≤ n

u0 = λ , un+1 = µ.

Montrer comment, à l’aide de la partie II, on peut construire la suite (u0, u1, …, un+1).

4) Cette suite étant ainsi définie, établir que δh ≤ 24

²h M2(f) .

En conclure ∀t ∈ [0, 1] | f(t) − ϕh(t) | ≤ A.h2 , où A =

81 M2(f) +

241 M4(f) . Conclusion ?

__________ Problème 24 : Matrices harmoniques à Nicolas Burq Dans ce problème, n et p désignent des entiers ≥ 3. On note M(n, p) l’espace vectoriel des matrices réelles à n lignes et p colonnes.

Mn l’espace vectoriel des matrices réelles carrées d’ordre n.

Enfin, on introduit les deux matrices tridiagonales :

Jn =

−−

−−−−

100...00121...00

..................012100...01210......001

∈ Mn et Kn =

−−

−−−−

200...00131...00

..................013100...01310......002

∈ Mn .

1) a) Soit X ∈ Rn. Montrer que Jn.X = 0 ⇒ X = 0. En déduire que Jn est inversible.

b) Montrer de même que Kn est inversible.

2) On note I = [2, n−1] × [2, p−1] et F = [1, n]×[1, p] − I.

La matrice A = (aij) ∈ M(n, p) est dite harmonique si :

∀(i, j) ∈ I aij = 41 ( ai−1,j + ai+1,j + ai,j−1 + ai,j+1 ).

Montrer que l’ensemble H(n, p) de ces matrices est un sous-espace vectoriel de M(n, p).

3) Soit A = (aij) ∈ M(n, p). Calculer avec soin la matrice Φ(A) = Jn.A + A.tJp .

Que dire de Φ(A) lorsque A ∈ H(n, p) ?

4) Soit A = (aij) ∈ H(n, p).

a) Etablir la relation : ∀(i, j) ∈ I aij ≤ max ( ai−1,j , ai+1,j , ai,j−1 , ai,j+1 ).

b) En déduire que si M = max aij et m = min aij , alors :

∃(i0, j0) ∈ F M = 00, ji

a et ∃(i1, j1) ∈ F m = 11, ji

a .

c) Que dire de A si ∀(i, j) ∈ F aij = 0 ?

5) Déduire de ce qui précède que Φ est un automorphisme de M(n, p). Quelle est la dimension de H(n, p) ?

Page 96: Problèmes d’algèbre linéaire

96

6) On se donne une famille quelconque (xij)(i, j)∈F de réels, indexée par l’ensemble F.

Montrer qu’il existe une unique matrice A = (aij) ∈ H(n, p) telle que ∀(i, j) ∈ F aij = xij .

___________ Problème 25 : Température de plaques

A. Première partie : théorème de Olga Taussky.

Soit A = (aij) ∈ Mn(C) une matrice carrée d’ordre n à éléments complexes.

Pour tout i ∈ [1, n], on pose Pi = ∑≠ij

ija et Qi = ∑≠ij

jia .

1) a) Montrer que si (∀i) |aii | > Pi , alors A est inversible. [Considérer le système linéaire A.X = 0.]

b) Montrer que si (∀i) |aii | > Qi , alors A est inversible. c) Ces conditions suffisantes d’inversibilité sont-elles nécessaires ?

2) Plus généralement on suppose que (∀i) |aii | ≥ Pi , l’inégalité étant stricte pour au moins un

indice i0, et que, pour tout couple (i, h) ∈ [1, n]2, il existe une suite k1, …, km d’éléments de [1, n]

telle que : 1,ki

a ≠ 0 , 21,kk

a ≠ 0 , … , mm kk

a,1−

≠ 0 , hkm

a,

≠ 0 .

Démontrer que, pour tout i, ai,i est non nul, puis que A est inversible.

B. Deuxième partie : températures d’équilibre de plaques.

Notations :

• Si X est un ensemble fini, on note |X| son cardinal, FFFF(X) l’espace vectoriel des fonctions X → R.

• On munit Z2 de la distance euclidienne usuelle, notée (M, M’) → |M M’|.

Pour tout point M = (x, y)∈Z2 on note V(M) l’ensemble des 4 points voisins (x ± 1, y) et (x, y ± 1).

• Ω est une partie finie non vide de Z2, que l’on suppose incluse dans [1, p]×[1, q].

On note ∂Ω l’ensemble des M∈Z2−Ω tels que V(M)∩Ω ≠ ∅ et Ω = Ω ∪∂Ω ⊂ [0, p+1]×[0, q+1].

• Pour tout couple (M, M’) ∈ Ω 2, on pose ε (M, M’) = 1 si |MM’| = 1, 0 sinon.

• Un élément f ∈ FFFF( Ω ) est appelé une distribution de températures.

Elle est dite stationnaire ou harmonique si (∀M ∈ Ω) f(M) = ∑∈ )('

')(41

MVM

Mf .

On se propose de démontrer, par deux méthodes, que, pour toute fonction g ∈ FFFF(∂Ω), il existe une

et une seule f ∈ HHHH( Ω ) prolongeant g, autrement dit qu’il existe une unique distribution de tempé-

rature stationnaire prenant des valeurs données sur le bord de Ω .

1) Montrer que la recherche de f équivaut à la résolution d’un système de |Ω| équations à |Ω| inconnues. Il s’agit donc de montrer que ce système est cramérien.

2) 1ère méthode. Montrer que, de quelque façon que l’on range les inconnues f(M), M ∈ Ω, la matrice A de ce système est symétrique, et obéit aux hypothèses de la question A.2), cum grano salis.

3) 2ème méthode.

a) Soit f ∈ HHHH( Ω ). Montrer que f atteint sa valeur maximum en un point de ∂Ω ; en déduire que si f est nulle sur le bord ∂Ω, alors f est nulle. b) Conclure.

Page 97: Problèmes d’algèbre linéaire

97

4) Calculer les répartitons d’équilibre thermique dans les cas suivants :

Ω = (1, 1), (2, 1), (3, 1), (4, 1) ; f(x, 2) = x et f(x, 0) = 10−x (1 ≤ x ≤ 4), f(0, 1) = 0, f(5, 1) = 5.

Ω = 1, 2, 32 f(x, 0) = f(x, 4) = 1 ; f(0, y) = f(4, y) = −1 (1 ≤ x, y ≤ 3)

Ω = 1, 2, 32 f(x, 0) = f(0, y) = −1 ; f(x, 4) = f(4, y) = 1 (1 ≤ x, y ≤ 3)

___________ Solution

Ce problème généralise le précédent.

A. Première partie : théorèmes de Hadamard et Olga Taussky.

1) Théorème de Hadamard.

a) Montrons que ∀X ∈ Cn A.X = 0 ⇒ X = 0 .

Raisonnons par absurde, et supposons qu’il existe X ≠ 0 tel que A.X = 0.

Si |0i

x | = max |xk| , il vient | 000

., iii

xa | = | −∑≠ 0

0.

,ij

jjixa | ≤ ∑

≠ 0

0.

,ij

jjixa .

Si l’on divise par |0i

x |, il vient |00,ii

a | ≤ ∑≠ 0

0,ij

jia =

0iP : contradiction !

Par suite, l’application linéaire associée à A est injective de Cn dans C

n, donc bijective.

Autre formulation : les lignes de A sont libres, donc rg A = n. De telles matrices sont dites diagonalement dominantes.

Exemples :

aa

a

111111

et

aa

a

101101

sont inversibles dès que |a| > 2.

b) Il suffit de transposer.

c) Ce ne sont là des conditions suffisantes d’inversibilité, comme le montre

0110 , et, plus géné-

ralement, la matrice associée au cycle [1, 2, …, n].

2) Théorème d’Olga Taussky (ou Hadamard-Frobenius).

Associons à la matrice A le graphe orienté G dont les sommets sont 1, 2, …, n, et les arêtes les

couples (i, j) tels que aij ≠ 0. L’hypothèse faite sur A assure que G est connexe par arcs.

Tout d’abord aii = 0 impliquerait que toute la ligne d’indice i serait nulle, contredisant la connexité par arcs de G.

Reprenons le raisonnement de 1) en l’affinant. Supposons qu’il existe X ≠ 0 tel que A.X = 0.

Si |1i

x | = max |xk| , il vient |111

., iii

xa | = | −∑≠ 1

1.

,ij

jjixa | ≤ ∑

≠ 1

1.

,ij

jjixa ≤ |

1ix |∑

≠ 1

1,ij

jia ≤ |

1ix |.|

11,iia | .

Il en résulte en particulier, que : ∑≠ 1

1.

,ij

jjixa = |

1ix |∑

≠ 1

1,ij

jia .

Cela implique que, pour tout j ≠ i1, on a ji

a,1

≠ 0 ⇒ | xj | = |1i

x | (*).

Notons J = j ; | xj | = |1i

x | et K son complémentaire. Il découle de (*) que ∀(j, k) ∈ J×K kja , = 0.

La connexité par arcs du graphe G implique que K = ∅, donc que J = 1, 2, …, n.

On voit alors que la condition |00,ii

a | > ∑≠ 0

0,ij

jia va être violée.

Page 98: Problèmes d’algèbre linéaire

98

En effet : |000

., iii

xa | = | −∑≠ 0

0.

,ij

jjixa | ≤ ∑

≠ 0

0.

,ij

jjixa = |

0ix |∑

≠ 0

0,ij

jia .

Exemples : Les matrices d’ordre n

−−

−−−−

100...00121...00

..................012100...01210......001

et

−−−

−−−−

210...00121...00

..................012100...01210......012

sont inversibles.

Remarque : la nécessité des hypothèses (H2) et (H3) apparaît sur les exemples suivants :

100011011

vérifie (H1) et (H2) mais pas (H3) ;

−−

211121112

vérifie (H1) et (H3), mais pas (H2).

B. Deuxième partie : températures de plaques.

0. Préliminaires.

0.1. Si X est un ensemble fini, FFFF(X) est un R-espace vectoriel de dimension |X|. 0.2. On peut toujours supposer Ω inclus dans [1, p]×[1, q], à translation près. 0.3. Filant la métaphore avec le cours de topologie, nous appellerons : •••• intérieur de Ω l’ensemble °Ω = M ∈ Ω ; V(M) ⊂ Ω ; • bord intérieur de Ω l’ensemble Ω − Ω° ; • bord extérieur de Ω l’ensemble ∂Ω = M ∈ Z×Z − Ω ; V(M) ∩ Ω ≠ ∅ ;

• adhérence de Ω l’ensemble Ω = Ω ∪ ∂Ω .

On a : 1 ≤ |∂Ω| ≤ 4.|Ω| et |Ω| < |Ω | ≤ 5.|Ω|.

0.4. Si X est une partie finie de Z×Z, la relation dans X : « M = N ou il existe une suite finie M0,

M1, …, Mk de points de X tels que M0 = M, Mk = N et |Mi M i+1| = 1 pour 0 ≤ i ≤ k − 1 » est une relation d’équivalence dans X, dont les classes sont les composantes connexes (par arcs) de X. X est dit connexe par arcs s’il n’a qu’une composante connexe.

Si Ω est connexe par arcs, il en est de même de Ω ; la réciproque est fausse.

1) Mise en équation du problème.

La recherche de f équivaut à la résolution d’un système linéaire de |Ω| équations à |Ω| inconnues. En effet, les inconnues sont les f(M), où M ∈ Ω, et il y a une équation centrée en chaque point M. Si M = (x, y), cette équation est de la forme

4.f(x, y) − f(x – 1, y) − f(x + 1, y) − f(x, y + 1) − f(x, y – 1) = 0 mais attention, certains des 4 points voisins peuvent se trouver sur le bord, donc être connus. Il faut alors les basculer dans l’autre membre. Si M = (x, y) est intérieur, l’équation s’écrit :

4.f(x, y) − f(x – 1, y) − f(x + 1, y) − f(x, y + 1) − f(x, y – 1) = 0 S’il appartient au bord intérieur, elle s’écrira par exemple

4.f(x, y) − f(x – 1, y) − f(x + 1, y) − f(x, y + 1) = g(x, y – 1) Précisons encore les choses, et introduisons des notations qui permettraient de généraliser le

problème à Z3, Z

4, etc. Notons :

• pour tout couple (M, M’) ∈ Ω×Ω a(M, M’) = 4 si M = M’ , − 1 si |M M’| = 1 , 0 sinon. • pour tout couple (M, P) ∈ Ω×∂Ω b(M, P) = 1 si |M P| = 1 , 0 sinon.

Le système linéaire s’écrit très exactement

(E) ∀M ∈ Ω ∑Ω∈'

)'().',(M

MfMMa = ∑Ω∂∈P

PgPMb )().,(

Page 99: Problèmes d’algèbre linéaire

99

Il s’agit donc de montrer qu’il est cramérien. Nous supposerons dans la suite Ω connexe par arc, ce qui ne restreint pas la généralité, car le système linéaire obtenu se scinde en autant de sous-systèmes que de composantes connexes par arcs de Ω.

2) 1ère méthode : théorème de Hadamard-Frobenius-Taussky.

De quelque façon que l’on range les inconnues, f(M), M ∈ Ω, la matrice A = (a(M, M’)) est symétrique, car a(M, M’) = a(M’, M).

Elle vérifie a(M, M) = 4 pour tout M. Elle possède au plus 4 éléments non nuls dans l’équation centrée en M. Elle est donc diagonalement dominante au sesn large. Il est sûr que A possède une ligne diagonalement dominante au sens strict, car le bord intérieur de Ω n’est pas vide. Enfin la condition de connexité par arcs de la 1ère partie :

∀(i, h) ∈ [1, n]2 ∃( k1, …, km )

1,kia ≠ 0 ,

21,kka ≠ 0 , … ,

mm kka

,1−≠ 0 ,

hkma

, ≠ 0

s’écrit : ∀(M, M’) ∈ Ω×Ω ∃(1k

M ,2k

M ,… ,mk

M )

a(M, 1k

M ) ≠ 0 , a(1k

M ,2k

M ) ≠ 0 , … , a(1−mk

M ,mk

M ) ≠ 0 , … , a(mk

M , M’) ≠ 0 .

Cela découle de la connexité par arcs de Ω !

3) 2ème méthode : principe du maximum.

Soit f ∈ HHHH( Ω ). Je dis que f atteint sa valeur maximum en un point de ∂Ω .

En effet, f atteint sa valeur maximum M en un point de Ω , car Ω est un ensemble fini. Si cette valeur est atteinte en un point de ∂Ω , c’est gagné. Si elle est atteinte en un point intérieur, alors elle est atteinte en les 4 points voisins. De proche en

proche, f prend la valeur M en tous les points de Ω , par connexité par arcs. Bref, f est constante, et alors sa valeur maximum est encore atteinte sur le bord. De même, f atteint sa valeur minimum est atteinte en un point de ∂Ω ; cela se déduit de ce qui précède en changeant f en – f. On en conclut que si f est nulle sur le bord, f est nulle partout.

Cela revient à dire que le système homogène (E0) associé au système linéaire (E) n’a que la solution triviale. On sait qu’alors (E) est cramérien.

Remarque finale : Il reste à résoudre ce système, qui en général est de très grande taille. Il provient en effet de la discrétisation d’un problème de Dirichlet. Pour cela on n’utilise ni les formules de Cramer, ni une méthode de pivot, mais une méthode itérative.

Références : Chambadal-Ovaert, Algèbre 2 (Gauthier-Villars), ex. n° 25 p. 369, 37 p. 375 Ciarlet, Analyse numérique matricielle et optimisation (Masson), p. 45 Stoer-Burlisch, Introduction to numerical analysis (Springer), p. 588 ENS Ulm 1968, 1986, Cachan 1989, Lyon 1996 (Oral), etc.

___________ Problème 26 : Localisation des valeurs propres

Soit A = (aij) ∈ Mn(C) une matrice carrée d’ordre n à éléments complexes.

On note Sp A le spectre de A, ensemble des valeurs propres.

Pour tout i ∈ [1, n], on pose Pi = ∑≠ij

ija et Qi = ∑≠ij

jia .

1) a) Montrer que si (∀i) |aii | > Pi , alors A est inversible [ Considérer le système linéaire A.X = 0.]

b) Montrer que si (∀i) | aii | > Qi , alors A est inversible. c) Ces conditions suffisantes d’inversibilité sont-elles nécessaires ?

2) Déduire de 1) que Sp A ⊂ D ∩ D’ , où :

• D est la réunion des disques z ∈ C ; | aii − z | ≤ Pi (1 ≤ i ≤ n)

Page 100: Problèmes d’algèbre linéaire

100

• D’ est la réunion des disques z ∈ C ; | aii − z | ≤ Qi (1 ≤ i ≤ n)

3) Applications :

a) Localiser les valeurs propres de A =

−−+

ii

i

31113321

et B =

−−−+−+

+−−+

iiiiiii

iiii

5522126510011234

.

b) Une matrice A = (aij ) ∈ Mn(R) est dite stochastique si :

∀(i, j) ∈ [1, n]2 aij ≥ 0 et ∀i ∈ [1, n] ∑

=

n

jija

1 = 1 .

Montrer que ∀λ ∈ Sp A | λ | ≤ 1 , et que 1 ∈ Sp A

Montrer que, si (∀i) aii > 0, 1 est la seule valeur propre de module 1.

c) Soit A = (aij ) ∈ Mn(R) telle que ∀(i, j) ∈ [1, n]2 aij ≥ 0 et ∀i ∈ [1, n] ∑

=

n

jija

1

< 1 .

Montrer que det( I – A ) > 0.

4) Comparer P(z) = zn + a1 z

n−1 + … + an−1 z + an au polynôme caractéristique de la matrice

−−

−−

1

2

1

1...000...00

..................001...000

aa

aan

n

En déduire que les racines de P sont contenues dans un disque de centre O dont on précisera le rayon.

Application : localiser les racines de P(z) = z4 − 4i z

3 + 6 z

2 − 2i z − 3.

5) Soit A = (aij) ∈ Mn(R) vérifiant (∀i) aii > Pi . On pose A = D + H, où D = diag(a11, …, ann).

En considérant la fonction t → det(D + t.H), montrer que det A > 0.

6) Par une méthode analogue à 1.a), montrer que si ∀(i, j) i ≠ j ⇒ |aii |.|ajj | > Pi.Pj, alors A est inversible. En déduire que le spectre de A est inclus dans C ∩ C’, où :

• C est la réunion des 2

)1( −nn ovales de Cassini z ∈ C ; | aii − z |.| ajj − z | ≤ Pi.Pj (i < j)

• C’ est la réunion des 2

)1( −nn ovales de Cassini z ∈ C ; | aii − z |.| ajj − z | ≤ Qi.Qj (i < j)

__________ Références :

Maurice Parodi : Localisation des valeurs caractéristiques des matrices, Gauthier Villars (1949) Centrale : Problème des années 2000-2010, à retrouver. __________

Page 101: Problèmes d’algèbre linéaire

101

Problème 27 : Produits tensoriels Toutes les matrices, tous les vecteurs ici considérés sont à éléments dans un corps commutatif K .

On note M(n, p) l’espace vectoriel des matrices n×p, et l’on identifie les vecteurs de Kn aux matrices-colonnes de M(n, 1).

Si X =

nx

x...

1∈ Kn et Y =

qy

y...

1∈ Kq , on appelle produit tensoriel de X et Y le vecteur

X ⊗ Y =

Yx

Yx

n.....1

∈ Knq obtenu en remplaçant dans X, xi par le vecteur xi.Y .

1) a) Montrer que l’application (X, Y) → X ⊗ Y est bilinéaire Kn×Kq → Knq .

b) Un vecteur Z de Knq de la forme X ⊗ Y est dit décomposé. Donner un exemple de vecteur non décomposé. Caractériser les vecteurs décomposés. Montrer que les vecteurs de la base canonique de Knq sont tous décomposés.

c) Montrer que si (Xi)1≤i≤r est génératrice dans Kn et (Yj)1≤j≤s est génératrice dans Kq , alors (X i ⊗ Yj)(i,j)∈[1,r]×[1,s] est génératrice dans Knq .

d) Si (Xi)1≤i≤n et (Yj)1≤j≤q sont des bases respectives de Kn et Kq, que dire de (Xi ⊗ Yj)(i,j)∈[1,n]×[1,q] ?

e) Si (Xi)1≤i≤r est une famille libre dans Kn et (Yj)1≤j≤s une famille libre dans Kq , que dire de (X i⊗Yj)(i,j)∈[1,r]×[1,s] ?

f) Dans le cas général, comparer rg(Xi ⊗ Yj)(i,j)∈[1,r]×[1,s] à rg(Xi).rg(Yj), et établir des réci-proques des résultats établis en c), d) et e).

2) Soit H un espace vectoriel. Montrer que, pour toute application bilinéaire Φ : Kn×Kq → H, il existe une application linéaire et une seule f : Knq → H telle que :

(∀X ∈ Kn) (∀Y ∈ Kq) Φ(X, Y) = f(X ⊗ Y) .

3) Déduire de 2) qu’il existe un isomorphisme M : Knq → M(n, q) vérifiant :

(∀X ∈ Kn) (∀Y ∈ Kq) M(X ⊗ Y) = Y.tX .

Reconnaître cet isomorphisme. Quelles sont les images par M des vecteurs décomposés ? Soit Z∈Knp, r le nombre minimum de vecteurs décomposés de somme Z. Caractériser r à l’aide de M(Z).

4) Soient A ∈ M(m, n) et B ∈ M(p, q) deux matrices identifiées aux applications linéaires Kn → Km et Kq → Kp canoniquement associées.

a) Montrer qu’il existe une unique application linéaire ϕ : Knq → Kmp vérifiant :

(∀X ∈ Kn) (∀Y ∈ Kq) ϕ(X ⊗ Y) = (A.X) ⊗ (B.Y) .

b) Montrer que ϕ a pour matrice :

A ⊗ B ≡

BaBa

BaBa

mnm

n

............

...

1

111 dans les bases canoniques de Knq et Kmp .

c) Montrer que l’application (A, B) → A ⊗ B est bilinéaire, et que l’on a : (C ⊗ D).(A ⊗ B) = (C.A) ⊗ (D.B) et A ⊗ (B⊗C) = (A⊗B) ⊗ C dès que les formats le permettent.

d) Exprimer le rang de A ⊗ B à l’aide des rangs de A et B.

5) Si A et B sont carrées, quand A ⊗ B est-elle inversible ? que vaut alors (A ⊗ B)−1 ? Quand A⊗B est-elle nilpotente ? Montrer enfin que A et B diagonalisables ⇒ A ⊗ B est diagonalisable. __________

Page 102: Problèmes d’algèbre linéaire

102

Corrigé : produits tensoriels de vecteurs et de matrices A l’adolescent que je fus.

Arthur Rimbaud 1) Généralités.

a) L’application (X, Y) → X ⊗ Y est bilinéaire Kn×Kq → Knq , car :

(αX + X’) ⊗ Y =

+

+

Yxx

Yxx

nn ).'(...

).'( 11

α

α = α.

Yx

Yx

n.....1

+

Yx

Yx

n.'....'1

= α.(X ⊗ Y) + (X’ ⊗ Y)

X ⊗ (βY + Y’) =

+

+

)'.(...

)'.(1

YYx

YYx

n β

β = β.

Yx

Yx

n.....1

+

'....

'.1

Yx

Yx

n

= β.(X ⊗ Y) + (X ⊗ Y’) .

b) Vecteurs décomposés. Un vecteur Z de Knq de la forme X ⊗ Y est dit décomposé.

Exemple de vecteur non décomposé. Si n = q = 2, le vecteur

1001

n’est pas décomposé.

Plus généralement, soit Z un vecteur de Knq , découpé sous la forme

nZ

Z...

1 en vecteurs de Kq .

Z est décomposé si et seulement s’il existe un vecteur Y de Kq tel que (∀i) (∃xi) Zi = xi.Y,

autrement dit ssi rg(Z1, Z2, …, Zn) ≤ 1.

Montrons que les vecteurs de la base canonique de Knq sont tous décomposés.

Notons (a1, …, an), (b1, …, bq) et (e1, …, enq) les bases canoniques respectives de Kn, Kq et Knq.

Je dis que (ai ⊗ bj) est la base canonique de Knq .

En effet ai ⊗ bj = e(i−1)q+j est un vecteur canonique.

Réciproquement ek = ai ⊗ bj , où k = (i − 1)q + j , c’est-à-dire k − 1 = (i − 1)q + j − 1 . Donc i − 1 est le quotient, et j − 1 le reste, de la division euclidienne de k − 1 par q. Il en résulte en particulier que les vecteurs décomposés engendrent Knq.

c) Soient (Xi)1≤i≤r et (Yj)1≤j≤s des familles génératrices respectives de Kn et Kq .

Je dis que (Xi ⊗ Yj)(i,j)∈[1,r]×[1,s] est une famille génératrice de Knq .

Cela va découler de a) et b). En effet, tout vecteur Z de Knq est combinaison linéaire des ai ⊗ bj .

Or par bilinéarité, ai ⊗ bj est combinaison linéaire des Xi ⊗ Yj.

d) Soient (Xi)1≤i≤n et (Yj)1≤j≤q des bases respectives de Kn et Kq .

En vertu de c), (Xi ⊗ Yj)(i,j)∈[1,n]×[1,q] est une famille génératrice de Knq .

Comme elle a nq éléments, c’est une base de Knq .

e) Soient (Xi)1≤i≤r et (Yj)1≤j≤s des familles libres respectives de Kn et Kq .

Je dis que (Xi⊗Yj)(i,j)∈[1,r]×[1,s] est une famille libre de Knq .

En effet, complétons (Xi)1≤i≤r en une base (Xi)1≤i≤n de Kn et (Yj)1≤j≤s en une base (Yj)1≤j≤q de Kq . En vertu de d), (Xi ⊗ Yj)(i,j)∈[1,n]×[1,q] est une base de Knq .

La sous-famille (Xi⊗Yj)(i,j)∈[1,r]×[1,s] de cette base est une famille libre. Cqfd.

Remarque : on peut aussi démontrer directement la liberté de (Xi⊗Yj). Voici comment :

Page 103: Problèmes d’algèbre linéaire

103

Supposons ∑∑= =

⊗r

i

s

jjiij YX

1 1

).(λ = 0. Notons Xi = t(x1i, …, xni). Alors ∑∑

= =

r

i

s

jij

1 1

jni

ji

Yx

Yx

.....1

= 0.

Du coup, chacun des sous-vecteurs est nul : ∑∑= =

r

i

s

jij

1 1

.λ xki.Yj = ∑∑= =

s

j

r

iij

1 1

.( λ xki).Yj = 0 pour tout k.

Par liberté de (Yj) , ∀(k, j) ∑=

r

ikiij x

1

.λ = 0. Du coup ∑=

r

iiij X

1

.λ = 0. Par liberté de (Xi) , ∀(i, j) λij = 0.

f) Dans le cas général, montrons que rg(Xi ⊗ Yj)(i,j)∈[1,r]×[1,s] = rg(Xi).rg(Yj). Notons en effet :

• a = rg(Xi) ; quitte à réordonner les Xi, on peut supposer X1, …, Xa libres. Xa+1, …, Xr sont alors combinaisons linéaires de X1, …, Xa .

• b = rg(Yj) ; quitte à réordonner les Yj, on peut supposer Y1, …, Yb libres. Yb+1, …, Ys sont alors combinaisons linéaires de Y1, …, Yb .

rg(Xi ⊗ Yj)(i,j)∈[1,r]×[1,s] = dim Vect((Xi ⊗ Yj)(i,j)∈[1,r]×[1,s])

= dim Vect((Xi ⊗ Yj)(i,j)∈[1,a]×[1,b] ) par bilinéarité

= a.b = rg(Xi).rg(Yj) en vertu de e).

Les réciproques des résultats établis en c), d) et e) s’en déduisent aussitôt.

2) Propriété universelle du produit tensoriel.

Soit H un espace vectoriel. Montrons que, pour toute application bilinéaire Φ : Kn×Kq → H, il existe une application linéaire et une seule f : Knq → H telle que :

(∀X ∈ Kn) (∀Y ∈ Kq) Φ(X, Y) = f(X ⊗ Y) .

1ère méthode : procédons par analyse et par synthèse, en utilisant les notations de 1.b)

Analyse. Supposons le problème résolu.

Si f existe, alors, pour tout couple (i, j) ∈ [1, n]×[1, q], on a : f(ai ⊗ bj) = Φ(ai , bj) .

Comme (ai ⊗ bj) est une base de Knq , cela montre l’unicité de l’application linéaire f.

Synthèse. Soit f l’application linéaire de Knq dans H définie par ∀(i, j) f(ai ⊗ bj) = Φ(ai , bj) .

Alors (∀X ∈ Kn) (∀Y ∈ Kq) Φ(X, Y) = Φ(∑=

n

iii ax

1

. ,∑=

q

jjj by

1

. ) = ∑∑= =

Φn

i

q

jjiji bayx

1 1

),(

= ∑∑= =

⊗n

i

q

jjiji bafyx

1 1

)( = f (∑∑= =

⊗n

i

q

jjiji bayx

1 1

)( ) = f(X ⊗ Y) . Cqfd.

2ème méthode. Elle est beaucoup plus ardue que la précédente. En voici les étapes :

Lemme 1 : (∀X, X’ ∈ Kn) (∀Y, Y’ ∈ Kq) X ⊗ Y = X’ ⊗ Y’ ⇒ Φ(X, Y) = Φ(X’, Y’) .

Preuve : Elle repose sur les résultats suivants, laissés au lecteur : • X ⊗ Y = 0 ⇔ X = 0 ou Y = 0. • Si X ⊗ Y ≠ 0, alors X’ ⊗ Y’ = X ⊗ Y ⇔ (∃λ ≠ 0) X’ = λX et Y’ = (1/λ).Y

Ce lemme une fois acquis, on peut définir f sur l’ensemble des vecteurs décomposés par la formule : f(X ⊗ Y) = Φ(X, Y). Cette définition est pertinente, mais hélas, un vecteur n’est pas toujours décomposé ! On est encore loin du but, et on va avoir besoin d’un second lemme, permettant de construire une application linéaire à l’aide de familles génératrices :

Lemme 2 : Soient E et F deux K-espaces vectoriels, (ai)i∈I une famille génératrice de E, (bi)i∈I une famille de vecteurs de F. Pour qu’il existe une application linéaire u : E → F telle que : (∀i ∈ I)

u(ai) = bi , il faut et il suffit que toute relation linéaire vérifiée par les ai soit aussi vérifiée par les bi :

Page 104: Problèmes d’algèbre linéaire

104

∀λ = (λi)i∈I ∈ K(I)

∑∈Ii

ii aλ = 0 ⇒ ∑∈Ii

ii bλ = 0 ; u est alors unique.

Preuve : Soit x un vecteur de E. Il s’écrit sous la forme x = ∑∈Ii

ii aξ , où la famille de scalaires (ξi)

est à support fini. Alors on doit poser u(x) = ∑∈Ii

ii bξ . Cela montre l’unicité de u.

Encore faut-il s’assurer que y = ∑∈Ii

ii bξ ne dépend pas de la famille (ξi) choisie. Or si x = ∑∈Ii

ii aη ,

alors ∑∈

−Ii

iii a)( ηξ = 0 ; or cela implique∑∈

−Ii

iii b)( ηξ , c’est-à-dire ∑∈Ii

ii bξ = ∑∈Ii

ii aη .

L’application u est bien définie. Reste à montrer sa linéarité ; c’est facile.

Revenant au problème posé, il reste à montrer :

Lemme 3 : ∑∑= =

⊗h

i

k

jjiij YX

1 1

).(λ = 0 ⇒ ∑∑= =

Φh

i

k

jjiij YX

1 1

),(.λ = 0.

Laissons cela en exercice !

3) Une application.

Considérons l’application qui au vecteur Z =

nZ

Z...

1∈ Knq partitionné en blocs, associe la matrice

M(Z) = (Z1 | … | Zn) ∈ M(q, n). Cette application est un isomorphisme, qui vérifie :

(∀X ∈ Kn) (∀Y ∈ Kq) M(X ⊗ Y) = Y.tX .

En effet M(X ⊗ Y) = M(

Yx

Yx

n.....1

) = (x1Y | … | xnY) = Y.tX .

Les images par M des vecteurs décomposés sont les matrices de rang ≤ 1.

Soit Z ∈ Knp, r le nombre minimum de vecteurs décomposés de somme Z. Je dis que r est le rang de la matrice M(Z). En effet, le rang d’une matrice A est le nombre minimum de matrices de rang 1 dont la somme est A.

4) Produit tensoriel de matrices. a) L’application Φ : (X, Y) → (A.X) ⊗ (B.Y) est bilinéaire.

En vertu de 2), il existe une unique application linéaire ϕ : Knq → Kmp vérifiant :

(∀X ∈ Kn) (∀Y ∈ Kq) ϕ(X ⊗ Y) = (A.X) ⊗ (B.Y) .

b) Montrons que ϕ a pour matrice :

A ⊗ B ≡

BaBa

BaBa

mnm

n

............

...

1

111 dans les bases canoniques de Knq et Kmp .

Il suffit de calculer l’action sur les vecteurs canoniques. Avec les notations de 1.b) :

(A ⊗ B )(ek) = (A.ai) ⊗ (B.bj) .

c) Montrons que (A, B) → A ⊗ B est bilinéaire, et que (C ⊗ D).(A ⊗ B) = (C.A) ⊗ (D.B). Cela peut se montrer par un calcul par blocs, ou en considérant l’action sur les vecteurs décomposés. (C ⊗ D).(A ⊗ B).(X ⊗ Y) = (C ⊗ D).((AX) ⊗ (B.Y)) = (C.A.X) ⊗ (D.B.Y) = ((C.A) ⊗ (D.B)).(X ⊗ Y) . Or les vecteurs décomposés X ⊗ Y engendrent Knq .

Remarque : On a aussi A ⊗ (B ⊗ C) = (A ⊗ B) ⊗ C dès que les formats le permettent.

Cela découle de ce que X ⊗ (Y ⊗ Z) = (X ⊗ Y) ⊗ Z sur les vecteurs.

Page 105: Problèmes d’algèbre linéaire

105

d) Montrons que rg(A ⊗ B) = rg(A).rg(B).

Cela découle de ce que rg(A ⊗ B) = rg((A ⊗ B )(ek)) = rg((A.ai) ⊗ (B.bj)) = rg((A.ai)).rg((B.bj) .

Mais on peut aussi procéder par équivalence matricielle.

5) Inversibilité, nilpotence, diagonalisabilité. Si A et B sont carrées, A ⊗ B est inversible ssi Aet B le sont, et alors (A ⊗ B)−1 = A−1 ⊗ B−1 . A ⊗ B est nilpotente ssi A ou B est nilpotente. Enfin A et B diagonalisables ⇒ A ⊗ B est diagonalisable. ___________

Problème 28 : Déterminants de Hankel

Première partie : Identité de Desnanot-Jacobi.

Soit A = (aij) ∈ Mp(C) une matrice carrée d’ordre p ≥ 3 à coefficients complexes.

On note Aij le cofacteur de aij dans A, et B = (bij) la matrice carrée d’ordre p−2, d’élément général

bij = ai+1,j+1 (1 ≤ i , j ≤ p−2) obtenue en supprimant dans A les lignes et colonnes d’indices 1 et p.

1) Soit D =

−−

ppp

ppp

p

p

p

AAAA

AAAAAA

,1

1,1,1

313

212

111

0...001...00

..................0...100...010...00

.

a) Montrer l’identité det(A.D) = (det A)2.(det B) = (det A).[ A11.App − Ap1.A1p ]

b) En déduire que si det A ≠ 0, (det A).(det B) = A11.App − Ap1.A1p (DJ)

2) Montrer que l’identité (DJ) reste valable si det A = 0. On pourra pour cela utiliser l’une et/ou l’autre des deux méthodes suivantes :

a) Montrer que toute matrice de Mp(C) est limite d’une suite de matrices de Glp(C).

b) Montrer que la comatrice de A est de rang 0 ou 1.

Deuxième partie : Déterminants de Hankel.

A toute suite u = (un)n≥0 de complexes, on associe ses déterminants de Hankel, ainsi définis :

0nH = 1 , 1nH = un , 2nH =

21

1

++

+

nn

nn

uuuu

, 3nH =

432

321

21

+++

+++

++

nnn

nnn

nnn

uuuuuuuuu

, knH = det(un+i+j−2)1≤i,j≤k .

1) Exemples :

a) Calculer les déterminants de Hankel de la suite de Fibonacci f0 = 0 , f1 = 1 , fn+2 = fn+1 + fn .

b) Même question pour la suite (un) = (cos nθ).

c) Soit P ∈ C[X] un polynôme de degré p ≥ 0, (un) = (P(n))). Etablir que ∀n ∀k ≥ p+2 knH = 0

[ Indication : On pourra considérer les polynômes P(X), P(X + 1), …, P(X + k − 1). ]

2) On revient au cas général. Montrer la relation : ∀n ∀k ≥ 1 knH . k

nH 2+ − 1+knH . 1

2−+

knH = ( k

nH 1+ )2.

3) La suite (un) est dite récurrente linéaire d’ordre k s’il existe des complexes a0, a1, …, ak−1 tels

que : (∀n ∈ N) un+k = ak−1.un+k−1 + ... + a0.un (R)

Montrer que, si (un) est récurrente linéaire d’ordre k, alors (∀n ∈ N) 1+knH = 2+k

nH = 3+knH = … = 0.

Page 106: Problèmes d’algèbre linéaire

106

4) On suppose inversement qu’existe un entier k ≥ 0 tel que :

i) (∀n ∈ N) 1+knH = 0 ii) ∃n0 ∈ N* k

nH

0 ≠ 0 .

a) Trouver une relation entre knH , knH 1+ et k

nH 2+ .

b) Montrer que (∀n ∈ N) knH ≠ 0 .

c) Montrer qu’il existe un unique k-uplet (a0, a1, …, ak−1) tel que :

a0.u0 + a1.u1 + … + ak−1.uk−1 = uk

a0.u1 + a1.u2 + … + ak−1.uk = uk+1

. . . . . . . . . . . . . .

a0.uk−1 + a1.uk + … + ak−1.u2k−2 = u2k−1

d) Montrer enfin que (un) vérifie (R).

5) Trouver la suite (un) vérifiant (∀n) 432

321

21

+++

+++

++

nnn

nnn

nnn

uuuuuuuuu

= 0 , u0 = 2, u1 = 1, u2 = 3, u3 = 4.

Troisième partie : L’algèbre C[[X]] des séries formelles.

On note E le C-espace vectoriel des suites A = (an)n∈N. A deux suites A = (an) et B = (bn) on

associe la suite C = (cn)n∈N définie par (∀n ∈ N) cn = ∑=+ nqp

qpba . On la note C = A.B.

1) Montrer que E est une algèbre commutative, associative et unifère, et que C[X] est une sous-

algèbre de E. On rappelle que X désigne la suite (0, 1, 0, …), et l’on convient de noter A = (an) sous

la forme A = ∑+∞

=0n

nnXa (« série formelle »). La famille ( 1, X, X2, … ) est-elle une base de E ?

2) Soit A = ∑+∞

=0n

nnXa une série formelle telle que a0 ≠ 0. Montrer qu’il existe une série formelle B =

∑+∞

=0n

nnXb telle que A.B = 1. Montrer que ∀n ≥ 1 bn = 1

0)()1(+

−n

n

a

121

0

123

012

01

...

............0.........0...0

aaaaa

aaaaaa

aa

nnn −−

.

3) Exemples :

a) Vérifier que X−1

1 = ∑+∞

=0n

nX , et que ²1 XX

X−− = ∑

+∞

=0n

nn Xf , où (fn) est la suite de Fibonacci.

b) Pour tout n ∈ N, soit an le nombre de triplets (x, y, z) ∈ N×N×N tels que x + 2y + 3z = n .

Montrer que ∑+∞

=0n

nnXa = )1)(1)(1(

132 XXX −−− .

Quatrième partie : Caractérisation des fractions rationnelles.

1) Soit A = ∑+∞

=0

.n

nn Xu une série formelle non nulle. Montrer l’équivalence des propriétés suivantes :

i) Il existe deux polynômes P et Q ∈ C[X], tels que Q ≠ 0 et A.Q = P ;

ii) Il existe une suite finie (b0, b1, …, bq) ∈ Cq+1

et un entier d ≥ q tels que bq ≠ 0 et

Page 107: Problèmes d’algèbre linéaire

107

(∀n ≥ d) b0.un + b1.un−1 + … + bq.un−q = 0 .

2) Montrer que la condition ii) implique la condition :

iii) (∃k ≥ 0) (∃ m ≥ 0) 1+kmH = 1

1++

kmH = 1

2++

kmH = … = 0 .

3) On suppose inversement la condition iii) remplie, et l’on note k le plus petit entier vérifiant

cette condition. Etablir que (∃n0 ≥ m+1) kn

H0 ≠ 0 , et en déduire que la suite (un) est récurrente

linéaire d’ordre k à partir d’un certain rang. En déduire iii) ⇒ i).

4) Application : Prouver que pour tout P ∈ C[X], ∑+∞

=0

).(n

nXnP est une fraction rationnelle.

__________ Solution : Déterminants de Hankel

Première partie : Identité de Desnanot-Jacobi.

1) a) Montrons l’identité det(A.D) = (det A)2.(det B) = (det A).[ A11.App − Ap1.A1p ]

A =

−−−−−

pppppp

pppppp

pp

pp

pp

aaaaaaaa

aaaaaaaaaaaa

,1,21

,11,12,11,1

31,33231

21,22221

11,11211

...

..................

...

...

...

D =

−−

ppp

ppp

p

p

p

AAAA

AAAAAA

,1

1,1,1

313

212

111

0...001...00

..................0...100...010...00

, A.D =

−−−

Aaaaa

aaaaaaA

ppp

ppp

p

p

p

det...00...0...............0...00...00...det

1,2

1,12,1

1,332

1,222

1,112

Cela découle de ce que A.tcom A = (det A).Ip ; or la première et la dernière colonnes de A.D sont

celles de A.tcom A.

Développant A.D par rapport à la 1ère, puis la dernière colonne, il vient det(A.D) = (det A)2.(det B).

Or si l’on développe det D par rapport à sa dernière ligne, il vient : det D = A11.App − Ap1.A1p .

b) Si det A ≠ 0, on en déduit après simplification (det A).(det B) = A11.App − Ap1.A1p (DJ)

Si det A = 0, on ne peut plus simplifier par det A dans l’identité obtenue en 1.a)

2) Montrons que l’identité (DJ) reste valable si det A = 0.

1ère méthode : la comatrice de A est de rang 0 ou 1. En effet, si rg A ≤ p−2, com A = 0 car tous les cofacteurs sont nuls.

Si rg A = p−1, com A ≠ 0 car un cofacteur est non nul. Or tcom A.A = 0 ⇒ Im A ⊂ Ker

tcom A.

Comme Im A est un hyperplan, Im A = Ker tcom A, et rg

tcom A = 1.

Du coup, A11.App − Ap1.A1p = 0 en tant que déterminant d’ordre 2 extrait.

2ème méthode : densité topologique. La densité de Gln(C) dans Mn(C) peut s’établir de deux façons : 1ère méthode : raisonnement par équivalence.

Soit r = rg A < n . Il existe P, Q ∈ Gln(K ) telles que Q−1.A.P = Jr. Du coup,

A = Q.Jr.P−1 = limk→+∞ Q.( Jr + k1 .I ).P−1 ; or ces dernières matrices sont inversibles.

2ème méthode : valeurs propres. Soient λ1 = 0, λ2,, ... , λr les valeurs propres distinctes de u, α = min 2≤i≤r | λi | > 0. Alors 0 < | β | < α ⇒ A − β.I ∈ Gln(K ). Et A − β.I tend vers A lorsque β tend vers 0 en restant dans la couronne 0 < | β | < α. Ce second raisonnement est un peu plus précis que le premier car il montre que A est limite de matrices qui commutent avec elle.

Concluons ! Les deux membres de (DJ) sont des fonctions continues car polynomiales de A. Comme

Glp(C) est dense dans Mp(C), l’identité reste vraie sur l’adhérence de Glp(C), i.e. dans Mp(C).

Page 108: Problèmes d’algèbre linéaire

108

3ème méthode : densité algébrique. Valable dans tout corps commutatif, cette méthode est plus puissante que la précédente, mais elle est aussi plus abstraite.

Prenons pour A la matrice générique A = (Xij) ∈ Mp(K (X ij)), où les Xij sont p2 indéterminées.

La matrice A est inversible, car son déterminant det A = ∑ ppXX )(1)1( ...).( σσσε est un polynôme non

nul en les Xij . L’anneau K [X ij ] étant intègre, l’identité (DJ) se déduit de 1.a) par simplification.

Il ne reste plus ensuite qu’à resubstituer les scalaires aij aux indéterminées Xij .

Variante moins abstraite : remplacer A par la matrice caractéristique A – X.I ∈ Mp(K (X)) ; cette matrice est inversible car det(A – XI) ≠ 0, en tant que polynôme de degré p. On simplifie par intégrité de K [X], puis l’on fait X = 0.

Remarques : 1) La densité algébrique est une méthode de densité topologique, mais il faut utiliser la

topologie de Zariski, qui est moins fine dans Mp(C) que la topologie usuelle.

2) Desnanot, Jacobi ou… Sylvester ? Desnanot si l’on est français, Jacobi si l’on est allemand, Sylvester si l’on est anglais ! Ami des tommies ou ami des teutons ? Le français est loyal, l’anglais perfide, et l’allemand dominateur : choisissons ! Cette identité est généralisée dans notre Bourbaki national (A III 199 n° 9).

Deuxième partie : Déterminants de Hankel.

1) Exemples de déterminants de Hankel :

a) Suite de Fibonacci f0 = 0 , f1 = 1 , fn+2 = fn+1 + fn .

3nH =

432

321

21

+++

+++

++

nnn

nnn

nnn

fffffffff

= 0, car la 3ème colonne est somme des deux premières.

Plus généralement knH = 0 pour tout k ≥ 3 et tout n, pour la même raison.

2nH = 21

1

++

+

nn

nn

ffff

= nnn

nnn

ffffff

++

++

11

1 =nn

nn

ffff

1

1

+

− = − 21−nH , donc 2nH = (−1)

n 20H = (−1)

n+1.

Conclusion : 0nH = 1, 1nH = fn pour tout n, 2nH = (−1)n+1

, knH = 0 pour tout k ≥ 3 et tout n,

b) Suite (un) = (cos nθ).

2nH = θθθθ

)2cos()1cos()1cos()cos(

+++

nnnn = − sin

2 θ , avec un peu de trigo.

3nH =

θθθθθθθθθ

)4cos()3cos()2cos()3cos()2cos()1cos()2cos()1cos()cos(

++++++++

nnnnnnnnn

= 0, car les 3 colonnes sont liées par c1 + c3 = 2.cos .c2.

Plus généralement knH = 0 pour tout k ≥ 3 et tout n, pour la même raison.

NB : le résultat de a) et b) s’étend aux suites récurrentes linéaires d’ordre 2 un+2 = aun+1 + bun.

2nH = 21

1

++

+

nn

nn

uuuu = − b 2

1−nH , donc 2nH = (−b)n 2

0H ; et knH = 0 pour tout k ≥ 3 et tout n,.

c) Soit P ∈ C[X] un polynôme de degré p ≥ 0, (un) = (P(n))).

Considérons comme indiqué les polynômes P(X), P(X + 1), …, P(X + k − 1).

Ils sont au nombre de k et éléments de Cp[X]. Comme k > p + 1 = dim Cp[X], ils sont liés.

Du coup, les colonnes de knH sont liées et ∀n ∀k ≥ p + 2 knH = = 0

2) Relation fondamentale. Montrons que : ∀n ∀k ≥ 1 knH . k

nH 2+ − 1+knH . 1

2−+

knH = ( k

nH 1+ )2.

Page 109: Problèmes d’algèbre linéaire

109

Il suffit d’appliquer la formule de Desnanot-Jacobi à la matrice

A =

+−++++

−+−++−+

++++++

+++++

+−++

knknknkn

knknknkn

knknnn

knknnn

knknnn

uuuuuuuu

uuuuuuuuuuuu

2121

12221

2132

121

11

...

..................

...

...

...

∈ Mk+1(C).

Alors det A = 1+knH , det B = 1

2−+

knH , A11 = k

nH 2+ , Ap+1,p+1 = knH , A1,k+1 = Ak+1,1 = (−1)k k

nH 1+ .

3) Cas des suites récurrentes linéaires.

Soit (un) une suite récurrente linéaire d’ordre k : (∀n ∈ N) un+k = ak−1.un+k−1 + ... + a0.un (R) Alors (∀n ∈ N) 1+k

nH = 2+knH = 3+k

nH = … = 0, car la (k + 1)-ème colonne est combinaison linéaire des k premières colonnes.

4) Réciproque. Supposons inversement qu’existe un entier k ≥ 0 tel que :

i) (∀n ∈ N) 1+knH = 0 ii) ∃n0 ∈ N* k

nH

0 ≠ 0 .

a) Relation entre knH , k

nH 1+ et knH 2+ . L’identité (DJ) s’écrit : k

nH . knH 2+ = ( k

nH 1+ )2 .

Dans la ligne kH0 , kH1 , kH2 , kH3 , … chaque terme a pour carré le produit de ses deux voisins.

b) Montrons que (∀n ∈ N) knH ≠ 0 .

Comme ∃n0 ∈ N* kn

H0 ≠ 0 , ( k

nH

0)2 = k

nH

10− . kn

H10+ est non nul donc k

nH

10− et kn

H10+ sont non nuls.

De proche en proche vers la droite et vers la gauche (donc par récurrence), on en déduit qu’aucun terme de la suite kH0 , kH1 , kH2 , kH3 , … n’est nul .

c) Montrons qu’il existe un unique k-uplet (a0, a1, …, ak−1) tel que :

a0.u0 + a1.u1 + … + ak−1.uk−1 = uk

a0.u1 + a1.u2 + … + ak−1.uk = uk+1

. . . . . . . . . . . . . .

a0.uk−1 + a1.uk + … + ak−1.u2k−2 = u2k−1

C’est en effet un système de Cramer, car kH0 ≠ 0.

d) Montrons que (un) vérifie (R) : (∀n ∈ N) un+k = ak−1.un+k−1 + ... + a0.un.

Cette relation est vraie pour n = 0, 1, …, k – 1. Montrons qu’elle est vraie au rang k :

0 = 10

+kH = det

−+

−−−

++

+

kkkk

kkkk

kk

kk

kk

uuuuuuuu

uuuuuuuuuuuu

2121

12221

2132

121

110

...

..................

...

...

...

= det

−+

−−

+

kkkk

kkk

k

k

k

Suuuuuu

uuuuuuuuu

121

221

132

21

110

...0..................0...0...0...

= Sk. kH0

où Sk = u2k – a0.uk − … − ak−1.u2k−1 , en faisant ck+1 → ck+1 – a0.c1 − … − ak−1.ck .

Comme kH0 ≠ 0, Sk = 0, donc u2k = a0.uk + … + ak−1.u2k−1 . Supposons la relation vraie pour p = 0, 1, …, n – 1. Montrons qu’elle est vraie au rang n :

0 = 1+−

kknH = det

+−++

−+−+−

++

++−+−

−+−−

knknnn

knknnn

nn

nnknkn

nnknkn

uuuuuuuu

uuuuuuuuuuuu

11

121

2132

121

11

...

..................

...

...

...

= det

−++

−+−

++−+−

+−−−

−−−−

kknnn

knnn

nknkn

nknkn

nknkn

Tuuuuuu

uuuuuuuuu

11

21

132

21

11

...0..................0...0...0...

= Tk. kknH −

Page 110: Problèmes d’algèbre linéaire

110

où Tk = un+k – a0.un − … − ak−1.un+k−1 , en faisant derechef ck+1 → ck+1 – a0.c1 − … − ak−1.ck .

Comme kknH − ≠ 0, Tk = 0, donc un+k = a0.un + … + ak−1.un+k−1 .

5) Exemple : [ Ecrit Centrale 1980 ]

Cherchons la suite (un) vérifiant (∀n) 432

321

21

+++

+++

++

nnn

nnn

nnn

uuuuuuuuu

= 0 , u0 = 2, u1 = 1, u2 = 3, u3 = 4.

Ici 3nH = 0 pour tout n, 20H = 5, 2

1H = − 5 ≠ 0. En vertu du résultat précédent, la suite (un) est

récurrente linéaire d’ordre 2 un+2 = aun+1 + bun. On trouve aisément a = b = 1.

Finalement, la suite (un) est la suite de Lucas, sœur jumelle de la suite de Fibonacci :

un = ωn + ϖn

, où ω est le nombre d’or, ϖ son conjugué.

Troisième partie : série entières formelles.

1) Voir mon cours (hors programme) sur les séries entières formelles.

La famille ( 1, X, X2, … ) n’est pas une base de E = C[[X]] ; c’est une base de C[X].

2) Soit A = ∑+∞

=0n

nnXa une série formelle telle que a0 ≠ 0. Montrer qu’il existe une série formelle B =

∑+∞

=0n

nnXb telle que A.B = 1, autrement dit que A est inversible dans C[[X]].

Cela conduit à résoudre le système linéaire infini : a0.b0 = 1 a0.b1 + a1.b0 = 0 . . . . . . . . . . . . . . . a0.bn + ... + an.b0 = 0

Ce système permet de déterminer les an par récurrence : b0 = 1/a0 , b1 = − a1b0/a0 et si b0 , ..., bn−1

sont connus, bn = −0

1a

(a1.bn−1 + ... + an.b0).

Réciproquement, si A = ∑+∞

=0

.n

nn Xa est inversible d’inverse B, on a a0.b0 = 1, donc a0 ≠ 0.

Conclusion : Les inversibles de C[[X]] sont les ∑+∞

=0

.n

nn Xa telles que a0 ≠ 0, i.e. de valuation nulle.

Les formules de Cramer appliquées au système précédent impliquent aisément :

∀n ≥ 1 bn = 1

0)()1(+

−n

n

a

121

0

123

012

01

...

............0.........0...0

aaaaa

aaaaaa

aa

nnn −−

.

3) Exemples :

a) Il est facile de vérifier par produit de Cauchy que X−1

1 = ∑+∞

=0n

nX , Xa.1

1− = ∑

≥0n

nnXa ,

et que ²1 XX

X−− = ∑

+∞

=0n

nn Xf , où (fn) est la suite de Fibonacci, f0 = 0 , f1 = 1 , fn+2 = fn+1 + fn .

b) Pour tout n ∈ N, soit an le nombre de triplets (x, y, z) ∈ N×N×N tels que x + 2y + 3z = n .

Plaçons-nous dans C[[X]]. Je dis que )1²)(1)(1(

13XXX −−− = ∑

+∞

=0

.n

nn Xa .

Page 111: Problèmes d’algèbre linéaire

111

Cela se montre par produit de Cauchy de séries entières :

)1²)(1)(1(

13XXX −−− = (∑

+∞

=0a

aX )(∑+∞

=0

2

b

bX )(∑+∞

=0

3

b

cX ) = ∑∑∑+∞

=

+∞

=

+++∞

=0 0

32

0a b

cba

c

X = ∑+∞

=0n

nnXa .

Il reste à décomposer ces fractions en éléments simples, et à développer en série entière chaque élément simple. On trouve :

)1²)(1)(1(1

3XXX −−− = )²1)(1)(1()1(

13 XjjXXX −−+−

= 7217

X−11 +

41

)²1(1X− +

61

3)1(1X− +

81

X+11 +

91

jX−11 +

91

Xj²11

= 7217 ∑

+∞

=0n

nX +41 ∑

+∞

=+

0

)1(n

nXn +121 ∑

+∞

=++

0

)1)(2(n

nXnn + 81 ∑

+∞

=−

0

)1(n

nnX + 91 ∑

+∞

=0n

nnXj + 91 ∑

+∞

=0

2

n

nnXj .

En effet, )²1(

1X− = D(

X−11 ) et 3)1(

2X− = D

2(X−1

1 ) , où D est l’opérateur de dérivation.

Du coup, an = 7217 +

41+n +

12)1)(2( ++ nn

+ 8

)1( n− +

92 cos(

32 nπ ).

an = 12

)²3( +n −

727 +

8)1( n−

+ 92 cos(

32 nπ ).

Au fond an = 12

)²3( +n + P(n), où P(n) est une suite de période 6, facile à calculer.

Remarque : an est l’entier le plus proche de 12

)²3( +n, mais aussi de

12)5)(1( ++ nn

.

Quatrième partie : Caractérisation des fractions rationnelles.

(rédaction inachevée) Cherchons à caractériser les séries formelles qui sont des fractions, autrement dit C[[X]] ∩ C(X).

Soit A = ∑+∞

=0

.n

nn Xu une série formelle non nulle. Montrons l’équivalence des propriétés suivantes :

i) Il existe deux polynômes P et Q ∈ C[X], tels que Q ≠ 0 et A.Q = P ;

ii) Il existe une suite finie (b0, b1, …, bq) ∈ Cq+1

et un entier d ≥ q tels que bq ≠ 0 et

(∀n ≥ d) b0.un + b1.un−1 + … + bq.un−q = 0 .

iii) (∃k ≥ 0) (∃ m ≥ 0) 1+kmH = 1

1++

kmH = 1

2++

kmH = … = 0 .

i) ⇒ ii)

ii) ⇒ i)

ii) ⇒ iii)

iii) ⇒ i) Supposons iii) remplie, et notons k le plus petit entier vérifiant cette condition.

Etablir que (∃n0 ≥ m+1) kn

H0 ≠ 0 , et en déduire que la suite (un) est récurrente linéaire d’ordre k à

partir d’un certain rang.

4) Application :

Il découle de ce qui précède que, pour tout P ∈ C[X], ∑+∞

=0

).(n

nXnP est une fraction rationnelle.

Pour calculer cette fraction, commençons par calculer les dérivées de X−1

1 = ∑+∞

=0n

nX ,

Page 112: Problèmes d’algèbre linéaire

112

)²1(1X− = ∑

+∞

=+

0

)1(n

nXn , 3)1(2X− = ∑

+∞

=++

0

)1)(2(n

nXnn ,…, 1)1(!

+− kXk = ∑

+∞

=++

0

)1)...((n

nXnkn ,

P(n) étant combinaison linéaire de 1, n + 1, (n+2)(n+1), … , (n+k)…(n+1), … en vertu du critère des

degrés échelonnés, ∑+∞

=0

).(n

nXnP sera combinaison linéaire de X−1

1 , 3)1(2X− , …, 1)1(

!+− kX

k .

C’est une fraction ayant 1 comme unique pôle.

Références : Bourbaki, A IV ex. 1 p. 85 Polya-Szegö, t. 2, p. 96-98 Chambadal-Ovaert, Alg. 2, n° 74 p. 121 Centrale 1980, ENSAE 1980, Mines-Monts M 1983, Mines PSI 2010 __________

Problème 29 : déterminants de Casorati ___________ Problème 30 : équations fonctionnelles Soient E = F(R, R), P le sous-espace vectoriel de E formé des fonctions 1-périodiques, A le sous-espace vectoriel des fonctions 1-antipériodiques, T et ∆ les opérateurs de E définis resp. par :

(T f)(x) = f(x + 1) et (∆ f)(x) = f(x + 1) − f(x).

1) Montrer que ∀(f, g) ∈ E×E ∆(f + g) = ∆(f) + ∆(g) et ∀(p, f) ∈ P×E ∆(p.f) = p.∆(f).

2) On note N0(x) = 1, Nk(x) = !

)1)...(1(k

kxxx +−− pour k ≥ 1. Calculer ∆Nk.

3) Montrer que Ker ∆n+1 est l’ensemble des fonctions de la forme :

f(x) = p0(x) + x p1(x) + … + xn

pn(x) , où p0, p1, …, pn sont éléments de P.

4) Trouver toutes les fonctions f : R → R vérifiant : (∀x) f(x + 2) − 2f(x + 1) + f(x) = x2

.

5) a) Soit f ∈ E vérifiant : (∀x) f(x + 2) + f(x + 1) − 2.f(x) = 0 .

Montrer que (∀x) 512 f(x) = 341 f(x + 9) + 171 (x + 10) .

b) Comparer f ∈ E ; (∀x) f(x + 2) = f(x) à P ⊕ A.

c) Trouver toutes les fonctions f ∈ E vérifiant resp. :

(∀x) f(x + 2) − f(x + 1) − f(x) = 0 .

(∀x) f(x + 3) − 6.f(x + 2) + 11.f(x + 1) − 6.f(x) = 0 .

(∀x) f(x + 3) + 6 f(x + 2) + 11 f(x + 1) + 6 f(x) = 0 .

d) Montrer que f ∈ E est 2-antipériodique ssi elle s’écrit :

f(x) = cos2xπ .a(x) + sin

2xπ .b(x) , où (a, b) ∈ A×A.

e) Trouver de même les f ∈ E telles que (∀x) f(x + 2) + f(x + 1) + f(x) = 0 .

6) Trouver les f ∈ E telles que (∀x) f(x + 13) − f(x + 7) − f(x + 6) + f(x) = 0 .

Montrer que celles d’entre elles qui sont bornées sont périodiques.

7) Soient a et b deux réels > 0, f une fonction bornée de R dans R telle que :

∀x ∈ R f(x + a + b) + f(x) = f(x + a) + f(x + b) . Montrer que f est à la fois a et b périodique.

8) Reprendre les questions précédentes en supposant les fonctions continues.

Page 113: Problèmes d’algèbre linéaire

113

__________

Solution : équations fonctionnelles de translation 0) P = Ker( T − I ) et A = Ker( T + I ) sont deux sous-espaces vectoriels de E, tous deux isomorphes à FFFF([0, 1[, R), puisque toute fonction ϕ : [0, 1[ → R peut être prolongée d’une seule manière en une fonction p 1-périodique, resp. a 1-antipériodique…

1) P est aussi un sous-anneau de E. Les formules demandées sont immédiates. Elles signifient que E est un P-module pour l’addition (f, g) → f + g et la loi externe (p, f) → p.f, et que T et ∆ sont des endomorphismes de ce P-module. Dans ce problème, les fonctions 1-périodiques jouent en effet le rôle de scalaires.

2) Polynômes de Newton. On vérifie aisément que ∆N0 = 0 et ∆Nk = Nk−1 pour k ≥ 1.

3) Noyau de ∆ et de ses itérés.

Il est clair que Ker ∆ = P. Si p ∈ P, on vérifie que x.p(x) est solution de f(x + 1) − f(x) = p(x). On en

déduit que Ker ∆2 = x.p(x) + q(x) ; (p, q) ∈ P×P . Montrons par récurrence sur n que :

Ker ∆n = f(x) = ∑

=

1

0

)().(n

kkk xNxp , où p0, p1, …, pn−1 sont 1-périodiques .

Supposons l’égalité vraie au rang n, et montrons-la au rang n + 1.

• Si f = ∑=

n

kkk Np

0

. , où p0, p1, …, pn ∈ P , alors ∆f = ∑=

n

kkk Np

11. , donc (∆n

o ∆)(f) = 0 et ∆n+1 f = 0.

• Si ∆n+1 f = 0, alors (∆n

o ∆)(f) = 0 , donc ∆(f) = ∑−

=

1

0

.n

kkk Nq = ∆(∑

=+

1

01.

n

kkk Nq ), où q0, q1, …, qn−1 ∈ P.

On en déduit que f − ∑−

=+

1

01.

n

kkk Nq ∈ P . cqfd. On conclut par changement de base.

Au fond, Ker ∆n est le sous P-module de E ayant pour P-base les polynômes de Newton N0, N1, …,

Nn−1, ou encore les monômes 1, x, …, xn−1

.

Cette famille est en effet P-génératrice et P-libre, car supposons∑=

n

k

kk xxp

0

)( = 0 pour tout x.

Fixons x. On a ∑=

+n

k

kk mxxp

0

))(( = 0 pour tout m ∈ Z. Or les fonctions m → pk(x).(x + m)k forment

une famille libre, en raison de leurs comportements distincts en +∞. Donc pk(x) = 0 pour tout k et tout x.

4) L’équation fonctionnelle proposée s’écrit : ∆2 f = x

2 = 2N2 + N1 = ∆2

(2N4 + N3).

On déduit de ce qui précède que f = 2.N4 + N3 + p.N1 + q.N0 , où p et q ∈ P.

5) a) Il s’agit de montrer que Ker( T2 + T − 2.I ) ⊂ Ker( 171.T

10 + 341.T

9 – 512.I ).

Cela découle de ce que P = X2 + X − 2 divise Q = 171.X

10 + 341.X

9 – 512.

N.-B. : Il n’est pas nécessaire ici d’utiliser le théorème des noyaux, qui affirme que :

Ker( T2 + T − 2.I ) = f(x) = p(x) + 2x.a(x) ; p ∈ P , a ∈ A (cf. ci-après).

b) Le théorème des noyaux donne aussitôt Ker( T2 − I ) = Ker( T − I ) ⊕ Ker( T + I ) = P ⊕ A.

A noter que c’est aussi un sous-anneau de E.

c) Nous aurons besoin du :

Lemme : Si α > 0 , Ker( T − α.I ) = αx.p(x) ; p ∈ P et Ker(T + α.I) = αx

.a(x) ; a ∈ A .

Preuve : Posons f(x) = αx.g(x). On a f(x+1) ± α.f(x) = αx+1

(g(x+1) ± g(x)), et l’on conclut aussitôt.

Page 114: Problèmes d’algèbre linéaire

114

La 1ère équation s’écrit P(T)(f) = 0, où P(X) = (X − ω)(X − ϖ) , avec ω = 2

51+ , ϖ = 2

51− .

Le théorème des noyaux s’écrit Ker P(T) = Ker(T − ω.I) ⊕ Ker(T − ϖ.I).

Donc f(x) = ωx.p(x) + (−ϖ)

x.a(x) = ωx

.p(x) + (ω − 1)x.a(x) , où (p, a) ∈ P×A.

La 2ème équation s’écrit Q(T)(f) = 0, où Q(X) = (X − 1)(X − 2)(X − 3). Le théorème des noyaux donne Ker Q(T) = Ker(T − I) ⊕ Ker(T − 2I) ⊕ Ker(T − 3I).

Donc : f(x) = p(x) + 2x.q(x) + 3

x.r(x) , où (p, q, r)∈P×P×P .

La 3ème équation s’écrit R(T)(f) = 0, où R(X) = (X + 1)(X + 2)(X + 3). Le théorème des noyaux donne Ker R(T) = Ker(T + I) ⊕ Ker(T + 2I) ⊕ Ker(T + 3I).

Donc : f(x) = a(x) + 2x.b(x) + 3

x.c(x) , où (a, b, c)∈A×A×A .

d) Si f(x) = cos2xπ .a(x) + sin

2xπ .b(x) , où (a, b) ∈ A×A, alors :

f(x + 1) = sin2xπ .a(x) − cos

2xπ .b(x) et

f(x + 2) = − cos2xπ .a(x) − sin

2xπ .b(x) = − f(x) : f est 2-antipériodique.

Réciproquement, soit f 2-antipériodique. Définissons a et b par :

a(x) = cos2xπ .f(x) + sin

2xπ .f(x + 1) et b(x) = sin

2xπ .f(x) − cos

2xπ .f(x + 1).

On vérifie que a et b sont 1-antipériodiques, et que f(x) = cos2xπ .a(x) + sin

2xπ .b(x). cqfd.

Remarque : Heuristiquement Ker( T2 + I ) = Ker( T – iI ) ⊕ Ker( T + iI )…

e) De même f ∈ E est telle que (∀x) f(x + 2) + f(x + 1) + f(x) = 0 si et seulement si f s’écrit :

f(x) = cos3

2 xπ .a(x) + sin3

2 xπ .b(x) , où (a, b) ∈ A×A.

6) Nous cherchons ici Ker P(T), où P(X) = X13

− X7 − X

6 + 1 = ( X

6 − 1 )( X

7 − 1 ). Il vient :

P(X) = ( X − 1 )2( X + 1 )( X

2 + X + 1 )( X

2 − X + 1 )

( X2 − 2cos

72π X + 1 )( X

2 − 2cos

74π X + 1 )( X

2 − 2cos

76π X + 1 ).

Le théorème des noyaux donne ici, en généralisant 5.d) :

f(x) = xp(x) + q(x) + a(x) + cos3

2 xπ .b(x) + sin3

2 xπ .c(x) + cos3xπ .r(x) + sin

3xπ .s(x)

+ cos7

2 xπ .t(x) + sin7

2 xπ .u(x) + cos7

4 xπ .v(x) + sin7

4 xπ .w(x) + cos7

6 xπ .ϕ(x) + sin7

6 xπ .ψ(x),

où p et q sont 1-périodiques, a, b, c, r, s, t, u, v, w, ϕ et ψ sont 1-antipériodiques.

L’opérateur T laissant stable le sous-espace B de E formé des fonctions bornées, le théorème des

noyaux s’applique à TB. Du coup, f est bornée ssi p est nulle et q, a, b, c, r, s, t, u, v, w, ϕ et ψ sont toutes bornées. f est alors de période 42.

7) Si les fonctions cherchées sont continues (resp. dérivables, resp. C∞

), toutes les fonctions intro-duites doivent l’être, car les opérateurs préservent ces propriétés.

Remarque : Si l’on se place dans FFFF(R, C), le problème se présente sous un autre jour, qui l’éclaire… • Si λ = 0, Ker(T − λI) = Ker T = 0 ;

• Si λ ≠ 0, posons λ = r.eiθ

(r > 0). Alors Ker(T − λI) = rx.e

iθx.p(x) ; p est 1-périodique R → C .

Si λ est réel, on peut alors chercher, parmi elles, les fonctions à valeurs réelles, et retrouver ainsi les résultats précédents.

C’est en ce sens que l’on peut dire que la fonction x → (−1)x, qui n’existe pas, existe cependant,

sous la forme x → eiπx

.

Page 115: Problèmes d’algèbre linéaire

115

Sources : Oral X PC 1986. Exercice proposé aux Olympiades de mathématiques 1996. RMS oct. 2007, p. 125, ex posé aux candidats sénégalais à l’entrée en MPSI à Louis-le-Grand. ____________

Problème 31 : Théorème des drapeaux

Soient K un corps commutatif, V un K -espace vectoriel de dim n ≥ 1, Gl(V) le groupe linéaire de V.

Un drapeau de V est une suite d = (V0, V1, … , Vn) de sous-espaces vectoriels tels que :

V0 ⊂ V1 ⊂ … ⊂ Vn et (∀k) dim Vk = k . En particulier V0 = 0 et Vn = V .

On introduit les groupes matriciels suivants :

• Gln(K ) groupe multiplicatif des matrices M ∈ Mn(K ) inversibles ;

• Tn(K ) sous-groupe des matrices inversibles et trigonales supérieures ;

• Un(K ) sous-groupe des matrices A ∈ Tn(K ) unipotentnes (i.e. la diagonale n’a que des 1) ;

• Dn(K ) sous-groupe de Tn(K ) des matrices diagonales et inversibles ;

• Pn(K ) sous-groupe de Gln(K ) des matrices de permutation.

1) Si d = (V0, V1, … , Vn) est un drapeau de V et u ∈ Gl(V), on note u(d) = (u(V0), u(V1), … ,

u(Vn)).

a) Montrer que l’on définit une action du groupe Gl(V) sur l’ensemble DDDD des drapeaux de V.

b) Montrer que cette action est transitive, i.e. n’a qu’une seule orbite.

c) A quel groupe matriciel est isomorphe le groupe fixateur du drapeau d ?

d) Application : Si K est un corps fini à q éléments, dénombrer les drapeaux de V.

2) Soient d = (V0, V1, … , Vn) et d’ = (V’0, V’1, … , V’n) deux drapeaux de V.

Pour (i, j) ∈ 0, 1, …, n2, on pose Aij = V’ i + Vj ,

Pour i = 1, 2, …, n, on note sd,d’(i) le plus petit entier j tel que Aij = Ai−1,j.

a) Si j = sd,d’(i), établir successivement les résultats suivants :

♣ (∀k ≥ j) Ai,k = Ai−1,k

♦ V’ i ⊂ V’ i−1 + Vj et V’i ⊄ V’ i−1 + Vj−1

♥ ∃ z ∈ (V’ i − V’ i−1) ∩ (Vj − Vj−1) ( A−B est la différence ensembliste de A et B )

♠ Ai−1,j−1 ⊂ Ai,j−1 = Ai−1,j = Ai,j , l’inclusion étant stricte.

b) Montrer que sd,d’ est une permutation de 1, 2, …, n (Michel Demazure).

3) On dit qu’une base BBBB de V est adaptée au drapeau d si chacun des sous-espaces Vk est engen-dré par une partie de BBBB. Démontrer qu’il existe une base de V adaptée à la fois aux drapeaux d et d’. ____________

Page 116: Problèmes d’algèbre linéaire

116

Problème 32 : matrices 2××××2

Soient A =

dcba ∈ M2(K ), DA l’endomorphisme de M2(K ) défini par : DA(M) = A.M − M.A.

1) a) Vérifier que A2 – tr(A).A + (det A).I2 = 0.

b) En déduire que Vect( I2, A) est une sous-algèbre commutative de M2(K ) ; on la note K [A].

c) Soit M ∈ K [A] inversible ; montrer que M−1

∈ K [A].

2) a) Ecrire la matrice de DA relativement à la base BBBB = ( E11, E12, E21, E22 ) de M2(K ).

b) Quelle est sa trace ? son déterminant ?

c) Montrer que Ker DA est une sous-algèbre de M2(K ).

d) Montrer que, soit Ker DA = M2(K ), soit Ker DA = K [A].

3) a) Montrer que A est semblable à l’une, et à une seule, des matrices

αα0

0 et

td

10 .

b) Montrer que si A et B sont semblables, DA et DB sont semblables

4) Soit A ∈ Gl2(C). On cherche à résoudre l’équation M2 = A.

Après avoir noté que M ∈ Ker DA , et en utilisant ce qui précède, montrer l’existence de M. Plus

généralement, à quelle condition portant sur A ∈ M2(C) l’équation M2 = A a-t-elle une solution ?

__________ Solution

1) a) Vérifions avec Maple que A2 – tr(A).A + (det A).I2 = 0.

> with(linalg): > A:=matrix(2,2,[a,b,c,d]);P:=x^2-trace(A)*x+det(A); simplify(evalm(subs(x=A,P)));

:= A

a b

c d

:= P − + − x2 ( ) + a d x a d b c

0 0

0 0

C’est un cas particulier du théorème de Hamilton-Cayley.

b) K [A] = Vect( I2, A) est une sous-algèbre commutative de M2(K ). En effet, Vect( I2, A) est un

sous-espace vectoriel contenant I2 et stable par multiplication, par bilinéarité : X I A I I A A A Tr(A) – det(A).I

c) Soit M ∈ K [A]. Si M est inversible, M−1

∈ K [A].

En effet, M2 – tr(M).M + (det M).I2 = 0, donc si det M ≠ 0 , M

−1 =

MMIMtr

det).( −

∈ K [A].

Conséquence : Si M = λI + µA, det M = q(λ, µ) = λ2 + λµ.(tr A) + µ2

.det A est une forme quadratique sur K×K . Pour que K [A] soit un corps il faut et il suffit que cette forme quadratique soit « définie », ou « anisotrope », en ce sens que q(λ, µ) = 0 ⇔ λ = µ = 0.

2) L’opérateur de dérivation DA.

Page 117: Problèmes d’algèbre linéaire

117

DA est un endomorphisme de M2(K ) vérifiant DA(M.N) = DA(M).N + M.DA(M)

a) Si M =

tzyx , DA(M) = A.M − M.A =

TZYX =

−−−++−+−+−

bzcyctzadcxbtydabxbzcy

)()( .

Cela s’écrit

TZYX

=

−−−

−−−

000

000

bccadc

bdabbc

tzyx

.

Conclusion : La matrice de DA est

−−−

−−−

000

000

bccadc

bdabbc

.

b) La trace de cette matrice est nulle, ainsi que son déterminant (deux colonnes opposées).

c) C(A) = Ker DA = M ; A.M = M.A , commutant de A, est une sous-algèbre de M2(K ).

En effet, I2 commute avec A. Si M et M’ commutent avec A, λ.M + M’ et M.M’ commutent avec A.

Il est clair que C(A) contient K [A], qui est de dimension 1 ou 2. On retrouve det DA = 0.

d) On a aussitôt A est scalaire ⇔ ( a = d et b = c = 0 ) ⇔ DA = O.

Autrement dit, le centre de M2(K ) est formé des matrices scalaires : c’est un résultat général.

Si A n’est pas scalaire, je dis que Ker DA = K [A].

En effet,

−−−

−−−

000

000

bccadc

bdabbc

est équivalente à

−−−−

0000000000

adcdab

bc

.

Cette matrice a même rang que la sous-matrice

−−−−

adcdab

bc

00

0, qui est de déterminant nul.

Donc le rang de DA est toujours ≤ 2.

A non scalaire ⇔ non (a = d et b = c = 0) ⇔ (a ≠ d ou b ≠ 0 ou c ≠ 0) ⇔ rg

−−−−

adcdab

bc

00

0= 2.

Alors Ker DA = K [A] par inclusion et égalité des dimensions.

3) a) Montrons que A est semblable à l’une, et à une seule, des matrices

αα0

0 et

td

10 .

Confondons la matrice A avec l’endomorphisme canoniquement associé. En effet, soit A est scalaire, i.e. est une homothétie. Soit A n’est pas une homothétie. D’après un résultat connu, cela signifie qu’il existe un vecteur u tel que (u, v = Au) est libre.

(u, v) est alors une base de K2 et la matrice de l’endomorphisme associé à A est alors de la forme

F =

td

10 . Autrement dit A est semblable à F.

Conclusion : Dans M2(K ), toute matrice est soit scalaire, soit monogène.

Enfin, un argument de trace et de déterminant montre que deux matrices de la forme

td

10 sont

semblables ssi elles sont égales.

Conséquence : si K est un corps fini à q éléments, M2(K ) a q4 éléments, répartis en q + q

2 classes de

similitude, q d’entre elles étant réduites à un singleton (les autres ont combien d’éléments ?).

b) Si A et B sont semblables, DA et DB sont semblables. En effet, B = P−1

.A.P,

Page 118: Problèmes d’algèbre linéaire

118

DB(M) = B.M − M.B = P−1

.A.P.M – M.P−1

.A.P

= P−1

.(A.P.M.P−1

– P.M.P−1

.A).P = P−1

.DA(P.M.P−1

).P .

Autrement dit, si l’on note Φ : M → P−1

.M.P, qui est un isomorphisme d’espace vectoriel, et même

d’algèbre, de M2(K ), on a Φ o DA = DB o Φ.

4) L’application M →→→→ M2 est surjective de Gl2(C) dans Gl2(C). [ Oral ENS ]

1er cas : A =

αα0

0 , où α ∈ C*. Alors il existe δ tel que δ2 = α et M =

δδ0

0 répond à la question.

2ème cas : A =

td

10 , où d est non nul. Si M

2 = A, M commute à A donc, en vertu des questions

précédentes, est de la forme xI + yA. D’où : M2 = x

2.I + 2xyA + y

2 ( t.A – d.I ).

Comme (I, A) est libre, M2 = A ⇔ x

2 – dy

2 = 0 et t.y

2 + 2xy = 1.

Il existe δ tel que δ2 = d, donc x = ± δy, et l’on reporte dans la 2ème équation. Il vient ( t ± 2δ) y

2 =

1. Comme δ est non nul, l’un au moins des deux complexes t ± 2δ est non nul. On peut alors trouver y, puis x. Il reste à conclure à similitude près. Remarques : 1) On peut même discuter le nombre de solutions : 0, 2, 4 ou une infinité.

2) Lorsque A n’est plus inversible, on montrera que M2 = A n’a pas de solution lorsque d = t = 0,

seule classe de similitude à enlever. 3) Tout ceci peut être retrouvé autrement dans le chapitre sur la réduction.

__________

Problème 33 : Réduction des matrices de rang 1 1) Soit J ∈ Mn(R) la matrice carrée dont tous les éléments sont égaux à 1. Montrer que J est diagonalisable. La diagonaliser.

2) Soit A ∈ Mn(K ). Montrer que A est de rang 1 si et seulement s’il existe des matrices-colonnes

X =

nx

x...

1 et Y =

ny

y...

1 non nulles et telles que A = X.tY ; le couple (X, Y) est-il unique ?

Exprimer A2 à l’aide de A et de sa trace.

Indiquer une cns portant sur tr A pour que A soit diagonalisable.

3) Soient A et B dans Mn(R) telles que rg(AB – BA) = 1. Calculer (AB – BA)2.

4) La matrice A = (ai,j) ∈ Mn(R) est dite équitable si ∀(i, j, k) ai,j > 0 et ai,j aj,k = ai,k .

a) Calculer ai,i ; exprimer ai,j à l’aide de ai,1 et de aj,1.

b) Montrer que A est de rang 1, et que A2 = n.A.

c) Montrer que toutes les matrices équitables sont semblables à la matrice J définie en 1), ainsi qu’à la matrice diag(n, 0, …, 0).

5) Réduire la matrice A = (ai,j) ∈ Mn(R), où ai,j = 1 si 1 ≤ i ≤ q et 1 ≤ j ≤ p , ai,j = 0 sinon. __________ Solution :

1) J est symétrique réelle, donc diagonalisable dans une base orthonormée de Rn.

Le mieux est de chercher ses éléments propres (λ, X).

Page 119: Problèmes d’algèbre linéaire

119

x1 + x2 + … + xn = λx1 = λx2 = … = λxn .

λ = 0 donne l’hyperplan x1 + x2 + … + xn = 0 ;

λ ≠ 0 donne la droite R (1, 1, …, 1), et λ = n. J est orthogonalement semblable à la matrice diag(n, 0, …, 0).

2) La première affirmation a déjà été établie dans un exercice antérieur.

A2 = (X.tY).(X.tY) = X.(tY.X).tY = (tY.X).(X. tY) = (∑ ii yx ) A = (tr A).A.

Si tr A = 0, A est nilpotente et non nulle, donc n’est pas diagonalisable. Si tr A ≠ 0, A annule le polynôme scindé sans facteurs carrés X.(X − tr A), donc est diagonalisable. Ses valeurs propres sont 0 et tr A.

Ker(A) est l’hyperplan d’équation tY.Z = 0 , y1.z1 + … + yn.zn = 0. Ker(A – tr A.I) est la droite K .X.

3) [ Oral Mines PC 2010, RMS n° 606 ].

La matrice C = AB – BA étant de rg 1 vérifie C2 = (tr C).C. Comme elle est de trace nulle, C

2 = O.

4) Matrices équitables.

(ai,i)2 = ai,i , donc ai,i = 0 ou 1, mais les ai,j sont > 0, donc ai,i = 1. Du coup ai,j = 1/aj,i .

Si n = 2, A =

1/11b

b , si n = 3, A =

1//1/1/1

1

cbcbcb

cb.

Dans le cas général, notons bk = a1k pour 2 ≤ k ≤ n. Alors aij = ai1.a1j = i

j

bb

.

Donc A =

nb

b

/1.../11

2 [1 , b2 , … , bn ] est de rang 1 et de trace n. Le reste s’ensuit.

5) Ici A = X.tY , où X = t(1, …, 1, 0, …, 0) (1 q fois) et Y =

t(1, …, 1, 0, …, 0) (1 p fois).

tr A = min(p, q) …

Référence : H. Eves, Elementary matrix theory, Dover, p. 274. ___________

Problème 34 : Réduction de matrices de petit rang 1) Soient E un espace vectoriel de dimension n sur le corps K , u un endomorphisme de E. Montrer l’équivalence des deux propriétés : i) u est diagonalisable ;

ii) E = Im u ⊕ Ker u, et l’endomorphisme induit v = uImu est diagonalisable.

2) Matrices de rang 1.

Soit A ∈ Mn(K ). Montrer que A est de rang 1 si et seulement s’il existe des matrices-colonnes

X =

nx

x...

1 et Y =

ny

y...

1 non nulles et telles que A = X.tY ; le couple (X, Y) est-il unique ?

Indiquer une cns portant sur tr A pour que A soit diagonalisable.

3) On considère les trois matrices suivantes de M7(R) :

Page 120: Problèmes d’algèbre linéaire

120

F =

0000001000000100000011111111000000100000011111111

, C =

0001100001001000000010000001000000100100100001100

, S =

1111111100000010000001111111000000100000011111111

Sont-elles diagonalisables ? Si oui, quels sont leurs polynômes caractéristiques et minimaux ? On pourra utiliser la question 1). Cette méthode n’est pas imposée.

4) Soient E un espace vectoriel de dimension n sur le corps K , u un endomorphisme de E. Montrer l’équivalence des cinq propriétés : i) Im u ∩ Ker u = 0 ; ii) E = Im u ⊕ Ker u ;

iii) Il existe une base BBBB de E telle que Mat(u, BBBB) =

OOOR , où R ∈ Glr(K ) , 0 ≤ r ≤ n ;

iv) Le polynôme minimal de u n’est pas divisible par X2 ;

v) u ∈ Vect( u2

, u3

, … ) . ___________ Solution Cet exercice donne un critère utile de diagonalisation des matrices de petit rang. Les questions 2) et 3) peuvent être traitées directement, par recherche des éléments propres, mais sont traitées ici dans l’esprit du problème. La question 4) donne des critères de pseudo-inversiblité.

1) Un critère simple de diagonalisabilité. Soient E un espace vectoriel de dimension n sur le corps K , u un endomorphisme de E. Montrons l’équivalence : i) u est diagonalisable ;

ii) E = Im u ⊕ Ker u, et l’endomorphisme induit v = uImu est diagonalisable.

Notons que Im u est toujours un sous-espace u-stable, de sorte que v est bien défini.

i) ⇒ ii). Distinguons deux cas : si u est inversible, il n’y a rien à montrer, car Im u = E, et v = u.

Sinon, λ1 = 0 est valeur propre de u. Le polynôme minimal de u est de la forme P(X) = X.Q(X), avec Q(X) scindé à racines simples ≠ 0. Le théorème des noyaux dit que E = Ker u ⊕ Ker Q(u). Je dis que Im u = Ker Q(u). En effet, P(u) = Q(u).u = 0 ⇒ Im u ⊂ Ker Q(u).

Bezout s’écrit ∃(A, B) 1 = A.X + Q.B, donc idE = u.A(u) + B(u).Q(u). Alors x ∈ Ker Q(u) ⇒ x = [u.A(u)](x) ⇒ x ∈ Im u. Par conséquent, E = Ker u ⊕ Im u. Enfin, Im u = Ker Q(u) , donc Q(v) = 0 ; v annule un polynôme scindé sans carrés, donc est diagonalisable. Du reste, Ker Q(u) est la somme directe des espaces propres associés à valeurs propres non nulles. NB : On peut donner une preuve bien plus élémentaire de tout cela, en prenant une base propre.

ii) ⇒ i) Si BBBB’ est une base de Ker u et BBBB’’ une base de Im u formée de vecteurs propres de v, alors BBBB = BBBB’ ∪ BBBB’’ est une base propre de u. Plus généralement, si F et G sont deux supplémentaires u-

stables, tels que uF et uG soient diagonalisables, alors u est diagonalisable.

2) Matrices de rang 1. a) Caractérisation. Soit A ∈ Mn(K ) de rang 1. Im A est une droite : Im A = K .X, X ≠ 0.

La j-ème colonne de A s’écrit yj.X, donc A = X.tY ; Y ≠ 0, car une des colonnes de A est non nulle. Réciproquement, si A = X.tY, X et Y non nuls, toutes les colonnes de A sont sur la droite KX, donc rg A ≤ 1, et rgA = 1, car A est non nulle.

Page 121: Problèmes d’algèbre linéaire

121

Le couple (X, Y) n’est pas unique, et peut être remplacé par (λX, λ−1Y), λ ≠ 0.

b) CNS de diagonalisabilité.

Im A est la droite K .X , Ker A est l’hyperplan Z ∈ Kn ;

tY.Z = 0 .

Kn = Im A ⊕ Ker A ssi X ∉ Ker A, i.e. ssi

tY.X ≠ 0. Or

tY.X = tr A.

La condition AImA diagonalisable est automatiquement remplie car Im A est une droite A-stable.

Conclusion : Une matrice A de rang 1 est diagonalisable ssi sa trace est non nulle.

Remarque : une autre méthode consiste à noter que A2

= (X.tY).(X.tY) = X.(tY.X).tY = tr(A).A. Si tr A ≠ 0, A annule un polynôme scindé sans carrés ; si tr A = 0, A est nilpotente non nulle…

3) Diagonalisation des matrices F, C et S. Nous allons montrer que F et C sont diagonalisables à l’aide du critère vu en 1. • On vérifie qu’image et noyau ont une intersection nulle ; le théorème du rang implique alors qu’ils sont supplémentaires.

• On considère une base de l’image, et on forme la matrice A de l’endomorphisme induit v = uImu. Il faut montrer que A est diagonalisable. Au fond, on diagonalise F et C en deux temps, comme le montrent les calculs Maple ci-après.

a) La matrice F est de rang 2, Im F = Vect(a, b), où a = t(1, 1, 1, 1, 1, 1, 1), b =

t(1, 0, 0, 1, 0, 0, 0).

Im F est le plan formé des vecteurs X = t(x, y, y, x, y, y, y).

Ker F est le sous-espace de codimension 2, donc de dimension 5, défini par les deux équations :

x1 + x2 + x3 + x4 + x5 + x6 + x7 = 0 , x1 = 0 . Im F et Ker F sont en somme directe, car leur intersection est nulle :

X = t(x, y, y, x, y, y, y) ∈ Ker F ⇔ x = 0 et 2x + 5 y = 0 ⇔ x = y = 0.

On conclut via le théorème du rang.

Cherchons la matrice de v = FIm F relativement à la base (a, b).

F(a) = t(7, 1, 1, 7, 1, 1, 1) = a + 6.b , F(b) =

t(2, 1, 1, 2, 1, 1, 1) = a + b .

Donc Mat(v) =

1611 . Or cette matrice a pour valeurs propres 1 ± 6 . Elle est diagonalisable.

Conclusion : F est diagonalisable, Sp F = 0 , 1 ± 6 .

χF(X) = − X5 ( X

2 – 2X – 5 ) , µF(X) = X ( X

2 – 2X – 5 ).

b) La matrice C est de rang 3. Im C est de dimension 3, engendré par les trois premières colonnes de C :

Im C = Y = t ( a, b, c, c, c, b, a ) ; ( a, b, c ) ∈ R

3 .

Une base en est : c1 = t ( 0, 0, 1, 1, 1, 0, 0 ) , c2 =

t ( 0, 1, 0, 0, 0, 1, 0 ) , c3 =

t ( 1, 0, 0, 0, 0, 0, 1 ).

De plus Ker C = X = t ( 0, a, b, − b, − a, c, d ) ; ( a, b, c, d ) ∈ R

4 .

C’est un espace de dimension 4, dont une base est

t ( 0, 1, 0, 0, −1, 0, 0 ) ,

t ( 0, 0, 1, − 1, 0, 0, 0 ) ,

t ( 0, 0, 0, 0, 0, 1, 0 ) ,

t ( 0, 0, 0, 0, 0, 0, 1 )

Il est facile de vérifier que Im C ∩ Ker C = 0 ; donc Im C et Ker C sont supplémentaires.

Cherchons la matrice relativement à la base (c1, c2, c3) de Im C, de l’endomorphisme v = CIm C.

On a : C.c1 = c2 + 2.c3 , C.c2 = c2 , C.c3 = c1 , de sorte que A = Mat(v) =

002011100

,

1 est valeur propre de A, car C.c2 = c2 . Comme tr A = 1, les deux valeurs propres sont opposées.

Page 122: Problèmes d’algèbre linéaire

122

Sp A = 1, α, −α . De plus A2 =

200111002

, tr A2 = 5 et α = 2 .

Ainsi Sp A = 1, 2 , − 2 . A est diagonalisable dans M3(R).

Finalement, Sp C = 1, 2 , − 2 , 0 et C est diagonaliable.

1, 2 , − 2 sont valeurs propres d’ordre 1, 0 étant valeur propre d’ordre 4.

Conclusion : C est diagonalisable, Sp C = 0 , 1 , 2 , − 2 .

χC(X) = X4

( X – 1 ) ( X − 2 ) ( X + 2 ) , µC(X) = X ( X – 1 ) ( X − 2 ) ( X + 2 )

c) La matrice S n’est pas diagonalisable. En effet, rg S = 3,

Im S = Vect(c1, c2, c7) = t(a, b, b, a, c, c, a) ; (a, b, c) ∈ R

3 .

Ker S = X ; x1 + x2 + x3 + x4 + x5 + x6 + x7 = x1 = x7 = 0 .

Ker S ∩ Im S = t(0, b, b, 0, − b, − b, 0) ; b ∈ R est une droite.

Feuille de calculs Maple. Les calculs sont conduits dans l’esprit du problème. > with(linalg):F:=matrix(7,7,[1,1,1,1,1,1,1,1,0,0,0,0 ,0,0,1,0,0,0,0, 0,0,1,1,1,1,1,1,1,1,0,0,0,0,0,0,1,0,0,0,0,0,0,1,0,0 ,0,0,0,0]);

:= F

1 1 1 1 1 1 1

1 0 0 0 0 0 0

1 0 0 0 0 0 0

1 1 1 1 1 1 1

1 0 0 0 0 0 0

1 0 0 0 0 0 0

1 0 0 0 0 0 0 > Noyau:=kernel(F);Image:=colspan(F);intbasis(Noyau,I mage); P:=transpose(matrix([op(Noyau),op(Image)]));R:=mult iply(inverse(P),F,P); Finduit:=delrows(delcols(R,1..5),1..5);eigenvals(Fi nduit); K0:=kernel(R);K1:=kernel(R-1-sqrt(6));K2:=kernel(R- 1+sqrt(6)); Q:=transpose(matrix([op(K0),op(K1),op(K2)])); Diag:=map(simplify,multiply(inverse(Q),R,Q));

Noyau [ ], , , , , ,0 0 0 -1 1 0 0 [ ], , , , , ,0 0 1 -1 0 0 0 [ ], , , , , ,0 0 0 -1 0 0 1 [ ], , , , , ,0 1 0 -1 0 0 0, , , , :=

[ ], , , , , ,0 0 0 -1 0 1 0

:= Image ,[ ], , , , , ,0 -1 -1 0 -1 -1 -1 [ ], , , , , ,1 1 1 1 1 1 1

K0 [ ], , , , , ,0 0 0 1 0 0 0 [ ], , , , , ,0 0 0 0 1 0 0 [ ], , , , , ,0 0 1 0 0 0 0 [ ], , , , , ,0 1 0 0 0 0 0, , , , :=

[ ], , , , , ,1 0 0 0 0 0 0

:= P

0 0 0 0 0 1 0

0 0 0 1 0 1 -1

1 0 0 0 0 1 -1

-1 -1 -1 -1 -1 1 0

0 1 0 0 0 1 -1

0 0 1 0 0 1 -1

0 0 0 0 1 1 -1

:= R

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 7 -5

0 0 0 0 0 6 -5

:= K1

, , , , , ,0 0 0 0 0 1 −

65

15

6 := K2

, , , , , ,0 0 0 0 0 − 1

16

6 1

:= Finduit

7 -5

6 -5, + 1 6 − 1 6

Page 123: Problèmes d’algèbre linéaire

123

> with(linalg):C:=matrix(7,7,[0,0,1,1,0,0,0,0,1,0,0,1 ,0,0,1,0,0,0,0,0,0,1, 0,0,0,0,0,0,1,0,0,0,0,0,0,0,1,0,0,1,0,0,0,0,1,1,0,0 ,0]);

:= C

0 0 1 1 0 0 0

0 1 0 0 1 0 0

1 0 0 0 0 0 0

1 0 0 0 0 0 0

1 0 0 0 0 0 0

0 1 0 0 1 0 0

0 0 1 1 0 0 0

> Noyau:=kernel(C);Image:=colspan(C);intbasis(Noyau,I mage); P:=transpose(matrix([op(Noyau),op(Image)]));R:=mult iply(inverse(P),C,P); Cinduit:=delrows(delcols(R,1..4),1..4);eigenvals(Ci nduit); K0:=kernel(R);K1:=kernel(R-1);K2:=kernel(R-sqrt(2)) ;K3:=kernel(R+sqrt(2)); Q:=transpose(matrix([op(K0),op(K1),op(K2),op(K3)])) ; Diag:=map(simplify,multiply(inverse(Q),R,Q));

:= Noyau , , ,[ ], , , , , ,0 -1 0 0 1 0 0 [ ], , , , , ,0 0 0 0 0 1 0 [ ], , , , , ,0 0 -1 1 0 0 0 [ ], , , , , ,0 0 0 0 0 0 1 := Image , ,[ ], , , , , ,0 1 0 0 0 1 0 [ ], , , , , ,0 0 1 1 1 0 0 [ ], , , , , ,1 0 0 0 0 0 1

:= K0 , , ,[ ], , , , , ,0 0 1 0 0 0 0 [ ], , , , , ,0 1 0 0 0 0 0 [ ], , , , , ,1 0 0 0 0 0 0 [ ], , , , , ,0 0 0 1 0 0 0 := K1 [ ], , , , , ,0 0 0 0 1 0 0

:= Q

0 0 0 0 1 0 0

0 0 0 1 0 0 0

0 0 1 0 0 0 0

1 0 0 0 0 0 0

0 1 0 0 0 0 0

0 0 0 0 0 1 − 116

6

0 0 0 0 0 − 65

15

6 1

:= Diag

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 51

− + 1 60

0 0 0 0 0 0− + 7 2 6

− + 1 6

:= P

0 0 0 0 0 0 1

0 0 0 -1 1 0 0

0 -1 0 0 0 1 0

0 1 0 0 0 1 0

0 0 0 1 0 1 0

1 0 0 0 1 0 0

0 0 1 0 0 0 1

:= R

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 1 1 0

0 0 0 0 0 0 1

0 0 0 0 0 2 0

:= Q

0 1 0 0 0 0 0

0 0 0 1 0 0 0

0 0 1 0 0 0 0

1 0 0 0 0 0 0

0 0 0 0 1 + 12

2 1 1

0 0 0 0 012

2 − − 1 2

0 0 0 0 0 1 + 2 2

:= Diag

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 1 0 0

0 0 0 0 0 + 2 2

+ 1 20

0 0 0 0 0 0 − + 2 2

+ 1 2

:= K2

, , , , , ,0 0 0 0 +

12

2 112

2 1 := K3 [ ], , , , , ,0 0 0 0 1 − − 1 2 + 2 2

:= Cinduit

1 1 0

0 0 1

0 2 0

, ,1 2 − 2

Page 124: Problèmes d’algèbre linéaire

124

Exercice complémentaire : diagonaliser P, J, H, E, S, T, U, N, G, E, N, I, E, etc.

Remarque : diagonalisation des matrices de rang 2.

1) Une matrice A est de rang 2 ssi elle s’écrit A = X1.tY1 + X2.

tY2, où (X1, X2) et (Y1, Y2) sont des

couples de vecteurs-colonnes libres. Et Im A = Vect(X1, X2) et Ker A = Z ; tY1.Z =

tY2.Z = 0 .

2) La matrice de l’endomorphisme AImA relativement à la base (X1, X2) est B =

2212

2111

..

.XYXYXYXY

tt

tt

.

Il découle de 1) que A est diagonalisable si et seulement si B est diagonalisable et inversible.

On notera que tr B = tr A et det B = 21 [ ( tr A )

2 − tr(A

2) ] .

Références : Ecrit Centrale PSI 2010. __________ Problème 35 : Endomorphismes diagonalisables

Soient E un espace vectoriel de dimension n sur le corps K , u un endomorphisme de E diagonalisable, de valeurs propres λ1, ... , λr (distinctes). Notons ni l’ordre de multiplicité de λi, et Ei l’espace propre associé.

1) Polynômes de u.

i) Quel est le polynôme minimal µu(X) de u ?

ii) Exprimer les projecteurs propres pi associés à la décomposition en somme directe E = ⊕ Ei

en tant que polynômes de u. En particulier u = ∑ λi.pi .

iii) Calcul fonctionnel.

Soit f ∈ K [X]. Montrer que f(u) = ∑ f(λi).pi .

Si K = R ou C, montrer que exp(u) = ∑ exp(λi).pi . Plus généralement, soit :

f(z) = ∑k≥0 ak.zk une série entière de rayon de convergence R > 0. Quand peut-on définir f(u) ?

Montrer qu’alors f(u) = ∑ f(λi).pi , et que f(u) est un polynôme de u, que l’on déterminera.

2) Sous-espaces stables.

i) Soit F un sous-espace u-stable. Montrer que uF est diagonalisable et que F = ⊕ (F ∩ Ei).

ii) En déduire que les sous-espaces u-stables de E sont de la forme F = ⊕ Fi , où Fi est un sous-espace quelconque de Ei. iii) Si u admet n valeurs propres distinctes, combien admet-il de sous-espaces u-stables ? iv) Indiquer une cns pour que u admette un nombre fini de sous-espaces u-stables.

3) Montrer l’équivalence des propriétés : a) u est diagonalisable ; b) le polynôme caractéristique de u est scindé, et tout sous-espace u-stable admet un supplé-mentaire u-stable.

4) Commutant de u.

i) Soit v ∈ LLLL(E) ; montrer que v commute à u ssi (∀i) v(Ei) ⊂ Ei .

ii) En déduire la dimension de la sous-algèbre C(u) = v ∈ LLLL(E) ; v o u = u o v .

Montrer que cette dimension est comprise entre n et n2 et a même parité que n.

iii) Déterminer le bicommutant de u : C(C(u)) = w ∈ LLLL(E) ; w o v = v o w (∀v ∈ C(u)) .

5) Algèbres diagonales.

Page 125: Problèmes d’algèbre linéaire

125

Une K -algèbre de dimension r est dite diagonale si elle est isomorphe à l’algèbre K r munie des opérations usuelles (addition et produit terme à terme des r-uplets). Montrer que u est diagonalisable ssi K [u] est une sous-algèbre diagonale de L(E). _________ Solution

Ce problème est si important qu’il doit être considéré comme un complément de cours.

1) Polynômes de u.

i) u a pour polynôme minimal µu(X) = ∏=

−r

iiX

1

)( λ , et pour caractéristique χu(X) = ∏=

−r

i

ni

iX1

)( λ .

ii) Les projecteurs propres pi associés à la décomposition en somme directe E = ⊕ Ei sont les

polynômes de Lagrange pi = Li(u), où Li(X) = ∏≠ −

−ij ji

jXλλλ

.

2) Sous-espaces stables.

i) Soit F un sous-espace u-stable ; uF est diagonalisable car il annule un polynôme scindé à racines simples, à savoir le polynôme minimal de u. Le polynôme minimal de uF est donc un diviseur de

µu(X). La formule F = ⊕ (F ∩ Ei) découle alors de l’application du théorème des noyaux à ce polynôme ; certains des F ∩ Ei peuvent être nuls.

Remarque : il découle de ceci que toute base propre de uF peut être complétée en une base propre de u. Matriciellement, cela se traduit par :

Si M =

DOBA ∈ Mn(K ), où A et D sont carrées, est diagonalisable, alors A est diagonalisable, et il

existe une matrice P =

WOVU ∈ Gln(K ) telle que P

−1 M P soit diagonale.

ii) Un sous-espace u-stable de E est donc de la forme F = ⊕ Fi , où Fi est un sous-espace de Ei. La réciproque est évidente.

iii) Si u admet n valeurs propres distinctes, u admet 2n sous-espaces u-stables.

iv) Une cns pour que u admette un nombre fini de sous-espaces u-stables est que u ait n valeurs propres distinctes, ou bien que le corps K soit fini.

3) Caractérisation de la diagonalisabilité.

a) ⇒ b) Si u est diagonalisable, son polynôme caractéristique est scindé. De plus, soit E = ⊕ Ei la décomposition en sous-espaces propres. Par 2.ii), tout sous-espace u-stable est de la forme F = ⊕ Fi, où Fi est un sous-espace de Ei. Soit Gi un supplémentaire de Fi dans Ei. Alors G = ⊕ Gi est un supplémentaire u-stable de F.

b) ⇒ a) Si le polynôme caractéristique de u est scindé, u admet une droite propre D1. Cette droite

admet un supplémentaire u-stable H. uH admet un polynôme caractéristique scindé (puisqu’il divise

celui de u), donc admet une droite propre D2. Le plan P = D1 ⊕ D2 admet un supplémentaire u-stable, etc.

4) Commutant, bicommutant de u.

i) Soit v ∈ LLLL(E). Si v commute à u, (∀i) v(Ei) ⊂ Ei , soit par vérification directe, soit parce que Ei

est le noyau d’un polynôme de u. Réciproquement si (∀i) v(Ei) ⊂ Ei , et si x = x1 + … + xr (xi ∈ Ei), alors (v o u)(x) = v(λ1.x1 + … + λr.xr) = λ1.u(x1) + … + λp.u(xp) = (u o v)(x).

Page 126: Problèmes d’algèbre linéaire

126

ii) On en déduit que l’algèbre C(u) = v ∈ LLLL(E) ; v o u = u o v est isomorphe à ∏ )( iEL , donc

a pour dimension ∑ )²( in .

Il en découle que : n = ∑ in ≤ dim C(u) = ∑ )²( in ≤ (∑ in )2 = n

2 .

De plus, ∑ )²( in ≡ ∑ in = n (mod 2).

Enfin, dim C(u) = n ssi u a n valeurs propres distinctes, dim C(u) = n2 ssi u est une homothétie.

iii) Bicommutant de u : C(C(u)) = w ∈ LLLL(E) ; w o v = v o w (∀v ∈ C(u)) .

Je dis que C(C(u)) = ∑=

r

iii p

1

α ; (α1, …, αr) ∈ Kr est une algèbre commutative de dimension r.

Notant H = ∑=

r

iii p

1

α ; (α1, …, αr) ∈ Kr , il est clair que H ⊂ C(C(u)).

Par ailleurs les projecteurs propres pi, 1 ≤ i ≤ r, sont éléments de C(u) : ce sont même des polynômes

de u. Si w ∈ C(C(u)), w commute avec les pi, donc laisse stable chacun des espaces propres Ei.

L’endomorphisme induit wi commute avec tout endomorphisme de Ei, donc est une homothétie.

Conclusion : C(C(u)) = K [u]. Remarque : on peut aussi montrer cela par matrices-blocs.

5) Algèbres diagonales.

• Si u est diagonalisable, K [u] est isomorphe à l’algèbre Kr, où r = card Sp u.

En effet, l’application Q ∈ K [X] → (Q(λ1), ... , Q(λr)) ∈ Kr est un morphisme surjectif d’algèbres,

de noyau (µu(X)). Il se factorise en un isomorphisme de K [u] ≈ K [X]/( µu(X)) sur Kr .

• Si K [u] est diagonale, soit f : Kr → K [u] un isomorphisme d’algèbres. Si (e1, …, er) est la base

canonique de Kr, les relations ei×ej = δi,j.ei et ∑ ie = e, impliquent que les pi = f(ei) forment une

base de K [u], formée de projecteurs deux à deux orthogonaux, de somme idE. Donc u = ∑ ii p.λ est

diagonalisable. _________

Problème 36 : endomorphismes diagonalisables Soient E un C-espace vectoriel de dimension n, LLLL(E) l’algèbre des endomorphismes de E, I l’identité de E. On note Sp f l’ensemble des valeurs propres de f.

A. Première partie.

Soit f un endomorphisme de E. On suppose qu’existent deux endomorphismes non nuls p et q et deux complexes distincts a et b tels que :

I = p + q , f = a p + b q , f 2 = a

2 p + b

2 q .

1) Calculer ( f – a I ) o ( f – b I ). En déduire que f est diagonalisable.

2) a) Etablir que p o q = q o p = 0 , p2 = p , q

2 = q .

b) Montrer que Sp f = a , b.

c) Montrer que ∀m ∈ N f m

= am

p + bm

q, et que cela reste vrai pour tout m ∈ Z si a.b ≠ 0.

3) Montrer que p est le projecteur sur Ker(f – a I) parallèlement à Ker(f – b I), et que q est le projecteur sur Ker(f – b I) parallèlement à Ker(f – a I).

4) a) Montrer que A = x p + y q ; (x, y) ∈ C×C est une sous-algèbre de L(E). Dimension ?

b) Déterminer les projecteurs qui appartiennent à A.

Page 127: Problèmes d’algèbre linéaire

127

c) Résoudre dans A l’équation g2 = f.

B. Deuxième partie.

Soit f un endomorphisme de E. On suppose qu’existent r endomorphismes non nuls p1, p2, … , pr

et r complexes distincts λ1, λ2, …, λr, tels que : ∀m ∈ N f m

= ∑=

r

kk

mk p

1

.)(λ .

1) Montrer que ∀P ∈ C[X] P(f) = ∑=

r

kkk pP

1

).(λ .

2) On pose Φ(X) = ∏=

−r

kkX

1

)( λ et, pour tout entier k ∈ [1, r], Lk(X) = ∏≠≤≤ −

−klnl lk

lX,1 λλ

λ .

a) Calculer Φ(f). Qu’en déduit-on ?

b) Montrer que (∀k) pk = Lk(f). Vérifier que pk o pl = 0 si k ≠ l, pk si k = l.

c) Démontrer que Sp f = λ1, λ2, …, λr .

3) Démontrer que, pour tout entier k, pk est le projecteur sur Ker(f – λk I) parallèlement à

Vk = ).( IfKer lkl λ−⊕ ≠ .

4) On désigne par A le sous-espace vectoriel de LLLL(E) engendré par p1, p2, …, pr .

a) Montrer que A est une sous-algèbre de LLLL(E). Quelle est sa dimension ?

b) Résoudre dans A l’équation g2 = f.

c) Quels sont les projecteurs appartiennant à A (on précisera leur nombre et leurs éléments caractéristiques).

5) Soit h un endomorphisme diagonalisable de E, Sp h = λ1, λ2, …, λr . Montrer qu’il existe r

endomorphismes non nuls q1, q2, … , qr tels que : ∀m ∈ N f m

= ∑=

r

kk

mk q

1

.)(λ .

Référence : ENSI 1988, 2ème épreuve. _________

Problème 37 : Diagonalisation d’une dérivation. Soient A ∈ Mn(C), DA l’endomorphisme de Mn(C) défini par DA(M) = A.M – M.A.

On se propose de montrer élémentairement que A est diagonalisable ⇔ DA est diagonalisable.

On note (Eij) la base canonique de Mn(C).

1) On suppose A diagonalisable. Soit P ∈ Gln(C) telle que P−1

.A.P = diag(λ1, …, λn) = D,

( les valeurs propres λk étant distinctes ou non ).

a) Exprimer D.Eij – Eij .D en fonction de Eij , λi et λj.

b) Démontrer que, pour tout couple (i, j), Bij = P.Eij .P−1

est un vecteur propre de DA.

c) En déduire que DA est diagonalisable. Quelles sont ses valeurs propres ?

2) On suppose réciproquement DA diagonalisable, et l’on note (Pij) une base de vecteurs propres

de DA, et αij la valeur propre associée à Pij .

a) Soit λ une valeur propre de A, X un vecteur propre associé. Démontrer que, pour tout couple

(i, j), il existe un complexe µij , que l’on exprimera en fonction de λ et αij , tel que A.Pij .X = µij .Pij .X.

b) En déduire que A est diagonalisable.

Page 128: Problèmes d’algèbre linéaire

128

____________

Solution

1) Supposons A diagonalisable. Soit P ∈ Gln(C) telle que P−1

.A.P = diag(λ1, …, λn) = D,

( les valeurs propres λk étant distinctes ou non ).

a) Je dis que D.Eij – Eij .D = ( λi − λj ).Eij .

En effet, D.Eij = ∑k

kkk E.λ .Eij = λi.Eij et Eij .D = ∑k

kkijk EE ..λ = λj.Eij .

b) Pour tout couple (i, j), Bij = P.Eij .P−1

est un vecteur propre de DA.

En effet DA(Bij) = A.Bij − Bij .A = P.D.P−1

.P.Eij .P−1

− P.Eij .P−1

.P.D.P−1

= P.( D.Eij − Eij .D).P−1

= ( λi − λj ). P.Eij .P−1

= ( λi − λj ).Bij .

c) Ainsi, (Bij) est une base propre, et DA est diagonalisable. Ses valeurs propres sont les λi − λj.

2) Réciproquement, supposons DA diagonalisable.

Soit (Pij) une base de vecteurs propres de DA, et αij la valeur propre associée à Pij .

a) Soient λ une valeur propre de A, X un vecteur propre associé.

A.Pij − Pij .A = αij .Pij , donc A.Pij .X = Pij .A.X + αij .Pij .X = ( λ + αij ).Pij .X.

b) Considérons la famille de n2 vecteurs (Pij .X). Je dis qu’on peut en extraire une base, autrement

dit qu’elle est génératrice. Soit en effet Y un vecteur quelconque de Cn. Comme X est non nul, il

existe M ∈ Mn(C) telle que Y = M.X (réfléchir un instant).

Or M est combinaison linéaire des Pij , donc Y est combinaison linéaire des Pij .X.

Conclusion : il existe une base propre de A.

____________

Problème 38 : symétries commutantes et anticommutantes

Soient K un corps commutatif de caractéristique ≠ 2, E un K -espace vectoriel de dimension n. On note I l’identité de E.

A. Première partie.

1) Soit s un endomorphisme de E tel que s2 = I. On note Es

+ = Ker( s − I ) et Es

− = Ker( s + I ).

a) Montrer que E = Es+ ⊕ Es

− .

b) Soit f ∈ LLLL(E) ; montrer que f o s = s o f ⇔ f(Es+) ⊂ Es

+ et f(Es

−) ⊂ Es

− .

c) Montrer que C(s) = f ∈ LLLL(E) ; f o s = s o f est une sous-algèbre de de LLLL(E). Dimension ?

d) Montrer que A(s) = f ∈ LLLL(E) ; f o s = − s o f est un sous-espace vectoriel de LLLL(E). Caractériser ses éléments. Quelle est la dimension de A(s) ?

e) Montrer que LLLL(E) = C(s) ⊕ A(s).

2) Soit S l’endomorphisme de R3 de matrice

−−− 322212221

. Nature géométrique de S ? Eléments

caractéristiques ?

3) Soit f l’endomorphisme de Mn(K ) défini par f(A) = tA. Calculer la trace et de déterminant de f.

Page 129: Problèmes d’algèbre linéaire

129

4) Une matrice A = (aij) ∈ Mn(K ) est dite en damier si ai,j = 0 lorsque i et j n’ont pas même parité.

On note Dn(K ) l’ensemble de ces matrices.

Soit J =

−1)1(0...000...00...............001000...01

n

. Vérifier que A ∈ Dn(K ) ⇔ AJ = JA. Que dire de Dn(K ) ?

5) Une matrice A = (aij) ∈ Mn(K ) est dite centrosymétrique si ∀(i, j) an+1−i,n+1−j = aij .

On note Cn(K ) l’ensemble de ces matrices.

Soit J =

00...010...10...............01...010...00

. Vérifier A ∈ Cn(K ) ⇔ AJ = JA. Que dire de Cn(K ) ?

B. Deuxième partie : symétries commutantes.

1) Soient s1 et s2 deux endomorphismes de E tels que s12 = s2

2 = I et s1 o s2 = s2 o s1. Montrer

qu’il existe une base BBBB et des entiers p, q, r et s, éventuellement nuls, tels que p + q + r + s = n et :

MatBBBB(s1) =

−−

s

r

q

p

IOOOOIOOOOIOOOOI

et MatBBBB(s2) =

s

r

q

p

IOOOOIOOOOIOOOOI

2) Exemple (Maple) : Soient

S1 =

−−−−−−−−

601960420403

224011915203

148980156067964

1400222096089

et S2 =

−−−−−−−−

14712280960883

5320275111603

320224034801471136308048002040191

.

Vérifier que ce sont deux symétries commutantes de R4, et trouver une matrice P ∈ Gl4(R) telle que

P−1

.S1.P =

−−

1000010000100001

et P−1

.S2.P =

1000010000100001

.

3) On appelle SSC (système de symétries commutantes) un N-uplet (s1, …, sN) d’endo-

morphismes de E deux à deux distincts et tels que ∀(i, j) si2 = I et si o sj = sj o si .

Montrer qu’il existe alors une base BBBB = (e1, …, en) de E telle que, pour tout i ∈ [1, N], MatBBBB(si)

soit de la forme diag(1i

ε , …, ni

ε ), où (1i

ε , …, ni

ε ) ∈ −1, +1n.

[ On pourra raisonner par récurrence sur n et noter que si N ≥ 3, alors ∃i0 si0 ≠ ±I. Cette méthode

n’est pas imposée. ] En déduire que N ≤ 2n. Indiquer une SSC ayant 2

n éléments.

4) Application :

Montrer que les groupes Gln(K ) et Glm(K ) sont isomorphes si et seulement si n = m.

C. Troisième partie : Symétries anticommutantes.

1) Soient s1 et s2 deux endomorphismes tels que s12 = s2

2 = I et s1 o s2 = − s2 o s1.

a) Comparer dim Es1+ et dim Es1

− . Qu’en déduire pour dim E ?

b) On pose n = 2m. Soit (e1, …, em) une base de Es1+ ; que dire de (s2(e1), …, s2(em)) ?

Page 130: Problèmes d’algèbre linéaire

130

Montrer qu’il existe une base de E telle que MatBBBB(s1) =

− m

m

IOOI et MatB(s2) =

OIIO

m

m .

2) Exemple (Maple) : Soient

S1 =

−−−−−−−−

601960420403

224011915203

148980156067964

1400222096089

et S2 =

−−

−−

−−

−−

3820

73040

71313

21368

4487083045

1413

259713605803

1603

7280378516003

436

.

Vérifier que ce sont deux symétries anticommutantes, et trouver une matrice P ∈ Gl4(R) telle que

P−1

.S1.P =

−−

1000010000100001

et P−1

.S2.P =

0010000110000100

.

3) On appelle SSA (système de symétries anticommutantes) un N-uplet (s1, …, sN) d’endo-

morphismes de E tels que ∀k sk2 = I et p ≠ q ⇒ sp o sq = − sq o sp .

a) Si n est impair, que dire de N ?

b) On suppose n pair, N ≥ 2. On note G le sous-groupe de Gl(E) engendré par s1, …, sN.

Pour toute partie H ⊂ [1, N] ordonnée H = h1 < h2 < … < hr , on note sH = 1h

s2h

s …rh

s .

On pose s∅ = I. Démontrer que G = ± sH ; H ⊂ [1, N] .

4) Dans la suite du problème, on suppose que le corps des scalaires est K = C.

a) Si (s1, s2) est un SSA , que dire de (s1 , s2 , i.s1s2) ?

b) Soit (s1, …, sN) un SSA, N ≥ 2. Pour 3 ≤ k ≤ N, on pose rk = i.s2sk .

Calculer rk2 ; comparer rp.rq et rq.rp (p ≠ q) , puis s1.rk et rk.s1 , s2.rk et rk.s2.

c) Pour 3 ≤ k ≤ N, on note +kr la restriction de rk à Es1

+ , −

kr celle de rk à Es1− .

Montrer que ( +kr ) est un SSA de Es1

+ , et ( −

kr ) un SSA de Es1− transmué du précédent.

d) Soit pn le cardinal maximum d’un SSA d’un C-espace vectoriel de dimension n.

Montrer que p2m+1 = 1 et p2m = pm + 2.

En déduire que pn = 2.v2(n) + 1 , où v2(n) est l’exposant de 2 dans la factorisation de n.

5) On suppose qu’il existe un entier n ≥ 1 et des formes bilinéaires B1, …, Bn : Rn×R

n → Rn

vérifiant la condition (*)

∀x = t(x1, …, xn) ∈ R

n ∀y =

t(y1, …, yn) ∈ R

n ( x1

2 + … + xn

2 ).( y1

2 + … + yn

2 ) = ²),(

1∑

=

n

ii yxB

a) On écrit Bi(x, y) = ∑=

n

jjij yxL

1

).( , où Lij est une forme linéaire sur Rn, et Λ(x) = (Lij(x)).

Montrer que (*) s’écrit [y1, y2, …, yn]

²...00............0...²00...0²

x

xx

ny

yy

...2

1

= [y1, y2, …, yn].tΛ(x).Λ(x).

ny

yy

...2

1

.

b) On écrit Λ(x) = x1.A1 + … + xn.An , où A1, …, An ∈ Mn(R).

Montrer que ∀(k, l) tAk.Al = In et k ≠ l ⇒

tAk.Al = −

tAl.Ak .

Page 131: Problèmes d’algèbre linéaire

131

c) On pose A’k = i.An.Ak (1 ≤ k ≤ n). Vérifier que (A’1 , … , A’n−1) est un SSA de Mn(C).

d) En déduire que n ∈ 1, 2, 4, 8 (Théorème d’Hurwitz, 1898). Remarque : La découverte de telles identités pour n = 2, 4 et 8 remonte à Diophante, Euler et Degen.

Identité de Diophante : ( a2 + b

2 ).( c

2 + d

2 ) = ( ac − bd )

2 + ( ad + bc )

2.

Identité d’Euler : ( a2 + b

2 + c

2 + d

2 ).( α2

+ β2 + γ2

+ δ2 ) = A

2 + B

2 + C

2 + D

2,

où A = aα + bβ + cγ + dδ B = aβ − bα + cδ − dγ C = aγ − cα − bδ + dβ D = aδ − dα + bγ − cβ

Identité de Degen : (P² + Q² + R² + S² + T² + U² + V² + W²).(p² + q² + r² + s² + t² + u² + v² + w²) = A² + B² + C² + D² + E² + F² + G² + H² , où : A = Pp − Qq − Rr − Ss − Tt − Uu − Vv − Ww B = Pq + Qp + Rs − Sr + Tu − Ut − Vw + Wv C = Pr − Qs + Rp + Sq + Tv + Uw − Vt − Wu D = Ps + Qr − Rq + Sp + Tw − Uv + Vu − Wt E = Pt − Qu − Rv − Sw + Tp + Uq + Vr + Ws F = Pu + Qt − Rw + Sv − Tq + Up − Vs + Wr G = Pv + Qw + Rt − Su − Tr + Us + Vp − Wq H = Pw − Qv + Ru + St − Ts − Ur + Vq + Wp ____________

Corrigé : symétries commutantes et anticommutantes.

A Edouard Maurel Ségala

A. Première partie : généralités sur les symétries.

1) Soit s un endomorphisme de E tel que s2 = I. On note Es

+ = Ker( s − I ) et Es

− = Ker( s + I ).

a) Montrons rapidement que : E = Es+ ⊕ Es

− .

Es+ ∩ Es

− = 0 car si x ∈ Es

+ ∩ Es

−, s(x) = x = −x, donc 2x = 0, donc x = 0 (car 2K = 1K + 1K ≠ 0) .

Enfin, x = 2

)(xsx+ +

2)(xsx−

, où 2

)(xsx+ ∈ Es

+ et

2)(xsx−

∈ Es−.

b) Commutant d’une symétrie.

Soit f ∈ LLLL(E) ; montrons que f o s = s o f ⇔ f(Es+) ⊂ Es

+ et f(Es

−) ⊂ Es

− .

Supposons f o s = s o f ; x ∈ Es± ⇔ s(x) = ±x ⇒ (f o s)(x) = ±x ⇒ (s o f)(x) = ±x ⇒ f(x) ∈ Es

±.

Réciproquement, si Es+ et Es

− sont f-stables, ( f o s )(x) = ( f o s)(x

+ + x

−) = f(x

+ − x

−) = f(x

+) − f(x

−)

( s o f )(x) = ( s o f )(x+ + x

−) = s ( f(x

+) + f(x

−)) = f(x

+) − f(x

−) itou…

c) C(s) = f ∈ LLLL(E) ; f o s = s o f est une sous-algèbre de LLLL(E) ; d’ailleurs, le commutant de n’importe quel endomorphisme de E est une sous-algèbre.

Je dis que dim C(s) = ( dim Es+

)2 + ( dim Es

− )2.

En effet, pour se donner un élément f de C(s), il suffit de se donner le couple d’endomorphismes

induits sur Es+ et Es

− ; autrement dit, C(s) est isomorphe à LLLL(Es

+)×LLLL(Es

−), comme espace vectoriel

et même comme algèbre.

d) Il est clair que A(s) = f ∈ LLLL(E) ; f o s = − s o f est un sous-espace vectoriel de LLLL(E).

Il est facile d’établir que f ∈ A(s) ⇔ f(Es+) ⊂ Es

− et f(Es

−) ⊂ Es

+ .

Je dis que dim A(s) = 2 (dim Es+

)×( dim Es−

).

En effet, pour se donner un élément f de A(s), il suffit de se donner le couple d’endomorphismes

restreints et coresteints à (Es+, Es

−) et (Es

−, Es

+). Autrement dit, A(s) est isomorphe à LLLL(Es

+,

Es−)×LLLL(Es

−, Es

+), comme espace vectoriel.

Remarques : i) On en déduit que LLLL(E) = C(s) ⊕ A(s).

Page 132: Problèmes d’algèbre linéaire

132

Les projecteurs associés à cette somme directe sont f → 21 ( f + s o f o s ) et f →

21 ( f − s o f o s )

A(s) n’est pas une algèbre, car le produit de deux éléments de A(s) est un élément de C(s). ii) On peut retrouver ces résultats matriciellement, car il existe une base BBBB de E telle que

S = Mat(s, BBBB) =

− q

p

IOOI . Les matrices qui commutent à S sont de la forme

DOOA , celles qui anti-

commutent à S sont de la forme

OCBO , et l’on retrouve tous les résultats précédents.

2) Un exemple. Faisons confiance à Maple. > with(linalg): > S:=matrix(3,3,[1,2,2,2,1,2,-2,-2,-3]);evalm(S^2);ke rnel(S-1);kernel(S+1);

:= S

1 2 2

2 1 2

-2 -2 -3

[ ], ,1 1 -1 ,[ ], ,1 -1 0 [ ], ,0 -1 1

S est une symétrie vectorielle : c’est la symétrie par rapport à la droite R.(1, 1 – 1), par rapport au plan d’équation x + y + z = 0.

Remarque : Cette matrice conserve la forme quadratique q(X) = x2 + y

2 – z

2 sur R

3, donc le cône de

révolution x2 + y

2 = z

2 . Elle joue un rôle-clé dans la théorie des triplets pythagoriciens.

3) Trace et déterminant de la transposition. f est une symétrie vectorielle.

Or si s est une symétrie, tr s = dim Es+ − dim Es

− et det s = −− sEdim)1( .

Ker( f – I ) = Sn(K ), espace des matrices symétriques, de dimension 2

)1( +nn.

Ker( f + I ) = An(K ), espace des matrices antisymétriques, de dimension 2

)1( −nn.

Donc tr f = 2

)1( +nn −

2)1( −nn

= n et det f = 2)1(

)1(−

−nn

.

NB : Une autre approche consisterait à écrire la matrice de f dans la base (E11, E22, …, Enn, E12,

E21, E13, E31, …) de Mn(K ).

4) L’algèbre des matrices en damier.

Une matrice A = (aij) ∈ Mn(K ) est dite en damier si ai,j = 0 lorsque i et j n’ont pas même parité.

Soit J = diag(1, −1, …, 1)1( −− n ). Je dis que A ∈ Dn(K ) ⇔ AJ = JA.

En effet AJ a pour élément général 1)1( −− j aij et JA pour élément général 1)1( −− i aij .

Comme J est une symétrie vectorielle, en vertu de 1.c), l’ensemble Dn(K ) des matrices en damier est

une sous-algèbre de Mn(K ) de dimension (dim Ker( J – I ))2 + (dim Ker( J + I ))

2.

Le résultat dépend de la parité de n :

Si n = 2m, dim Dn(K ) = 2m2 ; si n = 2m + 1, dim Dn(K ) = (m + 1)

2 + m

2 .

5) L’algèbre des matrices centrosymétriques.

Une matrice A = (aij) ∈ Mn(K ) est dite centrosymétrique si ai,j = an+1−i,n+1−j pour tout couple (i, j).

Si J = antidiag(1, 1, …, 1), je dis que A ∈ Cn(K ) ⇔ AJ = JA.

J étant une symétrie vectorielle, en vertu de 1.c), l’ensemble Cn(K ) des matrices centrosymétriques

est une sous-algèbre de Mn(K ) de dimension (dim Ker( J – I ))2 + (dim Ker( J + I ))

2.

1 0 0

0 1 0

0 0 1

Page 133: Problèmes d’algèbre linéaire

133

Le résultat dépend de la parité de n :

Si n = 2m, dim Cn(K ) = 2m2 ; si n = 2m + 1, dim Cn(K ) = (m + 1)

2 + m

2 .

B. Deuxième partie : symétries commutantes.

1) Diagonalisation simultanée de deux symétries commutantes.

Soient s1 et s2 deux symétries commutantes.

Mise en garde ! L’analyse du résultat à atteindre laisse entendre que :

(*) E = ( E(s1)+ ∩ E(s2)

+ ) ⊕ ( E(s1)

+ ∩ E(s2)

− ) ⊕ ( E(s1)

− ∩ E(s2)

+ ) ⊕ ( E(s1)

− ∩ E(s2)

− ).

Or cela semble découler facilement de ce que E = E(s1)+ ⊕ E(s1)

− = E(s2)

+ ⊕ E(s2)

− .

Mais attention ! les lois ∩ et + ne sont pas distributives l’une par rapport à l’autre dans V(E).

Oui, on a bien (*), mais cela va découler de ce que s1 et s2 commutent.

1ère méthode : on peut démontrer (*) directement. C’est long, ce n’est pas facile et il y a mieux !

2ème méthode : utilisons les résultats de A.1.b).

Les sous-espaces Es1± sont s2-stables, et s2 induit une symétrie dans chacun d’eux. Par suite, il y a

une base convenable de Es1+ telle que l’endomorphisme induit par s2 ait pour matrice

− q

p

IOOI , et

une base convenable de Es1−

telle que l’endomorphisme induit par s2 ait pour matrice

− s

r

IOOI .

Si l’on recolle ces deux bases, on obtient une base BBBB de E telle que MatBBBB(s2) =

s

r

q

p

IOOOOIOOOOIOOOOI

.

Et il est clair que : MatBBBB(s1) =

−−

s

r

q

p

IOOOOIOOOOIOOOOI

.

Voici un exemple de symétries commutantes : considérons Mn(C) comme R-espace vectoriel (il est

alors de dimension 2n2) et les applications A → A et A →

tA. Ce sont deux R-symétries

commutantes. La relation (*) s’écrit : Mn(C) = Sn(R) ⊕ An(R) ⊕ i.Sn(R) ⊕ i.An(R).

De plus : Mn(R) = Sn(R) ⊕ An(R) , i.Mn(R) = i.Sn(R) ⊕ i.An(R) .

Hn(C) = Sn(R) ⊕ i.An(R) : ce sont les matrices hermitiennes (i.e. telles que t A = A).

2) Exemple. La commande intbasis (resp. sumbasis) de Maple donne une base de l’intersection (resp. de la somme) de deux sous-espaces vectoriels donnés par leurs bases > with(linalg): > S1:=matrix(4,4,[-89,960,-2220,1400,-64,679,-1560,98 0,-148/3,520,-1191, 2240/3,-40,420,-960,601]); > S2:=matrix(4,4,[191,-2040,4800,-3080,136,-1471,3480 ,-2240,320/3,-1160, 2751,-5320/3,88,-960,2280,-1471]);

:= S1

-89 960 -2220 1400

-64 679 -1560 980

-1483

520 -11912240

3

-40 420 -960 601

:= S2

191 -2040 4800 -3080

136 -1471 3480 -2240

3203

-1160 2751-5320

3

88 -960 2280 -1471

Page 134: Problèmes d’algèbre linéaire

134

> evalm(S1^2);evalm(S2^2);evalm(multiply(S1,S2)-multi ply(S2,S1));

> S1p:=kernel(S1-1);S1m:=kernel(S1+1);S2p:=kernel(S2- 1);S2m:=kernel(S2+1);

:= S1p ,

, , ,-20

-103

0 1 [ ], , ,18 4 1 0

:= S1m ,

, , ,-7

-2110

0 1

, , ,

152

3 1 0

:= S2p ,[ ], , ,-16 -3 0 1

, , ,15

154

1 0

:= S2m ,

, , ,

-354

-73

0 1

, , ,9

165

1 0

> e1:=op(intbasis(S1p,S2p));e2:=op(intbasis(S1p,S2m)) ; e3:=op(intbasis(S1m,S2p));e4:=op(intbasis(S1m,S2m)) ; > P:=transpose(matrix([e1,e2,e3,e4]));

:= P

4-52

-2-74

2-53

-32

-75

43

-54

-65

-76

1 -1 -1 -1

> D1:=multiply(inverse(P),S1,P);D2:=multiply(inverse( P),S2,P);

3) Systèmes de symétries commutantes.

Soit (s1, …, sN) un SSC de E. Montrons qu’il existe une base BBBB = (e1, …, en) de E telle que, pour

tout i ∈ [1, N], MatBBBB(si) soit de la forme diag(1i

ε , …, ni

ε ), où (1i

ε , …, ni

ε ) ∈ −1, +1n.

C’est un résultat de diagonalisation simultanée que nous allons montrer par récurrence sur n. Pour n = 1, il n’y a rien à montrer. Supposons le résultat vrai dans tout espace vectoriel de dimension < n. Soit alors E un espace

vectoriel de dimension n et (s1, …, sN) un SSC de E. Si N = 1 ou 2, le résultat est acquis.

Si N ≥ 3, alors ∃i0 si0 ≠ ±I, et alors E = F ⊕ G, où F = Ker(si0 − I) et G = Ker(si0 + I) sont tous

deux de dimension < n. Par commutation, (s1, …, sN) induisent des SSC resp. de F et de G (quitte à élaguer les endomorphismes qui coïncident). Il existe alors une base de F et une base de G diagonalisant simultanément ces endomorphismes induits. Il suffit de recoller ces deux bases.

On en déduit N ≤ 2n. Enfin, il y a un SSC à 2

n éléments : si BBBB = (e1, …, en) est une base de E, consi-

dérer les 2n endomorphismes si tels que MatBBBB(si) soit de la forme diag(

1iε , …,

niε ), où (

1iε , …,

niε )

∈ −1, +1n.

4) Application. (Oral ENS)

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

0 0 0 0

0 0 0 0

0 0 0 0

0 0 0 0

:= D1

1 0 0 0

0 1 0 0

0 0 -1 0

0 0 0 -1

:= D2

1 0 0 0

0 -1 0 0

0 0 1 0

0 0 0 -1

Page 135: Problèmes d’algèbre linéaire

135

Montrons que les groupes linéaires Gln(K ) et Glm(K ) sont isomorphes si et seulement si n = m.

Si m = n, les deux groupes sont égaux. Réciproquement, soit f : Gln(K ) → Glm(K ) un isomorphisme

de groupes. Il existe dans Gln(K ) un SSC (s1, …, ns2 ) à 2n éléments. Son image par f est un SSC à

2n éléments de Glm(K ), donc 2

n ≤ 2

m et n ≤ m. Il reste à échanger les rôles de m et n.

Remarque : on aimerait savoir si ce résultat reste vrai en caractéristique 2. On a vu (pb. 1) qu’il est vrai si K est un corps fini.

C. Troisième partie : Symétries anticommutantes.

1) Deux symétries anticommutantes.

Soient s1 et s2 deux endomorphismes tels que s12 = s2

2 = I et s1 o s2 = − s2 o s1.

a) Si f ∈ LLLL(E) anticommute avec s1, alors on a vu e, 1.c) ⇔ f(Es1+) ⊂ Es1

− et f(Es1

−) ⊂ Es1

+ .

Si de plus f est bijective, f conserve les dimensions : dim Es1+ ≤ dim Es1

− et dim Es1

− ≤ dim Es1

+ .

Conclusion : dim Es1+ = dim Es1

− , et dim E est paire.

b) Posons n = 2m. Si (e1, …, em) est une base de Es1+, il découle de a) que (s2(e1), …, s2(em)) est

une base de Es1−. Soit BBBB = (e1, …, em, s2(e1), …, s2(em)) la base recollée. Alors :

MatBBBB(s1) =

− m

m

IOOI et MatBBBB(s2) =

OIIO

m

m .

2) Exemple. > with(linalg): S:=matrix(4,4,[-89,960,-2220,1400,-64,679,-1560,980 ,-148/3,520,-1191, 2240/3,-40,420,-960,601]); T:=matrix(4,4,[436/3,-1600,3785,-7280/3,160/3,-580, 1360,-2597/3,141/5, -304,708,-448,368/21,-1313/7,3040/7,-820/3]);

> evalm(S^2);evalm(T^2);evalm(multiply(S,T)+multiply( T,S));

> B:=convert(kernel(S-1),list);e1:=op(1,B):e2:=op(2,B ): e3:=multiply(T,e1):e4:=multiply(T,e2):P:=transpose( matrix([e1,e2,e3,e4]));

:= B

,

, , ,-20

-103

0 1 [ ], , ,18 4 1 0

:= T

4363

-1600 3785-7280

3

1603

-580 1360-2597

3

1415

-304 708 -448

36821

-13137

30407

-8203

:= S

-89 960 -2220 1400

-64 679 -1560 980

-1483

520 -11912240

3

-40 420 -960 601

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

0 0 0 0

0 0 0 0

0 0 0 0

0 0 0 0

Page 136: Problèmes d’algèbre linéaire

136

:= P

-20 18 0 1

-103

4 1 0

0 143

-25

1 0107

-47

> A:=multiply(inverse(P),S,P);B:=multiply(inverse(P), T,P);

_____________

Problème 38 : Sous-groupes finis de Gln(K)

Dans tout ce problème K = R ou C. On s’intéresse aux sous-groupes finis de Gln(K ).

Première partie : Exemples.

1) Montrer que

1101 et

−1011 engendrent un sous-groupe de Gl2(R) à 6 éléments, isomorphe

au groupe S3 des permutations de 1, 2, 3.

2) Montrer que

1001 ,

−−

1001 ,

− 01

10 ,

0110 ,

00i

i ,

−0

0i

i ,

ii

00 ,

−ii0

0 forment un sous-

groupe de Gl2(C). Quelle est sa table ?

Montrer que

1001 ,

−−

1001 ,

− 01

10 ,

0110 ,

00i

i ,

−0

0i

i ,

ii

00 ,

−ii0

0 forment un

sous-groupe de Gl2(C) ; table ?

3) Représentation matricielle de Q.

On note F3 le corps Z/3Z et Gl2(F3) le groupe multiplicatif des matrices inversibles à coefficients

dans F3, et Sl2(F3) le sous-groupe des matrices de déterminant 1. On note E la matrice unité.

a) Montrer que Gl2(F3) a 72 éléments, et Sl2(F3) a 24 éléments.

b) On note I =

− 01

10 , J =

−1111 et A =

1011 . Quels sont les ordres de I, J et A ?

Montrer que I, J et A engendrent Sl2(F3), et que I et J engendrent un sous-groupe de Sl2(F3) isomorphe à Q. Ce groupe est ici noté Q.

c) Montrer que Q est un sous-groupe distingué de Sl2(F3) et de Gl2(F3), que le groupe quotient

Sl2(F3)/Q est isomorphe à Z/3Z et le groupe quotient Sl2(F3)/Q est isomorphe à S3.

d) Montrer que le groupe dérivé de Gl2(F3) (i.e. le sous-groupe engendré par les commutateurs)

est Sl2(F3).

e) Montrer que A =

1011 et B =

1101 engendrent Sl2(F3).

3) Le groupe des matrices de permutation.

:= A

1 0 0 0

0 1 0 0

0 0 -1 0

0 0 0 -1

:= B

0 0 1 0

0 0 0 1

1 0 0 0

0 1 0 0

Page 137: Problèmes d’algèbre linéaire

137

4) Montrer que tout groupe fini admet une représentation matricielle [Penser au théroème de Cayley, § 9.]

5) Soit H une partie de Gln(K ) finie, non vide, stable par multiplication. Montrer que H est un

sous-groupe de Gln(K ).

5) Soit A ∈ Mn(K ) une matrice telle que AN

= In .

On pose P = N

AAAI N 1...² −++++ .

Montrer que PA = AP = P. En déduire que P est un projecteur.

Montrer que dim Ker( A – I ) = N1 ∑

=

1

0

)(N

k

kAtr .

Deuxième partie :

Soit G un sous-groupe de Gln(K ) à N éléments. On note p = N1 ∑

∈Gg

g .

Montrer que (∀h ∈ G) p o h = h o p = p. En déduire p2 = p.

Soit F = x ∈ E ; (∀x ∈ E) g(x) = x . Comparer Im p et F. En déduire tr p = dim F. Montrer que F possède un supplémentaire stable par tous les éléments de G.

Application : Quel est le nombre moyen de points fixes d’une permutation de Sn ? Lemme de Maschke ? Cf aussi RMS mai 2006, n° 938 ____________