18 Diverses factorisation de matrices
Transcription
18 Diverses factorisation de matrices
18 Diverses factorisation de matrices On utilise les notations et dénitions du chapitre 13. 18.1 Les théorèmes de réduction des matrices Les théorèmes de réduction des matrices (voir le chapitre 17) nous fournissent des factorisations de matrices. Par exemple, une matrice A ∈ Mn (K) qui est diagonalisable [resp. trigonalisable] s'écrit A = P DP −1 [resp. A = P T P −1 ] avec P ∈ GLn (K) et D diagonale [resp. T triangulaire]. La décomposition additive de Dunford-Schwarz d'une matrice inversible (voir le paragraphe 16.5) nous donne une décomposition multiplicative. Dénition 18.1 On dit qu'une matrice U nilpotente. ∈ Mn (K) est unipotente si la matrice U − In est Théorème 18.1 (Dunford-Schwarz) Soit A ∈ GLn (K) telle que son polynôme caractéris- tique soit scindé sur K. Il existe un unique couple formé d'une matrice inversible diagonalisable D et d'une matrice unipotente U telles que A = DU = U D. Démonstration. On a la décomposition de Dunford-Schwarz A = D + N avec D diagona- lisable et N nilpotente qui commute à D. Comme A est inversible, il en est de même de D et on peut écrire que A = D (In + D−1 N ) avec diagonalisable inversible et U = In + D−1 N nilpotente (pour k ∈ N∗ , on a (U − In )k = k k (D−1 N ) = (D−1 ) N k puisque DN = N D, donc D−1 N = N D−1 ) qui commute à D. Si A = DU est une telle décomposition, on a alors, A = D + N avec N = D (U − In ) nilpotente (puisque U − In est nilpotente et commute à D) qui commute à D, ce qui nous donne la décomposition additive de Dunford Schwarz et nous assure de l'unicité de D et de U = D−1 A. Si le corps K est algébriquement clos, on a toujours une décomposition multiplicative de Dunford-Schwarz dans GLn (K) . Exercice 18.1 Montrer que, dans la décomposition multiplicative de Dunford-Schwarz d'une matrice inversible, les matrices D et U sont des polynômes en A. Solution 18.1 On utilise les notations du théorème précédent. On sait que dans la décomposition additive de Dunford-Schwarz de A, les matrices D et N sont des polynômes en A. En utilisant le théorème de Cayley-Hamilton, on voit que la matrice D−1 est un polynôme en D, donc un polynôme en A. Il en résulte que U = In + D−1 N est un polynôme en A. 473 Diverses factorisation de matrices 474 Exercice 18.2 On suppose K algébriquement clos et de caractéristique nulle. Montrer que A ∈ GLn (K) est diagonalisable si, et seulement si, il existe un entier r ≥ 1 tel que Ar soit diagonalisable. Solution 18.2 On rappelle que, pour K algébriquement clos, on a Sp (Ar ) = {λr | λ ∈ Sp (A)} (théorème 16.1). Si A est diagonalisable, il en est alors de même de Ar pour tout r ≥ 1. Réciproquement supposons qu'il existe un entier r ≥ 1 tel que Ar soit diagonalisable. Comme Ar et Dr commutent (Ar = Dr U r = U r Dr puisque DU = U D) et sont diagonalisables, ces matrices sont simultanément diagonalisables. Il existe donc P ∈ GLn (K) telle que P −1 Ar P = diag (λr1 , · · · , λrn ) et P −1 Dr P = diag (λr1 , · · · , λrn ) , où λ1 , · · · , λn sont les valeurs propres de A et de D (on rappelle que Sp (A) = Sp (D)). De Ar = Dr U r , on déduit alors que : P diag (λr1 , · · · , λrn ) P −1 = P diag (λr1 , · · · , λrn ) P −1 U r et U r = In . La matrice U est donc annulée par X r − 1 et par (X − 1)n (elle est unipotente), son polynôme minimal est donc un diviseur de X r − 1 et (X − 1)n , il divise donc leur pgcd qui vaut X − 1. Ce polynôme minimal est donc X − 1, ce qui revient à dire que U = In et A = D est diagonalisable. 18.2 Matrices de dilatation et de transvection. Générateurs de GLn (K) On se reportera au paragraphe 13.1 pour la description des opérations élémentaires et pour les démonstrations des théorèmes. On rappelle qu'une matrice de transvection est une matrice de la forme : Tij (λ) = In + λEij avec 1 ≤ i ̸= j ≤ n et λ ∈ K et qu'une matrice de dilatation est une matrice de la forme : Di (λ) = In + (λ − 1) Eii avec 1 ≤ i ≤ n et λ ∈ K∗ . Ces matrices peuvent être utilisées pour réaliser des opérations élémentaires : la multiplication à gauche [resp. à droite] par une matrice de dilatation Di (λ) a pour eet de multiplier la ligne i [resp. la colonne i] par λ ; la multiplication à gauche [resp. à droite] par une matrice de transvection Tij (λ) a pour eet de remplacer la ligne Li par Li + λLj [resp. la colonne Cj par Cj + λCi ]. L'ensemble des matrices de dilatation ou de transvection forme un système générateur du groupe multiplicatif GLn (K) . Théorème 18.2 Toute matrice A ∈ GLn (K) s'écrit : A= r ∏ Pk Dn (λ) k=1 s ∏ Qj j=1 où P1 , · · · , Pr , Q1 , · · · , Qs sont des matrices de transvection et λ = det (A) . Matrices de dilatation et de transvection. Générateurs de GLn (K) 475 On en déduit que le sous-groupe SLn (K) de GLn (K) formé des matrices des déterminant égal à 1 est engendré par l'ensemble des matrices de transvection. On en déduit également les résultats de topologie suivants. Corollaire 18.1 Les groupes SLn (R) , SLn (C) et GLn (C) sont connexes par arcs. Démonstration. Soit A ∈ SLn (K) pour K = R ou C. Elle s'écrit A = r ∏ Pk k=1 s ∏ Qj où les j=1 Pk et Qj sont des matrices de transvections. Pour toute matrice de transvection T = Tij (λ) et tout t ∈ [0, 1] , on note T (t) = Tij (tλ) et on dénit l'application γ : [0, 1] → SLn (K) par : ∀t ∈ [0, 1] , γ (t) = r ∏ Pk (t) k=1 s ∏ Qj (t) j=1 Cette application est continue avec γ (0) = In et γ (1) = A. On a donc ainsi prouvé que SLn (K) est connexe par arcs. Soit A ∈ GLn (C) . Elle s'écrit A = r ∏ Pk · Dn (det (A)) · s ∏ Qj où les Pk et Qj sont des j=1 k=1 matrices de transvections. Comme C∗ est connexe par arcs, il existe une application continue φ : [0, 1] → C∗ telle que φ (0) = 1 et φ (1) = det (A) . L'application γ : [0, 1] → GLn (C) dénie par : ∀t ∈ [0, 1] , γ (t) = r ∏ Pk (t) · Dn (φ (t)) · k=1 s ∏ Qj (t) j=1 est alors continue avec γ (0) = In et γ (1) = A. On a donc ainsi prouvé que GLn (C) est connexe par arcs. Voir aussi l'exercice 17.18 pour une autre démonstration de la connexité de GLn (C) . Corollaire 18.2 Les ensembles − GL+ n (R) et GLn (R) sont connexes par arcs et ce sont les composantes connexes de GLn (R) (donc GLn (R) n'est pas connexe). Lemme 18.1 Toute matrice de transvection ou de dilatation inversible s'écrit comme produit de matrices diagonalisables inversibles. Démonstration. Une matrice de dilatation inversible Dn (λ) est diagonale (avec λ ̸= 0). Si Tij (λ) est une matrice de transvection, pour toute matrice diagonale D de termes diagonaux λi non nuls et deux à deux distincts, la matrice D · Tij (λ) est triangulaire avec les mêmes termes diagonaux que D, elle est donc triangulaire avec ses termes diagonaux non nuls et deux à deux distincts, donc diagonalisable inversible et Tij (λ) = D−1 (D · Tij (λ)) est produit de deux matrices diagonalisables inversibles. Théorème 18.3 Le groupe multiplicatif GLn (K) est engendré par l'ensemble des matrices diagonalisables inversibles. Démonstration. Toute matrice inversible est produit de matrices de transvection ou de dilatation inversible et chacune de ces matrices est produit de matrices diagonalisables inversibles. Diverses factorisation de matrices 476 18.3 Factorisation LR (ou LU) On se reportera au paragraphe 17.18 pour les dénitions. Théorème 18.4 Une matrice A ∈ GLn (K) admet une décomposition A = LR, où L est une matrice triangulaire inférieure à diagonale unité et R une matrice triangulaire supérieure si, et seulement si, tous les déterminants principaux de A sont non nuls. Lorsqu'elle existe une telle décomposition est unique. Démonstration. Pour la condition nécessaire et susant donnant l'existence d'une telle décomposition, on procède par récurrence sur n ≥ 1. Pour n = 1, c'est clair. Supposons le résultat acquis pour n − 1 ≥ 1 et soit A ∈ GLn (K) ayant tous les déterminants principaux non nuls. ( ) On écrit A = A1 B1 C1 ann avec A1 ∈ Mn−1 (K) , B1 ∈ Mn−1,1 (K) , C1 ∈ M1,n−1 (K) et ann ∈ K. Comme tous les déterminants principaux de A sont non nuls, on a A1 ∈ GLn−1 (K) avec tous ses déterminants principaux non nuls et ann ∈ K∗ . Par hypothèse de récurrence, il existe L1 triangulaire inférieure à diagonale unité et R1 triangulaire supérieure dans GLn−1 (K) telles que A1 = L1 R1 . Notons : ( ) ( ) L1 0 R1 E1 L= , R= D1 1 0 α où D1 ∈ M1,n−1 (K) , E1 ∈ Mn−1,1 (K) et α ∈ K∗ sont à déterminer. La matrice L est triangulaire inférieure à diagonale unité et la matrice R est triangulaire supérieure dans GLn (K) . L'égalité A = LR équivaut : ( A1 B1 C1 ann ) ( = L1 R1 L1 E1 D1 R1 α + D1 E1 ) soit à : L1 E1 = B1 , D1 R1 = C1 , α + D1 E1 = ann Comme L1 est inversible, le système linéaire L1 E1 = B1 a un unique solution E1 ∈ Mn−1,1 (K) = Kn−1 et comme R1 est inversible, le système linéaire D1 R1 = C1 , équivalent à t R1 (t D1 ) = t C1 , a un unique solution D1 ∈ M1,n−1 (K) , puis α = ann − D1 E1 . On a donc ainsi un décomposition LR. Réciproquement si A ∈ GLn (K) admet une décomposition LR, alors R est aussi inversible et la décomposition par bloc faite précédemment nous montre que tous les déterminants principaux de A sont non nuls. En eet, det (A) ̸= 0 puisque A ∈ GLn (K) , A1 = L1 R1 est inversible det (R) ̸= 0 et tous les déterminants principaux de A1 sont non puisque det (A1 ) = det (R1 ) = α nuls par hypothèse de récurrence. Montrons enn l'unicité d'une telle décomposition quand elle existe. Supposons que A ∈ GLn (K) s'écrive A = L1 R1 = L2 R2 avec L1 , L2 triangulaires inférieures de diagonale unité et R1 , R2 triangulaires supérieures. Toutes les matrices considérées étant −1 inversibles, on a L−1 2 L1 = R2 R1 et cette matrice est à la fois triangulaire inférieure et triangulaire supérieure de diagonale unité, c'est donc la matrice l'identité. Donc L1 = L2 et R1 = R2 . Factorisation de Cholesky des matrices symétriques réelles dénies positives 477 Au paragraphe 13.4 on donne une démonstration du théorème précédent basée sur la méthode des pivots de Gauss. Dans le cas où la matrice A ∈ GLn (K) est symétrique avec tous ses déterminants principaux non nuls, dans la décomposition LR de A, on a det (R) = det (A) ̸= 0, donc tous les termes diagonaux de R sont non nuls et on peut écrire R sous la forme R = DR′ avec D diagonale et R′ triangulaire supérieure à diagonale unité. On a donc A = LDR′ et l'égalité t A = A nous donne, compte tenu de l'unicité de la décomposition LR, R′ = t L. On a donc la décomposition unique A = LD t L, où L est triangulaire inférieure à diagonale unité et D diagonale. Pour K = R, cette décomposition nous donne un moyen de calculer la signature de A et cette matrice est dénie positive si et seulement si tous les coecients de D sont strictement positifs.(voir le paragraphe 13.5). 18.4 Factorisation de Cholesky des matrices symétriques réelles dénies positives Dans le cas où la matrice A est symétrique réelle dénie positive, la décomposition LD t L permet de montrer le résultat suivant. Théorème 18.5 Une matrice réelle A est symétrique dénie positive si, et seulement si, il existe une matrice B triangulaire inférieure et inversible telle que A = B t B. De plus une telle décomposition est unique si on impose la positivité des coecients diagonaux de la matrice B. Démonstration. Voir le paragraphe 13.6. On peut retrouver ce théorème en utilisant le procédé de Gram-Schmidt (voir le paragraphe 43.4). Si A est une matrice réelle symétrique dénie positive, elle dénit alors un produit scalaire sur Rn : ∀ (x, y) ∈ Rn × Rn , ⟨x | y⟩ = t xAy Le procédé de Gram-Schmidt permet de construire, à partir de la base canonique B0 = (ei )1≤i≤n de Rn , une base B = (fi )1≤i≤n qui est orthonormée pour ce produit scalaire. Une telle base étant construite comme suit : 1 g1 = e1 , f1 = ∥g ∥ g1 1 k−1 ∑ ⟨ek | fj ⟩ fj , fk = gk = ek − j=1 1 gk , (k = 2, · · · , n) ∥gk ∥ La matrice de passage P de B0 à B est alors triangulaire supérieure de termes diagonaux 1 > 0 et la matrice du produit scalaire ⟨· | ·⟩ dans cette base B est alors In = t P AP, ce qui ∥gk ∥ nous donne A = B t B où B = t P −1 est triangulaire inférieure de termes diagonaux ∥gk ∥ > 0. 18.5 Factorisation QR Pour ce paragraphe K = R. Comme application du théorème de Cholesky, on a le résultat suivant. Diverses factorisation de matrices 478 Théorème 18.6 Toute matrice A ∈ GLn (R) s'écrit de manière unique A = QR où Q est une matrice orthogonale et R une matrice triangulaire supérieure à coecients diagonaux strictement positifs. Démonstration. Si A · A est alors symétrique dénie positive et en conséquence admet une décomposition de Cholesky t A · A = B t B, où B est triangulaire inférieure de termes diagonaux strictement positifs. La matrice Q = t A−1 B est alors orthogonale. En eet, on a : t A ∈ GLn (R) , la matrice M = QQ = t BA−1 t A−1 B = t B ( t t ( )−1 −1 ( )−1 )−1 B B = In B = tB tB B = tB B tB A·A Ce qui nous donne A = QR avec Q = t A−1 B orthogonale et R = t B triangulaire supérieure à coecients diagonaux strictement positifs. S'il existe deux décompositions A = Q1 R1 = Q2 R2 avec Q1 , Q2 orthogonales et R1 , R2 t triangulaires supérieures, la matrice ∆ = R1 R2−1 = Q−1 1 Q2 = Q1 Q2 est triangulaire supérieure −1 t orthogonale et ∆ = ∆ est à la fois triangulaire supérieure et inférieure, donc diagonale, et orthogonale. Les termes diagonaux de ∆ sont donc égaux à ±1. Si on suppose de plus que R1 et R2 sont à termes diagonaux strictement positifs il en est de même de ∆ et nécessairement ∆ = In , ce qui nous donne R1 = R2 et Q1 = Q2 . D'où l'unicité de la décomposition. Ce théorème peut aussi se montrer en utilisant le procédé de Gram-Schmidt, ce qui donne un moyen plus pratique que la décomposition de Cholesky pour obtenir les matrices Q et R. On se place sur Rn muni de sa structure euclidienne canonique : ∀ (x, y) ∈ R × R , ⟨x | y⟩ = n n n ∑ xk yk k=1 On désigne par B0 = (ei )1≤i≤n la base canonique de Rn et par B = (fi )1≤i≤n la base de Rn formée des vecteurs colonnes de A ∈ GLn (R) . Le théorème de Gram-Schmidt nous permet de construire une base orthonormée B1 = (gi )1≤i≤n de Rn telle que Vect {f1 , · · · , fk } = Vect {g1 , · · · , gk } pour tout k compris entre 1 et n. La matrice de passage PB,B1 de la base B à la base B1 est triangulaire supérieure et la matrice de passage PB0 ,B1 de la base canonique B0 à la base B1 est orthogonale. En considérant que A est la matrice de passage PB0 ,B de la base canonique B0 à la base B, on a (relation de Chasles pour les matrices de passage) : A = PB0 ,B = PB0 ,B1 PB1 ,B = QR −1 avec Q = PB0 ,B1 orthogonale et R = PB1 ,B = PB,B triangulaire supérieure de termes diagonaux 1 ⟨gk | fk ⟩ > 0. De ce théorème, on déduit la décomposition d'Iwasawa. Théorème 18.7 Toute matrice A ∈ GLn (R) s'écrit de manière unique A = QDR où Q est une matrice orthogonale, D une matrice diagonale de coecients diagonaux strictement positifs et R une matrice triangulaire supérieure à coecients diagonaux égaux à 1. Démonstration. On a la décomposition A = QR où Q est orthogonale et R triangulaire supérieure à coecients diagonaux strictement positifs. On peut écrire R sous la forme R = DR′ avec D diagonale à coecients diagonaux strictement positifs et R′ triangulaire supérieure à diagonale unité. Ce qui nous donne la décomposition A = QDR′ . L'unicité dans la décomposition QR nous assure l'unicité de cette décomposition. Décomposition polaire 479 18.6 Décomposition polaire Du théorème spectral, on déduit l'existence de la racine carrée d'une matrice complexe hermitienne [resp. réelle symétrique] (théorème 22.11), ce qui permet d'obtenir la décomposition polaire d'une matrice complexe ou réelle inversible. Théorème 18.8 Toute matrice A ∈ GLn (C) [resp. A ∈ GLn (R)] peut s'écrire de manière unique A = U H [resp. A = ΩS ] où U [resp. Ω] est une matrice unitaire [resp. orthogonale] et H [resp. S ] une matrice hermitienne [resp. symétrique] dénie positive. Démonstration. Voir le corollaire 17.10. De la densité de GLn (K) dans Mn (K) pour K = R ou C, on peut déduire une généralisation à Mn (K) du théorème de décomposition polaire des matrices inversibles. Pour ce faire on a besoin du lemme suivant. Lemme 18.2 L'ensemble Un (C) des matrices complexes unitaires [resp. On (R) des matrices réelles orthogonales] est compact dans Mn (C) [resp. dansMn (R)]. Démonstration. Voir le lemme 22.6 pour le cas réel, le cas complexe se traitant de manière analogue. Théorème 18.9 Toute matrice A ∈ Mn (C) [resp. A ∈ Mn (R)] peut s'écrire A = U H [resp. A = ΩS ] où U [resp. Ω] est une matrice unitaire [resp. orthogonale] et H [resp. S ] une matrice hermitienne [resp. symétrique] positive. Démonstration. Voir le théorème 22.12 pour le cas réel, le cas complexe se traitant de manière analogue. Le théorème de décomposition polaire des matrices inversibles peut s'exprimer comme suit en utilisant la compacité de On (R) . Théorème 18.10 L'application (U, H) 7−→ U H [resp. (Ω, S) 7−→ ΩS ] réalise un homéomorphisme de Un (C) × Hn++ (C) sur GLn (C) [resp. de On (R) × Sn++ (R) sur GLn (R)]. Démonstration. Voir le théorème 22.13 pour le cas réel, le cas complexe se traitant de manière analogue. Exercice 18.3 On munit l'espace Mn (R) du produit scalaire déni par : ∀ (A, B) ∈ Mn (R) × Mn (R) , ⟨A | B⟩ = Tr ( t AB ) (c'est tout simplement le produit scalaire canonique de Rn identié à Mn (R)). Montrer que : √ 2 d (0, SLn (R)) = où d (0, SLn (R)) = inf A∈SLn (R) n ∥A∥ est la distance de 0 à SLn (R) . Solution 18.3 Toute matrice A ∈ Mn (R) s'écrit A = ΩS où Ω est orthogonale S symétrique positive et on a : ∥A∥2 = Tr ( t ) ( ) ( ) AA = Tr S t ΩΩS = Tr S 2 Diverses factorisation de matrices 480 Comme S est symétrique réelle, elle se diagonalise dans une base orthonormée, c'est-à-dire qu'il existe P ∈ On (R) telle t P SP = D est diagonale. En notant λ1 , · · · , λn les valeurs propres (réelles positives) de S, on a : ( ∥A∥ = Tr S 2 2 ) ( = Tr D 2 ) = n ∑ λ2k k=1 En utilisant l'inégalité entre moyennes géométrique et arithmétique (voir le paragraphe 35.3.4) : ( n ∏ ) n1 λ2k 1∑ 2 λ n k=1 k n ≤ k=1 on déduit que : ( ∀A ∈ Mn (R) , ∥A∥2 ≥ n n ∏ ) n1 λ2k ( ( )) 1 ( ( )) 1 = n det S 2 n = n det A2 n k=1 (on a det (A) = det (Ω) det (S) avec det (Ω) = ±1 et det (A2 ) = |det (A)|2 ) soit : ∀A ∈ Mn (R) , ∥A∥ ≥ et en particulier : √ 1 n |det (A)| n √ ∀A ∈ SLn (R) , ∥A∥ ≥ n √ Il en résulte que d (0, SLn (R)) ≥ n. Pour A ∈ On+ (R) ⊂ SLn (R) , on a : ( ) ∥A∥2 = Tr t AA = Tr (In ) = n √ donc d (0, SLn (R)) ≤ n et on a l'égalité.