18 Diverses factorisation de matrices

Transcription

18 Diverses factorisation de matrices
18
Diverses factorisation de matrices
On utilise les notations et dénitions du chapitre 13.
18.1 Les théorèmes de réduction des matrices
Les théorèmes de réduction des matrices (voir le chapitre 17) nous fournissent des factorisations de matrices.
Par exemple, une matrice A ∈ Mn (K) qui est diagonalisable [resp. trigonalisable] s'écrit
A = P DP −1 [resp. A = P T P −1 ] avec P ∈ GLn (K) et D diagonale [resp. T triangulaire].
La décomposition additive de Dunford-Schwarz d'une matrice inversible (voir le paragraphe
16.5) nous donne une décomposition multiplicative.
Dénition 18.1 On dit qu'une matrice U
nilpotente.
∈ Mn (K) est unipotente si la matrice U − In est
Théorème 18.1 (Dunford-Schwarz) Soit A ∈ GLn (K) telle que son polynôme caractéris-
tique soit scindé sur K. Il existe un unique couple formé d'une matrice inversible diagonalisable
D et d'une matrice unipotente U telles que A = DU = U D.
Démonstration. On a la décomposition de Dunford-Schwarz A = D + N avec D diagona-
lisable et N nilpotente qui commute à D.
Comme A est inversible, il en est de même de D et on peut écrire que A = D (In + D−1 N )
avec diagonalisable inversible et U = In + D−1 N nilpotente (pour k ∈ N∗ , on a (U − In )k =
k
k
(D−1 N ) = (D−1 ) N k puisque DN = N D, donc D−1 N = N D−1 ) qui commute à D.
Si A = DU est une telle décomposition, on a alors, A = D + N avec N = D (U − In )
nilpotente (puisque U − In est nilpotente et commute à D) qui commute à D, ce qui nous
donne la décomposition additive de Dunford Schwarz et nous assure de l'unicité de D et de
U = D−1 A.
Si le corps K est algébriquement clos, on a toujours une décomposition multiplicative de
Dunford-Schwarz dans GLn (K) .
Exercice 18.1 Montrer que, dans la décomposition multiplicative de Dunford-Schwarz d'une
matrice inversible, les matrices D et U sont des polynômes en A.
Solution 18.1 On utilise les notations du théorème précédent.
On sait que dans la décomposition additive de Dunford-Schwarz de A, les matrices D et N
sont des polynômes en A. En utilisant le théorème de Cayley-Hamilton, on voit que la matrice
D−1 est un polynôme en D, donc un polynôme en A. Il en résulte que U = In + D−1 N est un
polynôme en A.
473
Diverses factorisation de matrices
474
Exercice 18.2 On suppose
K algébriquement clos et de caractéristique nulle. Montrer que
A ∈ GLn (K) est diagonalisable si, et seulement si, il existe un entier r ≥ 1 tel que Ar soit
diagonalisable.
Solution 18.2 On rappelle que, pour K algébriquement clos, on a Sp (Ar ) = {λr | λ ∈ Sp (A)}
(théorème 16.1).
Si A est diagonalisable, il en est alors de même de Ar pour tout r ≥ 1.
Réciproquement supposons qu'il existe un entier r ≥ 1 tel que Ar soit diagonalisable. Comme
Ar et Dr commutent (Ar = Dr U r = U r Dr puisque DU = U D) et sont diagonalisables, ces
matrices sont simultanément diagonalisables. Il existe donc P ∈ GLn (K) telle que P −1 Ar P =
diag (λr1 , · · · , λrn ) et P −1 Dr P = diag (λr1 , · · · , λrn ) , où λ1 , · · · , λn sont les valeurs propres de A
et de D (on rappelle que Sp (A) = Sp (D)).
De Ar = Dr U r , on déduit alors que :
P diag (λr1 , · · · , λrn ) P −1 = P diag (λr1 , · · · , λrn ) P −1 U r
et U r = In . La matrice U est donc annulée par X r − 1 et par (X − 1)n (elle est unipotente),
son polynôme minimal est donc un diviseur de X r − 1 et (X − 1)n , il divise donc leur pgcd qui
vaut X − 1. Ce polynôme minimal est donc X − 1, ce qui revient à dire que U = In et A = D
est diagonalisable.
18.2 Matrices de dilatation et de transvection. Générateurs de GLn (K)
On se reportera au paragraphe 13.1 pour la description des opérations élémentaires et pour
les démonstrations des théorèmes.
On rappelle qu'une matrice de transvection est une matrice de la forme :
Tij (λ) = In + λEij
avec 1 ≤ i ̸= j ≤ n et λ ∈ K et qu'une matrice de dilatation est une matrice de la forme :
Di (λ) = In + (λ − 1) Eii
avec 1 ≤ i ≤ n et λ ∈ K∗ .
Ces matrices peuvent être utilisées pour réaliser des opérations élémentaires :
la multiplication à gauche [resp. à droite] par une matrice de dilatation Di (λ) a pour eet
de multiplier la ligne i [resp. la colonne i] par λ ;
la multiplication à gauche [resp. à droite] par une matrice de transvection Tij (λ) a pour
eet de remplacer la ligne Li par Li + λLj [resp. la colonne Cj par Cj + λCi ].
L'ensemble des matrices de dilatation ou de transvection forme un système générateur du
groupe multiplicatif GLn (K) .
Théorème 18.2 Toute matrice A ∈ GLn (K) s'écrit :
A=
r
∏
Pk Dn (λ)
k=1
s
∏
Qj
j=1
où P1 , · · · , Pr , Q1 , · · · , Qs sont des matrices de transvection et λ = det (A) .
Matrices de dilatation et de transvection. Générateurs de GLn (K)
475
On en déduit que le sous-groupe SLn (K) de GLn (K) formé des matrices des déterminant
égal à 1 est engendré par l'ensemble des matrices de transvection.
On en déduit également les résultats de topologie suivants.
Corollaire 18.1 Les groupes SLn (R) , SLn (C) et GLn (C) sont connexes par arcs.
Démonstration. Soit A ∈ SLn (K) pour K = R ou C. Elle s'écrit A =
r
∏
Pk
k=1
s
∏
Qj où les
j=1
Pk et Qj sont des matrices de transvections.
Pour toute matrice de transvection T = Tij (λ) et tout t ∈ [0, 1] , on note T (t) = Tij (tλ) et
on dénit l'application γ : [0, 1] → SLn (K) par :
∀t ∈ [0, 1] , γ (t) =
r
∏
Pk (t)
k=1
s
∏
Qj (t)
j=1
Cette application est continue avec γ (0) = In et γ (1) = A. On a donc ainsi prouvé que SLn (K)
est connexe par arcs.
Soit A ∈ GLn (C) . Elle s'écrit A =
r
∏
Pk · Dn (det (A)) ·
s
∏
Qj où les Pk et Qj sont des
j=1
k=1
matrices de transvections.
Comme C∗ est connexe par arcs, il existe une application continue φ : [0, 1] → C∗ telle que
φ (0) = 1 et φ (1) = det (A) .
L'application γ : [0, 1] → GLn (C) dénie par :
∀t ∈ [0, 1] , γ (t) =
r
∏
Pk (t) · Dn (φ (t)) ·
k=1
s
∏
Qj (t)
j=1
est alors continue avec γ (0) = In et γ (1) = A. On a donc ainsi prouvé que GLn (C) est connexe
par arcs.
Voir aussi l'exercice 17.18 pour une autre démonstration de la connexité de GLn (C) .
Corollaire 18.2 Les ensembles
−
GL+
n (R) et GLn (R) sont connexes par arcs et ce sont les
composantes connexes de GLn (R) (donc GLn (R) n'est pas connexe).
Lemme 18.1 Toute matrice de transvection ou de dilatation inversible s'écrit comme produit
de matrices diagonalisables inversibles.
Démonstration. Une matrice de dilatation inversible Dn (λ) est diagonale (avec λ ̸= 0).
Si Tij (λ) est une matrice de transvection, pour toute matrice diagonale D de termes diagonaux λi non nuls et deux à deux distincts, la matrice D · Tij (λ) est triangulaire avec les mêmes
termes diagonaux que D, elle est donc triangulaire avec ses termes diagonaux non nuls et deux à
deux distincts, donc diagonalisable inversible et Tij (λ) = D−1 (D · Tij (λ)) est produit de deux
matrices diagonalisables inversibles.
Théorème 18.3 Le groupe multiplicatif GLn (K) est engendré par l'ensemble des matrices diagonalisables inversibles.
Démonstration. Toute matrice inversible est produit de matrices de transvection ou de dilatation inversible et chacune de ces matrices est produit de matrices diagonalisables inversibles.
Diverses factorisation de matrices
476
18.3 Factorisation LR (ou LU)
On se reportera au paragraphe 17.18 pour les dénitions.
Théorème 18.4 Une matrice A ∈ GLn (K) admet une décomposition A = LR, où L est une
matrice triangulaire inférieure à diagonale unité et R une matrice triangulaire supérieure si, et
seulement si, tous les déterminants principaux de A sont non nuls. Lorsqu'elle existe une telle
décomposition est unique.
Démonstration. Pour la condition nécessaire et susant donnant l'existence d'une telle
décomposition, on procède par récurrence sur n ≥ 1.
Pour n = 1, c'est clair.
Supposons le résultat acquis pour n − 1 ≥ 1 et soit A ∈ GLn (K) ayant tous les déterminants
principaux non nuls.
(
)
On écrit A =
A1 B1
C1 ann
avec A1 ∈ Mn−1 (K) , B1 ∈ Mn−1,1 (K) , C1 ∈ M1,n−1 (K) et
ann ∈ K. Comme tous les déterminants principaux de A sont non nuls, on a A1 ∈ GLn−1 (K)
avec tous ses déterminants principaux non nuls et ann ∈ K∗ .
Par hypothèse de récurrence, il existe L1 triangulaire inférieure à diagonale unité et R1
triangulaire supérieure dans GLn−1 (K) telles que A1 = L1 R1 . Notons :
(
)
(
)
L1 0
R1 E1
L=
, R=
D1 1
0 α
où D1 ∈ M1,n−1 (K) , E1 ∈ Mn−1,1 (K) et α ∈ K∗ sont à déterminer.
La matrice L est triangulaire inférieure à diagonale unité et la matrice R est triangulaire
supérieure dans GLn (K) .
L'égalité A = LR équivaut :
(
A1 B1
C1 ann
)
(
=
L1 R1
L1 E1
D1 R1 α + D1 E1
)
soit à :
L1 E1 = B1 , D1 R1 = C1 , α + D1 E1 = ann
Comme L1 est inversible, le système linéaire L1 E1 = B1 a un unique solution E1 ∈ Mn−1,1 (K) =
Kn−1 et comme R1 est inversible, le système linéaire D1 R1 = C1 , équivalent à t R1 (t D1 ) = t C1 ,
a un unique solution D1 ∈ M1,n−1 (K) , puis α = ann − D1 E1 .
On a donc ainsi un décomposition LR.
Réciproquement si A ∈ GLn (K) admet une décomposition LR, alors R est aussi inversible et
la décomposition par bloc faite précédemment nous montre que tous les déterminants principaux
de A sont non nuls. En eet, det (A) ̸= 0 puisque A ∈ GLn (K) , A1 = L1 R1 est inversible
det (R)
̸= 0 et tous les déterminants principaux de A1 sont non
puisque det (A1 ) = det (R1 ) =
α
nuls par hypothèse de récurrence.
Montrons enn l'unicité d'une telle décomposition quand elle existe.
Supposons que A ∈ GLn (K) s'écrive A = L1 R1 = L2 R2 avec L1 , L2 triangulaires inférieures
de diagonale unité et R1 , R2 triangulaires supérieures. Toutes les matrices considérées étant
−1
inversibles, on a L−1
2 L1 = R2 R1 et cette matrice est à la fois triangulaire inférieure et triangulaire supérieure de diagonale unité, c'est donc la matrice l'identité. Donc L1 = L2 et R1 = R2 .
Factorisation de Cholesky des matrices symétriques réelles dénies positives
477
Au paragraphe 13.4 on donne une démonstration du théorème précédent basée sur la méthode
des pivots de Gauss.
Dans le cas où la matrice A ∈ GLn (K) est symétrique avec tous ses déterminants principaux
non nuls, dans la décomposition LR de A, on a det (R) = det (A) ̸= 0, donc tous les termes
diagonaux de R sont non nuls et on peut écrire R sous la forme R = DR′ avec D diagonale et
R′ triangulaire supérieure à diagonale unité. On a donc A = LDR′ et l'égalité t A = A nous
donne, compte tenu de l'unicité de la décomposition LR, R′ = t L.
On a donc la décomposition unique A = LD t L, où L est triangulaire inférieure à diagonale
unité et D diagonale.
Pour K = R, cette décomposition nous donne un moyen de calculer la signature de A et
cette matrice est dénie positive si et seulement si tous les coecients de D sont strictement
positifs.(voir le paragraphe 13.5).
18.4 Factorisation de Cholesky des matrices symétriques
réelles dénies positives
Dans le cas où la matrice A est symétrique réelle dénie positive, la décomposition LD t L
permet de montrer le résultat suivant.
Théorème 18.5 Une matrice réelle
A est symétrique dénie positive si, et seulement si, il
existe une matrice B triangulaire inférieure et inversible telle que A = B t B. De plus une telle
décomposition est unique si on impose la positivité des coecients diagonaux de la matrice B.
Démonstration. Voir le paragraphe 13.6.
On peut retrouver ce théorème en utilisant le procédé de Gram-Schmidt (voir le paragraphe
43.4).
Si A est une matrice réelle symétrique dénie positive, elle dénit alors un produit scalaire
sur Rn :
∀ (x, y) ∈ Rn × Rn , ⟨x | y⟩ = t xAy
Le procédé de Gram-Schmidt permet de construire, à partir de la base canonique B0 =
(ei )1≤i≤n de Rn , une base B = (fi )1≤i≤n qui est orthonormée pour ce produit scalaire. Une telle
base étant construite comme suit :

1


 g1 = e1 , f1 = ∥g ∥ g1
1
k−1
∑


⟨ek | fj ⟩ fj , fk =
 gk = ek −
j=1
1
gk , (k = 2, · · · , n)
∥gk ∥
La matrice de passage P de B0 à B est alors triangulaire supérieure de termes diagonaux
1
> 0 et la matrice du produit scalaire ⟨· | ·⟩ dans cette base B est alors In = t P AP, ce qui
∥gk ∥
nous donne A = B t B où B = t P −1 est triangulaire inférieure de termes diagonaux ∥gk ∥ > 0.
18.5 Factorisation QR
Pour ce paragraphe K = R.
Comme application du théorème de Cholesky, on a le résultat suivant.
Diverses factorisation de matrices
478
Théorème 18.6 Toute matrice A ∈ GLn (R) s'écrit de manière unique A = QR où Q est une
matrice orthogonale et R une matrice triangulaire supérieure à coecients diagonaux strictement positifs.
Démonstration. Si
A · A est alors symétrique dénie
positive et en conséquence admet une décomposition de Cholesky t A · A = B t B, où B est
triangulaire inférieure de termes diagonaux strictement positifs.
La matrice Q = t A−1 B est alors orthogonale. En eet, on a :
t
A ∈ GLn (R) , la matrice M =
QQ = t BA−1 t A−1 B = t B
(
t
t
( )−1 −1
(
)−1
)−1
B B = In
B = tB tB
B = tB B tB
A·A
Ce qui nous donne A = QR avec Q = t A−1 B orthogonale et R = t B triangulaire supérieure
à coecients diagonaux strictement positifs.
S'il existe deux décompositions A = Q1 R1 = Q2 R2 avec Q1 , Q2 orthogonales et R1 , R2
t
triangulaires supérieures, la matrice ∆ = R1 R2−1 = Q−1
1 Q2 = Q1 Q2 est triangulaire supérieure
−1
t
orthogonale et ∆ = ∆ est à la fois triangulaire supérieure et inférieure, donc diagonale, et
orthogonale. Les termes diagonaux de ∆ sont donc égaux à ±1. Si on suppose de plus que R1
et R2 sont à termes diagonaux strictement positifs il en est de même de ∆ et nécessairement
∆ = In , ce qui nous donne R1 = R2 et Q1 = Q2 . D'où l'unicité de la décomposition.
Ce théorème peut aussi se montrer en utilisant le procédé de Gram-Schmidt, ce qui donne
un moyen plus pratique que la décomposition de Cholesky pour obtenir les matrices Q et R.
On se place sur Rn muni de sa structure euclidienne canonique :
∀ (x, y) ∈ R × R , ⟨x | y⟩ =
n
n
n
∑
xk yk
k=1
On désigne par B0 = (ei )1≤i≤n la base canonique de Rn et par B = (fi )1≤i≤n la base de Rn
formée des vecteurs colonnes de A ∈ GLn (R) .
Le théorème de Gram-Schmidt nous permet de construire une base orthonormée B1 =
(gi )1≤i≤n de Rn telle que Vect {f1 , · · · , fk } = Vect {g1 , · · · , gk } pour tout k compris entre 1
et n. La matrice de passage PB,B1 de la base B à la base B1 est triangulaire supérieure et la
matrice de passage PB0 ,B1 de la base canonique B0 à la base B1 est orthogonale.
En considérant que A est la matrice de passage PB0 ,B de la base canonique B0 à la base B,
on a (relation de Chasles pour les matrices de passage) :
A = PB0 ,B = PB0 ,B1 PB1 ,B = QR
−1
avec Q = PB0 ,B1 orthogonale et R = PB1 ,B = PB,B
triangulaire supérieure de termes diagonaux
1
⟨gk | fk ⟩ > 0.
De ce théorème, on déduit la décomposition d'Iwasawa.
Théorème 18.7 Toute matrice A ∈ GLn (R) s'écrit de manière unique A = QDR où Q est
une matrice orthogonale, D une matrice diagonale de coecients diagonaux strictement positifs
et R une matrice triangulaire supérieure à coecients diagonaux égaux à 1.
Démonstration. On a la décomposition A = QR où Q est orthogonale et R triangulaire supérieure à coecients diagonaux strictement positifs. On peut écrire R sous la forme R = DR′
avec D diagonale à coecients diagonaux strictement positifs et R′ triangulaire supérieure à
diagonale unité. Ce qui nous donne la décomposition A = QDR′ . L'unicité dans la décomposition QR nous assure l'unicité de cette décomposition.
Décomposition polaire
479
18.6 Décomposition polaire
Du théorème spectral, on déduit l'existence de la racine carrée d'une matrice complexe
hermitienne [resp. réelle symétrique] (théorème 22.11), ce qui permet d'obtenir la décomposition
polaire d'une matrice complexe ou réelle inversible.
Théorème 18.8 Toute matrice
A ∈ GLn (C) [resp. A ∈ GLn (R)] peut s'écrire de manière
unique A = U H [resp. A = ΩS ] où U [resp. Ω] est une matrice unitaire [resp. orthogonale] et
H [resp. S ] une matrice hermitienne [resp. symétrique] dénie positive.
Démonstration. Voir le corollaire 17.10.
De la densité de GLn (K) dans Mn (K) pour K = R ou C, on peut déduire une généralisation
à Mn (K) du théorème de décomposition polaire des matrices inversibles. Pour ce faire on a
besoin du lemme suivant.
Lemme 18.2 L'ensemble Un (C) des matrices complexes unitaires [resp. On (R) des matrices
réelles orthogonales] est compact dans Mn (C) [resp. dansMn (R)].
Démonstration. Voir le lemme 22.6 pour le cas réel, le cas complexe se traitant de manière
analogue.
Théorème 18.9 Toute matrice A ∈ Mn (C) [resp. A ∈ Mn (R)] peut s'écrire A = U H [resp.
A = ΩS ] où U [resp. Ω] est une matrice unitaire [resp. orthogonale] et H [resp. S ] une matrice
hermitienne [resp. symétrique] positive.
Démonstration. Voir le théorème 22.12 pour le cas réel, le cas complexe se traitant de
manière analogue.
Le théorème de décomposition polaire des matrices inversibles peut s'exprimer comme suit
en utilisant la compacité de On (R) .
Théorème 18.10 L'application (U, H) 7−→ U H [resp. (Ω, S) 7−→ ΩS ] réalise un homéomorphisme de Un (C) × Hn++ (C) sur GLn (C) [resp. de On (R) × Sn++ (R) sur GLn (R)].
Démonstration. Voir le théorème 22.13 pour le cas réel, le cas complexe se traitant de
manière analogue.
Exercice 18.3 On munit l'espace Mn (R) du produit scalaire déni par :
∀ (A, B) ∈ Mn (R) × Mn (R) , ⟨A | B⟩ = Tr
(
t
AB
)
(c'est tout simplement le produit scalaire canonique de Rn identié à Mn (R)).
Montrer que :
√
2
d (0, SLn (R)) =
où d (0, SLn (R)) =
inf
A∈SLn (R)
n
∥A∥ est la distance de 0 à SLn (R) .
Solution 18.3 Toute matrice A ∈ Mn (R) s'écrit A = ΩS où Ω est orthogonale S symétrique
positive et on a :
∥A∥2 = Tr
(
t
)
(
)
( )
AA = Tr S t ΩΩS = Tr S 2
Diverses factorisation de matrices
480
Comme S est symétrique réelle, elle se diagonalise dans une base orthonormée, c'est-à-dire qu'il
existe P ∈ On (R) telle t P SP = D est diagonale. En notant λ1 , · · · , λn les valeurs propres
(réelles positives) de S, on a :
(
∥A∥ = Tr S
2
2
)
(
= Tr D
2
)
=
n
∑
λ2k
k=1
En utilisant l'inégalité entre moyennes géométrique et arithmétique (voir le paragraphe 35.3.4) :
(
n
∏
) n1
λ2k
1∑ 2
λ
n k=1 k
n
≤
k=1
on déduit que :
(
∀A ∈ Mn (R) , ∥A∥2 ≥ n
n
∏
) n1
λ2k
(
( )) 1
(
( )) 1
= n det S 2 n = n det A2 n
k=1
(on a det (A) = det (Ω) det (S) avec det (Ω) = ±1 et det (A2 ) = |det (A)|2 ) soit :
∀A ∈ Mn (R) , ∥A∥ ≥
et en particulier :
√
1
n |det (A)| n
√
∀A ∈ SLn (R) , ∥A∥ ≥ n
√
Il en résulte que d (0, SLn (R)) ≥ n.
Pour A ∈ On+ (R) ⊂ SLn (R) , on a :
(
)
∥A∥2 = Tr t AA = Tr (In ) = n
√
donc d (0, SLn (R)) ≤ n et on a l'égalité.

Documents pareils