Pseudo-inverse d`une matrice carrée
Transcription
Pseudo-inverse d`une matrice carrée
Devoir Libre no 4 MP 933 & 934 Corrigé Pseudo-inverse d’une matrice carrée I Quelques propriétés des pseudo-inverses I.1. On vérifie aisément que M = M2 = M3 ; de l’équation MMM = M on déduit que M est un inverse faible de M. De plus, M commutant avec lui-même, M est un pseudo-inverse de M. Posons X = ( 10 10 ). Le calcul montre que MXM = M et XMX = X. En revanche, M = XM 6= MX = X donc X est un inverse faible mais pas un pseudo-inverse de M. I.2. a) On a (AX)2 = AXAX = (AXA)X = AX et (XA)2 = XAXA = X(AXA) = XA, donc AX et XA sont des matrices de projection. b) Soient u et v deux endomorphismes d’un K-espace vectoriel E. Alors Im(u ◦ v) = u v(E) ⊂ u(E) = Im(u), ce qui montre que rg(u ◦ v) 6 rg(u). De plus, dim u v(E) 6 dim v(E) donc rg(u ◦ v) 6 rg(v). Cela montre que rg(u ◦ v) 6 inf rg(u), rg(v) . On applique ce lemme dans la version matricielle : rg(AX) 6 rg(A) et rg(A) = rg(AX · A) 6 rg(AX) donc rg(A) = rg(AX). Puisque AX et XA sont des matrices de projection, leur rang est égal à leur trace, et donc rg(A) = rg(AX) = tr(AX) = tr(XA) = rg(XA). ↑ propriété de la trace Conclusion : rg A = rg(AX) = rg(XA) = tr(AX). I.3. On part de la relation AXA = A ; on multiplie à droite par A−1 ce qui donne AX = In . On en déduit que X est l’inverse de A : X = A−1 . Cela prouve l’unicité de X. De plus, les relations (1), (2) et (3) sont trivialement vérifiées : Si A ∈ GLn (R), la seule matrice X vérifiant (1) est A−1 et c’est un pseudo-inverse de A. I.4. On a AXAX′ = (AXA)X′ = AX′ . De même, XAX′ A = X(AX′ A) = XA. Or, A commute avec X et avec X′ , donc ces deux matrices sont égales : AX′ = XA. (4) On utilise ensuite une certain nombre de fois les propriétés (2), (3) et (4) pour obtenir (2) (3) (4) (4) (3) (2) X = XAX = XXA = XAX′ = AX′ X′ = X′ AX′ = X′ , d’où l’on déduit X = X′ : Le pseudo inverse, s’il existe, est unique. On pourra donc dire le pseudo-inverse, et non plus un pseudo-inverse. I.5. Les résultats suivants sont plus de la vérification qu’autre chose ; nous les mettons sous forme de tableau : matrice pseudo-inverse 0 Ak RAR−1 X A λ−1 X 0 Xk RXR−1 A X λA (éviter d’écrire X .) λ I.6. a) Le théorème du rang appliqué à l’endomorphisme ΦA permet d’écrire que dim Rn = n = dim Im(A) + dim Ker(A). Puisque l’on est en dimension finie, cette égalité et la relation Ker(A) ∩ Im(A) = {0} permet de conclure que Rn = Im(A) ⊕ Ker(A). b) Le théorème du rang pour les grands nous dit que, puisque Im A est un supplémentaire de Ker A, la restriction de ΦA à Im A, induit un isomorphisme de Im A vers Im A. ❏ Soit v ∈ R n . Montrons l’existence et l’unicité de w ∈ Im(A) tel que ΦA (w) ∈ Ker(A). lundi octobre — vendémiaire /home/walter/LaTeX/MP/Annee/2012/DM-2012/DM04.tex Devoir Libre no 4 (Corrigé) Mathématiques, MP 933 & 934 Existence : on décompose v dans la somme Rn = Ker(A) ⊕ Im(A) : il existe k ∈ Ker(A) et i ∈ Im(A) tels que v = k + i. Puisque ΨA est un automorphisme de Im(A), il existe donc un (unique) vecteur w ∈ Im(A) tel que i = ΨA (w) = ΦA (w). Ainsi, v − ΦA (w) ∈ Ker(A). Unicité : on suppose qu’il existe un vecteur w′ ∈ Im(A) tel que ΦA (w′ ) − v ∈ Ker(A). Alors ΦA (w − w′ ) = ΦA (w) − ΦA (w′ ) ∈ Ker(A). Or ΦA (w − w′ ) est également élément de Im(A), ce qui montre que ΦA (w − w′ ) = 0. Puisque w − w′ est élément de Im(A), on a donc w − w′ ∈ Ker(A) ∩ Im(A) et donc w = w′ . ❏ Pour tout v ∈ Rn , il existe un unique élément w de Im A tel que ΦA (w) − v ∈ Ker A. c) Pour obtenir le vecteur w, on a – décomposé v dans la somme directe Rn = Im(A) ⊕ Ker(A) et gardé la partie appartenant à Im(A) ; en d’autres termes, on a appliqué la projection p sur Im(A) parallèlement à Ker(A) ; – appliqué Ψ−1 A . n On peut donc écrire que ϕ(v) = Ψ−1 A p(v) pour tout v ∈ R , ou encore : n ϕ = Ψ−1 A ◦ p : c’est un endomorphisme de R . Munissons Rn d’une base B adaptée à la décomposition Rn = Im(A)⊕Ker(A). Dans cette base, la matrice représentative de ΦA est, en notant r = rg(A) : B O A′ = mat(ΦA ) = avec B ∈ GLr (R). O O B La matrice de la projection p sur Im(A) parallèlement à Ker(A) est I O P′ = mat(p) = r . O O B On en déduit que la matrice de ϕ dans la base B est −1 B X = mat(ϕ) = O B ′ O O et l’on vérifie immédiatement que X′ est un pseudo-inverse de A′ . Enfin, si l’on note A et X les matrices représentatives de ΦA et ϕ dans la base canonique, il existe une matrice inversible R ∈ GLn (R) telle que A = R−1 A′ R et X = R−1 X′ R ; la question I.5 permet alors de conclure que X est un pseudo-inverse de A. On a donc « inversé la partie inversible de A. » I.7. a) On se souvient du résultat suivant, qui est un exercice d’écriture facile : LEMME Si f, g ∈ L (E), alors : Im(f ◦ g) ⊂ Im(f ) et Ker(g) ⊂ Ker(f ◦ g). De X = XAX = A · XX on tire ΦX = ΦX ◦ ΦA ◦ ΦX et donc Im(X) ⊂ Im(A). De A = AXA = X · AA on tire : Im(A) ⊂ Im(X) On a donc Im(X) = Im(A). De X = XAX = XX · A on tire : Ker(A) ⊂ Ker(X) ; de A = AXA = AA · X on tire : Ker(X) ⊂ Ker(A). On a donc Ker(X) = Ker(A). ❏ Soit x ∈ Ker(A) ∩ Im(A). Il existe donc y ∈ Rn tel que x = ΦA (y). De plus, ΦA (x) = ΦA ◦ ΦA (y) = 0. On en déduit que (3) x = ΦA (y) = ΦA ◦ ΦX ◦ ΦA (y) = ΦX ◦ ΦA ◦ ΦA (y) = ΦX ◦ ΦA (x) = 0. ❏ On a donc montré que Ker(A) ∩ Im(A) = {0} d’où l’on déduit que Rn = Ker(A) ⊕ Im(A). (1) b) Puisque (AX)2 = AXA·X = AX, on sait que AX est la matrice de projection sur Im(AX), parallèlement à Ker(AX). (1) On sait de plus que Ker(A) ⊂ Ker(AX) ⊂ Ker(AXA) = Ker(A), ce qui prouve que Ker(AX) = Ker(A). (1) Enfin, Im(AX) ⊂ Im(A) = Im(AXA) ⊂ Im(AX), ce qui prouve que Im(A) = Im(AX). Conclusion : AX est la matrice de projection de Rn sur Im A parallèlement à Ker A. On remarquera que toutes les matrices n’admettent pas de pseudo-inverse : ( 01 00 ) par exemple n’en a pas (exercice !). I.8. D’après I.6 et I.7, Pseudo-inverse d’une matrice carrée DM04.tex Devoir Libre no 4 (Corrigé) Mathématiques, MP 933 & 934 i) ⇔ Im(A) ⊕ Ker(A) = Rn . Par ailleurs, on a toujours Im(A2 ) ⊂ Im(A) et Ker(A2 ) ⊃ Ker(A) donc ii) ⇔ dim Im(A2 ) = dim Im(A) ⇔ iv) ⇔ dim Ker(A2 ) = dim Ker(A) ⇔ iii). Ensuite, i) ⇒ Im(A2 ) = ΦA Im(A) = ΦA (Rn ) = Im(A) ⇒ ii) ⇒ Im(A) ∩ Ker(A) = Ker ΨA = {0} ⇒ i). On a aussi v) ⇒ Im(A) ⊂ Im(A2 ) ⇒ ii), et vi) ⇒ Ker(A) ⊃ Ker(A2 ) ⇒ iii). Enfin, i) ⇒ v) en prenant V = X, et de même i) ⇒ vi) en prenant W = X. II Matrices circulantes II.1. Notons génériquement A(a1 , a2 , a3 , a4 ) la matrice circulante dont les coefficients de première ligne sont A1j = aj . On a respectivement 0 0 1 0 0 0 0 1 I = A(1, 0, 0, 0) C = A(0, 1, 0, 0) C2 = 1 0 0 0 = A(0, 0, 1, 0) 0 1 0 0 et 0 1 C3 = 0 0 0 0 1 0 0 0 0 1 1 0 = A(0, 0, 0, 1). 0 0 Les matrices I, C, C2 et C3 sont circulantes. II.2. Il est immédiat de vérifier que (I, C, C2 , C3 ) est une famille libre, et qu’elle est génératrice ; de plus, Si A est une matrice circulante, A = a1,1 I + a1,2 C + a1,3 C2 + a1,4 C3 . II.3. Si A est circulante, elle s’écrit sous la forme d’un polynôme en C, donc commute avec C. Réciproquement, supposons AC = CA. Quelques lignes de calcul un peu bourrin montrent que A est circulante. Mais si c’est faisable avec n = 4, c’est moins tentant avec n = 42. On peut voir les choses autrement. La matrice C est à spectre simple, écrivons-là C = P−1 DP. Si A est une matrice déf. qui commute avec C, alors ∆ = PAP−1 commute avec D, et tout le monde a déjà fait le calcul prouvant qu’alors elle 1 est diagonale . Or une matrice diagonale diag(µ1 , µ2 , µ3 , µ4 ) peut s’écrire comme un polynôme en (λ1 , λ2 , λ3 , λ4 ) — invoquons encore une fois Lagrange dans cette passe difficile, et tout s’arrange, à condition de bien préciser que les valeurs λk sont deux à deux distinctes ! A est une matrice circulante si, et seulement si AC = CA. II.4. Le plus simple est de remarquer que C4 = I, donc X4 − 1 est annulateur de C et donc finalement Sp(C) ⊂ {1, i, −1, −i}. On cherche ensuite les noyaux de C − I, C − iI, C + I et C + iI ; on trouve, par résolution de systèmes, qu’ils sont de dimension 1 ; on choisit alors un vecteur propre de chacun des espaces, puis on le norme, ce qui donne par exemple 1 i −1 i −1 1 1 1 1 1 1 1 U1 = Ui = U−1 = U−i = 2 1 2 −i 2 −1 2 −i 1 1 1 −1 II.5. C’est évidemment une famille libre (ils sont associés à des valeurs propres distinctes !) et un simple calcul montre qu’ils sont orthogonaux. Remarque 1 Bien sûr, ce n’est pas un hasard : c’est une propriété due au fait que C commute avec sa transposée (on dit que la matrice C est normale). Mais l’étude générale des matrices normales est hors-programme. Quelques problèmes d’écrit ont été consacrés à ces matrices. II.6. Pour tout j de [ 1 ; 4]], Uj est vecteur propre de C, et donc de toute puissance de C, et donc de tout polynôme en C, et donc de toute matrice circulante ! Ainsi, La base (U1 , Ui , U−1 , U−i ) est une base propre pour tout matrice circulante. 1. Ou fait le raisonnement consistant à remarquer que les sous-espaces propres de D sont de dimension 1 et stables par ∆... Pseudo-inverse d’une matrice carrée DM04.tex Devoir Libre no 4 (Corrigé) Mathématiques, MP 933 & 934 Enfin, si A = a1,1 I + a1,2 C + a1,3 C2 + a1,4 C3 , alors AUj = a1,1 Uj + a1,2 λj Uj + a1,3 λ2j Uj + a1,4 λ2j Uj . Cela prouve que Uj est vecteur propre de A pour la valeur propre µj = a1,1 + a1,2 λj + a1,3 λ2j + a1,4 λ3j . De manière plus synthétique, si A = P(C) où P = a1,1 + a1,2 X + a1,3 X2 + a1,4 X3 est un polynôme, alors Uj est vecteur propre pour la valeur propre P(λj ). II.7. Puisque A est diagonalisable, il suffit2 de déterminer quelles sont les valeurs propres nulles, et quelles sont celles qui ne le sont pas. Notons K l’ensemble des indices k tels que µk = 0 et I celui des indices i tels que µi 6= 0, alors Une base de Ker(A) est (Uk )k∈K et une base de Im(A) = (Ui )i∈I . Notamment, les vecteurs de (U1 , . . . , Un ) sont soit dans le noyau, soit dans l’image. II.8. On sait que, si Uj est dans Ker A, alors il est dans Ker B, donc BUj = 0. Sinon, Uj est dans l’image de A et, puisque BA est la projection sur Im A, on a donc (BA)Uj = Uj , ou encore µj BUj = Uj , c’est-à-dire BUj = (1/µj )Uj . Ainsi, la matrice représentative de ΦB (l’endomorphisme associé à B) dans la base (U1 , U2 , . . . , Un ) est, en notant P la matrice inversible dont les vecteurs colonnes sont U1 , U2 , . . . , Un : α1 ( 0 si µk = 0 α 2 P−1 BP = avec αk = −1 α3 µk si µk 6= 0 α4 II.9. Les valeurs propres de T sont respectivement µ1 = 1 µ2 = On note 1+i 2 µ3 = 0 1 i −1 1 1 −1 1 P= 2 1 −i −1 1 1 1 de telle sorte que P−1 TP = µ2 µ3 µ4 Le pseudo-inverse de T vérifie alors c’est-à-dire µ1 1 −1 P BP = = µ4 = i 1 −i −1 1+i 2 0 1−i 2 On peut demander à Maple de nous aider dans les calculs3 . 0 3 −1 −1 1 3 3 −1 B= 3 4 −1 3 −1 −1 3 1 1−i 1−i . 2 1+i , 3 −1 . −1 3 ➠ C:=«0,0,0,1>|<1,0,0,0>|<0,1,0,0>|<0,0,1,0»; ➠ Eigenvectors(C); I −I −1 1 I −I −1 −1 1 1 , −1 −I I −1 1 1 1 1 1 1 2. Penser à la matrice de ΦA dans une base adaptée ! 3. Que croyez-vous que j’aie fait ?! Pseudo-inverse d’une matrice carrée DM04.tex Devoir Libre no 4 (Corrigé) Mathématiques, MP 933 & 934 ➠ T:=(1+C)/2: ➠ P:= 1/2*«1,1,1,1>|<I,-1,-I,1>|<-1,1,-1,1>|<I,1,-I,-1»; 1 I −1 I 1 1 −1 1 1 P := 2 1 −I −1 −I 1 1 1 −1 ➠ Delta:=DiagonalMatrix([1,1-I,0,1+I]); 1 0 ∆ := 0 0 ➠ B:=P.Delta.P**(-1); ➠ T.B.T-T; B.T.B-B; B.T-T.B ; 0 0 0 0 0 0 0 0 Pseudo-inverse d’une matrice carrée 3/4 0 0 0 1−I 0 0 0 0 0 0 0 1+I −1/4 −1/4 3/4 3/4 3/4 −1/4 −1/4 B := −1/4 3/4 3/4 −1/4 −1/4 −1/4 3/4 3/4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 DM04.tex