Pseudo-inverse d`une matrice carrée

Transcription

Pseudo-inverse d`une matrice carrée
Devoir Libre no 4
MP 933 & 934
Corrigé
Pseudo-inverse d’une matrice carrée
I
Quelques propriétés des pseudo-inverses
I.1. On vérifie aisément que M = M2 = M3 ; de l’équation MMM = M on déduit que
M est un inverse faible de M.
De plus, M commutant avec lui-même,
M est un pseudo-inverse de M.
Posons X = ( 10 10 ). Le calcul montre que MXM = M et XMX = X. En revanche, M = XM 6= MX = X donc
X est un inverse faible mais pas un pseudo-inverse de M.
I.2. a) On a (AX)2 = AXAX = (AXA)X = AX et (XA)2 = XAXA = X(AXA) = XA, donc
AX et XA sont des matrices de projection.
b) Soient u et v deux endomorphismes d’un K-espace
vectoriel
E.
Alors
Im(u
◦
v)
=
u
v(E)
⊂ u(E) = Im(u),
ce qui montre que rg(u ◦ v) 6 rg(u). De plus, dim u v(E) 6 dim v(E) donc rg(u ◦ v) 6 rg(v). Cela montre que
rg(u ◦ v) 6 inf rg(u), rg(v) .
On applique ce lemme dans la version matricielle : rg(AX) 6 rg(A) et rg(A) = rg(AX · A) 6 rg(AX) donc
rg(A) = rg(AX).
Puisque AX et XA sont des matrices de projection, leur rang est égal à leur trace, et donc
rg(A) = rg(AX) = tr(AX) = tr(XA) = rg(XA).
↑
propriété de la trace
Conclusion :
rg A = rg(AX) = rg(XA) = tr(AX).
I.3. On part de la relation AXA = A ; on multiplie à droite par A−1 ce qui donne AX = In . On en déduit que X est l’inverse
de A : X = A−1 . Cela prouve l’unicité de X. De plus, les relations (1), (2) et (3) sont trivialement vérifiées :
Si A ∈ GLn (R), la seule matrice X vérifiant (1) est A−1 et c’est un pseudo-inverse de A.
I.4. On a AXAX′ = (AXA)X′ = AX′ . De même, XAX′ A = X(AX′ A) = XA. Or, A commute avec X et avec X′ , donc ces
deux matrices sont égales :
AX′ = XA.
(4)
On utilise ensuite une certain nombre de fois les propriétés (2), (3) et (4) pour obtenir
(2)
(3)
(4)
(4)
(3)
(2)
X = XAX = XXA = XAX′ = AX′ X′ = X′ AX′ = X′ ,
d’où l’on déduit X = X′ :
Le pseudo inverse, s’il existe, est unique.
On pourra donc dire le pseudo-inverse, et non plus un pseudo-inverse.
I.5. Les résultats suivants sont plus de la vérification qu’autre chose ; nous les mettons sous forme de tableau :
matrice
pseudo-inverse
0
Ak
RAR−1
X A λ−1 X 0
Xk
RXR−1
A X
λA
(éviter d’écrire
X
.)
λ
I.6. a) Le théorème du rang appliqué à l’endomorphisme ΦA permet d’écrire que dim Rn = n = dim Im(A) + dim Ker(A).
Puisque l’on est en dimension finie, cette égalité et la relation Ker(A) ∩ Im(A) = {0} permet de conclure que
Rn = Im(A) ⊕ Ker(A).
b) Le théorème du rang pour les grands nous dit que, puisque Im A est un supplémentaire de Ker A, la restriction de
ΦA à Im A, induit un isomorphisme de Im A vers Im A.
❏ Soit v ∈ R n . Montrons l’existence et l’unicité de w ∈ Im(A) tel que ΦA (w) ∈ Ker(A).
lundi  octobre  —  vendémiaire 
/home/walter/LaTeX/MP/Annee/2012/DM-2012/DM04.tex
Devoir Libre no 4 (Corrigé)

Mathématiques, MP 933 & 934
Existence : on décompose v dans la somme Rn = Ker(A) ⊕ Im(A) : il existe k ∈ Ker(A) et i ∈ Im(A) tels
que v = k + i. Puisque ΨA est un automorphisme de Im(A), il existe donc un (unique) vecteur w ∈ Im(A) tel que
i = ΨA (w) = ΦA (w). Ainsi, v − ΦA (w) ∈ Ker(A).
Unicité : on suppose qu’il existe un vecteur w′ ∈ Im(A) tel que ΦA (w′ ) − v ∈ Ker(A). Alors ΦA (w − w′ ) =
ΦA (w) − ΦA (w′ ) ∈ Ker(A). Or ΦA (w − w′ ) est également élément de Im(A), ce qui montre que ΦA (w − w′ ) = 0.
Puisque w − w′ est élément de Im(A), on a donc w − w′ ∈ Ker(A) ∩ Im(A) et donc w = w′ . ❏
Pour tout v ∈ Rn , il existe un unique élément w de Im A tel que ΦA (w) − v ∈ Ker A.
c) Pour obtenir le vecteur w, on a
– décomposé v dans la somme directe Rn = Im(A) ⊕ Ker(A) et gardé la partie appartenant à Im(A) ; en d’autres
termes, on a appliqué la projection p sur Im(A) parallèlement à Ker(A) ;
– appliqué Ψ−1
A .
n
On peut donc écrire que ϕ(v) = Ψ−1
A p(v) pour tout v ∈ R , ou encore :
n
ϕ = Ψ−1
A ◦ p : c’est un endomorphisme de R .
Munissons Rn d’une base B adaptée à la décomposition Rn = Im(A)⊕Ker(A). Dans cette base, la matrice représentative
de ΦA est, en notant r = rg(A) :
B O
A′ = mat(ΦA ) =
avec B ∈ GLr (R).
O O
B
La matrice de la projection p sur Im(A) parallèlement à Ker(A) est
I O
P′ = mat(p) = r
.
O O
B
On en déduit que la matrice de ϕ dans la base B est
−1
B
X = mat(ϕ) =
O
B
′
O
O
et l’on vérifie immédiatement que X′ est un pseudo-inverse de A′ .
Enfin, si l’on note A et X les matrices représentatives de ΦA et ϕ dans la base canonique, il existe une matrice
inversible R ∈ GLn (R) telle que A = R−1 A′ R et X = R−1 X′ R ; la question I.5 permet alors de conclure que
X est un pseudo-inverse de A.
On a donc « inversé la partie inversible de A. »
I.7. a) On se souvient du résultat suivant, qui est un exercice d’écriture facile :
LEMME Si f, g ∈ L (E), alors :
Im(f ◦ g) ⊂ Im(f )
et
Ker(g) ⊂ Ker(f ◦ g).
De X = XAX = A · XX on tire ΦX = ΦX ◦ ΦA ◦ ΦX et donc Im(X) ⊂ Im(A).
De A = AXA = X · AA on tire : Im(A) ⊂ Im(X)
On a donc
Im(X) = Im(A).
De X = XAX = XX · A on tire : Ker(A) ⊂ Ker(X) ; de A = AXA = AA · X on tire : Ker(X) ⊂ Ker(A).
On a donc
Ker(X) = Ker(A).
❏ Soit x ∈ Ker(A) ∩ Im(A). Il existe donc y ∈ Rn tel que x = ΦA (y). De plus, ΦA (x) = ΦA ◦ ΦA (y) = 0. On en
déduit que
(3)
x = ΦA (y) = ΦA ◦ ΦX ◦ ΦA (y) = ΦX ◦ ΦA ◦ ΦA (y) = ΦX ◦ ΦA (x) = 0. ❏
On a donc montré que Ker(A) ∩ Im(A) = {0} d’où l’on déduit que
Rn = Ker(A) ⊕ Im(A).
(1)
b) Puisque (AX)2 = AXA·X = AX, on sait que AX est la matrice de projection sur Im(AX), parallèlement à Ker(AX).
(1)
On sait de plus que Ker(A) ⊂ Ker(AX) ⊂ Ker(AXA) = Ker(A), ce qui prouve que Ker(AX) = Ker(A).
(1)
Enfin, Im(AX) ⊂ Im(A) = Im(AXA) ⊂ Im(AX), ce qui prouve que Im(A) = Im(AX).
Conclusion :
AX est la matrice de projection de Rn sur Im A parallèlement à Ker A.
On remarquera que toutes les matrices n’admettent pas de pseudo-inverse : ( 01 00 ) par exemple n’en a pas (exercice !).
I.8. D’après I.6 et I.7,
Pseudo-inverse d’une matrice carrée
DM04.tex
Devoir Libre no 4 (Corrigé)

Mathématiques, MP 933 & 934
i) ⇔ Im(A) ⊕ Ker(A) = Rn .
Par ailleurs, on a toujours Im(A2 ) ⊂ Im(A) et Ker(A2 ) ⊃ Ker(A) donc
ii) ⇔ dim Im(A2 ) = dim Im(A) ⇔ iv) ⇔ dim Ker(A2 ) = dim Ker(A) ⇔ iii).
Ensuite,
i) ⇒ Im(A2 ) = ΦA Im(A) = ΦA (Rn ) = Im(A) ⇒ ii) ⇒ Im(A) ∩ Ker(A) = Ker ΨA = {0} ⇒ i).
On a aussi v) ⇒ Im(A) ⊂ Im(A2 ) ⇒ ii), et vi) ⇒ Ker(A) ⊃ Ker(A2 ) ⇒ iii).
Enfin, i) ⇒ v) en prenant V = X, et de même i) ⇒ vi) en prenant W = X.
II
Matrices circulantes
II.1. Notons génériquement A(a1 , a2 , a3 , a4 ) la matrice circulante dont les coefficients de première ligne sont A1j = aj .
On a respectivement


0 0 1 0
0 0 0 1

I = A(1, 0, 0, 0)
C = A(0, 1, 0, 0)
C2 = 
1 0 0 0 = A(0, 0, 1, 0)
0 1 0 0
et

0

1
C3 = 
0
0
0
0
1
0
0
0
0
1

1
0
 = A(0, 0, 0, 1).
0
0
Les matrices I, C, C2 et C3 sont circulantes.
II.2. Il est immédiat de vérifier que (I, C, C2 , C3 ) est une famille libre, et qu’elle est génératrice ; de plus,
Si A est une matrice circulante, A = a1,1 I + a1,2 C + a1,3 C2 + a1,4 C3 .
II.3. Si A est circulante, elle s’écrit sous la forme d’un polynôme en C, donc commute avec C.
Réciproquement, supposons AC = CA. Quelques lignes de calcul un peu bourrin montrent que A est circulante.
Mais si c’est faisable avec n = 4, c’est moins tentant avec n = 42.
On peut voir les choses autrement. La matrice C est à spectre simple, écrivons-là C = P−1 DP. Si A est une matrice
déf.
qui commute avec C, alors ∆ = PAP−1 commute avec D, et tout le monde a déjà fait le calcul prouvant qu’alors elle
1
est diagonale . Or une matrice diagonale diag(µ1 , µ2 , µ3 , µ4 ) peut s’écrire comme un polynôme en (λ1 , λ2 , λ3 , λ4 ) —
invoquons encore une fois Lagrange dans cette passe difficile, et tout s’arrange, à condition de bien préciser que les
valeurs λk sont deux à deux distinctes !
A est une matrice circulante si, et seulement si AC = CA.
II.4. Le plus simple est de remarquer que C4 = I, donc X4 − 1 est annulateur de C et donc finalement Sp(C) ⊂ {1, i, −1, −i}.
On cherche ensuite les noyaux de C − I, C − iI, C + I et C + iI ; on trouve, par résolution de systèmes, qu’ils sont de
dimension 1 ; on choisit alors un vecteur propre de chacun des espaces, puis on le norme, ce qui donne par exemple
 
 
 
 
1
i
−1
i

−1
1
1
1
1
1
1
1




U1 = 
Ui = 
U−1 = 
U−i = 
2 1
2  −i 
2 −1
2  −i 
1
1
1
−1
II.5. C’est évidemment une famille libre (ils sont associés à des valeurs propres distinctes !) et un simple calcul montre qu’ils
sont orthogonaux.
Remarque 1 Bien sûr, ce n’est pas un hasard : c’est une propriété due au fait que C commute avec sa transposée (on dit que la matrice C
est normale). Mais l’étude générale des matrices normales est hors-programme. Quelques problèmes d’écrit ont été consacrés à ces matrices.
II.6. Pour tout j de [ 1 ; 4]], Uj est vecteur propre de C, et donc de toute puissance de C, et donc de tout polynôme en C, et
donc de toute matrice circulante !
Ainsi,
La base (U1 , Ui , U−1 , U−i ) est une base propre pour tout matrice circulante.
1. Ou fait le raisonnement consistant à remarquer que les sous-espaces propres de D sont de dimension 1 et stables par ∆...
Pseudo-inverse d’une matrice carrée
DM04.tex
Devoir Libre no 4 (Corrigé)
Mathématiques, MP 933 & 934

Enfin, si A = a1,1 I + a1,2 C + a1,3 C2 + a1,4 C3 , alors
AUj = a1,1 Uj + a1,2 λj Uj + a1,3 λ2j Uj + a1,4 λ2j Uj .
Cela prouve que
Uj est vecteur propre de A pour la valeur propre µj = a1,1 + a1,2 λj + a1,3 λ2j + a1,4 λ3j .
De manière plus synthétique, si A = P(C) où P = a1,1 + a1,2 X + a1,3 X2 + a1,4 X3 est un polynôme, alors Uj est
vecteur propre pour la valeur propre P(λj ).
II.7. Puisque A est diagonalisable, il suffit2 de déterminer quelles sont les valeurs propres nulles, et quelles sont celles qui ne
le sont pas.
Notons K l’ensemble des indices k tels que µk = 0 et I celui des indices i tels que µi 6= 0, alors
Une base de Ker(A) est (Uk )k∈K et une base de Im(A) = (Ui )i∈I .
Notamment, les vecteurs de (U1 , . . . , Un ) sont soit dans le noyau, soit dans l’image.
II.8. On sait que, si Uj est dans Ker A, alors il est dans Ker B, donc BUj = 0. Sinon, Uj est dans l’image de A et, puisque
BA est la projection sur Im A, on a donc (BA)Uj = Uj , ou encore µj BUj = Uj , c’est-à-dire BUj = (1/µj )Uj . Ainsi, la
matrice représentative de ΦB (l’endomorphisme associé à B) dans la base (U1 , U2 , . . . , Un ) est, en notant P la matrice
inversible dont les vecteurs colonnes sont U1 , U2 , . . . , Un :


α1
(


0
si µk = 0
α
2

P−1 BP = 
avec
αk =
−1


α3
µk
si µk 6= 0
α4
II.9. Les valeurs propres de T sont respectivement
µ1 = 1
µ2 =
On note
1+i
2
µ3 = 0

1 i −1
1
1 −1 1
P= 
2 1 −i −1
1 1
1
de telle sorte que


P−1 TP = 

µ2
µ3
µ4
Le pseudo-inverse de T vérifie alors
c’est-à-dire

µ1

1

−1

P BP = 

 
=
 
µ4 =

i
1

−i 
−1
1+i
2
0
1−i
2
On peut demander à Maple de nous aider dans les calculs3

.


0
3 −1 −1
1
3
3 −1
B= 
3
4 −1 3
−1 −1 3

1
1−i

1−i
.
2
1+i

,


3
−1
.
−1
3
➠ C:=«0,0,0,1>|<1,0,0,0>|<0,1,0,0>|<0,0,1,0»;
➠ Eigenvectors(C);

 

I
−I −1 1
I

 

 −I   −1 −1 1 1 

 


, 

 −1   −I

I
−1
1

 

1
1
1
1 1
2. Penser à la matrice de ΦA dans une base adaptée !
3. Que croyez-vous que j’aie fait ?!
Pseudo-inverse d’une matrice carrée
DM04.tex
Devoir Libre no 4 (Corrigé)
Mathématiques, MP 933 & 934

➠ T:=(1+C)/2:
➠ P:= 1/2*«1,1,1,1>|<I,-1,-I,1>|<-1,1,-1,1>|<I,1,-I,-1»;


1 I −1 I
1 1 −1 1
1

P := 
2 1 −I −1 −I 
1 1
1 −1
➠ Delta:=DiagonalMatrix([1,1-I,0,1+I]); 
1

 0

∆ := 
 0

0
➠ B:=P.Delta.P**(-1);

➠ T.B.T-T; B.T.B-B; B.T-T.B ;

0 0

 0 0


 0 0

0 0
Pseudo-inverse d’une matrice carrée
3/4
0
0
0
1−I
0
0
0
0
0
0
0 1+I
−1/4 −1/4







3/4



 3/4
3/4 −1/4 −1/4 


B := 

 −1/4 3/4

3/4
−1/4


−1/4 −1/4 3/4
3/4
0 0


0 0 


0 0 

0 0


0
0
0 0

 0


 0

0
0

0 0 


0 0 

0
0
0 0


0
0 0
0

 0


 0

0
0 0

0 


0 

0
0 0
0 0
DM04.tex

Documents pareils