CONCOURS COMMUN POLYTECHNIQUE MATH 2001 PC

Transcription

CONCOURS COMMUN POLYTECHNIQUE MATH 2001 PC
CONCOURS COMMUN POLYTECHNIQUE
MATH 2001 PC
Partie I
I.1.Si A = 0 alors t AA = 0:
Pour la réciproque on calcule les coe¢cients diagonaux de t AA :
8i 2 f1; 2; :::; pg ;
¡t
AA
¢
i;i
=
n
X
(Ak;i)2
k=1
Les coe¢cients étant réels on a une somme de réels positifs. La somme est nulle si et seulement si chaque terme est nul.
Donc si t AA = 0 , pour tout k 2 f1; 2; :::; ng et pour tout i 2 f1; 2; :::; pg ; (A)k;i = 0
t
AA = 0 si et seulement A = 0
Remarque : En utilisant la forme matricielle du produit scalaire on peut montrer que Ker(A) = Mn;1 (R) :
2
X 2 Ker(A) ) kAXk =t X t AAX = 0 donc AX = 0 et donc Ker(A) = M n; 1 (R) et A = 0:Mais comme on utilise une
question qui suit ce n’est pas la meil leure méthode ici.
désormais A est supposée non nulle donc t AA 6= 0
I.2. t AA 2 Mp (R); c’est une matrice symétrique réelle , elle est donc diagonalisable au moyen de matrices
orthogonales.
At A 2 Mn (R); c’est une matrice symétrique réelle , elle est donc aussi diagonalisable au moyen de matrices
orthogonales.
I.3.
a)question de cours hXjY i n = t XY = t Y X
b) W est un vecteur propre de t AA associé à la valeur propre ¸; donc W 6= 0 et t AAW = ¸W
2
donc kAW kn =
t
2
(AW ) AW = tW (t AAW ) = tW (¸W ) = ¸ t W W = ¸ kW k p :
2
2
kAW k n = ¸ kW kp
c) On sait déjà que toutes les valeurs propres sont réelles.
2
2
kW k p > 0 (car W vecteur propre est non nul ) et kAW kn ¸ 0 donc ¸ ¸ 0
Les valeurs propres de tAA sont donc réelles, positives ou nulles
I.4
µ
¶µ
¶ µ t
¶
xIn A
¡In (0)n;p
A A ¡ xIn A
a)
=
t
t
A Ip
(0)p;n
Ip
A
Ip
µ
¶µ
¶ µ
¶
xIn A
¡In
A
¡xIn
0n;p
=
t
A Ip
(0)p;n ¡xIp
¡ tA tAA ¡ xIp
b) D’après le déterminant d’une matrice diagonale par blocs on sait que det
µ
A
(0)
B
C
¶
= det(A) det(B) si A
et B sont des matrices carrées.
On sait aussi que det(A:B) = det(A) det(B)
Si on désigne par P M le polynôme caractéristique d’une matrice M 2 Mn (R), PM (x) = P (M ¡ xIn )
On a donc :
µµ
¶µ
¶¶
µ
¶
µ
¶
µ
¶
¡In (0)n;p
xIn A
¡In 0n;p
xIn A
xIn A
n
det
=
det
det
=
(¡1)
det
t
t
t
t
t
A Ip
A
Ip
A Ip
A
Ip
A Ip
et
det
µ
At A ¡ xIn
(0) p;n
A
Ip
¶
= P AtA (x)
donc
P AtA (x) = (¡1)n det
µ
xIn
t
A
µ
¶
= (¡x) n P tAA (x)
de même avec l’autre produit
n
p
(¡1) (¡x) det
n
xIn
t
A
A
Ip
A
Ip
¶
p
donc (¡x) P tAA (x) = (¡x) P AtA (x)
k
Donc si ® est racine non nul de Pt AA de multiplicité k alors (X ¡ ®) divise PtAA donc aussi PAt A et réciproquement.
tAA
et At A ont les mêmes valeurs propres non nulles avec le même ordre de multiplicité
c) Si on calcule le rang dans une base de vecteur propre on constate que , pour une matrice diagonalisable , le
rang est égal au nombre de valeurs propres non nuls en comptant la multiplicité)
tAA
n¡ p
I.5. Si n > p ; P AtA (x) = (¡x)
et At A ont même rang.
P tAA (x) donc 0 est racine de P AtA :
si n > p , 0 est valeur propre de At A et si n < p; 0 est valeur propre de t AA
I.6. Les ¸ i sont des réels positifs (I.3) donc les ¹i sont bien dé…nis et sont des réels positifs.
Il existe une base orthonormale (V j ) de vecteurs propres car la matrice est symétrique réelle.
a) A étant non nulle, t AA est non nulle, elle est diagonalisable, elle a donc au moins une valeur propre non
nulle. (la seule matrice diagonalisable dont le spectre est réduit à 0 est la matrice nulle) Toutes ses valeurs propres
sont positives, donc la plus grande des valeurs propres est strictement positive :
¸1 > 0
b) La somme des ordres de multiplicité des valeurs propres non nulles de t AA est égale à r
donc r = rang(t AA) = rang(At A) d’après I.4.c.
A tA 2 Mn (R) donc r · n et d’après le théorème du rang ,
dim(K erAt A) = n ¡ r
c) Pour tout i 2 f1; 2; ::; rg; AV i = ¹i Ui par dé…nition des Ui
2
si r > p ; pour tout i 2 fr + 1; ::; pg ; ¸i = 0 ; t AAV i = 0; kAVi kn = t V it AAV i = 0 ;
si r > p ; pour tout i 2 fr + 1; ::; pg ; AV i = 0
si i > r ¹i = 0 on ne peut toutefois pas dire AVi = ¹i Ui car Ui peut ne pas exister si p > n . Dans la suite il faut distinguer
i · r et i > r .
d) Pour tout i 2 f1; 2; ::; rg; t AUi =
1
¹i
(t AAV i) =
¸i
V
¹i i
= ¹i V i
pour tout i 2 f1; 2; ::; rg; t AUi = ¹iV i
2
e) Si n > r, pour tout i 2 fr + 1; ::; ng ; Ui 2 K erAt A ;donc AtAUi = 0 et donc kt AUik p =t Ui (At AUi) = 0 ;
si n > r, pour tout i 2 fr + 1; ::; ng ; t AUi = 0
f ) Pour tout i 2 f1; 2; ::; rg ; pour tout j 2 f1; 2; ::; rg ;
hUi jUj i = ¹ 1¹ t (AV i) (AVj ) = ¹ 1¹ tV i ( tAAV j ) = ¹¸¹j hV ijV j i = ± ij puisque ¸ j = ¹2j et que (V j ) est une base
i j
i j
i j
orthonormale.
si n > r , par dé…nition (Ur+1 ; ::Un ) est une famille orthonormale,
pour tout i 2 f1; 2; ::; rg; pour tout j 2 fr + 1; ::; ng; hUijUj i = ¹1 (tV i tA)Uj = 0
i
puisque t AUj = 0
(U1 ; U2 ; ::; Un ) est donc une base orthonormale de R n
de plus si 1 · i · r ; At AUi = A(¹i Vi ) = ¹2i Ui = ¸i Ui
si r < n ; r + 1 · i · n ; At AUi = 0, donc
2
(U1 ; U2 ; ::; Un ) est une base orthonormale de vecteurs propres de At A
½
pour tout i 2 f1; 2; ::; rg ; Ui est associé à la valeur propre ¸i
pour tout i 2 fr + 1; ::; ng ; Ui est associé à la valeur propre 0
I.7.
a) Pour calculer (t UAV )ij on fait le produit de la ligne i de t U et de la colonne j de AV . On reconnaît donc
le produit scalaire de Ui par AVj ou par 0 :
¡
¢
8 (i; j ) 2 f1; 2; ::; ng £ f1; 2; ::; rg ; t U AV ij = hUijAVj i = ¹j hUijUj i = ¹j ± ij
¡
¢
8 (i; j ) 2 f1; 2; ; ::; ng £ fr + 1; ::; pg ; tU AV ij = hUij0i = 0 = ¹j ± ij
car la base (Ui) est orthonormée.
8 (i; j) 2 f1; 2; ::; ng £ f1; 2; ::; pg ; (t UAV )ij = ¹j ±ij
b) On a donc t UAV = ¢ car pour j > r ¹j = 0
Les vecteurs colonnes de U constituent une base orthonormale de R n , donc U est une matrice orthogonale,
U 2 O(n); U est inversible et U ¡1 = tU
De même V 2 O(p) et V est inversible avec V ¡ 1 = t V
Donc, en multipliant l’égalité t UAV = ¢ à droite par t V et à gauche par U on obtient :
A = U¢t V
µ
¶
µ ¶
µ
¶
2 0
0
1
t
c) A0 A0 =
; ¸1 = 6 ; ¸ 2 = 2 ; V 1 =
; V2 =
01 6
1
0
0
0
1
¡1
1
U1 = p16 @ 1 A ; U2 = p12 @ 1 A ; On a bien deux vecteurs normés et orthogonaux.
2
0 0
1
1
On prend alors U3 = U1 ^ U2 = p13 @ ¡1 A ;
1
0
1
2 0 ¡2
On véri…e bien que (U3 ) est une base de Ker (A0 t A0 ) avec A0 t A0 =@ 0 2
2 A:
¡2 2
4
0
B
B
B
t
A0 = U0 ¢ V 0 avec U0 = B
B
@
t
B0 B0 = (2 ) ; V 1 = (1) ; U1 =
t
1
¡p
6
1
p
6
2
p
6
p1
2
µ
1
¡1
1
p
2
1
p
2
0
¶
B0 = U0 ¢ V0 avec U0 =
1
p
3
1
¡p
3
1
p
3
; U2 =
Ã
1
0 p
C
6
C
C
C ; ¢=@ 0
C
0
A
p1
2
p1
2
¡ p12
µ
p1
2
p1
2
1
0
¶
¶
1
1
!
1
µ
p0
0
2 A ; t V0 =
1
0
; ¢=
µ p
2
0
¶
; t V 0 = (1)
I.8. U et tV sont des matrices inversibles, donc le rang de A est égal au rang de ¢ (matrices équivalentes) donc
rang(A) = r
I.9.Dessiner des produits de matrices pour bien voir ce qui se passe . Utiliser les exemples en petite taille.
a) V it E i est une matrice de Mp (R) dont toutes les colonnes sont nulles sauf la i-ème égale à Vi ;
V =
Pp
i=1
3
Vit Ei
Pn
b) On a de même U = j=1 Uj tF j
³P
´
Pp
P
n
t
donc A = U¢ t V =
U
F
¢t ( i=1 V it E i) = i;j Uj t F j ¢E i tV i
j
j
j=1
¡
¢
Or pour j · r : t Fj ¢ = 0 ¢ ¢ ¢ 0; ¹j ; 0 ¢ ¢ ¢ 0 = ¹j t E j et donc tF j ¢Ei = ¹tj E j Ei = ¹j ± i;j
Et pour j > r t Fj ¢ = 0 donc t F j ¢E i = 0
A=
Pr
¹ j Uj tV j
j=1
tous les termes pour i 6= j et pour j > r étant nuls.
Pr
Pr
t
AA = t A ( i=1 ¹i Uit V i) = i=1 ¹i (t AUi) t V i, or tAUi = ¹iV i et ¸ i = ¹2i ; (car i · r ) donc
t
AA =
Pr
i= 1
¸iVit Vi
En transposant la formule qui donne A on obtient : tA =
P
P
donc At A = ri=1 ¹i (AV i) tUi = ri= 1 ¹i (¹iUi) t U i; donc
At A =
c) Soit X 2 R p ; t Vi X = hV ijXi ; donc
AX =
Ã
r
X
Pr
i=1
¹iU it Vi
i= 1
!
Pr
i=1
¹i Vi tU i;
¸ i Ui t Ui
X=
r
X
i=1
¹i hVi jXi Ui
(U1 ; U2 ; ::; Ur ) est une famille libre de R n , pour tout i 2 f1; 2; ::; rg ; ¹i 6= 0
donc AX = 0 si et seulement si pour tout i 2 f1; 2; ::; rg; hV i jXi = 0
(V 1 ; V 2 ; :::; Vp ) étant une base orthonormale de Rp ;
si r < p ; Ker(A) = Vect (Vr +1 ; ::; V p ) et si r = p ; Ker(A) = f0g
Par un raisonnement analogue, si Y 2 R n ; t AY =
Pr
i=1
¹i hUi jY i Vi
si r < n ; Ker (t A) = Vect (Ur+1 ; ::; U n ) et si r = n ; Ker (tA) = f0g
pour tout X 2 Rp ; AX 2 Vect(AV 1 ; ¢ ¢ ¢ ; AV p ) = Vect (U1 ; ::; Ur ) donc Im A ½ Vect (U1 ; ::; Ur )
or dim(Im (A)) = rg(A) = r donc
Im A = V ect (U1 ; U2 ; ::; Ur )
et on obtient de même
Im (t A) = V ect(V 1 ; V 2 ; ::; Vr )
d) KerA ½ Ker (tAA), de plus A et t AA ont le même rang r
donc dim (KerA) = p ¡ r et dim (Ker(tAA)) = p ¡ r; donc
KerA = K er ( tAA)
Un raisonnement analogue permet de démontrer que:
K er ( tA) = Ker (At A)
PARTIE II
4
D’après la première partie toute matrice non nulle admet une décomposition en valeurs singulières.
Mais le sujet ne dit pas explicitement que pour une décomposition en valeurs singulières les matrice U et V sont obligatoirement construites selon la méthode du I. On peut toutefois véri…er réciproquement que si A = U ¢tV alors le carré des termes
”diagonaux” de ¢ sont les valeurs propres de t AA et de At A et que les colonnes de U et V véri…ent les conditions imposées
en première partie.
En…n le sujet semble dire que l’on peut admettre l’unicité avant de l’avoir démontrer.
II.1. On déduit de I.7.b que
Ã
!
p1
0
0
6
¢+ =
p1
0
0
2
d’où après calculs que
A+
0 =
µ
On en déduit :
0
puis
@
A0 A+
0 =
2
3
1
3
¡ 13
1
2
¡ 16
1
3
2
3
1
3
1
2
1
6
¡ 13
1
3
2
3
A0 A+
0 A0 = A0
0
1
3
¶
1
A
A+
0 A0 = I2
+
+
A+
0 A0A0 = A0 :
+
+t
II.2.Avec les notations du I.7 on a A+
U0 Comme U0 et V 0 sont orthogonales et que ¢+
0 = V0 ¢
0 est du type voulu, A0 =
+t
+
+ +
+ +t
V 0 ¢0 U0 est une décomposition de A0 en valeurs singulières, d’où l’on déduit que (A0 ) = U0 (¢0 ) V 0 = U0 ¢0 tV 0 = A0 .
+
(A0 +) = A0
En procédant ainsi on fait déjà la question 10 dans un cas particulier. Mais c’est bien plus rapide que de faire les calculs
comme en I.7.c
II.3 . Le calcul se fait sur le même principe que pour le produit de deux matrices diagonales:
µ
¶
µ
¶
Ir
(0)r;p¡r
Ir
(0)r;n¡r
+
+
¢¢ =
, ¢ ¢=
(0) p¡r;r (0)p¡r
(0)n¡ r; r (0) n¡r
p
n
On obtient des matrices Jr usuelles mais de taille di¤érentes.
II.4 . Si n = p = r, ce qui précède prouve que ¢+ = ¢¡1 , de plus V = (tV )¡ 1 et t U = U ¡1 , car U et V sont orthogonales.
Donc
A+ = A¡ 1
II.5 .
Le résultat du I.9.a appliqué à A+ = V ¢+ t U donne :
A+ =
D’autre part, en utilisant l’égalité A =
Pr
j= 1
Pr
1
t
i=1 ¹i V i Ui
¹j Uj t V j trouvée en I.9.b
AA+ =
X ¹j
i=1::r ¹ i
j=1::r
Uj t V j Vi t Ui:
Or pour tous i et j dans [ 1; p]], t V j V i = hVj j V ii = ±i;j car (V1 ; : : : ; V p ) est une base orthonormée de R p . D’où
Pr
AA+ = i=1 Ui t Ui
De la même façon,en échangeant les rôles de U et V , comme (U1 ; : : : ; Un ) est une base orthonormée de R n :
Pn
A+ A = i=1 V i t V i
II.6.a.
Pr
Pr
Pr
Pour j · n : AA+ Uj =½ i=1 Ui tUi Uj =
i=1 hUi j Uj i Ui =
i=1 ±i;j Ui .
Uj si j · r
+
Finalement, AA Uj =
0 si j > r
Si Á est l’endomorphisme associé à AA+ dans la base canonique de Rn on obtient que la matrice de Á dans la base (Uj ) est
une matrice Jr qui est la forme canonique de la matrice d’une pro jection. Comme la base est orthonormale cette pro jection
est orthogonale.
5
p
Á est la projection orthogonale de R n sur Vect(U1 ; : : : ; Ur ) . Or par construction les (Vi )i=1 est une base de Rp , donc les
p
r
(Ui )i=1 engendre Im(A) En retirant les vecteurs nuls les (Ui) i=1 engendrent Im(A) . (c’est même une base car le système est
orthonormale)
Á est la pro jection orthogonale de R n sur Im(A).
II.6.b. Pour
Prtout jt 2 [[1; p]], Pr
Pr
A+ AV j =
i=1
i=1 hV i j V j i V i =
i=1 ±i;j Vi .
½ V i Vi V j =
V j si j · r
+
Soit A AV j =
.
0 si j > r
Par construction les (Vi )ni=1 est une base orthonormale telle que (V j ) nj= r+1 soit une base de Ker(t AA) = Ker(A) d’après la
question I.9.d
l’endomorphisme associé à A+ A dans la base canonique de R p est la pro jection orthogonale de Rp sur (Ker(A))? .
II.7.
² AA+ est la matrice dans la base canonique de R n , orthonormée pour le produit scalaire canonique, d’une pro jection
orthogonale de R n : elle est donc symétrique .
A+ A est la matrice dans la base canonique de Rp , orthonormée pour le produit scalaire canonique, d’une pro jection
orthogonale de R p : elle est donc symétrique .
AA+ = t (AA+ ) , A+ A =t (A+ A)
² On
¡
AA
+
¢
A=
X
t
t
¹i Uj U j Ui Vi =
i=1::r
j=1::r
r
X
¹i U i t V i
i= 1
toujours car tUj Ui = ± i; j :
Même calcul pour (A+ A) A+
AA+ A = A , A+ AA+ = A+
II.8.On sait que Im(M N ) ½ Im(M ) et Ker(N ) ½ Ker(M N ) . On en déduit alors immédiatement à l’aide de II.7
¾
Im(AA+) ½ Im(A)
+
²
donc Im(A) = Im(AA ) :
Im(A) = Im(AA+ A) ½ Im(AA+ )
¾
Ker(A+ ) ½ Ker(AA+ )
+
+
²
donc Ker(A ) = Ker(AA ).
Ker(AA+ ) ½ Ker(A+ (AA+ )) = Ker(A+ )
¾
Im(A+A) ½ Im(A+ )
+
+
²
donc Im(A ) = Im(A A).
Im(A+) = Im(A+ AA+ ) ½ Im(A+ A)
¾
Ker(A) ½ Ker(A+A)
+
²
donc Ker(A A) = Ker(A).
Ker(A+ A) ½ Ker(A(A+ A)) = Ker(A)
² AA+ est la matrice d’une projection (orthogonale) de Rn , donc R n = Im(AA+ ) © Ker(AA+).
De même comme (A+ A) est la matrice d’une projection de R p , Rp = Im(A+ A) © Ker(A+ A).
R n = Im(A) © Ker(A+ )
R p = Im(A+ ) © Ker(A)
II.9 .
II.9.a.
² i) B = B(AB) = Bt (BA) = B tB t A et B = (BA)B = t A tB B.
² ii) A = (AB)A = t B tA A et A = A(BA) = AtA t B.
² iii) t A = B A t A = t AAB en transposant les égalités ii).
6
II.9.b. Comme A+ véri…e les hypothèses de cette question, elle véri…e, comme B les identités i), ii) et iii).
On doit donc montrer que si deux matrices B et C véri…ent les hypothèses de II9 (et donc i) , ii) et iii) ) elles sont égales.On
part de B pour trouver C . On commence donc par i) .le morceau t A permet d’introduire C ... et l’expression se simpli…e
par ii) pour donner une forme symétrique en B et C . On recommence symétriquement avec C en mettant A à gauche:
B
de même C
= Bt B t A
car B véri…e i)
= Bt B t AAAC car C véri…e iii)
= BAC
car B véri…e ii)
= t AtC C car C véri…e i)
= BAt At CC car B véri…e iii)
= BAC
car C véri…e ii)
Si on a deux décompositions en matrices singulières de A les deux matrices A+ obtenues véri…ent II7 et sont donc égales.
II.10.
deux plans possibles
² utiliser II9
(A+ )+ est l’unique matrice B 2 Mn; p (R) véri…ant
A+ B = t(A+B)
BA+ = t (BA+)
A+ BA+ = A+
BA+B = B
Comme A 2 Mn;p (R) et que A véri…e ces quatre relations
+
² utiliser (¢+ ) = ¢
+
+ t
Comme A+ = V ¢+ t U est une décomposition en valeurs singulières de A+ on a par unicité (A+ ) = U (¢+ )
V =A
+
(A+ ) = A
² pour tA et en utilisant le second plan:
t
t
(A+ ) = U t (¢+ ) V = U ¢+ tV
t
A = V ¢t U est une décomposition en valeurs singulières de t tA donc (tA) = U ¢+ tV
+
+
(t A) = (A+ )
0
1
2
¡
¢
II.11. Soit C 0 = A0 B 0 = @ 0 A . Cherchons C 0+ sous la forme a b c pour que les identités de II9 soient véri…ées.(on
¡2
peut aussi reprendre le plan de calcul de A+
0 )
0
1
0
1
2
2a
2b
2c
¡
¢
² @ 0 A a b c =.@ 0
0
0 A est symétrique si et seulement si c = ¡a et b = 0, ce que l’on suppose
¡2
¡2a ¡2b ¡2c
acquis pour la suite des calculs.
¡
¢
²
a 0 ¡a C0 2 M11(R) est toujours symétrique.
0
1
8a
¡
¢
² C 0 a 0 ¡a C 0 = @ 0 A d’où a = 14
¡8a
² On véri…e que la quatrième relation est vraie
On a donc
(A0 B0 )+ =
¡
A partir de la décomposition de B0 en valeurs singulières :B0+
B0+A+
0 =
¡
1
3
1
6
¢
0 ¡ 14 :
¡
¢
= 12 ¡ 12 et donc
1
4
¡ 16
¢
+
6= (A0 B0 )
II.12.bonne révision des projections orthogonales .
II.12.a . Pour tout H 2 Mn;1 (R) , AA+ H est le projeté orthogonal de H sur Im A, donc H ¡ AA+ H est orthogonal à Im A
d’où
¡
¢ ¡
¢
AX ¡ AH ? H ¡ AH
En utilisant Pythagore,
jj AX ¡ H jj2n = jj AX ¡ AH jj2n + jj H ¡ AH j 2n , d’où jj AX °¡ H jj2n ¸ °jjAH ¡ H jj2n . Or AX décrit Im(A) et AH est l’élément
°
°
de Im(A) rendant minimum j AX ¡ H j d(H; Im(A)) = AH ¡ H n
n
7
~ 2 Mp; 1 (R) tel que j AH
~ ¡ H j n = j AH ¡ H j n = d(H; Im A), alors par unicité du pro jeté orthogonal
II.12.b. S’il existe H
~
~
de H sur Im A, AH = AH, soit H ¡ H 2 Ker A.
~ = H + (H
~ ¡ H) avec H 2 Im(A+ ) = (Ker A)? et H
~ ¡ H 2 Ker A.
On a alors H
2
2
2
~
~
~
~ ¡ H jj2p > 0 et donc
Par Pythagore, j H j p = j H jjp + j H ¡ H j p . Si de plus H 6= H, jj H
~ jp
jj H jjp < jj H
II.12.c. inf j A0 X ¡ H j 3 = jj A0 A+
0 H ¡ H jj3 = ¢ ¢ ¢ =
p
3
3
8

Documents pareils