CONCOURS COMMUN POLYTECHNIQUE MATH 2001 PC
Transcription
CONCOURS COMMUN POLYTECHNIQUE MATH 2001 PC
CONCOURS COMMUN POLYTECHNIQUE MATH 2001 PC Partie I I.1.Si A = 0 alors t AA = 0: Pour la réciproque on calcule les coe¢cients diagonaux de t AA : 8i 2 f1; 2; :::; pg ; ¡t AA ¢ i;i = n X (Ak;i)2 k=1 Les coe¢cients étant réels on a une somme de réels positifs. La somme est nulle si et seulement si chaque terme est nul. Donc si t AA = 0 , pour tout k 2 f1; 2; :::; ng et pour tout i 2 f1; 2; :::; pg ; (A)k;i = 0 t AA = 0 si et seulement A = 0 Remarque : En utilisant la forme matricielle du produit scalaire on peut montrer que Ker(A) = Mn;1 (R) : 2 X 2 Ker(A) ) kAXk =t X t AAX = 0 donc AX = 0 et donc Ker(A) = M n; 1 (R) et A = 0:Mais comme on utilise une question qui suit ce n’est pas la meil leure méthode ici. désormais A est supposée non nulle donc t AA 6= 0 I.2. t AA 2 Mp (R); c’est une matrice symétrique réelle , elle est donc diagonalisable au moyen de matrices orthogonales. At A 2 Mn (R); c’est une matrice symétrique réelle , elle est donc aussi diagonalisable au moyen de matrices orthogonales. I.3. a)question de cours hXjY i n = t XY = t Y X b) W est un vecteur propre de t AA associé à la valeur propre ¸; donc W 6= 0 et t AAW = ¸W 2 donc kAW kn = t 2 (AW ) AW = tW (t AAW ) = tW (¸W ) = ¸ t W W = ¸ kW k p : 2 2 kAW k n = ¸ kW kp c) On sait déjà que toutes les valeurs propres sont réelles. 2 2 kW k p > 0 (car W vecteur propre est non nul ) et kAW kn ¸ 0 donc ¸ ¸ 0 Les valeurs propres de tAA sont donc réelles, positives ou nulles I.4 µ ¶µ ¶ µ t ¶ xIn A ¡In (0)n;p A A ¡ xIn A a) = t t A Ip (0)p;n Ip A Ip µ ¶µ ¶ µ ¶ xIn A ¡In A ¡xIn 0n;p = t A Ip (0)p;n ¡xIp ¡ tA tAA ¡ xIp b) D’après le déterminant d’une matrice diagonale par blocs on sait que det µ A (0) B C ¶ = det(A) det(B) si A et B sont des matrices carrées. On sait aussi que det(A:B) = det(A) det(B) Si on désigne par P M le polynôme caractéristique d’une matrice M 2 Mn (R), PM (x) = P (M ¡ xIn ) On a donc : µµ ¶µ ¶¶ µ ¶ µ ¶ µ ¶ ¡In (0)n;p xIn A ¡In 0n;p xIn A xIn A n det = det det = (¡1) det t t t t t A Ip A Ip A Ip A Ip A Ip et det µ At A ¡ xIn (0) p;n A Ip ¶ = P AtA (x) donc P AtA (x) = (¡1)n det µ xIn t A µ ¶ = (¡x) n P tAA (x) de même avec l’autre produit n p (¡1) (¡x) det n xIn t A A Ip A Ip ¶ p donc (¡x) P tAA (x) = (¡x) P AtA (x) k Donc si ® est racine non nul de Pt AA de multiplicité k alors (X ¡ ®) divise PtAA donc aussi PAt A et réciproquement. tAA et At A ont les mêmes valeurs propres non nulles avec le même ordre de multiplicité c) Si on calcule le rang dans une base de vecteur propre on constate que , pour une matrice diagonalisable , le rang est égal au nombre de valeurs propres non nuls en comptant la multiplicité) tAA n¡ p I.5. Si n > p ; P AtA (x) = (¡x) et At A ont même rang. P tAA (x) donc 0 est racine de P AtA : si n > p , 0 est valeur propre de At A et si n < p; 0 est valeur propre de t AA I.6. Les ¸ i sont des réels positifs (I.3) donc les ¹i sont bien dé…nis et sont des réels positifs. Il existe une base orthonormale (V j ) de vecteurs propres car la matrice est symétrique réelle. a) A étant non nulle, t AA est non nulle, elle est diagonalisable, elle a donc au moins une valeur propre non nulle. (la seule matrice diagonalisable dont le spectre est réduit à 0 est la matrice nulle) Toutes ses valeurs propres sont positives, donc la plus grande des valeurs propres est strictement positive : ¸1 > 0 b) La somme des ordres de multiplicité des valeurs propres non nulles de t AA est égale à r donc r = rang(t AA) = rang(At A) d’après I.4.c. A tA 2 Mn (R) donc r · n et d’après le théorème du rang , dim(K erAt A) = n ¡ r c) Pour tout i 2 f1; 2; ::; rg; AV i = ¹i Ui par dé…nition des Ui 2 si r > p ; pour tout i 2 fr + 1; ::; pg ; ¸i = 0 ; t AAV i = 0; kAVi kn = t V it AAV i = 0 ; si r > p ; pour tout i 2 fr + 1; ::; pg ; AV i = 0 si i > r ¹i = 0 on ne peut toutefois pas dire AVi = ¹i Ui car Ui peut ne pas exister si p > n . Dans la suite il faut distinguer i · r et i > r . d) Pour tout i 2 f1; 2; ::; rg; t AUi = 1 ¹i (t AAV i) = ¸i V ¹i i = ¹i V i pour tout i 2 f1; 2; ::; rg; t AUi = ¹iV i 2 e) Si n > r, pour tout i 2 fr + 1; ::; ng ; Ui 2 K erAt A ;donc AtAUi = 0 et donc kt AUik p =t Ui (At AUi) = 0 ; si n > r, pour tout i 2 fr + 1; ::; ng ; t AUi = 0 f ) Pour tout i 2 f1; 2; ::; rg ; pour tout j 2 f1; 2; ::; rg ; hUi jUj i = ¹ 1¹ t (AV i) (AVj ) = ¹ 1¹ tV i ( tAAV j ) = ¹¸¹j hV ijV j i = ± ij puisque ¸ j = ¹2j et que (V j ) est une base i j i j i j orthonormale. si n > r , par dé…nition (Ur+1 ; ::Un ) est une famille orthonormale, pour tout i 2 f1; 2; ::; rg; pour tout j 2 fr + 1; ::; ng; hUijUj i = ¹1 (tV i tA)Uj = 0 i puisque t AUj = 0 (U1 ; U2 ; ::; Un ) est donc une base orthonormale de R n de plus si 1 · i · r ; At AUi = A(¹i Vi ) = ¹2i Ui = ¸i Ui si r < n ; r + 1 · i · n ; At AUi = 0, donc 2 (U1 ; U2 ; ::; Un ) est une base orthonormale de vecteurs propres de At A ½ pour tout i 2 f1; 2; ::; rg ; Ui est associé à la valeur propre ¸i pour tout i 2 fr + 1; ::; ng ; Ui est associé à la valeur propre 0 I.7. a) Pour calculer (t UAV )ij on fait le produit de la ligne i de t U et de la colonne j de AV . On reconnaît donc le produit scalaire de Ui par AVj ou par 0 : ¡ ¢ 8 (i; j ) 2 f1; 2; ::; ng £ f1; 2; ::; rg ; t U AV ij = hUijAVj i = ¹j hUijUj i = ¹j ± ij ¡ ¢ 8 (i; j ) 2 f1; 2; ; ::; ng £ fr + 1; ::; pg ; tU AV ij = hUij0i = 0 = ¹j ± ij car la base (Ui) est orthonormée. 8 (i; j) 2 f1; 2; ::; ng £ f1; 2; ::; pg ; (t UAV )ij = ¹j ±ij b) On a donc t UAV = ¢ car pour j > r ¹j = 0 Les vecteurs colonnes de U constituent une base orthonormale de R n , donc U est une matrice orthogonale, U 2 O(n); U est inversible et U ¡1 = tU De même V 2 O(p) et V est inversible avec V ¡ 1 = t V Donc, en multipliant l’égalité t UAV = ¢ à droite par t V et à gauche par U on obtient : A = U¢t V µ ¶ µ ¶ µ ¶ 2 0 0 1 t c) A0 A0 = ; ¸1 = 6 ; ¸ 2 = 2 ; V 1 = ; V2 = 01 6 1 0 0 0 1 ¡1 1 U1 = p16 @ 1 A ; U2 = p12 @ 1 A ; On a bien deux vecteurs normés et orthogonaux. 2 0 0 1 1 On prend alors U3 = U1 ^ U2 = p13 @ ¡1 A ; 1 0 1 2 0 ¡2 On véri…e bien que (U3 ) est une base de Ker (A0 t A0 ) avec A0 t A0 =@ 0 2 2 A: ¡2 2 4 0 B B B t A0 = U0 ¢ V 0 avec U0 = B B @ t B0 B0 = (2 ) ; V 1 = (1) ; U1 = t 1 ¡p 6 1 p 6 2 p 6 p1 2 µ 1 ¡1 1 p 2 1 p 2 0 ¶ B0 = U0 ¢ V0 avec U0 = 1 p 3 1 ¡p 3 1 p 3 ; U2 = à 1 0 p C 6 C C C ; ¢=@ 0 C 0 A p1 2 p1 2 ¡ p12 µ p1 2 p1 2 1 0 ¶ ¶ 1 1 ! 1 µ p0 0 2 A ; t V0 = 1 0 ; ¢= µ p 2 0 ¶ ; t V 0 = (1) I.8. U et tV sont des matrices inversibles, donc le rang de A est égal au rang de ¢ (matrices équivalentes) donc rang(A) = r I.9.Dessiner des produits de matrices pour bien voir ce qui se passe . Utiliser les exemples en petite taille. a) V it E i est une matrice de Mp (R) dont toutes les colonnes sont nulles sauf la i-ème égale à Vi ; V = Pp i=1 3 Vit Ei Pn b) On a de même U = j=1 Uj tF j ³P ´ Pp P n t donc A = U¢ t V = U F ¢t ( i=1 V it E i) = i;j Uj t F j ¢E i tV i j j j=1 ¡ ¢ Or pour j · r : t Fj ¢ = 0 ¢ ¢ ¢ 0; ¹j ; 0 ¢ ¢ ¢ 0 = ¹j t E j et donc tF j ¢Ei = ¹tj E j Ei = ¹j ± i;j Et pour j > r t Fj ¢ = 0 donc t F j ¢E i = 0 A= Pr ¹ j Uj tV j j=1 tous les termes pour i 6= j et pour j > r étant nuls. Pr Pr t AA = t A ( i=1 ¹i Uit V i) = i=1 ¹i (t AUi) t V i, or tAUi = ¹iV i et ¸ i = ¹2i ; (car i · r ) donc t AA = Pr i= 1 ¸iVit Vi En transposant la formule qui donne A on obtient : tA = P P donc At A = ri=1 ¹i (AV i) tUi = ri= 1 ¹i (¹iUi) t U i; donc At A = c) Soit X 2 R p ; t Vi X = hV ijXi ; donc AX = à r X Pr i=1 ¹iU it Vi i= 1 ! Pr i=1 ¹i Vi tU i; ¸ i Ui t Ui X= r X i=1 ¹i hVi jXi Ui (U1 ; U2 ; ::; Ur ) est une famille libre de R n , pour tout i 2 f1; 2; ::; rg ; ¹i 6= 0 donc AX = 0 si et seulement si pour tout i 2 f1; 2; ::; rg; hV i jXi = 0 (V 1 ; V 2 ; :::; Vp ) étant une base orthonormale de Rp ; si r < p ; Ker(A) = Vect (Vr +1 ; ::; V p ) et si r = p ; Ker(A) = f0g Par un raisonnement analogue, si Y 2 R n ; t AY = Pr i=1 ¹i hUi jY i Vi si r < n ; Ker (t A) = Vect (Ur+1 ; ::; U n ) et si r = n ; Ker (tA) = f0g pour tout X 2 Rp ; AX 2 Vect(AV 1 ; ¢ ¢ ¢ ; AV p ) = Vect (U1 ; ::; Ur ) donc Im A ½ Vect (U1 ; ::; Ur ) or dim(Im (A)) = rg(A) = r donc Im A = V ect (U1 ; U2 ; ::; Ur ) et on obtient de même Im (t A) = V ect(V 1 ; V 2 ; ::; Vr ) d) KerA ½ Ker (tAA), de plus A et t AA ont le même rang r donc dim (KerA) = p ¡ r et dim (Ker(tAA)) = p ¡ r; donc KerA = K er ( tAA) Un raisonnement analogue permet de démontrer que: K er ( tA) = Ker (At A) PARTIE II 4 D’après la première partie toute matrice non nulle admet une décomposition en valeurs singulières. Mais le sujet ne dit pas explicitement que pour une décomposition en valeurs singulières les matrice U et V sont obligatoirement construites selon la méthode du I. On peut toutefois véri…er réciproquement que si A = U ¢tV alors le carré des termes ”diagonaux” de ¢ sont les valeurs propres de t AA et de At A et que les colonnes de U et V véri…ent les conditions imposées en première partie. En…n le sujet semble dire que l’on peut admettre l’unicité avant de l’avoir démontrer. II.1. On déduit de I.7.b que à ! p1 0 0 6 ¢+ = p1 0 0 2 d’où après calculs que A+ 0 = µ On en déduit : 0 puis @ A0 A+ 0 = 2 3 1 3 ¡ 13 1 2 ¡ 16 1 3 2 3 1 3 1 2 1 6 ¡ 13 1 3 2 3 A0 A+ 0 A0 = A0 0 1 3 ¶ 1 A A+ 0 A0 = I2 + + A+ 0 A0A0 = A0 : + +t II.2.Avec les notations du I.7 on a A+ U0 Comme U0 et V 0 sont orthogonales et que ¢+ 0 = V0 ¢ 0 est du type voulu, A0 = +t + + + + +t V 0 ¢0 U0 est une décomposition de A0 en valeurs singulières, d’où l’on déduit que (A0 ) = U0 (¢0 ) V 0 = U0 ¢0 tV 0 = A0 . + (A0 +) = A0 En procédant ainsi on fait déjà la question 10 dans un cas particulier. Mais c’est bien plus rapide que de faire les calculs comme en I.7.c II.3 . Le calcul se fait sur le même principe que pour le produit de deux matrices diagonales: µ ¶ µ ¶ Ir (0)r;p¡r Ir (0)r;n¡r + + ¢¢ = , ¢ ¢= (0) p¡r;r (0)p¡r (0)n¡ r; r (0) n¡r p n On obtient des matrices Jr usuelles mais de taille di¤érentes. II.4 . Si n = p = r, ce qui précède prouve que ¢+ = ¢¡1 , de plus V = (tV )¡ 1 et t U = U ¡1 , car U et V sont orthogonales. Donc A+ = A¡ 1 II.5 . Le résultat du I.9.a appliqué à A+ = V ¢+ t U donne : A+ = D’autre part, en utilisant l’égalité A = Pr j= 1 Pr 1 t i=1 ¹i V i Ui ¹j Uj t V j trouvée en I.9.b AA+ = X ¹j i=1::r ¹ i j=1::r Uj t V j Vi t Ui: Or pour tous i et j dans [ 1; p]], t V j V i = hVj j V ii = ±i;j car (V1 ; : : : ; V p ) est une base orthonormée de R p . D’où Pr AA+ = i=1 Ui t Ui De la même façon,en échangeant les rôles de U et V , comme (U1 ; : : : ; Un ) est une base orthonormée de R n : Pn A+ A = i=1 V i t V i II.6.a. Pr Pr Pr Pour j · n : AA+ Uj =½ i=1 Ui tUi Uj = i=1 hUi j Uj i Ui = i=1 ±i;j Ui . Uj si j · r + Finalement, AA Uj = 0 si j > r Si Á est l’endomorphisme associé à AA+ dans la base canonique de Rn on obtient que la matrice de Á dans la base (Uj ) est une matrice Jr qui est la forme canonique de la matrice d’une pro jection. Comme la base est orthonormale cette pro jection est orthogonale. 5 p Á est la projection orthogonale de R n sur Vect(U1 ; : : : ; Ur ) . Or par construction les (Vi )i=1 est une base de Rp , donc les p r (Ui )i=1 engendre Im(A) En retirant les vecteurs nuls les (Ui) i=1 engendrent Im(A) . (c’est même une base car le système est orthonormale) Á est la pro jection orthogonale de R n sur Im(A). II.6.b. Pour Prtout jt 2 [[1; p]], Pr Pr A+ AV j = i=1 i=1 hV i j V j i V i = i=1 ±i;j Vi . ½ V i Vi V j = V j si j · r + Soit A AV j = . 0 si j > r Par construction les (Vi )ni=1 est une base orthonormale telle que (V j ) nj= r+1 soit une base de Ker(t AA) = Ker(A) d’après la question I.9.d l’endomorphisme associé à A+ A dans la base canonique de R p est la pro jection orthogonale de Rp sur (Ker(A))? . II.7. ² AA+ est la matrice dans la base canonique de R n , orthonormée pour le produit scalaire canonique, d’une pro jection orthogonale de R n : elle est donc symétrique . A+ A est la matrice dans la base canonique de Rp , orthonormée pour le produit scalaire canonique, d’une pro jection orthogonale de R p : elle est donc symétrique . AA+ = t (AA+ ) , A+ A =t (A+ A) ² On ¡ AA + ¢ A= X t t ¹i Uj U j Ui Vi = i=1::r j=1::r r X ¹i U i t V i i= 1 toujours car tUj Ui = ± i; j : Même calcul pour (A+ A) A+ AA+ A = A , A+ AA+ = A+ II.8.On sait que Im(M N ) ½ Im(M ) et Ker(N ) ½ Ker(M N ) . On en déduit alors immédiatement à l’aide de II.7 ¾ Im(AA+) ½ Im(A) + ² donc Im(A) = Im(AA ) : Im(A) = Im(AA+ A) ½ Im(AA+ ) ¾ Ker(A+ ) ½ Ker(AA+ ) + + ² donc Ker(A ) = Ker(AA ). Ker(AA+ ) ½ Ker(A+ (AA+ )) = Ker(A+ ) ¾ Im(A+A) ½ Im(A+ ) + + ² donc Im(A ) = Im(A A). Im(A+) = Im(A+ AA+ ) ½ Im(A+ A) ¾ Ker(A) ½ Ker(A+A) + ² donc Ker(A A) = Ker(A). Ker(A+ A) ½ Ker(A(A+ A)) = Ker(A) ² AA+ est la matrice d’une projection (orthogonale) de Rn , donc R n = Im(AA+ ) © Ker(AA+). De même comme (A+ A) est la matrice d’une projection de R p , Rp = Im(A+ A) © Ker(A+ A). R n = Im(A) © Ker(A+ ) R p = Im(A+ ) © Ker(A) II.9 . II.9.a. ² i) B = B(AB) = Bt (BA) = B tB t A et B = (BA)B = t A tB B. ² ii) A = (AB)A = t B tA A et A = A(BA) = AtA t B. ² iii) t A = B A t A = t AAB en transposant les égalités ii). 6 II.9.b. Comme A+ véri…e les hypothèses de cette question, elle véri…e, comme B les identités i), ii) et iii). On doit donc montrer que si deux matrices B et C véri…ent les hypothèses de II9 (et donc i) , ii) et iii) ) elles sont égales.On part de B pour trouver C . On commence donc par i) .le morceau t A permet d’introduire C ... et l’expression se simpli…e par ii) pour donner une forme symétrique en B et C . On recommence symétriquement avec C en mettant A à gauche: B de même C = Bt B t A car B véri…e i) = Bt B t AAAC car C véri…e iii) = BAC car B véri…e ii) = t AtC C car C véri…e i) = BAt At CC car B véri…e iii) = BAC car C véri…e ii) Si on a deux décompositions en matrices singulières de A les deux matrices A+ obtenues véri…ent II7 et sont donc égales. II.10. deux plans possibles ² utiliser II9 (A+ )+ est l’unique matrice B 2 Mn; p (R) véri…ant A+ B = t(A+B) BA+ = t (BA+) A+ BA+ = A+ BA+B = B Comme A 2 Mn;p (R) et que A véri…e ces quatre relations + ² utiliser (¢+ ) = ¢ + + t Comme A+ = V ¢+ t U est une décomposition en valeurs singulières de A+ on a par unicité (A+ ) = U (¢+ ) V =A + (A+ ) = A ² pour tA et en utilisant le second plan: t t (A+ ) = U t (¢+ ) V = U ¢+ tV t A = V ¢t U est une décomposition en valeurs singulières de t tA donc (tA) = U ¢+ tV + + (t A) = (A+ ) 0 1 2 ¡ ¢ II.11. Soit C 0 = A0 B 0 = @ 0 A . Cherchons C 0+ sous la forme a b c pour que les identités de II9 soient véri…ées.(on ¡2 peut aussi reprendre le plan de calcul de A+ 0 ) 0 1 0 1 2 2a 2b 2c ¡ ¢ ² @ 0 A a b c =.@ 0 0 0 A est symétrique si et seulement si c = ¡a et b = 0, ce que l’on suppose ¡2 ¡2a ¡2b ¡2c acquis pour la suite des calculs. ¡ ¢ ² a 0 ¡a C0 2 M11(R) est toujours symétrique. 0 1 8a ¡ ¢ ² C 0 a 0 ¡a C 0 = @ 0 A d’où a = 14 ¡8a ² On véri…e que la quatrième relation est vraie On a donc (A0 B0 )+ = ¡ A partir de la décomposition de B0 en valeurs singulières :B0+ B0+A+ 0 = ¡ 1 3 1 6 ¢ 0 ¡ 14 : ¡ ¢ = 12 ¡ 12 et donc 1 4 ¡ 16 ¢ + 6= (A0 B0 ) II.12.bonne révision des projections orthogonales . II.12.a . Pour tout H 2 Mn;1 (R) , AA+ H est le projeté orthogonal de H sur Im A, donc H ¡ AA+ H est orthogonal à Im A d’où ¡ ¢ ¡ ¢ AX ¡ AH ? H ¡ AH En utilisant Pythagore, jj AX ¡ H jj2n = jj AX ¡ AH jj2n + jj H ¡ AH j 2n , d’où jj AX °¡ H jj2n ¸ °jjAH ¡ H jj2n . Or AX décrit Im(A) et AH est l’élément ° ° de Im(A) rendant minimum j AX ¡ H j d(H; Im(A)) = AH ¡ H n n 7 ~ 2 Mp; 1 (R) tel que j AH ~ ¡ H j n = j AH ¡ H j n = d(H; Im A), alors par unicité du pro jeté orthogonal II.12.b. S’il existe H ~ ~ de H sur Im A, AH = AH, soit H ¡ H 2 Ker A. ~ = H + (H ~ ¡ H) avec H 2 Im(A+ ) = (Ker A)? et H ~ ¡ H 2 Ker A. On a alors H 2 2 2 ~ ~ ~ ~ ¡ H jj2p > 0 et donc Par Pythagore, j H j p = j H jjp + j H ¡ H j p . Si de plus H 6= H, jj H ~ jp jj H jjp < jj H II.12.c. inf j A0 X ¡ H j 3 = jj A0 A+ 0 H ¡ H jj3 = ¢ ¢ ¢ = p 3 3 8