Série 11 (Corrigé) - ANMC
Transcription
Série 11 (Corrigé) - ANMC
Algèbre linéaire pour EL et GM Prof. A. Abdulle Jeudi 2 décembre 2010 EPFL Série 11 (Corrigé) Exercice 1 3 −1 1 Soit u1 = 1 , u2 = 1 , v = 0 . 3 0 1 (i) Vérifier que u1 et u2 sont orthogonaux. (ii) Calculer la projection orthogonale projW (v) de v sur W = span{u1 , u2 }. (iii) Donner la décomposition v = z + projW (v), où z ∈ W ⊥ . Sol.: (i) Un calcul direct donne u1 · u2 = 1 · (−1) + 1 · 1 + 1 · 0 = 0. (ii) 7/2 1 −1 v · u1 3 v · u2 6 −3 1 1 projW (v) = − = u1 + u2 = u 1 + u2 = 2 1/2 . u 1 · u1 u2 · u2 3 2 2 1 2 0 (iii) v = z + projW (v), où projW (v) est calculé dans (ii), −1/2 et z est donné par z = v − projW (v) = −1/2 . 1 Remarque : On peut vérifier que z · u1 = z · u2 = 0, c’est-à-dire z ∈ W ⊥ . Même question pour u1 = Sol.: 1 0 1 0 , u2 = 0 1 0 1 , u3 = 2 −1 −2 1 , v = 1 2 1 2 . (i) Les vecteurs u1 , u2 , u3 sont orthogonaux: u1 · u2 = u1 · u3 = u2 · u3 = 0. (ii) projW (v) = v · u1 v · u2 v · u3 u1 + u2 + u3 = u1 + 2u2 = u1 · u1 u2 · u2 u3 · u3 1 1 2 1 2 . 0 0 (iii) z = v − projW (v) = . 0 0 Remarque: v = projW (v) équivaut à v ∈ W . 1 1 2 Même question pour u1 = 2 , u2 = 2 , v = 0 . −2 3 1 Sol.: (i) Les vecteurs u1 , u2 sont orthogonaux: u1 · u2 = 0. (ii) 2/7 v · u2 2 v · u1 u1 + u 2 = u1 = projW (v) = 4/7 . u 1 · u1 u 2 · u2 7 6/7 5/7 −4/7 (iii) z = v − projW (v) = . 1/7 Exercice 2 Soit les vecteurs, 2 v= 1 , 1 0 w1 = 2 , 2 1 w2 = 1 . 2 (i) Trouver la meilleure approximation de v par un vecteur de la forme αw1 + βw2 . Sol.: Attention, ici w1 et w2 ne sous pas orthogonaux (w1 · w2 6= 0), donc on ne peut pas appliquer directement la même méthode que pour l’exercice 1. Méthode 1. Soit W = span(w1 , w2 ). La meilleure approximation w = αw1 + βw2 correspond à la projection orthogonale projW v. Elle est déterminée par w ∈ W et v − w ∈ W ⊥: ( (w − v) · w1 = 0 (w − v) · w2 = 0 ⇔ ( αw1 · w1 + βw2 · w1 = v · w1 αw1 · w2 + βw2 · w2 = v · w2 ⇔ ( 8α + 6β = 4 . 6α + 6β = 5 4/3 La solution est α = −1/2, β = 4/3. Par conséquent w = − 12 w1 + 34 w2 = 1/3 5/3 0 1 Méthode 2. Soit A = 2 1 . On doit trouver la meilleure approximation de v 1 2 ! α . L’équation normale pour la solution au sens des sous la forme Ax, où x = β 2 moindres carrés de Ax = v est T T A Ax = A v ( ⇔ 8α + 6β = 4 6α + 6β = 5 On conclut comme dans la méthode 1. Méthode 3. On applique la méthode la famille de Gram-Schmidt pour orthogonaliser 0 1 w ·u {w1 , w2 }. On pose u1 = w1 = 2 et u2 = w2 − u12·u11 v1 = −1/2 . Ensuite on 1/2 2 4/3 1 2 procède comme dans l’exercice 1, projspan(w1 ,w2 ) v = uv·u u1 + uv·u u2 = 1/3 . 1 ·u1 2 ·u2 5/3 (ii) Calculer la distance entre v et span(w1 , w2 ). 2/3 √ Sol.: kv − projspan(w1 ,w2 ) vk = 2/3 = 2/ 3. −2/3 Soit maintenant les vecteurs, v= 2 4 0 −1 , 2 0 −1 −3 w1 = , w2 = 5 −2 4 2 . (iii) Trouver la meilleure approximation de v par un vecteur de la forme αw1 + βw2 . Sol.: On remarque que lesvecteurs w1 et w2 sont orthogonaux. 1 0 . projspan(w1 ,w2 ) v = −1/2 −3/2 (iv) Calculer la distance entre v et span(w1 , w2 ). Sol.: kv − projspan(w1 ,w2 ) vk = q 35 . 2 Exercice 3 Soit {u1 , . . . , un } et {v1 , . . . , vn } deux bases orthonormales de Rn . On définit les matrices de taille n × n, U = (u1 . . . un ) et V = (v1 . . . vn ). Montrer que U T U = I, V T V = I et que U V est inversible. Sol.: U U = T uT1 uT2 .. . uTN u1 u 2 · · · uN 3 = uT1 u1 uT1 u2 · · · uT1 uN uT2 u1 uT2 u2 · · · uT2 uN .. .. .. .. . . . . uTN u1 uTN u2 · · · uTN uN = 1 0 .. . 0 ··· 0 1 ··· 0 = I. .. . . .. . . . 0 0 ··· 1 Comme v1 , . . . , vn vérifient les mêmes hypothèses, on a également V T V = I. U V est inversible car V T U T U V = V T V = I, d’où (U V )−1 = V T U T . Exercice 4 Soit W un sous-espace vectoriel de Rn . Soit {w1 , . . . , wq } une base orthogonale de W . Soit {v1 , . . . , vr } une base orthogonale de W ⊥ . Montrer que {w1 , . . . , wq , v1 , . . . , vr } est orthogonale et prouver la relation dimW + dimW ⊥ = n. Sol.: Le vecteur wi et le vecteur vj sont orthogonaux pour tout i = 1 . . . q, j = 1 . . . r car ils appartiennent aux espaces orthogonaux W et W ⊥ . Les vecteurs wi sont orthogonaux entre eux car ils constituent une base orthogonale, de même pour les vecteurs vj . Ainsi, n’importe quels deux vecteurs dans la famille {w1 , . . . , wq , v1 , . . . , vr } sont orthogonaux: c’est une famille orthogonale. Montrons la relation dimW + dimW ⊥ = n. Méthode 1: La famille {w1 , . . . , wq , v1 , . . . , vr } est orthogonale donc linéairement indépendante. De plus tout vecteur v ∈ Rn se décompose sous la forme v = z + w avec z ∈ W ⊥ et w = projW v ∈ W . Or z ∈ W ⊥ peut être décomposé dans la base {v1 , . . . , vr } de W ⊥ et projW v ∈ W peut être décomposé dans la base {w1 , . . . , wq } de W . Ainsi, tout vecteur v ∈ Rn peut se décomposer selon la famille linéairement indépendante {w1 , . . . , wq , v1 , . . . , vr } qui est donc une base de Rn . Par conséquent q + r = n. Méthode 2: Appliquons le théorème du rang à l’application linéaire projW : dim Im projW + dim Ker projW = n. Or la projection vérifie Ker projW = W ⊥ et Im projW = W , d’où le résultat. Exercice 5 Appliquer la méthode de Gram-Schmidt pour orthogonaliser les bases de sous-espaces vectoriels de Rn suivantes. 1 1 (i) w1 = 1 , w2 = 2 . 1 1 1 Sol.: La méthode de Gram-Schmidt donne: u1 = w1 = 1 . 1 −1/3 w 2 · u1 u2 = w 2 − u1 = 2/3 . u1 · u1 −1/3 4 (ii) w1 = 1 3 2 1 , w2 = 0 1 1 0 , w3 = 0 1 0 0 . Sol.: La méthode de Gram-Schmidt donne: u1 = w1 = u2 = w 2 − u3 = w 3 − w 2 · u1 u1 = u1 · u1 −1/3 0 1/3 −1/3 . w 3 · u2 w 3 · u1 u1 − u2 = u1 · u1 u 2 · u2 −1/5 2/5 −2/5 −1/5 1 3 2 1 . . (iii) Donner une base orthonormale pour (i) et (ii). 1 −1 1 1 Sol.: Pour (i): u1 /ku1 k = √ 1 , u2 /ku2 k = √ 2 . 3 1 6 −1 1 3 2 1 1 Pour (ii): u1 /ku1 k = √ 15 1 , u2 /ku2 k = √ 3 −1 0 1 −1 1 , u3 /ku3 k = √ 10 −1 2 −2 −1 . Exercice 6 Calculer la décomposition QR des matrices suivantes: 2 3 (i) A = 2 4 , Sol.: On applique la méthode de Gram-Schmidt aux vecteurs w1 = 1 1 −1/3 2/3 3 2 2 and w2 = 4 . On obtient u1 = 2/3 et u2 = 2/3 , −2/3 1/3 1 1 2/3 −1/3 d’où Q = 2/3 2/3 , 1/3 −2/3 Ainsi, R = QT A = 3 5 0 1 ! . 1 1 −1 (ii) A = 1 2 1 , 1 2 −1 5 √ √ √ √ √ 1/√3 −2/√ 6 0√ 3 5/√3 −1/√ 3 Sol.: Q = 1/√3 1/√6 1/ √2 , R = 0 2/ 6 2/√ 6 . 2 1/ 3 1/ 6 −1/ 2 0 0 (iii) A = 0 0 1 2 0 −1 −1 1 Sol.: Q = 0√ 0 √ 3/ √22 1/ 2 0√ −2/√ 22 −1/ 2 3/ 22 √ 2 , R = 0 √ 1/ 2 q . 11/2 Exercice 7 Soit U un sous-espace vectoriel de Rn et u1 , . . . , up une base orthogonale de U . On considère la transformation T : Rn → Rn définie par T (v) = projU (v). Montrer que T est une transformation linéaire. Sol.: Méthode 1. T (αv + βw) = u1 = αu1 (αv + βw) · up (αv + βw) · u1 + . . . + up u 1 · u1 up · up v · u1 w · u1 v · up w · up + βu1 + . . . + αup + βup = αT (v) + βT (w). u1 · u1 u 1 · u1 up · u p up · up Méthode 2. En utilisant l’identité x · y = xT y = y T x, on a: T (v) = u1 v · up v · u1 + . . . + up = u1 uT1 (uT1 u1 )−1 v + . . . + up uTp (uTp up )−1 v u1 · u1 u p · up = u1 uT1 (uT1 u1 )−1 + . . . + up uTp (uTp up )−1 v. Ainsi, la transformation T est associée à la matrice u1 uT1 (uT1 u1 )−1 + . . . + up uTp (uTp up )−1 et est donc linéaire. Exercice 8 Déterminer la solution au sens des moindres carrés de Ax = b, (a) en utilisant l’équation normale lorsque 4 2 1 (i) A = −2 0 , b = 1 , 2 2 3 T T Sol.: L’équation normale A Ax = A b est elle a pour solution x = 5/14 5/7 ! . 6 12 8 8 10 ! x= 10 10 ! , 5 1 3 (ii) A = 1 −1 , b = 1 , 1 1 0 ! 3 3 T Sol.: A A = , AT b = 3 11 1 0 0 −1 , (iii) A = 1 1 1 −1 3 0 T Sol.: A A = 0 3 0 0 1 1 0 −1 b= 2 5 6 6 6 14 ! ,x= 1 1 ! . ; 1/3 1 0 T 0 , A b = 14 , x = 14/3 . −5/3 −5 3 (b) en utilisant la méthode QR, 0 0 1 1 2 0 (i) A = , b = 0 −1 1 −1 1 0 Sol.: On remarque que la décomposition QR a déjà été obtenue à l’exercice 6. L’approximation x au sens des moindres carrés est la solution du système Rx = QT b, où ! ! 0√ 1/11 T Q b= . , et ainsi x = −2/11 −2/ 22 0 2 3 (ii) A = 2 4 , b = 0 . 1 1 1 ! 1/3 Sol.: QT b = ,x= −2/3 11/9 −2/3 ! . Exercice 9 Soit A une matrice de taille m × n. (i) Montrer KerA = Ker(AT A). Sol.: Si Ax = 0 alors AT Ax = 0, ce qui montre KerA ⊂ Ker(AT A). Soit maintenant x tel que AT Ax = 0 ; alors xT AT Ax = 0. Or xT AT Ax = (Ax)T (Ax) = kAxk2 . Ainsi Ax = 0, et Ker(AT A) ⊂ KerA. (ii) Montrer que AT A est inversible si et seulement si les colonnes de A sont linéairement indépendantes. Sol.: Les colonnes de A = (a1 . . . an ) sont linéairement indépendantes ⇐⇒ (β1 a1 + . . . βn an = 0 ⇒ β1 = . . . = βn = 0) β1 β1 . . ⇐⇒ A .. = 0 ⇒ .. = 0 βn βn 7 ⇐⇒ KerA = {0}. Ainsi, d’après (i), les colonnes de A sont linéairement indépendantes si et seulement si Ker(AT A) = {0}, c’est-à-dire AT A inversible. Informations générales, séries et corrigés http://anmc.epfl.ch/Algebre.html 8