Série 11 (Corrigé) - ANMC

Transcription

Série 11 (Corrigé) - ANMC
Algèbre linéaire pour EL et GM
Prof. A. Abdulle
Jeudi 2 décembre 2010
EPFL
Série 11 (Corrigé)
Exercice 1






3
−1
1





Soit u1 =  1 , u2 =  1 , v =  0 
.
3
0
1
(i) Vérifier que u1 et u2 sont orthogonaux.
(ii) Calculer la projection orthogonale projW (v) de v sur W = span{u1 , u2 }.
(iii) Donner la décomposition v = z + projW (v), où z ∈ W ⊥ .
Sol.:
(i) Un calcul direct donne u1 · u2 = 1 · (−1) + 1 · 1 + 1 · 0 = 0.
(ii)






7/2
1
−1
v · u1
3
v · u2
6
−3




1
1
projW (v) =
−
=
u1 +
u2 = u 1 +
u2 = 2 

 1/2  .



u 1 · u1
u2 · u2
3
2
2
1
2
0
(iii) v = z + projW (v), où projW (v) est calculé
dans (ii),


−1/2

et z est donné par z = v − projW (v) = 
 −1/2 .
1
Remarque : On peut vérifier que z · u1 = z · u2 = 0, c’est-à-dire z ∈ W ⊥ .



Même question pour u1 = 

Sol.:
1
0
1
0






, u2 = 


0
1
0
1






 , u3 = 


2
−1
−2
1






, v = 


1
2
1
2



.

(i) Les vecteurs u1 , u2 , u3 sont orthogonaux: u1 · u2 = u1 · u3 = u2 · u3 = 0.
(ii)
projW (v) =


v · u1
v · u2
v · u3

u1 +
u2 +
u3 = u1 + 2u2 = 

u1 · u1
u2 · u2
u3 · u3
1
1
2
1
2



.

0
 0 


(iii) z = v − projW (v) = 
.
 0 
0
Remarque: v = projW (v) équivaut à v ∈ W .








1
1
2





Même question pour u1 =  2 , u2 =  2 , v =  0 
.
−2
3
1
Sol.:
(i) Les vecteurs u1 , u2 sont orthogonaux: u1 · u2 = 0.
(ii)


2/7
v · u2
2
v · u1

u1 +
u 2 = u1 = 
projW (v) =
 4/7  .
u 1 · u1
u 2 · u2
7
6/7


5/7

−4/7
(iii) z = v − projW (v) = 
.

1/7
Exercice 2
Soit les vecteurs,


2

v= 1 
,
1


0

w1 =  2 
,
2


1

w2 =  1 
.
2
(i) Trouver la meilleure approximation de v par un vecteur de la forme αw1 + βw2 .
Sol.: Attention, ici w1 et w2 ne sous pas orthogonaux (w1 · w2 6= 0), donc on ne peut
pas appliquer directement la même méthode que pour l’exercice 1.
Méthode 1. Soit W = span(w1 , w2 ). La meilleure approximation w = αw1 + βw2
correspond à la projection orthogonale projW v. Elle est déterminée par w ∈ W et
v − w ∈ W ⊥:
(
(w − v) · w1 = 0
(w − v) · w2 = 0
⇔
(
αw1 · w1 + βw2 · w1 = v · w1
αw1 · w2 + βw2 · w2 = v · w2
⇔
(
8α + 6β = 4
.
6α + 6β = 5


4/3

La solution est α = −1/2, β = 4/3. Par conséquent w = − 12 w1 + 34 w2 = 
 1/3 
5/3


0 1

Méthode 2. Soit A =  2 1 
. On doit trouver la meilleure approximation de v
1 2 !
α
. L’équation normale pour la solution au sens des
sous la forme Ax, où x =
β
2
moindres carrés de Ax = v est
T
T
A Ax = A v
(
⇔
8α + 6β = 4
6α + 6β = 5
On conclut comme dans la méthode 1.
Méthode 3. On applique la méthode
la famille



 de Gram-Schmidt pour orthogonaliser
0
1



w ·u
{w1 , w2 }. On pose u1 = w1 = 
 2  et u2 = w2 − u12·u11 v1 =  −1/2 . Ensuite on
1/2
2


4/3

1
2
procède comme dans l’exercice 1, projspan(w1 ,w2 ) v = uv·u
u1 + uv·u
u2 = 
 1/3 .
1 ·u1
2 ·u2
5/3
(ii) Calculer la distance entre v et span(w1 , w2 ).


2/3
√


Sol.: kv − projspan(w1 ,w2 ) vk =  2/3  = 2/ 3.
−2/3 Soit maintenant les vecteurs,



v=

2
4
0
−1



,

2
0
−1
−3



w1 = 




,




w2 = 

5
−2
4
2



.

(iii) Trouver la meilleure approximation de v par un vecteur de la forme αw1 + βw2 .
Sol.: On remarque
que lesvecteurs w1 et w2 sont orthogonaux.

1

0 

.

projspan(w1 ,w2 ) v = 
 −1/2 
−3/2
(iv) Calculer la distance entre v et span(w1 , w2 ).
Sol.: kv − projspan(w1 ,w2 ) vk =
q
35
.
2
Exercice 3
Soit {u1 , . . . , un } et {v1 , . . . , vn } deux bases orthonormales de Rn . On définit les matrices
de taille n × n, U = (u1 . . . un ) et V = (v1 . . . vn ). Montrer que U T U = I, V T V = I et que
U V est inversible.
Sol.:



U U =


T
uT1
uT2
..
.
uTN



 u1


u 2 · · · uN
3



=


uT1 u1 uT1 u2 · · · uT1 uN
uT2 u1 uT2 u2 · · · uT2 uN
..
..
..
..
.
.
.
.
uTN u1 uTN u2 · · · uTN uN









=


1
0
..
.
0 ··· 0
1 ··· 0 

= I.
.. . . .. 
. . 

.
0 0 ··· 1

Comme v1 , . . . , vn vérifient les mêmes hypothèses, on a également V T V = I.
U V est inversible car V T U T U V = V T V = I, d’où (U V )−1 = V T U T .
Exercice 4
Soit W un sous-espace vectoriel de Rn . Soit {w1 , . . . , wq } une base orthogonale de W . Soit
{v1 , . . . , vr } une base orthogonale de W ⊥ .
Montrer que {w1 , . . . , wq , v1 , . . . , vr } est orthogonale et prouver la relation
dimW + dimW ⊥ = n.
Sol.: Le vecteur wi et le vecteur vj sont orthogonaux pour tout i = 1 . . . q, j = 1 . . . r car
ils appartiennent aux espaces orthogonaux W et W ⊥ . Les vecteurs wi sont orthogonaux
entre eux car ils constituent une base orthogonale, de même pour les vecteurs vj . Ainsi,
n’importe quels deux vecteurs dans la famille {w1 , . . . , wq , v1 , . . . , vr } sont orthogonaux:
c’est une famille orthogonale.
Montrons la relation dimW + dimW ⊥ = n.
Méthode 1: La famille {w1 , . . . , wq , v1 , . . . , vr } est orthogonale donc linéairement indépendante. De plus tout vecteur v ∈ Rn se décompose sous la forme v = z + w avec z ∈ W ⊥
et w = projW v ∈ W . Or z ∈ W ⊥ peut être décomposé dans la base {v1 , . . . , vr } de W ⊥ et
projW v ∈ W peut être décomposé dans la base {w1 , . . . , wq } de W . Ainsi, tout vecteur v ∈
Rn peut se décomposer selon la famille linéairement indépendante {w1 , . . . , wq , v1 , . . . , vr }
qui est donc une base de Rn . Par conséquent q + r = n.
Méthode 2: Appliquons le théorème du rang à l’application linéaire projW :
dim Im projW + dim Ker projW = n.
Or la projection vérifie Ker projW = W ⊥ et Im projW = W , d’où le résultat.
Exercice 5
Appliquer la méthode de Gram-Schmidt pour orthogonaliser les bases de sous-espaces vectoriels de Rn suivantes.




1
1




(i) w1 =  1 , w2 =  2 .
1
1


1

Sol.: La méthode de Gram-Schmidt donne: u1 = w1 = 
 1 .
1


−1/3
w 2 · u1

u2 = w 2 −
u1 =  2/3 
.
u1 · u1
−1/3
4



(ii) w1 = 

1
3
2
1






, w2 = 


0
1
1
0






 , w3 = 


0
1
0
0



.




Sol.: La méthode de Gram-Schmidt donne: u1 = w1 = 
u2 = w 2 −
u3 = w 3 −


w 2 · u1
u1 = 


u1 · u1
−1/3
0
1/3
−1/3




.



w 3 · u2
w 3 · u1
u1 −
u2 = 


u1 · u1
u 2 · u2
−1/5
2/5
−2/5
−1/5
1
3
2
1



.




.

(iii) Donner une base orthonormale pour (i) et (ii).




1
−1
1 
1  

Sol.: Pour (i): u1 /ku1 k = √  1 , u2 /ku2 k = √  2 .
3 1
6 −1
1
3
2
1

1 

Pour (ii): u1 /ku1 k = √ 
15 



1 


, u2 /ku2 k = √ 

3
−1
0
1
−1


1

, u3 /ku3 k = √

10





−1
2
−2
−1



.

Exercice 6
Calculer la décomposition QR des matrices suivantes:


2 3

(i) A =  2 4 
, Sol.: On applique la méthode de Gram-Schmidt aux vecteurs w1 =
1 1








−1/3
2/3
3
2








 2  and w2 =  4 . On obtient u1 =  2/3  et u2 =  2/3 ,
−2/3
1/3
1
1


2/3 −1/3

d’où Q = 
 2/3 2/3 ,
1/3 −2/3
Ainsi, R = QT A =

3 5
0 1
!
.

1 1 −1

(ii) A =  1 2 1 
,
1 2 −1
5
√
√
√
√ 
 √

1/√3 −2/√ 6
0√
3 5/√3 −1/√ 3




Sol.: Q =  1/√3 1/√6
1/ √2 , R =  0 2/ 6 2/√ 6 .
2
1/ 3 1/ 6 −1/ 2
0
0



(iii) A = 


0
0
1
2
0 −1
−1 1



Sol.: Q = 







0√
0
√
3/ √22
1/ 2
0√ −2/√ 22
−1/ 2 3/ 22

 √


2
, R = 

0

√ 
1/
2
q
.
11/2
Exercice 7
Soit U un sous-espace vectoriel de Rn et u1 , . . . , up une base orthogonale de U . On considère
la transformation T : Rn → Rn définie par T (v) = projU (v).
Montrer que T est une transformation linéaire.
Sol.: Méthode 1.
T (αv + βw) = u1
= αu1
(αv + βw) · up
(αv + βw) · u1
+ . . . + up
u 1 · u1
up · up
v · u1
w · u1
v · up
w · up
+ βu1
+ . . . + αup
+ βup
= αT (v) + βT (w).
u1 · u1
u 1 · u1
up · u p
up · up
Méthode 2. En utilisant l’identité x · y = xT y = y T x, on a:
T (v) = u1
v · up
v · u1
+ . . . + up
= u1 uT1 (uT1 u1 )−1 v + . . . + up uTp (uTp up )−1 v
u1 · u1
u p · up
= u1 uT1 (uT1 u1 )−1 + . . . + up uTp (uTp up )−1 v.
Ainsi, la transformation T est associée à la matrice u1 uT1 (uT1 u1 )−1 + . . . + up uTp (uTp up )−1 et
est donc linéaire.
Exercice 8
Déterminer la solution au sens des moindres carrés de Ax = b,
(a) en utilisant l’équation normale lorsque




4
2 1




(i) A =  −2 0 , b =  1 ,
2
2 3
T
T
Sol.: L’équation normale A Ax = A b est
elle a pour solution x =
5/14
5/7
!
.
6
12 8
8 10
!
x=
10
10
!
,




5
1 3



(ii) A =  1 −1 , b =  1 
,
1 1
0
!
3 3
T
Sol.: A A =
, AT b =
3 11
1 0

0 −1 

,

(iii) A = 

1 1 
1 −1

3 0

T
Sol.: A A =  0 3
0 0

1
1
0
−1




b=

2
5
6
6

6
14
!
,x=
1
1
!
.



;





1/3
1
0




T
0 , A b =  14 , x =  14/3 
.
−5/3
−5
3
(b) en utilisant la méthode QR,
0
0
1
 1



2 

 0 
(i) A = 
, b = 

 0 −1 
 1 
−1 1
0
Sol.: On remarque que la décomposition QR a déjà été obtenue à l’exercice
6. L’approximation x au sens des moindres carrés est la solution du système
Rx = QT b, où
!
!
0√
1/11
T
Q b=
.
, et ainsi x =
−2/11
−2/ 22








0
2 3



(ii) A =  2 4 , b =  0 
.
1
1 1
!
1/3
Sol.: QT b =
,x=
−2/3
11/9
−2/3
!
.
Exercice 9
Soit A une matrice de taille m × n.
(i) Montrer KerA = Ker(AT A).
Sol.: Si Ax = 0 alors AT Ax = 0, ce qui montre KerA ⊂ Ker(AT A). Soit maintenant
x tel que AT Ax = 0 ; alors xT AT Ax = 0. Or xT AT Ax = (Ax)T (Ax) = kAxk2 . Ainsi
Ax = 0, et Ker(AT A) ⊂ KerA.
(ii) Montrer que AT A est inversible si et seulement si les colonnes de A sont linéairement
indépendantes.
Sol.: Les colonnes de A = (a1 . . . an ) sont linéairement indépendantes
⇐⇒ (β1 a1 + . . . βn an = 0 ⇒ β1 = . . . = βn = 0)






β1
β1

 . 
  . 





⇐⇒ A  ..  = 0 ⇒  .. 
 = 0
βn
βn
7
⇐⇒ KerA = {0}.
Ainsi, d’après (i), les colonnes de A sont linéairement indépendantes si et seulement
si Ker(AT A) = {0}, c’est-à-dire AT A inversible.
Informations générales, séries et corrigés http://anmc.epfl.ch/Algebre.html
8