Corrigé 4

Transcription

Corrigé 4
EPFL
Algèbre linéaire
1ère année
2007-2008
Corrigé de la série 4
Exercice 1.
Vérions que les axiomes sont satisfaits. Dans ce qui suit, M, N, P sont des
matrices dans Mat(m, n; F) et λ, µ ∈ F des scalaires. On remarque que deux matrices sont
égales si et seulement si toutes les entrées correspondantes sont égales.
Commutativité de + : Pour montrer que M +N = N +M , il faut montrer que (M +N )i,j =
(N +M )i,j pour tout i, j par la remarque ci-dessus. Or on a (M +N )i,j = (M )i,j +(N )i,j =
(N )i,j + (M )i,j = (N + M )i,j par la commutativité de + dans F.
Associativité de + : ((M + N ) + P )i,j = (M + N )i,j + (P )i,j = ((M )i,j + (N )i,j ) + (P )i,j =
(M )i,j + ((N )i,j + (P )i,j ) = (M )i,j + (N + P )i,j = (M + (N + P ))i,j ∀i, j par l'associativité
de + dans F. Donc (M + N ) + P = M + (N + P ).
Elément neutre de + : Soit 0 la matrice donnée par (0)i,j = 0 pour tout i, j . Alors
(M + 0)i,j = (M )i,j + (0)i,j = (M )i,j + 0 = (M )i,j ∀i, j . Donc M + 0 = M .
Inverse additive : Dénissons −M par (−M )i,j = −(M )i,j ∀i, j . Alors (M + (−M ))i,j =
(M )i,j + (−M )i,j = (M )i,j − (M )i,j = 0 pour tout i, j . Donc M + (−M ) = 0.
On laisse le soin au lecteur de vérier les autres axiomes de manière similaire.
Exercice 2.
Montrons que la première liste est une liste génératrice. Il nous faut démontrer que n'importe quel vecteur de Mat(2, 2; F) peut
êtreexprimé comme une combinaison linéaire des
α β
éléments de la liste. Soit alors M =
∈ Mat(2, 2; F). Par dénition de la structure
γ δ
d'espace vectoriel, nous avons :
1 0
0 1
0 0
0 0
M =α
+β
+γ
+δ
.
0 0
0 0
1 0
0 1
Comme M était arbitraire, ça démontre l'énoncé.
Pour voir qu'elle est libre, supposons que ξ, η, ζ, ω ∈ F soient
1 0
0 1
0 0
0
ξ
+η
+ζ
+ω
0 0
0 0
1 0
0
Par conséquent, on a
ξ η
ζ ω
tels que
0
= 0.
1
= 0, et donc ξ = η = ζ = ω = 0.
α β
On calcule facilement qu'on peut écrire M =
∈ Mat(2, 2; F) comme
γ δ
β+γ 0 1
β−γ 0 1
0 0
1 0
+
+δ
.
M =α
+
−1 0
1 0
0 1
0 0
2
2
1 0
0 1
0 1
0 0
Donc on a bien que Mat(2, 2; F) = span
,
,
,
.
0 0
−1 0
1 0
0 1
1
Supposons que α, β, γ, δ
1
α
0
∈ F soient tels que
0
0 1
0 1
0 0
+β
+γ
+δ
= 0.
0
−1 0
1 0
0 1
α
β+γ
Alors
= 0. Par conséquent α = β = γ = δ = 0. La liste est donc
−β + γ
δ
linéairement indépendante.
Exercice 3.
1. Soit (x1 , x2 , x3 , x4 , x5 ) ∈ U . Puisque x1 = 2x5 et x3 = x2 + 5x5 , on peut écrire
(x1 , x2 , x3 , x4 , x5 ) = (2x5 , x2 , x2 + 5x5 , x4 , x5 )
= x2 (0, 1, 1, 0, 0) + x4 (0, 0, 0, 1, 0) + x5 (2, 0, 5, 0, 1).
Alors tout élément de U est une combinaison linéaire de (0, 1, 1, 0, 0), (0, 0, 0, 1, 0), et
(2, 0, 5, 0, 1), c'est-à-dire
U = span((0, 1, 1, 0, 0), (0, 0, 0, 1, 0), (2, 0, 5, 0, 1)).
2. La famille de l'énoncé n'est pas linéairement indépendante car :
(1, 2, 1, 2, 1) + (2, 1, 2, 1, 2) = 3 ((1, 0, 1, 1, 0) + (0, 1, 0, 0, 1)) .
Ce n'est pas non-plus une famille génératrice car
(1, 0, 0, 0, 0) 6∈ E = span((1, 2, 1, 2, 1), (2, 1, 2, 1, 2), (1, 0, 1, 1, 0), (0, 1, 0, 0, 1)).
En eet, raisonnons par l'absurde et supposons que (1, 0, 0, 0, 0) ∈ E . Par dénition, on
aurait l'existence de scalaires α, β, γ et δ tels que :
α(1, 2, 1, 2, 1) + β(2, 1, 2, 1, 2) + γ(1, 0, 1, 1, 0) + δ(0, 1, 0, 0, 1) = (1, 0, 0, 0, 0).
Or, pour la première coordonnée, cette égalité fournit l'équation α + 2β + γ = 1 et la
troisième coordonnée fournit l'équation α + 2β + γ = 0. Ce qui fournit une contradiction.
On verra plus tard dans le cours, qu'une famille génératrice d'un espace
vectoriel de dimension n a, au moins, n éléments et qu'une famille linéairement indépendante d'un espace vectoriel de dimension n a, au plus, n éléments. Ici, R5 est un espace
vectoriel de dimension 5 et la famille a 4 éléments. Par conséquent, elle ne peut pas être
génératrice.
Remarque :
Exercice 4.
1. Il s'agit du sous-espace des matrices antisymétriques, donc de l'ensemble des matrices
M ∈ Mat(n, n; F) qui ont la propriété que (M )i,j = −(M )j,i pour i, j ∈ {1, . . . , n}.
Remarquons que (M )i,i = 0 pour un tel M .
Les matrices Ak,l sont clairement antisymétriques. Prenons maintenant un élément M
arbitraire de l'espace A(n) engendré par les matrices Ak,l . C'est donc une combinaison
linéaire des Ak,l , i.e. ∃ α1,2 , α1,3 , . . . , α2,3 , α2,4 , . . . , αn−1,n ∈ F tels que
M = α1,2 A1,2 + · · · + αn−1,n An−1,n .
2
Pour i, j ∈ {1, . . . , n} quelconques, on trouve :
!
n−1 X
n
n−1 X
n
X
X
(M )i,j =
αp,q Ap,q
=
αp,q (Ap,q )i,j
p=1 q=p+1
=
n−1
X
n
X
p=1 q=p+1
i,j
−αp,q (Ap,q )j,i =
p=1 q=p+1
n−1 X
n
X
!
−αp,q (Ap,q )
p=1 q=p+1
= −(M )j,i .
j,i
Cela nous montre que M est bien antisymétrique. Comme M était un élément arbitraire de
A(n), nous concluons que A(n) est contenu dans l'ensemble des matrices antisymétriques.
Inversément, soit N une matrice antisymétrique. Nous devons montrer que
N ∈ A(n) = span{Ak,l | 1 ≤ k, l ≤ n, k < l}.
Pour k, l ∈ {1, . . . , n} et k < l, dénissons αk,l = (N )k,l . Soit
N0 =
n−1 X
n
X
αp,q Ap,q .
p=1 q=p+1
Nous armons que N 0 = N . En eet, pour i, j ∈ {1, . . . , n} quelconques :
(N 0 )i,j = α1,2 (A1,2 )i,j + · · · + αn−1,n (An−1,n )i,j = αi,j (Ai,j )i,j
(
αi,j = (N )i,j ,
si i < j
=
−αj,i = −(N )j,i = (N )i,j sinon.
2. Un raisonnement toute à fait analogue à celui de 1. montre que S(n) est le sous-espace
des matrices symétriques, i.e. des matrices M telles que (M )i,j = (M )j,i pour tout i, j .
3. Soit M ∈ A(n) ∩ S(n) et i, j ∈ {1, . . . , n} quelconques. Alors (M )i,j = (M )j,i comme M
et symétrique et (M )j,i = −(M )i,j comme M est antisymétrique. Donc 2(M )i,j = 0 et
alors (M )i,j = 0. Par conséquent : A(n) ∩ S(n) = {0}.
4.
Armation : Mat(n, n; F) = A(n) ⊕ S(n).
Par le résultat de 3., il reste à montrer que A(n) + S(n) = Mat(n, n; F). Nous devons
alors écrire n'importe quelle matrice M ∈ Mat(n, n; F) comme une somme d'une matrice
antisymétrique A et d'une matrice symétrique B . Dénissant A et B par
1
(M )i,j + (M )j,i ∀i, j ∈ {1, . . . , n},
2
1
= (M )i,j − (M )j,i ∀i, j ∈ {1, . . . , n},
2
(A)i,j =
(B)i,j
nous obtenons bien une matrice antisymétrique et symétrique, respectivement, telles que
A + B = M.
Exercice 5.
1. Soit U ⊆ R3 un sous-espace qui est engendré par un ~v ∈ R3 . Explicitement, cela veut dire
que U = {α~v | α ∈ R}. Si ~v 6= ~0, U est alors la droite qui passe par l'origine et ~v . Si ~v = ~0,
U consiste juste en l'origine ~0.
3
2. Soit V = span(~v , w)
~ ⊆ R3 . S'il existe λ ∈ R tel que ~v = λw
~ (i.e. ~v et w
~ sont colinéaires),
alors V = span(~v ) est engendré par ~v et est donc une droite passante par l'origine ou
V = {~0}, par le 1. Si ce n'est pas le cas, un argument de géométrie élémentaire montre
que V est le plan qui contient ~0, ~v , w
~.
3. Soit W ⊆ R3 un sous-espace quelconque. Si W peut être engendré par deux ou moins
vecteurs, il s'agit d'un plan qui contient l'origine, d'une droite qui contient l'origine ou
W = {~0}, par 1. et 2.
Supposons que W n'est pas engendré par deux vecteurs. Choisissons ~0 6= ~v ∈ W . Par
hypothèse, on a span(~v ) $ W . Il existe alors w
~ ∈ W \span(~v ). De nouveau, par hypothèse,
span(~v , w)
~ $ W . Il existe donc un vecteur ~u ∈ W qui n'est pas contenu dans le plan qui
passe par ~0, ~v , w
~ . De nouveau, un raisonnement géométrique implique facilement qu'alors
span(~v , w,
~ ~u) = R3 et donc W = R3 .
4. (a) Pour le sous-espace {0}, on a {0} + G = G 6= R3 . Lorsque le sous-espace est une
droite G0 , on a G0 + G = G si G0 = G ou bien G0 + G est le plan qui contient G et
G0 si G0 6= G. Pour un plan (contenant zéro) E , on a E + G = E quand G ⊆ E et
E + G = R3 si E ne contient pas G. Finalement, on a R3 + G = R3 . Pour P , on peut
donc prendre ou bien un plan qui ne contient pas le vecteur (1, 1, 1) ou bien R3 .
(b) Par (a), il faut que P soit un plan P 6⊇ G ou bien R3 . Dans le premier cas, on a
P ∩ G = {0}, et la somme est donc directe. Pour R3 par contre, on a R3 ∩ G = G 6=
{0}, et donc une somme non-directe.
Exercice 6.
1. Soient les scalaires λ1 , λ2 , λ3 ∈ R tels que λ1 · 1 + λ2 · sin +λ3 · cos = ~0. Ceci équivaut
à λ1 + λ2 · sin(x) + λ3 · cos(x) = 0 pour tout x ∈ R. En écrivant cette identité pour
x = 0, π2 , π , on obtient le système suivant :
λ1 + λ3 = 0,
λ1 + λ2 = 0,
λ1 − λ3 = 0,
qui a comme unique solution λ1 = λ2 = λ3 = 0. La liste (1, sin, cos) est donc libre dans
F(R, R). Par contre, la liste (1, sin, cos, sin2 , cos2 ) est liée car 1 = sin2 + cos2 .
2. Par dénition, la famille indiquée est libre si et seulement si tout sous-ensemble ni est
libre. Comme un sous-ensemble d'un ensemble libre est automatiquement libre, il sut
de montrer que (ϕ0 , . . . , ϕn ) est libre. On procède par récurrence. Le cas n = 0 est
évident. Supposons que la propriété est vraie pour n et montrons-la pour n + 1. Soient
λ0 , . . . , λn , λn+1 ∈ R tels que
λ0 + λ1 cos(x) + · · · + λn cos(nx) + λn+1 cos (n + 1)x = 0 ∀x ∈ R.
(1)
Si une fonction est nulle, alors sa dérivée l'est aussi. En dérivant deux fois, on obtient :
−λ1 cos(x) − · · · − n2 λn cos(nx) − (n + 1)2 λn+1 cos (n + 1)x = 0 ∀x ∈ R.
(2)
En multipliant (1) par (n + 1)2 et en additionnant le résultat à (2), on obtient :
(n + 1)2 λ0 + ((n + 1)2 − 1)λ1 cos(x) + + · · · + ((n + 1)2 − n2 )λn cos(nx) = 0 ∀x ∈ R. (3)
L'hypothèse de récurrence implique :
(n + 1)2 λ0 = 0, ((n + 1)2 − 1)λ1 = 0, . . . , ((n + 1)2 − n2 )λn = 0.
Donc λ0 = λ1 = · · · = λn = 0. Revenant à (1), nous trouvons que λn+1 = 0 également.
4