Chapitre 5: Changement de base et diagonalisation

Transcription

Chapitre 5: Changement de base et diagonalisation
Chapitre 5: Changement de base
et diagonalisation
- Changement de bases
- Diagonalisation d’une matrice
Changement de bases
Soient deux bases B =(e1,...,en ) et B'=(e'1,...,e'n ) de E.
B est l' ancienne base, B' est la nouvelle base.
La matrice de passage de B à B' , notée PBB' = (ai,j )i,j=1,...,n
est définie par
n
e' j=∑ ai,j ei ∀j = 1,...,n.
i =1
La jème colonnes de PBB' est constituée des composantes de e' j
exprimés dans l' ancienne base.
 x1 
 x'1 
 
 
Etant donné x ∈ E. On considère respectivement X = M  et X' = M 
x 
 x' 
 n
 n
le vecteur des composantes de x dans la base B et B' .
Alors X = PBB' X' .
n
n
 n



En effet x = ∑ xi ei =∑ x' j e' j = ∑ x' j  ∑ ai,j ei  =∑  ∑ ai,j x' j ei
i =1
j =1
j =1
 i =1
 i =1  j =1

n
n
n
n
Conclusion xi = ∑ ai,j x' j ⇔ X = PBB' X' .
j =1
Theorem : La matrice P est inversible, et (P
B'
B
Autrement dit (P
)
B' −1
B
)
B' −1
B
= PBB'
est la matrice de passe de B' à B.
Exemples de changement de
base
0
1 
Dans R on considère l' ancienne B = {i, j} avec i =   et j =  
1 
 0
2
1/ 2 
 - 3/ 2 



On considère un nouvelle base B' = {i' , j'} avec i' =
et j' = 
1/ 2 
 3/ 2 




On a
i ' = 1/ 2i + 1/ 2 j
j ' = −3/ 2i + 3/ 2 j
1/ 2
B'
Donc PB = 
1/ 2
− 3/ 2 

3/ 2 
1/ 2 x'− y '3/ 2 
x

Si X =   = xi + yj = x' i '+ y ' j ' = 
1/ 2 x'− y '3/ 2 
 y


x
B '  x' 
On a bien   = PB  .
 y
 y'
Exemples
Rotation d' angle θ (Sens contraire des aiguilles d' une montre)
 x'1  cos θ
 x'  =  sin θ
 2 
− sin θ   x1 
cos θ   x2 
Rotation d' angle θ (Sens contraire des aiguilles d' une montre)
 x1   cos θ sin θ   x'1 
 x  = − sin θ cos θ   x' 
 2 
 2 
 cos θ sin θ  cos θ
On vérifie que 
  sin θ
sin
cos
−
θ
θ


− sin θ  1 0
=

cos θ  0 1
Rotation dans le plan xOy
 x'  cos θ
 y ' =  sin θ
  
 z '   0
− sin θ 0  x 
cos θ 0  y 
 
0
1  z 
Renormalisation : Si α1 > 0 et α 2 > 0
 x'  α1 0   x 
 y ' =  0 α   y 
  
2  
0   x' 
 x  1 / α1
 y  =  0 1 / α   y '
  

2 
Quand α1α2 = 1 cette transformation préserve
les surfaces du plan
Reflexion par rapport à 0
 x1  − 1 0   x'1 
 x  =  0 − 1  x' 
 2 
 2 
Reflexion par rapport à la droite Re 2
 x1  − 1 0  x'1 
 x  =  0 1  x' 
 2 
 2 
Changement de bases et matrice
d’application linéaire
Soit f : E → E une application linéaire. Soit x, y ∈ E tel que y = f(x).
Soient B et B' deux bases de E. Soient A et A' les matrices de f dans les bases B et B'
 x1 
 x'1 
 y1 
 y'1 
 
 
 
 
On considère X = M  et X' = M  (respectivement Y = M  et Y' = M )
x 
 x' 
y 
 y' 
 n
 n
 n
 n
le vecteur des composantes de x (respectivement y ) dans la base B et B' .
On veut expliquer la matrice A' en fonction de la matrice A!
On a
Y = AX , Y' = A'X' , X = P X' ,Y = P Y'
B'
B
B'
B
donc
Y' = (P )
Y = (P )
Y ' = (P
APBB' X'
B' −1
B
)
B' −1
B
B' −1
B
Conclusion :
AX = (P )
B' −1
B
A' = (P
)
B' −1
B
APBB'
B'
B
AP X'
Matrices diagonalisables
On dira qu' une matrice A = (a ij )i, j=1,...,n est diagonalisable
si il existe P = (pij )i, j=1,...,n une matrice inversible (ou de façon
équivalente une matrice de changement de base) telle que
d1 0 L 0 
0 d O M 
2
.
P -1 AP = D = 
M O O 0


 0 L 0 dn 
Comment calculer les di?
d1 0 L 0 
0 d O M 
2
.
Si A est diagonalisable ⇔ P -1 AP = D = 
M O O 0


0
L
0
d

n
et
λ 0 L 0  d1 0 L 0 
0 λ O M   0 d O M 
2

−
λI − D = 
 M O O 0  M O O 0 


 
0
L
0
d
0
L
0
λ

 
n
λI − D est inversible ssi λ ∉ {d1 , d 2 ,..., d n }.
λI − D est inversible ssi λ ∉ {d1 , d 2 ,..., d n }.
Mais on a λI − D = P -1 ( λI − A)P donc
det (λI − D) = det (P -1 ( λI − A)P ) = det (P -1 )det ( λI − A)det (P )
mais det (P -1 )det (P ) = det (P -1 P ) = det (I) = 1, donc
det (λI − A) = det (λI − D)
Conclusion : Les λ ∈ {d1 , d 2 ,..., d n } ⇔ det (λI − A) = 0.
Polynôme caractéristique et valeur
propre
Definition : On dira qu' un nombre réel ou complexe λ ∈ C
ssi det (λI − A) = 0. Le polynome caractéristique est la fonction
p( λ) = det (λI − A)
et les valeurs propres sont les racines de p( λ).
L' ensemble σ (A ) des valeurs de A est appelé le spectre de A :
σ (A ) = {λ ∈ C : det (λI − A) = 0}.
Comment calculer la matrice P?
Comme P est une matrice inversible, c' est aussi une
matrice de changement de base.
Il faut donc trouver une base convenable.
Base canonique de R n ou Cn :
1 
0
0
 
 
 
0
M 
M 
M 
0
 
 
 
 
e1 =   ei = 1  (le 1est en ième position) e n =  .
 
0
M 
 
 
 
M 
M 
0
 
 
 
0
0
 
 
1 
On a P −1 AP = D et Dei = di ei , ∀i = 1,..., n
Donc P −1 APei = d i ei , ∀i = 1,..., n
APei = di Pei , ∀i = 1,..., n.
Donc si on note f i = Pei , ∀i = 1,..., n, on obtient
Af i = di f i ,∀i = 1,..., n.
On suppose les {d1 ,...., d n } connus. Pour chaque di on cherche
l' ensemble des vecteurs colonne f i tel que :
Af i = d i f i ,∀i = 1,..., n.
On pose P = [ f1 f 2 L f n ], et on obtient
d1 0 L 0 
0 d O M 
2

AP = [d1 f1 d 2 f 2 L d n f n ] = [ f1 f 2 L f n ]
M O O 0


0
L
0
d

n
Conclusion : AP = PD ⇔ P -1 AP = D ⇔ A = PDP −1
Si A ∈ M n (C), et f ∈ C (vecteur colonne).
n
On dira que f est vecteur propre de A ssi :
Af = df et f ≠ 0,
pour un certain nombre complexe d ∈ C .
On dira que f est un vecteur propre de A, ou plus
précisément que f est un vecteur propre de A
associé la valeur propre d de A.
Théorème: Tout matrice symétrique est
diagonalisable.
En général on ne peut pas conclure
Exemple 1
4 − 1
On considère la matrice A = 

6
−
1


Etape 1 : Calcul des valeurs propres.
On commence par calculer le polynome caractéristique :
p (λ ) = det (λI − A) =
λ −4
−6
1
= (λ − 4 )(λ + 1) + 6
λ +1
donc
p (λ ) = λ2 − 3λ + 2 = (λ − 1)(λ − 2 )
Conclusion : L' ensemble des valeurs propre de A est σ (A ) = {1,2}.
4 − 1
On considère la matrice A = 

−
6
1


Etape 2 : Calcul d' une base de vecteurs propres.
On a σ (A ) = {1,2}.
Calcul d' un vecteur propre associé à la v.p.1 :
 x1   0   3 − 1  x1   0   3 x1 − x2   0 
 =  
  =   ⇔ 
(A - I )  =   ⇔ 
 x2   0   6 − 2  x2   0   2(3x1 − x2 )  0 
1 
On fixe par exemple f1 =  .
 3
Calcul d' un vecteur propre associé à la v.p. 2 :
 x1   0   2 − 1  x1   0   2 x1 − x2   0 
 =  
  =   ⇔ 
(A - 2I )  =   ⇔ 
 x2   0   6 − 3  x2   0   3(2 x1 − x2 )  0 
1 
On fixe par exemple f 2 =  .
 2
4 − 1
On considère la matrice A = 

6
−
1


Etape 3 : Matrice de changement de base.
1 1 
− 2 1 
-1
On pose P = [ f1 f 2 ] = 
et P = 


3
2
3
−
1




1 0
On vérifie que P AP = 

0
2


-1
Exemple 2
2 1 
On considère la matrice A = 

0
2


Etape 1 : Calcul des valeurs propres.
On commence par calculer le polynome caractéristique :
p (λ ) = det (λI − A) =
λ −2
−1
2
= (λ − 2 )
λ −2
0
donc
p (λ ) = λ2 − 3λ + 2 = (λ − 2 )
2
Conclusion : L' ensemble des valeurs propre de A est σ (A ) = {2}.
2 1 
On considère la matrice A = 

0
2


Etape 2 : Calcul d' une base de vecteurs propres.
On a σ (A ) = {2}.
Calcul d' un vecteur propre associé à la v.p. 2 :
 x1   0   0 − 1 x1   0 
  =   ⇔ x1 = 0
(A - 2I )  =   ⇔ 
 x2   0   0 0  x2   0 
L' ensemble des vecteurs de Aest
 1 

E = λ   : λ ∈ C 
 0

La dimension de E est 1 donc on ne peut pas trouver
une base de C2 (dim(C2 ) = 2) dans E.
Conclusion : A n' est pas diagonalisable.
Chapitre 6: Compléments
• Théorème de noyau image
• Produit scalaire
Complément 1: Matrices
Soit {e1 ,..., em } une famille de vecteur de R n ,
on note
Vect{e1,...,em } = {λ1e1 + ... + λm em:λ1,...,λm ∈ R}.
Vect{e1,...,em } est un sous espace vectoriel de R n .
On dit que Vect{e1,...,em } est le sous espace vectoriel
engendré par la famille {e1,...,em }.
Noyaux et images
Soit A un matrice de dimension p × n (c' est à dire avec p ligne et n colonnes).
La matrice A s' identifie naturellement à l' application linéaire :
X ∈ R n → AX ∈ R p
Le noyau de A est le sous espace vectoriel de R n
Ker(A) = {X ∈ R n : AX = 0}.
L'image de A est le sous espace vectoriel de R p
Im( A) = {Y ∈ R p : ∃X ∈ R n AX = Y }
L'imagine de Aest aussi le sous espace engendré par les colonnes de A.
Théorème des noyaux et images
Théorème: On a
n=dim(Ker(A))+dim(Im(A)).
En particulier une matrice est inversible si
• n=p et dim(Ker(A))=0
ou bien
• n=p et dim(Im(A))=n.
Complément 2: Produit scalaires
 y1 
 x1 
 
 
n
Si X = M  ∈ R et Y = M  ∈ R n le produit scalaire (Euclidien) est
y 
x 
 n
 n
X, Y = x1 y1 + x2 y2 + ... + xn yn
La longueur du vecteur X est :
X
2
=
X, X = x1 + x2 + ... + xn
2
2
2
L' angle θ entre les vecteurs X et Y est donné par :
cos(θ ) =
X, Y
X 2Y
=
2
X Y
,
X 2 Y 2
⇔

θ = arccos


X Y
,
X 2 Y 2





Documents pareils