Chapitre 5: Changement de base et diagonalisation
Transcription
Chapitre 5: Changement de base et diagonalisation
Chapitre 5: Changement de base et diagonalisation - Changement de bases - Diagonalisation d’une matrice Changement de bases Soient deux bases B =(e1,...,en ) et B'=(e'1,...,e'n ) de E. B est l' ancienne base, B' est la nouvelle base. La matrice de passage de B à B' , notée PBB' = (ai,j )i,j=1,...,n est définie par n e' j=∑ ai,j ei ∀j = 1,...,n. i =1 La jème colonnes de PBB' est constituée des composantes de e' j exprimés dans l' ancienne base. x1 x'1 Etant donné x ∈ E. On considère respectivement X = M et X' = M x x' n n le vecteur des composantes de x dans la base B et B' . Alors X = PBB' X' . n n n En effet x = ∑ xi ei =∑ x' j e' j = ∑ x' j ∑ ai,j ei =∑ ∑ ai,j x' j ei i =1 j =1 j =1 i =1 i =1 j =1 n n n n Conclusion xi = ∑ ai,j x' j ⇔ X = PBB' X' . j =1 Theorem : La matrice P est inversible, et (P B' B Autrement dit (P ) B' −1 B ) B' −1 B = PBB' est la matrice de passe de B' à B. Exemples de changement de base 0 1 Dans R on considère l' ancienne B = {i, j} avec i = et j = 1 0 2 1/ 2 - 3/ 2 On considère un nouvelle base B' = {i' , j'} avec i' = et j' = 1/ 2 3/ 2 On a i ' = 1/ 2i + 1/ 2 j j ' = −3/ 2i + 3/ 2 j 1/ 2 B' Donc PB = 1/ 2 − 3/ 2 3/ 2 1/ 2 x'− y '3/ 2 x Si X = = xi + yj = x' i '+ y ' j ' = 1/ 2 x'− y '3/ 2 y x B ' x' On a bien = PB . y y' Exemples Rotation d' angle θ (Sens contraire des aiguilles d' une montre) x'1 cos θ x' = sin θ 2 − sin θ x1 cos θ x2 Rotation d' angle θ (Sens contraire des aiguilles d' une montre) x1 cos θ sin θ x'1 x = − sin θ cos θ x' 2 2 cos θ sin θ cos θ On vérifie que sin θ sin cos − θ θ − sin θ 1 0 = cos θ 0 1 Rotation dans le plan xOy x' cos θ y ' = sin θ z ' 0 − sin θ 0 x cos θ 0 y 0 1 z Renormalisation : Si α1 > 0 et α 2 > 0 x' α1 0 x y ' = 0 α y 2 0 x' x 1 / α1 y = 0 1 / α y ' 2 Quand α1α2 = 1 cette transformation préserve les surfaces du plan Reflexion par rapport à 0 x1 − 1 0 x'1 x = 0 − 1 x' 2 2 Reflexion par rapport à la droite Re 2 x1 − 1 0 x'1 x = 0 1 x' 2 2 Changement de bases et matrice d’application linéaire Soit f : E → E une application linéaire. Soit x, y ∈ E tel que y = f(x). Soient B et B' deux bases de E. Soient A et A' les matrices de f dans les bases B et B' x1 x'1 y1 y'1 On considère X = M et X' = M (respectivement Y = M et Y' = M ) x x' y y' n n n n le vecteur des composantes de x (respectivement y ) dans la base B et B' . On veut expliquer la matrice A' en fonction de la matrice A! On a Y = AX , Y' = A'X' , X = P X' ,Y = P Y' B' B B' B donc Y' = (P ) Y = (P ) Y ' = (P APBB' X' B' −1 B ) B' −1 B B' −1 B Conclusion : AX = (P ) B' −1 B A' = (P ) B' −1 B APBB' B' B AP X' Matrices diagonalisables On dira qu' une matrice A = (a ij )i, j=1,...,n est diagonalisable si il existe P = (pij )i, j=1,...,n une matrice inversible (ou de façon équivalente une matrice de changement de base) telle que d1 0 L 0 0 d O M 2 . P -1 AP = D = M O O 0 0 L 0 dn Comment calculer les di? d1 0 L 0 0 d O M 2 . Si A est diagonalisable ⇔ P -1 AP = D = M O O 0 0 L 0 d n et λ 0 L 0 d1 0 L 0 0 λ O M 0 d O M 2 − λI − D = M O O 0 M O O 0 0 L 0 d 0 L 0 λ n λI − D est inversible ssi λ ∉ {d1 , d 2 ,..., d n }. λI − D est inversible ssi λ ∉ {d1 , d 2 ,..., d n }. Mais on a λI − D = P -1 ( λI − A)P donc det (λI − D) = det (P -1 ( λI − A)P ) = det (P -1 )det ( λI − A)det (P ) mais det (P -1 )det (P ) = det (P -1 P ) = det (I) = 1, donc det (λI − A) = det (λI − D) Conclusion : Les λ ∈ {d1 , d 2 ,..., d n } ⇔ det (λI − A) = 0. Polynôme caractéristique et valeur propre Definition : On dira qu' un nombre réel ou complexe λ ∈ C ssi det (λI − A) = 0. Le polynome caractéristique est la fonction p( λ) = det (λI − A) et les valeurs propres sont les racines de p( λ). L' ensemble σ (A ) des valeurs de A est appelé le spectre de A : σ (A ) = {λ ∈ C : det (λI − A) = 0}. Comment calculer la matrice P? Comme P est une matrice inversible, c' est aussi une matrice de changement de base. Il faut donc trouver une base convenable. Base canonique de R n ou Cn : 1 0 0 0 M M M 0 e1 = ei = 1 (le 1est en ième position) e n = . 0 M M M 0 0 0 1 On a P −1 AP = D et Dei = di ei , ∀i = 1,..., n Donc P −1 APei = d i ei , ∀i = 1,..., n APei = di Pei , ∀i = 1,..., n. Donc si on note f i = Pei , ∀i = 1,..., n, on obtient Af i = di f i ,∀i = 1,..., n. On suppose les {d1 ,...., d n } connus. Pour chaque di on cherche l' ensemble des vecteurs colonne f i tel que : Af i = d i f i ,∀i = 1,..., n. On pose P = [ f1 f 2 L f n ], et on obtient d1 0 L 0 0 d O M 2 AP = [d1 f1 d 2 f 2 L d n f n ] = [ f1 f 2 L f n ] M O O 0 0 L 0 d n Conclusion : AP = PD ⇔ P -1 AP = D ⇔ A = PDP −1 Si A ∈ M n (C), et f ∈ C (vecteur colonne). n On dira que f est vecteur propre de A ssi : Af = df et f ≠ 0, pour un certain nombre complexe d ∈ C . On dira que f est un vecteur propre de A, ou plus précisément que f est un vecteur propre de A associé la valeur propre d de A. Théorème: Tout matrice symétrique est diagonalisable. En général on ne peut pas conclure Exemple 1 4 − 1 On considère la matrice A = 6 − 1 Etape 1 : Calcul des valeurs propres. On commence par calculer le polynome caractéristique : p (λ ) = det (λI − A) = λ −4 −6 1 = (λ − 4 )(λ + 1) + 6 λ +1 donc p (λ ) = λ2 − 3λ + 2 = (λ − 1)(λ − 2 ) Conclusion : L' ensemble des valeurs propre de A est σ (A ) = {1,2}. 4 − 1 On considère la matrice A = − 6 1 Etape 2 : Calcul d' une base de vecteurs propres. On a σ (A ) = {1,2}. Calcul d' un vecteur propre associé à la v.p.1 : x1 0 3 − 1 x1 0 3 x1 − x2 0 = = ⇔ (A - I ) = ⇔ x2 0 6 − 2 x2 0 2(3x1 − x2 ) 0 1 On fixe par exemple f1 = . 3 Calcul d' un vecteur propre associé à la v.p. 2 : x1 0 2 − 1 x1 0 2 x1 − x2 0 = = ⇔ (A - 2I ) = ⇔ x2 0 6 − 3 x2 0 3(2 x1 − x2 ) 0 1 On fixe par exemple f 2 = . 2 4 − 1 On considère la matrice A = 6 − 1 Etape 3 : Matrice de changement de base. 1 1 − 2 1 -1 On pose P = [ f1 f 2 ] = et P = 3 2 3 − 1 1 0 On vérifie que P AP = 0 2 -1 Exemple 2 2 1 On considère la matrice A = 0 2 Etape 1 : Calcul des valeurs propres. On commence par calculer le polynome caractéristique : p (λ ) = det (λI − A) = λ −2 −1 2 = (λ − 2 ) λ −2 0 donc p (λ ) = λ2 − 3λ + 2 = (λ − 2 ) 2 Conclusion : L' ensemble des valeurs propre de A est σ (A ) = {2}. 2 1 On considère la matrice A = 0 2 Etape 2 : Calcul d' une base de vecteurs propres. On a σ (A ) = {2}. Calcul d' un vecteur propre associé à la v.p. 2 : x1 0 0 − 1 x1 0 = ⇔ x1 = 0 (A - 2I ) = ⇔ x2 0 0 0 x2 0 L' ensemble des vecteurs de Aest 1 E = λ : λ ∈ C 0 La dimension de E est 1 donc on ne peut pas trouver une base de C2 (dim(C2 ) = 2) dans E. Conclusion : A n' est pas diagonalisable. Chapitre 6: Compléments • Théorème de noyau image • Produit scalaire Complément 1: Matrices Soit {e1 ,..., em } une famille de vecteur de R n , on note Vect{e1,...,em } = {λ1e1 + ... + λm em:λ1,...,λm ∈ R}. Vect{e1,...,em } est un sous espace vectoriel de R n . On dit que Vect{e1,...,em } est le sous espace vectoriel engendré par la famille {e1,...,em }. Noyaux et images Soit A un matrice de dimension p × n (c' est à dire avec p ligne et n colonnes). La matrice A s' identifie naturellement à l' application linéaire : X ∈ R n → AX ∈ R p Le noyau de A est le sous espace vectoriel de R n Ker(A) = {X ∈ R n : AX = 0}. L'image de A est le sous espace vectoriel de R p Im( A) = {Y ∈ R p : ∃X ∈ R n AX = Y } L'imagine de Aest aussi le sous espace engendré par les colonnes de A. Théorème des noyaux et images Théorème: On a n=dim(Ker(A))+dim(Im(A)). En particulier une matrice est inversible si • n=p et dim(Ker(A))=0 ou bien • n=p et dim(Im(A))=n. Complément 2: Produit scalaires y1 x1 n Si X = M ∈ R et Y = M ∈ R n le produit scalaire (Euclidien) est y x n n X, Y = x1 y1 + x2 y2 + ... + xn yn La longueur du vecteur X est : X 2 = X, X = x1 + x2 + ... + xn 2 2 2 L' angle θ entre les vecteurs X et Y est donné par : cos(θ ) = X, Y X 2Y = 2 X Y , X 2 Y 2 ⇔ θ = arccos X Y , X 2 Y 2