DLST - Université Grenoble Alpes
Transcription
DLST - Université Grenoble Alpes
Diagonalisation Dénition : Soit E K espace vectoriel. λ ∈ K, tel que un qu'il existe Le scalaire λ Soit A:E→E un endomorphisme. On appelle vecteur propre un vecteur u non nul tel A(u) = λu . se nomme valeur propre. Proposition : λ ∈ K, si l'ensemble des vecteurs u qui vérient A(u) = λu est non réduit à {0E }, alors E . On le nomme sous espace propre associé à la valeur propre λ. Preuve : A(u) = λu s'écrit aussi (A − λ.idE )(u) = 0 et donc c'est le noyau de A − λ.idE , c'est donc espace vectoriel de E .¤ pour un scalaire c'est un sous espace vectoriel de bien un sous Dénitions : λ est valeur propre si et seulement si il existe est appelé spectre de A. u ∈ E, u non nul, tel que A = λu. L'ensemble des valeurs propres de A Propriétés. 1. (λ est valeur propre de 2. Si λ1 6= λ2 A)⇔ (A − λ.idE ) est non injectif. sont deux valeurs propres distinctes ker(A − λ1 idE ) ∩ ker(A − λ2 idE ) = {0E }. Preuve : pour 1) si λ est valeur propre de A il existe u non nul qui a la même image que 0E par l'endomorphisme (A − λ.idE ), cet endomorphisme est donc non injectif. Pour 2) prenons u ∈ ker(A − λ1 idE ) ∩ ker(A − λ2 idE ). Alors A(u) = λ1 u = λ2 u et donc (λ1 − λ2 )u = 0 et comme λ1 − λ2 6= 0 c'est que u = 0E .¤ Théorème : {λ1 , . . . , λp } p valeurs propres deux à deux distinctes de A. Soient ui ∈ ker(A − λi .idE ) pour tout i = 1, . . . p ui = 6 0. Alors le système {u1 , u2 , . . . up } est libre. Preuve : par récurrence supposons le résultat vrai à l'ordre p et montrons le à l'ordre p + 1. Pour cela on suppose que Soient tels que α1 u1 + · · · + αp+1 up+1 = 0 . En appliquant l'endomorphime A à cette égalité nous obtenons α1 λ1 u1 + · · · + αp+1 λp+1 up+1 = 0 . Multiplions la première égalité par λp+1 et retranchons lui la seconde. Nous obtenons α1 (λ1 − λp+1 )u1 + · · · + αp (λp − λp+1 )up = 0 . {u1 . . . , up } est libre et que les λi − λp+1 sont non nuls, nous en déduisons que α1 = α2 = · · · = αp = 0, αp+1 = 0. résultat est vrai à l'ordre 1, par récurrence le résultat est démontré pour tout p.¤ Comme le système et en reportant dans la première nous obtenons Comme le Corollaires . 1. Si E 2. Si λ1 , . . . , λ p est de dimension nie n, il y a au plus n valeurs propres. sont deux à deux distincts alors ker(A − λi idE ) ∩ (ker(A − λ1 idE ) + · · · + ker(A − λi−1 idE ) + ker(A − λi+1 idE ) + · · · + ker(A − λp idE )) = {0E } 3. Si λ1 , . . . , λ p sont deux à deux distincts alors ker(A − λ1 idE ) + · · · + ker(A − λp idE ) = ker(A − λ1 idE ) ⊕ · · · ⊕ ker(A − λp idE ) 4. Si λ est valeur propre de A, alors pour tout p∈N , le scalaire λp est valeur propre de Ap = A · · ◦ A}. | ◦ ·{z p f ois 1 Polynôme caractéristique . Dénition : soit E un K-espace vectoriel de dimension n, et A choisie de E, :E→E un endomorphisme, quelque soit la base B le polynôme P (λ) = det(A − λ.In ) B, et In la matrice unité carrée n × n, ne dépend pas de la base B A. Il est de degré exactement n. Preuve : soit B̃ une autre base de E . Dans B̃ calculons Q(λ) = det(à − λIn ) = det(P −1 AP − λIn ) = = det(P −1 AP − λP −1 In P ) = det(P −1 (A − λIn )P ) = det(P −1 ) det(A − λIn ) det P . Comme det(P −1 ) det(P ) = det(P −1 P ) = det In = 1, nous en déduisons que pour tout λ ∈ K, on a Q(λ) = P (λ). En utilisant ½ i=n X Y 1 si i = j n n (aiσ(i) − λδiσ(i) ) où δij = , le terme de plus haut degré de P est (−1) λ et donc le P (λ) = ε(σ) 0 si i 6= j où A A est la matrice qui représente dans la base choisie. Il se nomme polynôme caractéristique de i=1 σ∈Pn degré du polynôme caractéristique est exactement la dimension de E .¤ Corollaire : les coecients du polynôme caractéristique ne dépendent que de l'endomorphisme A, pas de la base choisie pour les n−1 n−1 calculer. Cela est vrai en particulier pour le coecient de λ qui vaut (−1) Trace(A), et du terme constant en λ, qui vaut det A. Remarque : il existe une formule explicite pour chacun des coecients du polynôme caractéristique (par exemple en utilisant les mineurs d'ordre k extraits de la matrice représentant A dans une base donnée, et quand λk s'expriment à partir des traces de A de A2 = A.A , de Ak = Ak−1 A) : P (λ) = det(A−λ.In ) = (−1)n λn +(−1)n−1 à n X ! aii λn de λn−1 et de λ0 est R C, ou le coecient de X λn−1 +· · ·+(−1)n−k det(Mji jl ) λn−k +· · ·+det A , 1≤j1 <j2 <,···<jk ≤n i=1 Seuls les coecients de K sont à retenir pour vos études en L2. Vous n'êtes pas censés connaître les autres relations. Théorème : λ est une racine du polynôme caractéristique et réciproquement si λ ∈ K est une λ est une valeur propre de A. Preuve : si λ est une valeur propre, alors il existe un vecteur non nul u ∈ E tel que A(u) = λu et donc (A−λ.IdE )(u) = 0E et donc l'endomorphisme A − λ.IdE envoie le vecteur non nul u sur le vecteur 0E , et donc cet endomorphisme si λ est une valeur propre de A, alors racine du polynôme caractéristique, alors est non injectif, et donc le déterminant de la matrice qui représente cet endomorphisme dans une base est nul, et donc P (λ) = det(A−λIn ) = 0. Réciproquement si λ est une racine de P alors P (λ) = det(A−λIn ) = 0 et donc l'endomorphisme A − λ.IdE est non bijectif, donc non injectif et donc il existe un antécédent de 0E qui est non nul, et donc on trouve u ∈ E , u non nul, tel que (A − λidE )(u) = 0 et donc A(u) = λu et u est un vecteur propre de A associé à la valeur propre λ, et donc λ est bien une valeur propre de A. ¤ Exemple 1. Soit 1 −1 −1 1 A = 0 2 0 0 1 canonique de R3 . et l'endomorphisme A : R3 → R3 Calculons son polynôme caractéristique dont la matrice représentative est ¯ ¯ 1−λ −1 −1 ¯ 2−λ 1 P (λ) = ¯¯ 0 ¯ 0 0 1−λ ¯ ¯ ¯ ¯. ¯ ¯ A dans la base Comme la matrice dont on veut prendre le déterminant est triangulaire supérieure, il sut de faire le produit des éléments diagonaux pour obtenir le déterminant recherché. On obtient algébrique 2 P (λ) = (1 − λ)2 (2 − λ). Donc le spectre de A est {1, 2}. 2 est de multiplicité algébrique 1. On dit que la valeur propre 1 est de multiplicité et que la valeur propre Recherchonsle sous espace propre associé à la valeur propre 1, c'est à dire ker(A − In ). Calculons donc la matrice 0 A−I = 0 0 −1 1 0 −1 1 . 0 Et recherchons les vecteurs 2 (x, y, z) qui forment le noyau de A − IdE . Pour cela il −1 x 0 −y − z = 0 1 y = 0 ou encore y + z = 0 . Donc si (x, y, z) est dans le sous faut résoudre le système 0 z 0 0=0 espace propre associé à la valeur propre 1 il faut et il sut que y+z = 0, ce qui entraîne que (x, y, z) = x(1, 0, 0)+y(0, 1, −1) et donc {(1, 0, 0), (0, 1, −1)} est une base de ce sous espace propre, ce sous espace propre est de dimension 2. Recherchons le sous espace valeur 2, propre associé à la propre −1 −1 −1 x 0 −x − y − z = 0 0 1 y = 0 ou encore z=0 il faut maintenant résoudre 0 . Donc si (x, y, z) est 0 0 −1 z 0 −z = 0 dans le sous espace propre associé à la valeur propre 2 il faut et il sut que x + y = 0 et que z = 0, ce qui entraîne que (x, y, z) = x(1, −1, 0) et donc {(1, −1, 0)} est une base de ce sous espace propre, ce sous espace propre est de dimension 1. Diagonalisation de A : nous disposons maintenant de trois vecteurs propres de A , qui forment une base de E = R3 . 3 Soit donc B , la base canonique de R et B̃ = {ẽ1 = (1, 0, 0), ẽ2 = (0, 1, −1), ẽ3 = (1, −1, 0)} une base formée de vecteurs propres. La matrice de passage de B à B̃ s'obtient en disposant en colonnes les composantes des vecteurs de la nouvelle 1 0 1 1 −1 est la matrice de passage de B à B̃ , et la formule de base, exprimés dans l'ancienne base. Donc P = 0 0 −1 0 −1 changement de base nous indique que dans la nouvelle base nous aurons à = P Il n'est pas nécessaire d'eectuer ce AP . 1 1 calcul parce que nous savons que A(ẽ1 ) = ẽ1 , mais cela s'écrit dans B̃ : à 0 = 1 0 et donc la première colonne 0 0 1 0 0 de à est 0 . De la même manière la seconde colonne est 1 et la troisième 0 puisque A(ẽ3 ) = 2ẽ3 . En 0 0 2 0 −1 0 1 0 0 dénitive nous avons obtenu que 1 0 0 0 1 0 ou bien 1 −1 0 2 0 0 on dit que l'on a diagonalisé 0 1 0 = 0 2 0 1 1 1 −1 0 −1 0 2 −1 −1 0 0 −1 1 0 1 1 1 = 0 1 −1 0 1 0 −1 0 0 la matrice −1 1 1 0 1 0 0 1 0 A . Nous allons rechercher n × n quelconque. 0 1 1 −1 −1 0 0 1 1 0 0 0 2 0 −1 1 −1 , −1 comment savoir si cela est possible, ou si cela est impossible, étant donné une matrice carrée Proposition. Lien entre dim ker(A − λidE ) et l'ordre de multiplicité de téristique. Si λ∈K E est de dimension n sur le corps K, si A E → E λ comme racine du polynôme carac- est un endomorphisme de polynôme caractéristique PA (admettant comme valeur propre) tel que PA (X) = (X − λ)k Q(X) avec Q(λ) 6= 0 , (k est l'ordre de multiplicité de λ dans PA ) alors 1 ≤ dim ker(A − λidE ) ≤ k . Preuve : comme λ est une valeur propre de A, il existe un vecteur propre mettons e1 non nul tel que A(e1 ) = λe1 et le E engendré par e1 est de dimension 1 et est inclus dans le sous espace propre associé à la valeur propre λ. 1 ≤ dim ker(A − λidE ) . Soit p la dimension de ker(A − λidE ). Alors il existe une base mettons {e1 , . . . , ep } de ce sous espace propre. Complétons ce système libre en une base de E par {ep+1 , . . . , en } de sorte que {e1 , . . . ep , ep+1 , . . . en } soit une base de E . Soit A la matrice qui représente A dans cette base. Comme A(ej ) = λej si 1 ≤ j ≤ p , nous savons sous espace de Et donc que la j ième colonne de A est 0 .. . .. ↑ . j λ ↓ . .. 0 et donc A est de la forme ← p → λ 0 ... 0 ↑ 0 λ ... 0 .. .. . . . . . . p . . 0 0 · · · λ ↓ A= 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ··· ··· ··· ∗ ∗ ∗ . . . . . . . . . .. . . . . ∗ ∗ ∗ ··· ∗ det(A − X.In ) on obtient PA (X) = (λ − X)p S(X) où S(X) correspond au calcul du déterminant du bloc carré contenant des ∗ dans la matrice A . Comme le polynôme caractéristique est indépendant de la base, nous savons p k que (λ − X) S(X) = (X − λ) Q(X) avec Q(λ) 6= 0 , mais nous ne savons rien sur la valeur nulle ou non de S(λ). Et donc p ≤ k et rien ne nous permet de conclure si p = k ou si p < k . ¤ Pour se persuader que les deux cas peuvent survenir donnons deux exemples. Le cas 1 < p = k = 2 a été obtenu dans 1 −1 −1 2 1 . Donnons maintenant un exemple où 1 = p < k = 2. (Ces petites valeurs notre premier exemple avec 0 0 0 1 sont choisies pour ne pas avoir de trop gros calcul, mais toutes les valeurs possibles égales ou distinctes de p et k avec p ≤ k entre 1 et n sont possibles, construisez les à partir de ces deux exemples en exercice !) et en calculant Exemple 2 . Soit 1 2 A = 0 1 0 0 canonique de R3 . 3 −1 0 et l'endomorphisme A : R3 → R3 Calculons son polynôme caractéristique dont la matrice représentative est ¯ ¯ 1−λ 2 3 ¯ 1 − λ −1 P (λ) = ¯¯ 0 ¯ 0 0 −λ ¯ ¯ ¯ ¯. ¯ ¯ A dans la base Comme la matrice dont on veut prendre le déterminant est triangulaire supérieure, il sut de faire le produit des éléments diagonaux pour obtenir le déterminant recherché. P (λ) = (1 − λ)2 (−λ). 2 et que la valeur propre 0 On obtient algébrique Donc le spectre de A est {0, 1}. 1. On dit que la valeur propre 1 est de multiplicité est de multiplicité algébrique Recherchons le sous espace propre associé à la valeur propre 1, c'est à dire ker(A − In ). Calculons donc la 2 3 0 −1 . Et recherchons les vecteurs (x, y, z) qui forment le noyau de A − IdE . Pour cela il 0 −1 0 2 3 x 0 2y + 3z = 0 −1 y = 0 ou encore −z = 0 faut résoudre le système 0 0 . Donc si (x, y, z) est dans le sous 0 0 −1 z 0 −z = 0 espace propre associé à la valeur propre 1 il faut et il sut que y = z = 0, ce qui entraîne que (x, y, z) = x(1, 0, 0) et donc {(1, 0, 0)} est une base de ce sous espace propre, ce sous espace propre est de dimension 1. Donc dans cet exemple nous obtenons 1 = p < k = 2. matrice 0 A−I = 0 0 Dénition (matrice et endomorphisme diagonalisable). Soit E un espace vectoriel de dimension n sur le corps K, un endomorphisme A : E→E est dit diagonalisable s'il tel que la matrice qui représente A relativement à cette base est diagonale (ce qui signie que bij = 0 ième ième si i 6= j où bij le coecient de la i ligne et de la j colonne de la matrice B qui représente A). −1 Une matrice carrée (n, n) , A est dite diagonalisable s'il existe une matrice P inversible telle que P AP soit diagonale ième ième (ce qui signie que aij = 0 si i 6= j où aij le coecient de la i ligne et de la j colonne de la matrice A). existe une base de E Théorème . 1. Soit E 2. Soit E n un espace vectoriel de dimension seulement si il existe une base de E sur le corps K, un endomorphisme constituée de vecteurs propres de n un espace vectoriel de dimension A. A : E→E est diagonalisable si et K, un endomorphisme A : E → E est diagonalisable n racines dans K (comptées avec leurs multiplicités) et si k1 , . . . , kp alors pour tout i = 1 . . . p on a dim ker(A − λi idE ) = ki . sur le corps si et seulement si son polynôme caractéristique possède λ1 , λ2 . . . λp 3. Soit E sont ces racines de multiplicités n un espace vectoriel de dimension sur le corps K, un endomorphisme seulement si la somme des dimensions des sous-espaces propres de A A : E→E égale la dimension de est diagonalisable si et E. Preuve : montrons 2). Si A est diagonalisable, en calculant le polynôme caractéristique dans une base où A est représenté A par une matrice diagonale, nous obtenons que possède n valeurs propres. Faisons attention dans ces valeurs propres et distinguons les valeurs propres deux à deux distinctes mettons λ1 , λ2 . . . λp qui ont k1 , k2 . . . , kp comme ordres de Pp multiplicité dans le polynôme caractéristique. Alors i=1 ki = n signie que A possède n valeurs propres (comptées avec leurs multiplicités). Mais nous savons déjà que 1 ≤ dim ker(A − λi idE ) ≤ ki , et aussi que ker(A − λ1 idE ) + · · · + ker(A − λp idE ) = ker(A − λ1 idE ) ⊕ · · · ⊕ ker(A − λp idE ) n = k1 +k2 +· · ·+kp = dim ker(A− λ1 idE )+· P · ·+ker(A−λp idE ) . Si une inégalité est stricte dim ker(A− λi idE ) < ki i, on obtient n = dim ker(A − λi idE ) < n et donc une contradiction. Donc dim ker(A − λi idE ) = ki pour tout i = 1, . . . , p. Nous en déduisons que la base dans laquelle nous avons représenté A par une matrice diagonale est une base de vecteurs d'où pour un (ou plusieurs) indice propres. Réciproquement si le polynôme caractéristique de A possède n valeurs propres dans K et que dim ker(A − λi idE ) = ki pour tout i = 1, . . . , p alors ker(A − λ1 idE ) + · · · + ker(A − λp idE ) = ker(A − λ1 idE ) ⊕ · · · ⊕ ker(A − λp idE ) est un espace de dimension n de E et donc E = ker(A − λ1 idE ) ⊕ · · · ⊕ ker(A − λp idE ) et en fabriquant une base de E en concaténant des bases de chaque sous-espaces propres on obtient une base de vecteurs propres ce qui montre que A est diagonalisable.¤ Exemple 3. Soit Rθ l'endomorphisme dénit de R2 R2 dans par sa matrice représentative dans la base canonique de µ R2 : ¶ − sin θ . cos θ ¯ ¯ ¯ cos θ − X − sin θ ¯¯ ¯ Calculons son polynôme caractéristique P (X) = det(Rθ − XI) = = (cos θ − X)2 + sin2 θ = ¯ sin θ cos θ − X ¯ X 2 − 2 cos θX + 1. Ce polynôme du second degré admet comme discriminant 4(cos2 θ − 1) et si θ 6≡ π[π], ce discriminant Rθ = cos θ sin θ est négatif et donc l'endomorphisme considéré n'est pas diagonalisable puisque son polynôme caractéristique n'admet K = R. Géométriquement Rθ est la rotation d'angle θ autour de l'origine. Si maintenant (toujours 2 2 nous considérons cette matrice comme dénissant un endomorphisme de C dans C , cette fois-ci son iθ −iθ polynôme caractéristique admet λ1 = cos θ + i sin θ = e et λ2 = e comme valeurs propres, et comme elles sont aucune racine dans pour θ 6≡ π[π]) distinctes, l'endomorphisme est diagonalisable. µ ¶ −i sin θ − sin θ Recherchons le sous-espace propre associé à λ1 = e . Calculons Rθ − λ1 I2 = et recherchons les sin θ ½ −i sin θ µ ¶µ ¶ µ ¶ −i sin θ − sin θ z1 0 −i sin θz1 − sin θz2 = 0 (z1 , z2 ) ∈ C2 tels que = . Nous obtenons le système qui sin θ −i sin θ z2 0 sin θz1 − i sin θz2 = 0 se réduit à iz1 + z2 = 0 (parce que sin θ 6= 0 si l'on a θ 6≡ π[π]) et donc (z1 , z2 ) = z1 (1, −i) et donc {(1, −i)} est une base iθ de ce sous espace propre. De la même manière espace propre associé à µ Rθ − λ2 I2 = λ2 . En posant P = µ eiθ 0 + z̃2 (i,−1) pour (z1 , z2 ) = z̃1 (1,−i) 2 2 2 peut être aussi considéré dans R ) dans la composante z̃2 une rotation d'angle −θ. Posons ¶ − sin θ conduit à iz1 − z2 = 0 et i sin θ ¶ 1 i nous avons démontré que −i −1 i sin θ sinµθ 0 e−iθ tout ¶ =P −1 µ (z1 , z2 ) ∈ C2 . cos θ sin θ − sin θ cos θ donc {(i, −1)} ¶ P . Sur la première composante (z̃1 est un complexe et donc nouvelle base, l'endomorphisme est une rotation d'angle 5 est une base du sous θ, et sur la deuxième Exemple 4. Nous voulons résoudre le système diérentiel (réel) µ ¶ dx dt dy dt µ = 1 1 3 −1 ¶µ x y ¶ (1) tµ → x(t) et ¶ t → y(t) sont deux fonctions inconnues de R+ dans R et cela connaissant x0 = x(0) 1 3 A= et cherchons à diagonaliser A. Calculons donc son polynôme caractéristique 1 −1 ¯ ¯ ¯ 1−λ ¯ 3 ¯ = (λ − 2)(λ + 2) . PA (λ) = ¯¯ 1 −1 − λ ¯ où 1), Comme ce polynôme caractéristique admet deux racines distinctes (de multiplicité diagonaliser A. µ λ1 = 2 . Il faut résoudre est une base de ker(A − 2idE ). Recherchons le sous espace propre associé à et donc (x, y) = y(3, 1) et donc {(3, 1)} 1−2 3 1 −1 − 2 et y0 = y(0). Posons nous savons que nous pourrons ¶µ x y ¶ µ = 0 0 ¶ d'où x = 3y ¶µ ¶ µ ¶ 1+2 3 x 0 Recherchons le sous espace propre associé à λ1 = −2. Il faut résoudre = d'où 1 −1 + 2 y 0 x + y = 0 et donc (x,µy) = x(1,¶ −1) et donc {(1, −1)} est une base de ker(A − 2id¶E ). µ 3 1 2 0 −1 En posant P = nous avons obtenu à = P AP = et comme nous voulons résoudre (1), 1 −1 0 −2 µ ¶ µ ¶ X x −1 posons = P −1 de sorte qu'en multipliant à gauche par P l'égalité Y y µ ¶ dx dt dy dt =A nous obtenons P µ −1 µ dx dt dy dt ¶ x y ¶ = P ÃP µ = dX dt dY dt −1 ¶ µ µ = x y µ ¶ µ = P à 2 0 0 −2 ¶µ X Y ¶ , ¶ X Y . Ainsi la diagonalisation a découplé les nouvelles fonctions inconnues. Nous obtenons le système ½ dX dt = 2X dY dt = −2Y k¶ k2 telles que k1¶e2t et Y (t) = k2 e−2t . En à la dénition de 1 et µ ¶ µX(t) = µ revenant ¶ µ ¶ 2t x(t) X(t) 3 1 k1 e x0 k1 X et de Y , alors =P = et pour t = 0 il reste = P et donc y(t) Y (t) 1 −1 k2 e−2t y0 k2 ¶ µ µ ¶ ½ ¶ µ ¶ µ 1 1 0 −2t k1 x0 x0 x(t) = 34 (x0 + y0 )e2t + x0 −3y e 4 4 4 et donc .Ou encore = P −1 = 1 −3 x0 +y0 2t x0 −3y0 −2t k2 y0 y y(t) = e − e 0 4 4 4 4 et donc il existe deux constantes réelles µ ¶ µ ½µ µ La matrice R(t) = 1 −2t 3 2t 4e + 4e 1 2t −2t ) 4 (e − e x(t) y(t) ¶ µ = 3 2t 1 −2t 4e + 4e 1 2t −2t ) 4 (e − e 3 2t −2t ) 4 (e − e 1 2t 3 −2t e + e 4 4 3 2t −2t ) 4 (e − e 1 2t 3 −2t e + e 4 4 ¶µ x0 y0 ¶ . ¶ vérie d dt R(t) = A.R(t)et R(0) = I . problème de Cauchy µ ¶ x(t) 2 Trouver t → définie sur [0, tmax [ à valeurs dans R , vérifiant y(t) Elle se nomme résolvante du ¶ µ ¶ x(t) x(t) =A µ y(t) ¶ µ y(t) ¶ . x(0) x0 = y(0) y0 données en t = 0. Au passage, nous µ d dt Nous avons calculé explicitement la solution de (1) en fonction des valeurs avons R dans R et donc tmax = ∞ (et non de R+ dans R) et nous pourrions démontrer ainsi son existence obtenu la solution de et son unicité. Cela ne survient que parce que le système est linéaire à coecients constants (sinon le domaine de dénition de la solution n'est pas R, a priori). Noter que les coecients constants interviennent de manière cruciale dans µ · ¶¸ µ ¶ d d x x P −1 = P −1 . y y dt dt Si les coecients de la matrice A ne sont pas constants n'utilisez pas la diagonalisation ! Exemple 5. Nous voulons résoudre le système diérentiel (réel) µ dx dt dy dt ¶ µ = 2 1 −1 2 ¶µ x y ¶ tµ → x(t) et ¶ t → y(t) sont deux fonctions inconnues de R+ dans R et cela connaissant x0 = x(0) 2 −1 A= et cherchons à diagonaliser A. Calculons donc son polynôme caractéristique 1 2 ¯ ¯ ¯ 2−λ −1 ¯¯ PA (λ) = ¯¯ = (λ − 2)2 + 1 . 1 2−λ ¯ où Comme le polynôme caractéristique n'admet pas de racines dans Nous pourrions décider de passer dans la situation complexe avec et y0 = y(0). Posons K = R, la méthode précédente semble tomber à l'eau. K = C. Pour cela factorisons PA (λ) comme polynôme à coecients complexes. PA (λ) = (λ − 2 − i)(λ − 2 + i) et nous obtenons deux racines complexes λ1 = 2 + i et λ2 = 2 − i de multiplicité 1. Nous pourrions donc diagonaliser comme dans l'exemple 3. Qu'obtiendrait-on ? Une fois tous les calculs faits nous aurions ½ x(t) = Ae(2+i)t + Be(2−i)t y(t) = Ce(2+i)t + De(2−i)t où A,B, C et D sont des constantes complexes reliées par deux relations. Comme nous manquons de courage pour ces calculs qui vous déroutent beaucoup (l'exemple 3 ne vous plaît vraiment pas !, vous êtes perdus quand nous passons dans les complexes !), nous allons procéder à l'envers, en faisant la remarque suivante : oui il y a bien un moyen de soutirer de la résolution complexe la résolution réelle, en regroupant de manière astucieuse les vecteurs propres complexes associés à une valeur propre complexe et à sa conjuguée (comme le polynôme caractéristique est à coecients réels, si un complexe est racine, alors son complexe conjugué aussi). Cela aura comme conséquence de choisir A et B de sorte que la solution réelle sera de la forme x devienne réel et aussi ½ C et D de sorte que y deviennent réel. Autrement dit x(t) = ae2t cos t + be2t sin t y(t) = ce2t cos t + de2t sin t a, b, c et d sont des constantes réelles reliées par deux relations. (Attention a n'est pas la partie réelle de A . . . Concrètement 2 + i et 2 − i, il faut séparer la partie réelle donnant e2t et la partie imaginaire pure donnant cos t et sin t). Mais je n'ai toujours pas les relations en questions puisque je n'ai pas fait les calculs, direz vous ! Oui, mais où il y a deux racines complexes puisque nous savons que la solution sera de cette forme, pourquoi ne pas faire les calculs à l'envers et reporter la forme ci-dessus dans le système de départ ? Ainsi, nous aurons les relations recherchées, et nous n'aurons pas besoin d'eectuer la diagonalisation complexe ! De fait les calculs sont beaucoup plus rapides et simples, et conduisent bien au résultat. Nous utilisons donc la diagonalisation complexe uniquement pour connaître la forme de la solution, mais ce passage est crucial. a, b, c et d sont 4 constantes réelles, reportons donc la forme indiquée dans le système initial brut. ½ dx 2t 2t dt = e ((2a + b) cos t + (2b − a) sin t) devrait donner = 2x − y = e ((2a − c) cos t + (2b − d) sin t) dy 2t = x + 2y = e2t ((a + 2c) cos t + (b + 2d) sin t) dt = e ((2c + d) cos t + (2d − c) sin t) 2a + b = 2a − c ½ 2b − a = 2b − d x(t) = ae2t cos t + be2t sin t et nous obtenons ou encore b = −c, a = d donc et pour t = 0, 2c + d = a + 2c y(t) = −be2t cos t + ae2t sin t 2d − c = b + 2d ½ x0 = a et donc y0 = −b Si ½ La matrice µ ¶ µ 2t ¶µ ¶ x(t) = e2t (x0 cos t − y0 sin t) x(t) e cos t −e2t sin t x0 ou encore mieux = . y(t) = e2t (y0 cos t + x0 sin t) y(t) e2t sin t e2t cos t y0 µ 2t ¶ e cos t −e2t sin t dR R(t) = vérie dt = AR et R(0) = I2 . Elle ne nomme résolvante du problème e2t sin t e2t cos t Cauchy posé initialement. 7 de But de la suite du cours à propos des systèmes linéaires à coecients constants. Comme vous l'avez constaté sur l'exemple ci dessus, la réduction à la forme diagonale a été cruciale pour connaître ~ dX ~ dt = AX , où A est une matrice constante. Et si la matrice A n'est pas diagonalisable ? Toute la suite du cours justiera la recette suivante. la forme de la solution d'un système réel λ1 , . . . , λ p n = k1 + · · · + kn ); 1. Trouver les valeurs propres réelles ou complexes et leurs multiplicités, mettons dans le polynômes caractéristique PA (x) = det(A − X.In ) 2. Trouver les dimensions des sous espaces propres (avec de multiplicités k1 , . . . , kp 1 ≤ si = dim ker(A − λi idE ) ≤ ki . 3. Séparer les valeurs propres réelles des valeurs propres complexes. 4. A une valeurs propre réelle, mettons λq on associe t → eλq t Γq (t) où Γq (t) est un polynôme réel de degré kq − sq . 5. Chaque valeur propre complexe doit être associée la valeur propre complexe conjuguée (qui doit être aussi valeur propre puisque le polynôme caractéristique est à coecients réels), mettons λq = aq + ibq et λq = aq − ibq , et à ce t → (Γq cos bq t + ∆q sin bq t)eaq t où Γq et ∆q sont des polynômes réels de degré kq − sq . couple on associe les fonctions Ce faisant on introduit trop de constantes réelles ! 6. On reporte dans le système initial la somme des fonctions génériques introduites dans 4) et 5), MAIS pour chaque fonction inconnue, on introduit des constantes diérentes. (Comme on ne possède pas la matrice de passage de la −1 base canonique à une base qui réduit l'endomorphisme, cela revient à prendre les coecients de la matrice P TP où T est la forme réduite de l'endomorphisme de manière quelconque, en ne retenant que l'idée que chaque élément sera une combinaison linéaire des fonctions génériques de 4) et 5) et donc chaque fonction inconnue aussi). On en introduit donc beaucoup trop ! On constate que le nombre de constantes introduites est bien n la dimension du système, une fois toutes les équations du système vériées. La recette dit que cela marche sans expliquer pourquoi ! Il faut pour cela résoudre les systèmes linéaires obtenus (en identiant les coecients des fonctions génériques qui forment un système libre dans l'espace vectoriel des fonctions réelles d'une variable réelle) et ramener le nombre de constantes à n. 7. On a obtenu la forme de la solution générale dépendant de n constantes réelles, on y fait t = 0 et on extrait l'expression n est grand, uniquement possible de ces constantes en fonction des conditions initiales (cela peut-être redoutable si numériquement et/ou de manière approchée !). Dans la recette précédente, rien n'est démontré, on arme simplement que cela marche ! Il faudra sortir du cas Cn sur Cn , dite réduction de Jordan, pour diagonalisable et trouver une réduction générale d'un endomorphisme de pouvoir justier cette recette. Il est remarquable que la recette conduise à des calculs souvent plus rapides que ceux donnant la dite réduction sous forme de Jordan, mais sa justication théorique nécessite le célèbre résultat de Camille n Jordan. En fait la recette reste dans la base canonique de R , introduit beaucoup trop de constantes, puis en vériant le −1 système à l'envers, calcule directement le produit P T P qui donne la solution générale, et cela dans la base canonique n −1 de R , sans avoir besoin de calculer la matrice de passage P , ni T ni P , ni la solution générale dans la nouvelle base, ni le retour à l'ancienne base ! C'est pour cela que la recette est rapide et ecace. Pour la justier il faudra démonter ,−1 la formule A = P T P avec T sous forme de Jordan (pensez à triangulaire supérieure avec des coecients non nuls uniquement sur la diagonale et sur la diagonale juste au dessus), puis refaire le passage réels->complexes->réels comme expliqué dans l'exemple 5 et ainsi éviter l'exemple 3 qui vous déroute tellement. De plus on peut aussi sauter l'étape 2 et prendre les polynômes Γq et ∆q de degré kq − 1 ≥ kq − sq . On introduit alors encore d'autres constantes inutiles. Les systèmes linéaires obtenus, de taille plus grande, vont rendre nulles ces constantes inutiles, ce qui embrouille souvent la compréhension de ce que l'on fait. C'est souvent la méthode présentée par −1 les physiciens. Cela revient à utiliser P T P avec T sous forme triangulaire supérieur, sans essayer à savoir si T peut être n mise sous une forme plus intrinsèque, décomposant R en sous espaces stables par A. Comme le comportement du système diérentiel, localement et globalement est profondément lié à cette décomposition en sous espaces stables, décortiquer le comportement du système diérentiel demande de comprendre la décomposition de Jordan. Cela revient à décomposer le système en un certain nombre de sous-systèmes indépendants et analyser le comportement de chacun des sous-systèmes possibles, ceux qui correspondent à la découverte de Jordan. Exemple 6. On veut résoudre le problème de Cauchy x(t) d y(t) = dt z(t) x(0) y(0) z(0) 2 2 3 x(t) 0 2 −1 y(t) 0 0 1 z(t) . x0 = y0 z0 x(t) Trouver t → y(t) définie sur [0, tmax [ à valeurs dans R3 , vérifiant z(t) 2 2 3 2 On pose A = 0 2 −1 . Calculons le polynôme caractéristique PA (X) = (2 − X) (1 − X). 0 0 1 8 Recherchons donc les fonctions inconnues comme combinaisons linéaires proposées par la recette x = e2t (at + b) + cet y = e2t (dt + e) + f et z = e2t (gt + h) + ket d'où dx dt = e2t (2at + 2b + a) + cet = 2x + 2y + 3z = (2at + 2b + 2dt + 2e + 3gt + 3h)e2t + (2c + 2f + 3k)et dy 2t t 2t t . La troisième équadt = e (2dt + 2e + d) + f e = 2y − z = (2dt + 2e − gt − h)e + (2f − k)e dz 2t t 2t t = e (2gt + 2h + g) + ke = e (gt + h) + ke dt 2g = g 2d = 2d − g 2a = 2a + 2d + 3g 2h + g = h la deuxième donne 2e + d = 2e − h et la première donne 2b + a = 2b + 2e + 3h d'où tion donne k=k f = 2f − k c = 2c + 2f + 3k g = h = 0, (ces constantes sont nulles parce que le système initial était triangulaire supérieur, pas parce que l'on avait sauté l'étape deux, qui donnerait ici le même nombre de constantes) puis f = k puis d = 0 , a = 2e et c = −5k et donc il reste x(t) = e2t (2et + b) − 5ket x0 = b − 5k x(t) = e2t (2(y0 − z0 )t + (x0 + 5z0 )) − 5z0 et 2t t y(t) = e (e) + ke y0 = e + k d'où y(t) = e2t (y0 − z0 ) + z0 et et pour t = 0 on obtient t z(t) = ke z0 = k z(t) = z0 e ¡ ¢ 2t 2t x0 x(t) e 2te2t ¢ −2e + 5e2t − 5e¢t ¡ ¡ 2t y0 . −te2t − e2t + et Réponse : y(t) = 0 te + e2t t z(t) z0 0 0 e ¡ ¢ 2t 2t + 5e2t − 5e¢t e 2te2t ¢ −2e ¡ 2t ¡ vérie dR(t) = A.R et R(0) = I3 . Elle R(t) = 0 te + e2t −te2t − e2t + et dt t 0 0 e La matrice se nomme résol- vante du problème posé. Dicile de faire plus rapide pour l'obtenir en L2 ! La justication de cette procédure va prendre toute la suite du cours ... et nous faire passer par la triangulation, le théorème de Cayley Hamilton, l'arithmétique, l'arithmétique des polynômes, l'algorithme d'Euclide, l'identité de Bezout, le théorème de décomposition des noyaux, les noyaux itérés, les sous-espaces caractéristiques et la réduction de Jordan. Quelle belle motivation pour ces sujets : pourquoi cette recette fonctionne-t-elle si miraculeusement ? Dans le cas diagonalisable, nous l'avons compris. Sinon ? Gardez en mémoire cette motivation, bien souvent elle donne l'intuition des résultats de la liste précédente ! N'hésitez pas à me demander dans la suite du cours quelle est la relation avec la résolution des systèmes linéaires et ce que l'on fera. 9