Équations différentielles
Transcription
Équations différentielles
Chapitre 6 Equations et systèmes différentiels linéaires (notes de cours) Algèbre et analyse fondamentales - Paris 7 - O. Bokanowski - Novembre 2015 6.1 Le cas scalaire On considère l’équation différentielle (dite "d’ordre 1") suivante : t ∈ [0, T ]. ẏ(t) = ay(t) + b(t), (6.1) On notera S l’ensemble des solution de (6.1). L’équation différentielle "homogène" correspondante est celle où le "second membre" b(t) est nul, soit t ∈ [0, T ]. ẏ(t) = ay(t), (6.2) On notera H l’ensemble des solution de (6.2). Calcul fondamental : pour toute fonction y dérivable on a d (y(t)e−at ) = (ẏ(t) − ay(t))e−at . dt d En particulier, si y est solution de (6.2), alors on voit que dt (e−at y(t)) = 0, donc e−at y(t) est constante pour t ∈ [0, T ]. La valeur en t = 0 vaut y(0) donc pour tout t ∈ [0, T ] on a e−at y(t) = y(0), la solution vérifie y(t) = eat y(0). On a retrouvé que toute solution du système homogène (6.2) s’écrit sous la forme y(t) = ceat où c est une constante. Donc H = V ect(t → eat ) On revient au problème général (6.1). Si y est solution alors par un calcul analogue d (y(t)e−at ) dt = e−at (ẏ(t) − ay(t)) = e−at b(t) On intégre alors entre 0 et t : e −at t Z e−as b(s)ds, y(t) − y(0) = 0 et donc la formule y(t) = eat y(0) + t Z ea(t−s) b(s)ds. (6.3) 0 Réciproquement on vérifie que toute fonction y de la forme Z t y(t) = eat y0 + ea(t−s) b(s)ds, y0 constante 0 est bien solution de (6.1). 1 (6.4) Proposition. 6.1.1. Le problème ẏ = ay +b(t), y(0) = y0 admet une et une seule solution. Cette solution est donnée par la formule (6.4). Extention au cas où a(t) est une fonction de t. On cherche les solutions de t ∈ [0, T ] ẏ = a(t)y + b(t), (6.5) et vérifiant y(0) = y0 . (6.6) Ici a et b sont supposées continues sur [0, T ], à valeurs réelles ou complexes. Rt On pose A(t) = 0 a(s)ds, une primitive de a(t). Le calcul fondamental revient à remarquer que d (y(t)e−A(t) ) = (ẏ(t) − Ȧ(t)y(t))e−A(t) = (ẏ(t) − a(t)y(t))e−A(t) . dt Donc y est solution de (6.5) équivaut à (y(t)e−A(t) )0 = b(t). Par un calcul analogue au cas où a est constant, on en déduit que toute solution s’écrit sous la forme Rt y(t) = eA(t) y(0) + 0 eA(t)−A(s) b(s)ds. On obtient finalement que l’unique solution de (6.5)-(6.6) est y(t) = eA(t) y0 + Z t eA(t)−A(s) b(s)ds. 0 Méthode de variation de la constante dans le cas n = 1. L’idée de la méthode de variation de la constante est de chercher la solution générale du problème avec second membre sous la forme y(t) = c(t)eat , c’est à dire de la même forme que la solution générale du système homogène mais dans laquelle on change la constante c en une fonction dépendant de la variable t. La nouvelle inconnue du problème est donc la fonction c(t). Alors y est solution ssi ẏ(t) = eat (ċ(t) + ac(t)) = eat ċ(t) + ay(t) ≡ ay(t) + b(t), donc ssi eat ċ(t) = b(t). On trouve alors c(t) = c0 + 6.2 Rt 0 e−as b(s)ds, et on retrouve la forme générale des solutions (6.4). Equation différentielle d’ordre n. Definition. 6.2.1. Soit (a0 , . . . , an−1 ) des coefficients dans K = R ou C, et soit b ∈ C 0 ([t0 , t1 ], K). 1) On appelle équation différentielle linéaire d’ordre n à coeffients constants, avec second membre b(t) dépendant du temps, l’équation suivante : y (n) (t) = a0 y(t) + a1 y 0 (t) + · · · + an−1 y (n−1) (t) + b(t), t ∈ [t0 , t1 ]. (6.7) 2) On appelle équation homogène associée, l’équation différentielle obtenue lorsque b ≡ 0, c’est à dire y (n) (t) = a0 y(t) + a1 y 0 (t) + · · · + an−1 y (n−1) (t), t ∈ [t0 , t1 ]. (6.8) Pour donner un sens à (6.7) où à (6.8) la fonction y doit être supposée au moins n fois différentiable sur [t0 , t1 ] (voir compléments). On supposera dans la suite, lorsqu’on parle d’une solution de (6.7) ou de (6.8), que la fonction y est au moins de classe C n sur [t0 , t1 ]. Linearité des solutions de (6.8). Notons H(n) l’ensemble : H(n) := y, y solution de (6.8) . 2 On remarque que si y1 et y2 sont deux solutions de (6.8), alors toute combinaison linéaire α1 y1 + α2 y2 est encore solution de (6.8). Ceci montre que H est un sous-espace vectoriel de E := C n ([t0 , t1 ], Cn ). Premières solutions. Cherchons une solution particulière de (6.8) sous la forme y(t) = eλt , avec λ ∈ C. On a y (k) (t) = λk eλt . Une CNS immédiate pour que y(t) soit solution est donc que λ soit solution de l’équation caractéristique suivante : P (λ) := λn − an−1 λn−1 − · · · − a1 λ − a0 = 0. (6.9) (On dira aussi que P est un polynome caractéristique.) Ainsi toute racine du polynôme P fournit une solution de (6.8). Cas particulier n = 2. On considère l’équation caractéristique λ2 − a1 λ − a0 = 0. (6.10) On a deux cas possibles. a) Soit λ1 6= λ2 (deux racines simples dans C). On obtient alors deux solutions distinctes yi (t) = eλi t , i = 1, 2. Ces solutions sont linéairement indépendantes. (Si a1 y1 (t) + a2 y2 (t) = 0 alors aussi a1 ẏ1 (t) + 1 1 a2 ẏ2 (t) = 0, et en t = 0 on obtient a1 + a2 = 0 et a1 λ1 + a2 λ2 = 0. Comme | | = λ2 − λ1 6= 0, λ1 λ2 nécessairement a1 = a2 = 0.) b) Soit on a une racine double, notée λ1 . Dans ce cas P 0 (λ1 ) = 2λ1 − a1 = 0, et a0 = −λ21 . Alors on vérifie que y1 (t) = eλ1 t et y2 (t) = t eλ1 t sont deux solutions linéairement indépendantes de (6.8). On verra plus loin que H(2) est de dimension 2. Ainsi, dans tous les cas, les deux solutions obtenues forment une base de H(2) . Exercice : Vérifier, dans le cas λ1 racine double de (6.10), que y2 (t) = teλ1 t est bien solution de (6.8). Cas général. On vérifie que si λ est une racine d’ordre α = α(λ), càd si P (λ) = P 0 (λ) = · · · = P (α−1) (λ) = 0, alors tβ eλt est solution de (6.8) pour tout 0 ≤ β ≤ α − 1. On peut démontrer d’une part que {tβ eλt , λ racine de P et 0 ≤ β ≤ α(λ) − 1} est une famille libre de fonction, de cardinal n, et d’autre part on verra que l’ensemble des solution de (6.8) forme un espace vectoriel de dimension au plus n. Ainsi on montre que l’ensemble des solutions de (6.8) est engendré par l’ensemble précedent qui forme une base. En résumé : Théorème. 6.2.2. (i) dim(H(n) ) = n. (ii) H (n) ≡ V ect t e , λ racine de P et 0 ≤ β ≤ α(λ) − 1 . β λt Exercice * : On considère l’équation différentielle homogène dans le cas n ≥ 2. Soit P le polynome caractéristique. On suppose que P (λ) = P 0 (λ) = 0. Montrer que teλt est une solution de (6.8). (On Pn pourra utiliser la formule de Liebnitz pour a, b fonctions n fois dérivables : (ab)(n) = k=0 Ckn a(k) b(n−k) ). Exercice * : 1) On cherche une solution du problème avec second membre (6.7). On suppose que b(t) = c0 eµt avec P (µ) 6= 0. Montrer qu’on peut trouver une solution particulière de (6.7) de la forme y(t) = aeµt où a est une constante à déterminer. 2) On suppose maintenant que P (µ) = 0, avec P 0 (µ) 6= 0. Montrer qu’il n’y a pas de solution de la forme précédente, mais par contre qu’on peut trouver une solution de la forme y(t) = ateµt pour une valeur de a bien choisie. 3 6.3 Systèmes différentiels Transformation d’un problème d’ordre n en un système de n équations d’ordre 1, et inversement. Supposons que y soit solution d’un problème d’ordre n du type (6.7). Pour simplifier on va supposer ici que n = 2 : y (2) = a0 y + a1 y 0 + b(t). Notons Y (t) le vecteur de K2 t.q. y(t) ẏ(t) 0 a0 Y (t) := On remarque alors que Ẏ (t) = Ẏ (t) = ẏ(t) ÿ(t) vérifie ẏ(t) a0 y(t) + a1 ẏ(t) + b(t) = 1 a1 y(t) ẏ(t) + 0 b(t) . (6.11) Il s’agit donc d’un systeme de deux équations différentielles d’ordre 1, couplées, de la forme suivante (en posant y1 = y, y2 = ẏ, b1 = 0, b2 = b, a11 = 0, etc.) ẏ1 = a11 y1 + a12 y2 + b1 (t) (6.12a) ẏ2 = a21 y1 + a22 y2 + b2 (t) (6.12b) Inversement, si on suppose que (y1 , y2 ) est solution du système (6.12) alors en remplacant a12 y2 = ẏ1 − a11 y1 − b1 dans la deuxième équation on obtient ÿ1 − (a11 + a22 )ẏ1 + (a11 a22 − a12 a21 )y1 = ḃ1 − a22 b1 . qui est une équation différentielle d’ordre deux pour y1 . De même on montre que y2 vérifie l’équation différentielle suivante : ÿ2 − (a11 + a22 )ẏ2 + (a11 a22 − a12 a21 )y2 = ḃ2 − a11 b2 . Systeme differentiel d’ordre 1, avec second membre. Soient (b1 (t), . . . , bn (t)) des fonctions continues à valeur de K (K = R ou C) : bi ∈ C 0 ([t0 , t1 ], K). Soit (aij ) des coefficients dans Kn . On appelle système différentiel d’ordre 1, de taille n, à coefficients constants, le système d’équations suivant : ẏ1 (t) = a11 y1 (t) + a12 y2 (t) + · · · + a1n yn (t) + b1 (t) ẏ1 (t) = a21 y1 (t) + a22 y2 (t) + · · · + a2n yn (t) + b2 (t) (6.13) .. .. . . ẏn (t) = an1 y1 (t) + an2 y2 (t) + · · · + ann yn (t) + bn (t) Pour simplifier on considèrera en général que l’intervalle de temps est [0, T ] (au lieu de [t0 , t1 ]). Notons A = (aij ) ∈ Mn (K) et B(t) t.q. b1 (t) B(t) = ... . bn (t) (B ∈ C 0 ([0, T ], Kn ).) Introduisons le vecteur des inconnues y1 (t) Y = ... . yn (t) 4 Alors le système (6.13) peut se mettre sous la forme équivalente suivante : Ẏ (t) = AY (t) + B(t). (6.14) On considèrera aussi le système "homogène" correspondant. Ẏ (t) = AY (t) (6.15) Definition. 6.3.1. On appelle problème de Cauchy tout problème de la forme trouver Y ∈ C 1 ([0, T ], Kn ) vérifiant Ẏ (t) = AY (t) + B(t), Y (0) = Y0 , t ∈ [0, T ] (6.16a) (6.16b) où A, Y0 et B(t) sont données. Théorème. 6.3.2. Il existe au plus une solution du problème de Cauchy (6.16) Démonstration. On montre que si Y1 , Y2 sont deux solutions alors Z(t) = Y2 (t) − Y1 (t) est solution de Ż = AZ avec Z(0) = 0. On montre alors que kZ(t)k2 ≤ kZ(0)k2 eLt où L est une constante, par un lemme de type Gronwall. On en conclu que Z ≡ 0. On verra dans la section suivante une autre preuve d’unicité. On va voir dans la suite que H, l’ensemble des solutions de (6.15), forme un espace vectoriel de dimension n. 6.4 Existence et unicité pour les systèmes - approche matricielle Théorème. 6.4.1. Pour tout Y0 ∈ Kn , A ∈ Mn (K), B ∈ C 0 ([0, T ], Kn ), ∃! Y solution du problème de Cauchy : Ẏ = AY + B(t) sur [0, T ], Y (0) = Y0 . Preuve : On commence par traiter le cas K = C. La démonstration peut se faire par triangulation de la matrice A. Commencons par supposer que A est une matrice triangulaire supérieure. Pour simplifier, supposons que n = 3. Le problème s’écrit alors y10 (t) = a11 y1 (t) + a12 y2 (t) + a13 y3 (t) + b1 (t) y20 (t) = y30 (t) a22 y2 (t) + a23 y3 (t) + b2 (t) = a33 y3 (t) + b3 (t) Notons Y0 = (y01 , y02 , y03 )T les composantes de Y0 . La troisième équation ne fait intervenir que y3 (t) Rt et peut donc se résoudre explicitement : y3 (t) = ea33 t y30 + 0 ea33 (t−s) b3 (s)ds. Puis, notant b̃2 (t) := a23 y3 (t) + b2 (t) qui est maintenant connu on voit que la deuxieme relation s’écrit : y20 (t) = a22 y2 (t) + b̃2 (t). D’après (6.1.1), elle admet une et une seule solution vérifiant y2 (0) = y20 . Enfin la premiere relation s’écrit y10 (t) = a11 y1 (t) + b̃1 (t) où b̃1 (t) := a12 y2 (t) + a13 y3 (t) + b1 (t). Il y a donc une et une seule solution possible (par (6.1.1)). Ainsi le probleme est completement résolu. On suppose maintenant que A ∈ Mn (C) est une matrice quelconque. On sait que A est triangulable : il existe T triangulaire supérieure, P inversible, telles que A = P T P −1 . Posons Z(t) = P −1 Y (t), ainsi que B̄(t) = P −1 B(t). Le système d’équations différentielles Ẏ = AY + B(t), apres multiplication par P −1 , devient alors P −1 Ẏ (t) = T Z(t) + B̄(t). 5 De plus on montre facilement que pour toute matrice Q (à coefficients constants) : Ainsi Ż(t) = P −1 Ẏ (t) et le système devient d dt (QY (t)) = QẎ (t). Ż(t) = T Z(t) + B̄(t). La condition initiale est fixé par Z(0) = Z0 := P −1 Y0 . Ainsi il y a existence et unicité de la solution car on est dans le cas de matrice triangulaire supérieure. On obtient finalement, nécessairement, la solution Y sous la forme Y (t) = P Z(t). Ceci conclu la preuve dans le cas K = C. Obention des solutions dans le cas réel : Dans le cas ou les données sont réelles (A ∈ Mn (R) et b(t) ∈ R, avec Y0 ∈ Rn ), on peut voir le problème comme à valeur dans C et obtenir une (unique) solution Y (t) dans ce cadre, donc Y (t) ∈ C. On définit alors Z(t) = Re(Y (t)), la partie réelle. On voit que Ż(t) = AZ(t) + B(t) car A et B(t) sont à valeurs réelles. Donc Z est une solution (à valeurs réelles) du problème. D’autre part comme il n’y a qu’une seule solution (complexe) au problème , on a aussi Z(t) ≡ Y (t). Donc en fait la solution Y (t) construire au départ est à valeur réelle et est bien l’unique solution du problème. 2 Théorème. 6.4.2. L’ensemble H des solutions du système homogène forme un sous espace vectoriel de C 1 ([0, T ], Kn ), de dimension n. Preuve : Notons {ei } la base canonique. Notons Yi l’unique solution du problème de Cauchy Ẏi (t) = AYi (t) pour t ∈ [0, T ] et Yi (0) = ei . Toute combinaison linéaire Y , des Yi , est encore solution de Ẏ = AY , donc V ect(Y1 , . . . , Yn ) ⊂ H. Inversement, soit Y une solution dePẎ = AY . Notons Y0 := Y (0), de coordonnées (y0i ). On considère la combinaison linéaire Z(t) = y0i Yi (t). On note que Z est bien solution du système homogène, Ż = AZ, et de plus Z(0) = Y0 . Ainsi Y (t) et Z(t) sont deux solutions du problème de Cauchy Ẏ = AY et Y (0) = Y0 , donc par unicité des solutions, Y ≡ Z. Ceci démontre que H ⊂ V ect(Y1 , . . . , Yn ), et donc l’égalité H := V ect(Y1 , . . . , Yn ). P Enfin vérifions que la famille des (Yi ) est libre : supposons i αi Yi = 0, dans l’espace des P P fonctions C 1 ([0, T ], Kn ). Alors pour tout t ∈ [0, T ], i αi Yi (t) = 0. En particulier en t = 0 on obtient i αi ei = 0. Donc αi = 0 ∀i (puisque les ei sont les vecteurs de la base canonique). 2 Remarque : Notons W (t) la matrice suivante : W (t) := [Y1 (t), . . . , Yn (t)], appelée matrice Wronskienne, où Yi est la solution de Ẏ = AY , avec Y0 = ei . On a démontré que tout P solution du système homogène Ẏ = AY , avec Y := Y (0), s’écrit sous la forme Y (t) = Y (t)y 0 i i0 où i P yi0 = (Y0 )i . On observe que Y (t) = Yi (t)yi0 est une combinaison des vecteurs colonnes de W (t) et donc se met sous la forme Y (t) = W (t)Y0 . Le Théorème (6.4.2) va nous donner des renseignements sur l’ensemble des solutions du problème scalaire (6.7) initialement considéré. Théorème. 6.4.3. L’ensemble des solutions de (6.8) forme un espace vectoriel de dimension n. Démonstration. On considère pour simplifier le cas n = 2. On a vu que y solution de (6.8) est équivalent à Y := (y, y 0 )T solution du système homogène correspondant (pour une matrice A particulière). Soit θ(y) := (y, y 0 )T . Si on note H(2) l’ensemble des solutions de (6.8), on a donc θ(H(2) ) = H. On observe que θ : E := C 2 ([0, T ], K) → F := C 1 ([0, T ], K2 ) est une application linéaire dans L(E, F ). Elle est clairement injective. Donc aussi l’application θ, restreinte à H(2) est injective : θ : H(2) → H est donc injective et surjective, donc bijective, ce qui prouve que dim(H(2) ) = dim(H) = 2. Théorème. 6.4.4 (Théorème de Cauchy pour (6.7)). Soit b ∈ C 0 ([0, T ], K) et (a0 , . . . , an−1 ) dans K. Soit y0 , . . . , yn−1 des coefficients dans K. Il existe une et une seule solution de (6.7) sur [0, T ] vérifiant de plus (y(0), y 0 (0) . . . , y (n−1) (0)) = (y0 , . . . , yn−1 ). Preuve : laissée en exercice. On pourra encore raisonner par équivalence avec le système d’équation différentielles. 2 6 6.5 Variation de la constante On cherche une solution du systeme Ẏ = AY + B(t), B ∈ C 0 ([0, T ], Cn ). Soit Y1 , . . . , Yn n solutions particulieres du systeme homogene Ẏ = AY . On suppose de plus que (Y1 (t), . . . , Yn (t)) est libre ∀t ∈ [0, T ] (en fait il suffit que cette propriété soit vraie en t = 0 pour être vraie pour tout t). L’idée de la méthode de variation de la constante est de chercher une solution de Ẏ = AY + B(t) sous P la forme Y (t) = i ci (t)Yi (t) où les fonctions ci sont scalaires, à déterminer. P P P P P On remarque que Y est Psolution ssi Ẏ = i ċi Yi + i ci Ẏi . Mais i ci Ẏi = i ci AYi = A( i ci Yi ) = AY . Donc Y solution ssi i ċi (t)Yi = B(t). D’autre part si on note W (t) = [Y1 (t), . . . , Yn (t)] la matrice Wronskienne, l’équation précédente s’écrit aussi W Ċ(t) = B(t) où C = (c1 , . . . , cn )T . On trouve donc Rt soit Ċ(t) = W (t)−1 B(t), et C(t) = C0 + 0 W (s)−1 B(s)ds. On note aussi que Y (t) = W (t)C(t), donc au final Z T W (s)−1 B(s)ds. Y (t) = W (t)C0 + W (t) 0 Application au cas d’une équation d’ordre 2. On cherche à résoudre une équation différentielle de la forme y 00 (t) + a1 y 0 (t) + a0 y(t) = b(t). (6.17) On pourrait chercher directement une solution y(t) sous la forme y(t) = c1 (t)y1 (t) + c2 (t)y2 (t) où y1 , y2 sont deux solutions particulières et c1 , c2 sont deux fonctions à déterminer. Mais on a alors qu’une seule équation qui est (6.17),et deux fonctions inconnues c1 et c2 , ce qui semble sous-déterminé. y(t) En posant Y (t) = on se ramène à résoudre un système du type Ẏ = AY + B(t). Dans ce ẏ(t) cas la méthode de variation de la constante consiste à chercher Y (t) sous la forme Y (t) = c1 (t)Y1 (t) + c2 (t)Y2 (t). (6.18) y1 (t) y2 (t) Mais vu ici la forme des solutions (Y1 (t) = et Y2 (t) = ) l’équation (6.18) se traduit ẏ1 (t) ẏ2 (t) par le système d’équations y = c1 y 1 + c2 y 2 (6.19) ẏ = c1 ẏ1 + c2 ẏ2 et c’est sous cette forme qu’il faut appliquer la variation de la constante. En dérivant la premiere identité on trouve aussi que ẏ = ċ1 y1 + ċ2 y2 + (c1 ẏ1 + c2 ẏ2 ). Par identification avec la deuxieme identité on doit donc avoir ċ1 y1 + ċ2 y2 = 0. (6.20) En dérivant la deuxieme relation, ÿ = ċ1 ẏ1 + ċ2 ẏ2 + c1 ÿ1 + c2 ÿ2 . Finalement, X ÿ + a1 ẏ + a0 y = ċ1 ẏ1 + ċ2 ẏ2 + cj (ÿj + a1 ẏj + a0 yj ) j=1,2 = ċ1 ẏ1 + ċ2 ẏ2 (les termes où cj (t) n’est pas dérivé doivent disparaître). Ainsi y est solution ssi ċ1 y1 + ċ2 y2 = 0, Soit W (t) ċ1 ċ2 ċ1 ẏ1 + ċ2 ẏ2 = b(t). 0 y1 y2 = , avec W (t) = . On trouve alors b(t) ẏ1 ẏ2 1 1 ẏ2 −y2 0 −y2 b ċ1 = . = b(t) y1 b ċ2 |W | −ẏ1 y1 |W | 7 (6.21) En intégrant on trouve une solution particulière yp (t) de (6.17) sous la forme : Z yp (t) = 0 t 1 y1 (s) y2 (s) b(s)ds. |W (s)| y1 (t) y2 (t) Exemple : résoudre ÿ = y + et par la méthode de variation de la constante (on trouve y(t) = c1 et + c2 e−t avec c1 , c2 constantes). t t 2e + Remarque. Pour le système (6.7), dans le cas où b(t) = P (t)eλt où P est un polynome, en notant (λi )1≤i≤r les racines distinctes du polynome caractéristique ainsi que (αi ) les ordres de multiplicité correspondant, on peut chercher une solution particulière sous la forme Q(t)eλt avec deg(Q) = deg(P ) si λ ∈ / {λ1 , . . . λr }, deg(Q) = deg(P ) + αi si λ = λi 6.6 Exponentielle de matrice Definition. 6.6.1. Pour A ∈ Mn (C), on définit l’exponentielle de la matrice A, noté eA , par : eA := X Ak k≥0 k! =I +A+ A2 + ··· . 2! (où I désigne la matrice identité de taille n). On désire montrer que cette quantité est bien définie dans Mn (C). Il est clair que si 0 désigne la matrice nulle, alors e0 = I. On introduit une norme particulière sur l’espace des matrices E = Mn (C). Pour A = (aij ), on définit kAk := max 1≤i≤n X |aij |. 1≤j≤n (C’est la norme "infinie" pour les matrices). On vérifie alors les propriétés de la norme : kAk ≥ 0, kAk = 0 ⇒ A = 0, kλAk = |λ| kAk pour tout λ ∈ C et kA + Bk ≤ kAk + kBk. De plus Lemme. 6.6.2. (i) Pour toutes matrices A, B, on a kABk ≤ kAk kBk. (ii) En particulier, kAk k ≤ kAkk , ∀k ≥ 0. (iii) kIk = 1. (iv) Pour tout (i, j), |Aij | ≤ kAk. Théorème. 6.6.3. Pour toute matrice A de Mn (C), pour tout i, j, (eA )ij = absolument convergente. La série eA est donc bien définie dans Mn (C). 1 k k≥0 k! (A )ij P Démonstration. On utilise que |(Ak )ij | ≤ kAk k ≤ kAkk (par récurrence). Donc terme général de la série ekAk qui est convergente. est une série 1 k k! |(A )ij | ≤ 1 k k! kAk , Théorème. 6.6.4. (i) Pour tout i, j, t → eAt et dérivable sur R (et même pour tout i, j, t → (eAt )i,j est une série entière de rayon R = +∞). (ii) Pour tout t ∈ R on a les identités d At e = AeAt = eAt A dt (6.22) Théorème. 6.6.5. La solution du système homogène Ẏ = AY , t ∈ R, et Y (0) = Y0 est donnée par Y (t) = eAt Y0 . 8 (6.23) Proposition. 6.6.6. On a les propriétés suivantes : (i) Si AB = BA alors eA+B = eA eB . (ii) En particulier (eA )−1 = e−A . (iii) Si A = P BP −1 alors eA = P eB P −1 . (iv) Si ∆ = diag(λ1 , . . . , λn ) alors e∆ = diag(eλ1 , . . . , eλn ). (v) Si T triangulaire supérieure de coefficients diagonaux (tii ), alors eT est triangulaire supérieure avec coefficients diagonaux (etii ). (vi) det(A) = eT rA . Exercice : Calcul de eAt dans le cas A diagonalisable ; puis dans le cas d’une matrice de Jordan A = λI +J 0 1 (on peut supposer A de taille 2 et J = ). 0 0 Variation de la constante avec l’utilisation de eAt : Les solutions du système homogène s’écrivent sous la forme Y (t) = eAt C où C constante (on peut prendre W (t) = eAt ). La méthode de variation de la constante consiste à chercher un vecteur de fonctions C(t) t.q. Y (t) = eAt C(t) soit solution du système avec second membre B(t). En dérivant Y (t) on trouve Ẏ = eAt Ċ + AY donc Y est solution ssi eAt Ċ = B(t). Une autre manière consiste à utiliser le calcul suivant : d −At Y (t)) = e−At (Ẏ (t) − AY (t)) (e dt Donc Y est solution de Ẏ = AY + B(t) ssi d −At (e Y (t)) = e−At B(t). dt En intégrant entre 0 et t on trouve Z e−At Y (t) − Y0 = t e−As B(s)ds. 0 On utilise enfin que l’inverse de la matrice e −At At est e , d’où le résultat suivant. Théorème. 6.6.7. La solution de Ẏ = AY + B(t) , Y (0) = Y0 est donnée par la formule Z t At Y (t) = e Y0 + eA(t−s) B(s)ds. 0 Proposition. 6.6.8. Soit Y1 , . . . , Yn n solutions du système homogène, et W (t) = [Y1 (t), . . . , Yn (t)]. Si det(W (0)) 6= 0, alors det(W (t)) 6= 0 pour tout t. Démonstration. Toute solution est de la forme Yi (t) = eAt Yi0 . Donc W (t) = [eAt Y10 , . . . , eAt Yn0 ] = eAt [Y10 . . . Yn0 ] = eAt W (0). Puis det(W (t)) = det(eAt ) det(W (0)) = eT r(A)t det(W (0)), donc non nul. 6.7 Complément : fonctions de classes C k . • On note C 0 ([t0 , t1 ], K), pour K = R ou C, l’ensemble des fonctions continues sur [t0 , t1 ] à valeurs dans K. Si f : [t0 , t1 ] → Kn , avec f (t) = (f1 (t), . . . , fn (t))T , on dira de meme que f est continue si toutes ses composantes fi le sont, et on notera C 0 ([t0 , t1 ], Kn ) l’ensemble de ces fonctions. • Une fonction F : [t0 , t1 ] → Rn est dite dérivable en un point t ∈]t0 , t1 [ si la limite suivante existe, dans Rn : F (t + h) − F (t) lim . h→0, h6=0 h On note alors F 0 (t), en t0 si d dt F (t), ou Ḟ (t), cette limite, dans Rn . On dit de plus que F est dérivable à droite F 0 (t+ 0 ) := lim h→0, h>0 F (t + h) − F (t) h 9 existe, dans Rn , et que F est dérivable à gauche en t1 si F 0 (t− 1 ) := lim h→0, h<0 F (t + h) − F (t) h existe, dans Rn . On dit que F est dérivable sur l’intervalle fermé [t0 , t1 ] si F 0 (t) existe en tout point de ]t0 , t1 [, et F 0 (t+ 0 ), 0 F 0 (t− 1 ) existent. Si de plus la fonction F ainsi définie est continue sur [t0 , t1 ], on dit que F est de classe C 1 sur [t0 , t1 ]. On note C 1 ([t0 , t1 ], R) l’ensemble de ces fonctions. • De même, par récurrence, on dira qu’une fonction F : [t0 , t1 ] → Rn est de classe C k sur l’intervalle [t0 , t1 ], et on notera F ∈ C k ([t0 , t1 ], Rn ), si la dérivée (k − 1)-ième de F existe et est dérivable sur [t0 , t1 ], et que sa dérivée est continue sur [t0 , t1 ]. On note F (k) la dérivée k-ième de F . • On définit de même l’ensemble C k ([t0 , t1 ], Cn ) pour les fonctions à valeurs dans Cn . • Remarque. Si on note F = (f1 , . . . , fn )T les composantes de F dans la base canonique, alors F ∈ C 1 ([t0 , t1 ], Rn ) ⇔ (∀i, fi ∈ C 1 ([t0 , t1 ], R). • On définira de manière analogue les fonctions de classe C 1 de [t0 , t1 ] à valeur dans E, pour tout espace vectoriel E de dimension finie (sur R ou C). Par exemple A : [0, T ] → Mn (C) est de classe C 1 ssi tous les coefficients de A(t), sont des fonctions à valeurs dans C, de classe C 1 . On a alors Ȧ(t) = (a˙ij (t)). 10