DLST - Université Grenoble Alpes

Transcription

DLST - Université Grenoble Alpes
Diagonalisation
Dénition :
Soit
E
K espace vectoriel.
λ ∈ K, tel que
un
qu'il existe
Le scalaire
λ
Soit
A:E→E
un endomorphisme. On appelle vecteur propre un vecteur
u
non nul tel
A(u) = λu .
se nomme valeur propre.
Proposition :
λ ∈ K, si l'ensemble des vecteurs u qui vérient A(u) = λu est non réduit à {0E }, alors
E . On le nomme sous espace propre associé à la valeur propre λ.
Preuve : A(u) = λu s'écrit aussi (A − λ.idE )(u) = 0 et donc c'est le noyau de A − λ.idE , c'est donc
espace vectoriel de E .¤
pour un scalaire
c'est un sous
espace vectoriel de
bien un sous
Dénitions :
λ
est valeur propre si et seulement si il existe
est appelé spectre de
A.
u ∈ E, u
non nul, tel que
A = λu.
L'ensemble des valeurs propres de
A
Propriétés.
1. (λ est valeur propre de
2. Si
λ1 6= λ2
A)⇔ (A − λ.idE )
est non injectif.
sont deux valeurs propres distinctes
ker(A − λ1 idE ) ∩ ker(A − λ2 idE ) = {0E }.
Preuve :
pour 1) si λ est valeur propre de A il existe u non nul qui a la même image que 0E par l'endomorphisme
(A − λ.idE ), cet endomorphisme est donc non injectif. Pour 2) prenons u ∈ ker(A − λ1 idE ) ∩ ker(A − λ2 idE ). Alors
A(u) = λ1 u = λ2 u et donc (λ1 − λ2 )u = 0 et comme λ1 − λ2 6= 0 c'est que u = 0E .¤
Théorème :
{λ1 , . . . , λp } p valeurs propres deux à deux distinctes de A. Soient ui ∈ ker(A − λi .idE ) pour tout i = 1, . . . p
ui =
6 0. Alors le système {u1 , u2 , . . . up } est libre.
Preuve : par récurrence supposons le résultat vrai à l'ordre p et montrons le à l'ordre p + 1. Pour cela on suppose que
Soient
tels que
α1 u1 + · · · + αp+1 up+1 = 0 .
En appliquant l'endomorphime
A
à cette égalité nous obtenons
α1 λ1 u1 + · · · + αp+1 λp+1 up+1 = 0 .
Multiplions la première égalité par
λp+1
et retranchons lui la seconde. Nous obtenons
α1 (λ1 − λp+1 )u1 + · · · + αp (λp − λp+1 )up = 0 .
{u1 . . . , up } est libre et que les λi − λp+1 sont non nuls, nous en déduisons que α1 = α2 = · · · = αp = 0,
αp+1 = 0.
résultat est vrai à l'ordre 1, par récurrence le résultat est démontré pour tout p.¤
Comme le système
et en reportant dans la première nous obtenons
Comme le
Corollaires .
1. Si
E
2. Si
λ1 , . . . , λ p
est de dimension nie
n,
il y a au plus
n
valeurs propres.
sont deux à deux distincts alors
ker(A − λi idE ) ∩ (ker(A − λ1 idE ) + · · · + ker(A − λi−1 idE ) + ker(A − λi+1 idE ) + · · · + ker(A − λp idE )) = {0E }
3. Si
λ1 , . . . , λ p
sont deux à deux distincts alors
ker(A − λ1 idE ) + · · · + ker(A − λp idE ) = ker(A − λ1 idE ) ⊕ · · · ⊕ ker(A − λp idE )
4. Si
λ
est valeur propre de
A,
alors pour tout
p∈N
, le scalaire
λp
est valeur propre de
Ap = A
· · ◦ A}.
| ◦ ·{z
p f ois
1
Polynôme caractéristique .
Dénition : soit E un K-espace vectoriel de dimension n, et A
choisie de
E,
:E→E
un endomorphisme, quelque soit la base
B
le polynôme
P (λ) = det(A − λ.In )
B, et In la matrice unité carrée n × n, ne dépend pas de la base B
A. Il est de degré exactement n.
Preuve : soit B̃ une autre base de E . Dans B̃ calculons Q(λ) = det(Ã − λIn ) = det(P −1 AP − λIn ) =
= det(P −1 AP − λP −1 In P ) = det(P −1 (A − λIn )P ) = det(P −1 ) det(A − λIn ) det P . Comme det(P −1 ) det(P ) =
det(P −1 P ) = det In = 1, nous en déduisons que pour tout λ ∈ K, on a Q(λ) = P (λ). En utilisant
½
i=n
X
Y
1 si i = j
n n
(aiσ(i) − λδiσ(i) ) où δij =
, le terme de plus haut degré de P est (−1) λ et donc le
P (λ) =
ε(σ)
0 si i 6= j
où
A
A
est la matrice qui représente
dans la base
choisie. Il se nomme polynôme caractéristique de
i=1
σ∈Pn
degré du polynôme caractéristique est exactement la dimension de
E .¤
Corollaire :
les coecients du polynôme caractéristique ne dépendent que de l'endomorphisme A, pas de la base choisie pour les
n−1
n−1
calculer. Cela est vrai en particulier pour le coecient de λ
qui vaut (−1)
Trace(A), et du terme constant en λ, qui
vaut
det A.
Remarque :
il existe une formule explicite pour chacun des coecients du polynôme caractéristique (par exemple en utilisant les
mineurs d'ordre k extraits de la matrice représentant A dans une base donnée, et quand
λk s'expriment à partir des traces de A de A2 = A.A , de Ak = Ak−1 A) :
P (λ) = det(A−λ.In ) = (−1)n λn +(−1)n−1
à n
X

!
aii
λn
de
λn−1
et de
λ0
est
R
C,
ou
le coecient de

X
λn−1 +· · ·+(−1)n−k 
det(Mji jl ) λn−k +· · ·+det A ,
1≤j1 <j2 <,···<jk ≤n
i=1
Seuls les coecients de
K
sont à retenir pour vos études en
L2.
Vous n'êtes pas censés connaître les
autres relations.
Théorème :
λ est une racine du polynôme caractéristique et réciproquement si λ ∈ K est une
λ est une valeur propre de A.
Preuve : si λ est une valeur propre, alors il existe un vecteur non nul u ∈ E tel que A(u) = λu et donc (A−λ.IdE )(u) =
0E et donc l'endomorphisme A − λ.IdE envoie le vecteur non nul u sur le vecteur 0E , et donc cet endomorphisme
si
λ
est une valeur propre de
A,
alors
racine du polynôme caractéristique, alors
est non injectif, et donc le déterminant de la matrice qui représente cet endomorphisme dans une base est nul, et donc
P (λ) = det(A−λIn ) = 0. Réciproquement si λ est une racine de P alors P (λ) = det(A−λIn ) = 0 et donc l'endomorphisme
A − λ.IdE est non bijectif, donc non injectif et donc il existe un antécédent de 0E qui est non nul, et donc on trouve
u ∈ E , u non nul, tel que (A − λidE )(u) = 0 et donc A(u) = λu et u est un vecteur propre de A associé à la valeur propre
λ, et donc λ est bien une valeur propre de A. ¤
Exemple 1.
Soit


1 −1 −1
1 
A =  0 2
0 0
1
canonique de
R3 .
et l'endomorphisme
A : R3 → R3
Calculons son polynôme caractéristique
dont la matrice représentative est
¯
¯ 1−λ
−1
−1
¯
2−λ
1
P (λ) = ¯¯ 0
¯ 0
0
1−λ
¯
¯
¯
¯.
¯
¯
A
dans la base
Comme la matrice dont on
veut prendre le déterminant est triangulaire supérieure, il sut de faire le produit des éléments diagonaux pour obtenir
le déterminant recherché.
On obtient
algébrique
2
P (λ) = (1 − λ)2 (2 − λ). Donc le spectre de A est {1, 2}.
2 est de multiplicité algébrique 1.
On dit que la valeur propre
1
est de multiplicité
et que la valeur propre
Recherchonsle sous espace propre associé à la valeur propre 1, c'est à dire ker(A − In ). Calculons donc la
matrice
0
A−I =  0
0
−1
1
0
−1
1 .
0
Et recherchons les vecteurs
2
(x, y, z)
qui forment le noyau de
A − IdE .
Pour cela il


  
−1
x
0
 −y − z = 0
1   y  =  0  ou encore
y + z = 0 . Donc si (x, y, z) est dans le sous
faut résoudre le système

0
z
0
0=0
espace propre associé à la valeur propre 1 il faut et il sut que y+z = 0, ce qui entraîne que (x, y, z) = x(1, 0, 0)+y(0, 1, −1)
et donc {(1, 0, 0), (0, 1, −1)} est une base de ce sous espace propre, ce sous espace propre est de dimension 2.
Recherchons le sous espace
valeur
2,

 propre associé
 à la 
 propre

−1 −1 −1
x
0
 −x − y − z = 0
0
1   y  =  0  ou encore
z=0
il faut maintenant résoudre  0
. Donc si (x, y, z) est

0
0 −1
z
0
−z = 0
dans le sous espace propre associé à la valeur propre 2 il faut et il sut que x + y = 0 et que z = 0, ce qui entraîne que
(x, y, z) = x(1, −1, 0) et donc {(1, −1, 0)} est une base de ce sous espace propre, ce sous espace propre est de dimension 1.
Diagonalisation de A : nous disposons maintenant de trois vecteurs propres de A , qui forment une base de E = R3 .
3
Soit donc B , la base canonique de R et B̃ = {ẽ1 = (1, 0, 0), ẽ2 = (0, 1, −1), ẽ3 = (1, −1, 0)} une base formée de vecteurs
propres. La matrice de passage de B à B̃ s'obtient en disposant en colonnes les composantes des vecteurs de la nouvelle


1 0
1
1 −1  est la matrice de passage de B à B̃ , et la formule de
base, exprimés dans l'ancienne base. Donc P =  0
0 −1 0
−1
changement de base nous indique que dans la nouvelle base nous aurons à = P
Il n'est pas nécessaire d'eectuer ce
  AP . 

1
1
calcul parce que nous savons que A(ẽ1 ) = ẽ1 , mais cela s'écrit dans B̃ : Ã  0  = 1  0  et donc la première colonne
0
 
 
0 
1
0
0
de à est  0 . De la même manière la seconde colonne est  1  et la troisième  0  puisque A(ẽ3 ) = 2ẽ3 . En
0
0
2

0 −1
 0 1
0 0
dénitive nous avons obtenu que

1
 0
0
0
1
0

ou bien
1 −1
 0 2
0 0
on dit que l'on a
diagonalisé
 
0
1
0 = 0
2
0

1
1
1 −1
0 −1   0 2
−1 −1
0 0
 

−1
1 0
1
1
1  =  0 1 −1   0
1
0 −1 0
0
la matrice

−1
1
1  0
1
0
0
1
0
A . Nous allons rechercher
n × n quelconque.

0
1
1 −1 
−1 0

0
1 1
0  0 0
2
0 −1

1
−1  ,
−1
comment savoir si cela est possible, ou si cela est
impossible, étant donné une matrice carrée
Proposition. Lien entre dim ker(A − λidE ) et l'ordre de multiplicité de
téristique.
Si
λ∈K
E
est de dimension
n sur le corps K, si A E → E
λ
comme racine du polynôme carac-
est un endomorphisme de polynôme caractéristique
PA (admettant
comme valeur propre) tel que
PA (X) = (X − λ)k Q(X) avec Q(λ) 6= 0 ,
(k est l'ordre de multiplicité de
λ
dans
PA )
alors
1 ≤ dim ker(A − λidE ) ≤ k .
Preuve : comme λ est une valeur propre de A, il existe un vecteur propre mettons e1 non nul tel que A(e1 ) = λe1 et le
E engendré par e1 est de dimension 1 et est inclus dans le sous espace propre associé à la valeur propre λ.
1 ≤ dim ker(A − λidE ) . Soit p la dimension de ker(A − λidE ). Alors il existe une base mettons {e1 , . . . , ep } de ce
sous espace propre. Complétons ce système libre en une base de E par {ep+1 , . . . , en } de sorte que {e1 , . . . ep , ep+1 , . . . en }
soit une base de E . Soit A la matrice qui représente A dans cette base. Comme A(ej ) = λej si 1 ≤ j ≤ p , nous savons
sous espace de
Et donc

que la
j ième
colonne de
A
est
0

 .. 
 . 


 ..  ↑
 . 
 j

 λ 

 ↓
 . 
 .. 
0
et donc
A
est de la forme
← p
→
λ 0 ... 0
↑ 
 0 λ ... 0
 .. .. . .
.
.
.
.
p 
 . .
0
0
·
·
·
λ
↓ 


A=




0





∗
∗ ∗
∗ ∗
∗ ∗
∗
∗
∗
···
···
···
∗
∗
∗
.
.
.
.
.
.
.
.
.
..
.
.
.
.
∗ ∗
∗
···
∗















det(A − X.In ) on obtient PA (X) = (λ − X)p S(X) où S(X) correspond au calcul du déterminant du bloc
carré contenant des ∗ dans la matrice A . Comme le polynôme caractéristique est indépendant de la base, nous savons
p
k
que (λ − X) S(X) = (X − λ) Q(X) avec Q(λ) 6= 0 , mais nous ne savons rien sur la valeur nulle ou non de S(λ). Et donc
p ≤ k et rien ne nous permet de conclure si p = k ou si p < k . ¤
Pour se persuader que les deux cas peuvent survenir donnons deux exemples. Le cas 1 < p = k = 2 a été obtenu dans


1 −1 −1
2
1 . Donnons maintenant un exemple où 1 = p < k = 2. (Ces petites valeurs
notre premier exemple avec  0
0 0
1
sont choisies pour ne pas avoir de trop gros calcul, mais toutes les valeurs possibles égales ou distinctes de p et k avec
p ≤ k entre 1 et n sont possibles, construisez les à partir de ces deux exemples en exercice !)
et en calculant
Exemple 2 .
Soit

1 2
A =  0 1
0 0
canonique de
R3 .

3
−1 
0
et l'endomorphisme
A : R3 → R3
Calculons son polynôme caractéristique
dont la matrice représentative est
¯
¯ 1−λ
2
3
¯
1 − λ −1
P (λ) = ¯¯ 0
¯ 0
0
−λ
¯
¯
¯
¯.
¯
¯
A
dans la base
Comme la matrice dont on veut
prendre le déterminant est triangulaire supérieure, il sut de faire le produit des éléments diagonaux pour obtenir le
déterminant recherché.
P (λ) = (1 − λ)2 (−λ).
2 et que la valeur propre 0
On obtient
algébrique
Donc le spectre de
A
est
{0, 1}.
1.
On dit que la valeur propre
1
est de multiplicité
est de multiplicité algébrique
Recherchons le sous espace
 propre associé à la valeur propre 1, c'est à dire ker(A − In ). Calculons donc la
2 3
0 −1 . Et recherchons les vecteurs (x, y, z) qui forment le noyau de A − IdE . Pour cela il
0 −1


  
0 2 3
x
0
 2y + 3z = 0
−1   y  =  0  ou encore
−z = 0
faut résoudre le système  0 0
. Donc si (x, y, z) est dans le sous

0 0 −1
z
0
−z = 0
espace propre associé à la valeur propre 1 il faut et il sut que y = z = 0, ce qui entraîne que (x, y, z) = x(1, 0, 0) et donc
{(1, 0, 0)} est une base de ce sous espace propre, ce sous espace propre est de dimension 1. Donc dans cet exemple nous
obtenons 1 = p < k = 2.
matrice
0
A−I =  0
0
Dénition (matrice et endomorphisme diagonalisable).
Soit
E
un espace vectoriel de dimension
n
sur le corps
K,
un endomorphisme
A : E→E
est dit diagonalisable s'il
tel que la matrice qui représente A relativement à cette base est diagonale (ce qui signie que bij = 0
ième
ième
si i 6= j où bij le coecient de la i
ligne et de la j
colonne de la matrice B qui représente A).
−1
Une matrice carrée (n, n) , A est dite diagonalisable s'il existe une matrice P inversible telle que P
AP soit diagonale
ième
ième
(ce qui signie que aij = 0 si i 6= j où aij le coecient de la i
ligne et de la j
colonne de la matrice A).
existe une base de
E
Théorème .
1. Soit
E
2. Soit
E
n
un espace vectoriel de dimension
seulement si il existe une base de
E
sur le corps
K,
un endomorphisme
constituée de vecteurs propres de
n
un espace vectoriel de dimension
A.
A : E→E
est diagonalisable si et
K, un endomorphisme A : E → E est diagonalisable
n racines dans K (comptées avec leurs multiplicités) et si
k1 , . . . , kp alors pour tout i = 1 . . . p on a dim ker(A − λi idE ) = ki .
sur le corps
si et seulement si son polynôme caractéristique possède
λ1 , λ2 . . . λp
3. Soit
E
sont ces racines de multiplicités
n
un espace vectoriel de dimension
sur le corps
K,
un endomorphisme
seulement si la somme des dimensions des sous-espaces propres de
A
A : E→E
égale la dimension de
est diagonalisable si et
E.
Preuve : montrons 2). Si A est diagonalisable, en calculant le polynôme caractéristique dans une base où A est représenté
A
par une matrice diagonale, nous obtenons que
possède
n
valeurs propres. Faisons attention dans ces valeurs propres
et distinguons les valeurs propres deux à deux distinctes mettons λ1 , λ2 . . . λp qui ont k1 , k2 . . . , kp comme ordres de
Pp
multiplicité dans le polynôme caractéristique. Alors
i=1 ki = n signie que A possède n valeurs propres (comptées avec
leurs multiplicités). Mais nous savons déjà que 1 ≤ dim ker(A − λi idE ) ≤ ki , et aussi que
ker(A − λ1 idE ) + · · · + ker(A − λp idE ) = ker(A − λ1 idE ) ⊕ · · · ⊕ ker(A − λp idE )
n = k1 +k2 +· · ·+kp = dim ker(A− λ1 idE )+·
P · ·+ker(A−λp idE ) . Si une inégalité est stricte dim ker(A− λi idE ) < ki
i, on obtient n =
dim ker(A − λi idE ) < n et donc une contradiction.
Donc dim ker(A − λi idE ) = ki pour tout i = 1, . . . , p.
Nous en déduisons que la base dans laquelle nous avons représenté A par une matrice diagonale est une base de vecteurs
d'où
pour un (ou plusieurs) indice
propres.
Réciproquement si le polynôme caractéristique de A possède n valeurs propres dans K et que dim ker(A − λi idE ) = ki
pour tout i = 1, . . . , p alors ker(A − λ1 idE ) + · · · + ker(A − λp idE ) = ker(A − λ1 idE ) ⊕ · · · ⊕ ker(A − λp idE ) est un espace
de dimension n de E et donc E = ker(A − λ1 idE ) ⊕ · · · ⊕ ker(A − λp idE ) et en fabriquant une base de E en concaténant des
bases de chaque sous-espaces propres on obtient une base de vecteurs propres ce qui montre que A est diagonalisable.¤
Exemple 3.
Soit
Rθ
l'endomorphisme dénit de
R2
R2
dans
par sa matrice représentative dans la base canonique de
µ
R2
:
¶
− sin θ
.
cos θ
¯
¯
¯ cos θ − X
− sin θ ¯¯
¯
Calculons son polynôme caractéristique P (X) = det(Rθ − XI) =
= (cos θ − X)2 + sin2 θ =
¯
sin θ
cos θ − X ¯
X 2 − 2 cos θX + 1. Ce polynôme du second degré admet comme discriminant 4(cos2 θ − 1) et si θ 6≡ π[π], ce discriminant
Rθ =
cos θ
sin θ
est négatif et donc l'endomorphisme considéré n'est pas diagonalisable puisque son polynôme caractéristique n'admet
K = R. Géométriquement Rθ est la rotation d'angle θ autour de l'origine. Si maintenant (toujours
2
2
nous considérons cette matrice comme dénissant un endomorphisme de C dans C , cette fois-ci son
iθ
−iθ
polynôme caractéristique admet λ1 = cos θ + i sin θ = e
et λ2 = e
comme valeurs propres, et comme elles sont
aucune racine dans
pour
θ 6≡ π[π])
distinctes, l'endomorphisme est diagonalisable.
µ
¶
−i sin θ − sin θ
Recherchons le sous-espace propre associé à λ1 = e
. Calculons Rθ − λ1 I2 =
et recherchons les
sin θ ½ −i sin θ
µ
¶µ
¶ µ
¶
−i sin θ − sin θ
z1
0
−i sin θz1 − sin θz2 = 0
(z1 , z2 ) ∈ C2 tels que
=
. Nous obtenons le système
qui
sin θ
−i sin θ
z2
0
sin θz1 − i sin θz2 = 0
se réduit à iz1 + z2 = 0 (parce que sin θ 6= 0 si l'on a θ 6≡ π[π]) et donc (z1 , z2 ) = z1 (1, −i) et donc {(1, −i)} est une base
iθ
de ce sous espace propre.
De la même manière
espace propre associé à
µ
Rθ − λ2 I2 =
λ2 .
En posant
P =
µ
eiθ
0
+ z̃2 (i,−1)
pour
(z1 , z2 ) = z̃1 (1,−i)
2
2
2
peut être aussi considéré dans R ) dans la
composante z̃2 une rotation d'angle −θ.
Posons
¶
− sin θ
conduit à iz1 − z2 = 0 et
i sin θ ¶
1
i
nous avons démontré que
−i −1
i sin θ
sinµθ
0
e−iθ
tout
¶
=P
−1
µ
(z1 , z2 ) ∈ C2 .
cos θ
sin θ
− sin θ
cos θ
donc
{(i, −1)}
¶
P .
Sur la première composante (z̃1 est un complexe et donc
nouvelle base, l'endomorphisme est une rotation d'angle
5
est une base du sous
θ,
et sur la deuxième
Exemple 4.
Nous voulons résoudre le système diérentiel (réel)
µ
¶
dx
dt
dy
dt
µ
=
1
1
3
−1
¶µ
x
y
¶
(1)
tµ
→ x(t) et ¶
t → y(t) sont deux fonctions inconnues de R+ dans R et cela connaissant x0 = x(0)
1 3
A=
et cherchons à diagonaliser A. Calculons donc son polynôme caractéristique
1 −1
¯
¯
¯ 1−λ
¯
3
¯ = (λ − 2)(λ + 2) .
PA (λ) = ¯¯
1
−1 − λ ¯
où
1),
Comme ce polynôme caractéristique admet deux racines distinctes (de multiplicité
diagonaliser
A.
µ
λ1 = 2 .
Il faut résoudre
est une base de
ker(A − 2idE ).
Recherchons le sous espace propre associé à
et donc
(x, y) = y(3, 1)
et donc
{(3, 1)}
1−2
3
1
−1 − 2
et
y0 = y(0).
Posons
nous savons que nous pourrons
¶µ
x
y
¶
µ
=
0
0
¶
d'où
x = 3y
¶µ
¶
µ
¶
1+2
3
x
0
Recherchons le sous espace propre associé à λ1 = −2. Il faut résoudre
=
d'où
1
−1 + 2
y
0
x + y = 0 et donc (x,µy) = x(1,¶
−1) et donc {(1, −1)} est une base de ker(A
− 2id¶E ).
µ
3 1
2
0
−1
En posant P =
nous avons obtenu à = P
AP =
et comme nous voulons résoudre (1),
1
−1
0
−2
µ
¶
µ
¶
X
x
−1
posons
= P −1
de sorte qu'en multipliant à gauche par P
l'égalité
Y
y
µ
¶
dx
dt
dy
dt
=A
nous obtenons
P
µ
−1
µ
dx
dt
dy
dt
¶
x
y
¶
= P ÃP
µ
=
dX
dt
dY
dt
−1
¶
µ
µ
=
x
y
µ
¶
µ
= P Ã
2 0
0 −2
¶µ
X
Y
¶
,
¶
X
Y
.
Ainsi la diagonalisation a découplé les nouvelles fonctions inconnues. Nous obtenons le système
½
dX
dt = 2X
dY
dt = −2Y
k¶
k2 telles que
k1¶e2t et Y (t) = k2 e−2t . En
à la dénition de
1 et µ
¶ µX(t) =
µ revenant
¶
µ
¶
2t
x(t)
X(t)
3 1
k1 e
x0
k1
X et de Y , alors
=P
=
et
pour
t
=
0
il
reste
=
P
et donc
y(t)
Y (t)
1 −1
k2 e−2t
y0
k2
¶
µ
µ
¶
½
¶
µ
¶ µ 1
1
0 −2t
k1
x0
x0
x(t) = 34 (x0 + y0 )e2t + x0 −3y
e
4
4
4
et donc
.Ou encore
= P −1
=
1
−3
x0 +y0 2t
x0 −3y0 −2t
k2
y0
y
y(t)
=
e
−
e
0
4
4
4
4
et donc il existe deux constantes réelles
µ
¶
µ
½µ
µ
La matrice
R(t) =
1 −2t
3 2t
4e + 4e
1 2t
−2t
)
4 (e − e
x(t)
y(t)
¶
µ
=
3 2t
1 −2t
4e + 4e
1 2t
−2t
)
4 (e − e
3 2t
−2t
)
4 (e − e
1 2t
3 −2t
e
+
e
4
4
3 2t
−2t
)
4 (e − e
1 2t
3 −2t
e
+
e
4
4
¶µ
x0
y0
¶
.
¶
vérie
d
dt R(t)
= A.R(t)et R(0) = I .
problème
de Cauchy






µ
¶


x(t)
2
Trouver t →
définie sur [0, tmax [ à valeurs dans R , vérifiant
y(t)






Elle se nomme
résolvante du
¶
µ
¶ 
x(t)
x(t)


=A

µ y(t) ¶ µ y(t)
¶
.
x(0)
x0


=

y(0)
y0
données en t = 0. Au passage, nous
µ
d
dt
Nous avons calculé explicitement la solution de (1) en fonction des valeurs
avons
R dans R et donc tmax = ∞ (et non de R+ dans R) et nous pourrions démontrer ainsi son existence
obtenu la solution de
et son unicité. Cela ne survient que parce que le système est linéaire à coecients constants (sinon le domaine de dénition
de la solution n'est pas
R,
a priori). Noter que les coecients constants interviennent de manière cruciale dans
µ
·
¶¸
µ
¶
d
d
x
x
P −1
= P −1
.
y
y
dt
dt
Si les coecients de la matrice
A
ne sont pas constants n'utilisez pas la diagonalisation !
Exemple 5.
Nous voulons résoudre le système diérentiel (réel)
µ
dx
dt
dy
dt
¶
µ
=
2
1
−1
2
¶µ
x
y
¶
tµ
→ x(t) et ¶
t → y(t) sont deux fonctions inconnues de R+ dans R et cela connaissant x0 = x(0)
2 −1
A=
et cherchons à diagonaliser A. Calculons donc son polynôme caractéristique
1 2
¯
¯
¯ 2−λ
−1 ¯¯
PA (λ) = ¯¯
= (λ − 2)2 + 1 .
1
2−λ ¯
où
Comme le polynôme caractéristique n'admet pas de racines dans
Nous pourrions décider de passer dans la situation complexe avec
et
y0 = y(0).
Posons
K = R, la méthode précédente semble tomber à l'eau.
K = C. Pour cela factorisons PA (λ) comme polynôme
à coecients complexes.
PA (λ) = (λ − 2 − i)(λ − 2 + i)
et nous obtenons deux racines complexes
λ1 = 2 + i
et
λ2 = 2 − i
de multiplicité
1.
Nous pourrions donc diagonaliser
comme dans l'exemple 3. Qu'obtiendrait-on ? Une fois tous les calculs faits nous aurions
½
x(t) = Ae(2+i)t + Be(2−i)t
y(t) = Ce(2+i)t + De(2−i)t
où A,B, C et D sont des constantes complexes reliées par deux relations.
Comme nous manquons de courage pour ces calculs qui vous déroutent beaucoup (l'exemple 3 ne vous plaît vraiment
pas !, vous êtes perdus quand nous passons dans les complexes !), nous allons procéder à l'envers, en faisant la remarque
suivante : oui il y a bien un moyen de soutirer de la résolution complexe la résolution réelle, en regroupant de manière
astucieuse les vecteurs propres complexes associés à une valeur propre complexe et à sa conjuguée (comme le polynôme
caractéristique est à coecients réels, si un complexe est racine, alors son complexe conjugué aussi). Cela aura comme
conséquence de choisir A et B de sorte que
la solution réelle sera de la forme
x
devienne réel et aussi
½
C
et
D
de sorte que
y
deviennent réel. Autrement dit
x(t) = ae2t cos t + be2t sin t
y(t) = ce2t cos t + de2t sin t
a, b, c et d sont des constantes réelles reliées par deux relations. (Attention a n'est pas la partie réelle de A . . . Concrètement
2 + i et 2 − i, il faut séparer la partie réelle donnant e2t et la partie imaginaire pure donnant
cos t et sin t). Mais je n'ai toujours pas les relations en questions puisque je n'ai pas fait les calculs, direz vous ! Oui, mais
où
il y a deux racines complexes
puisque nous savons que la solution sera de cette forme, pourquoi ne pas faire les calculs à l'envers et reporter la forme
ci-dessus dans le système de départ ? Ainsi, nous aurons les relations recherchées, et nous n'aurons pas besoin d'eectuer
la diagonalisation complexe ! De fait les calculs sont beaucoup plus rapides et simples, et conduisent bien au résultat.
Nous utilisons donc la diagonalisation complexe uniquement pour connaître la forme de la solution,
mais ce passage est crucial.
a, b, c et d sont 4 constantes réelles, reportons donc la forme indiquée dans le système initial brut.
½ dx
2t
2t
dt = e ((2a + b) cos t + (2b − a) sin t) devrait donner = 2x − y = e ((2a − c) cos t + (2b − d) sin t)
dy
2t
= x + 2y = e2t ((a + 2c) cos t + (b + 2d) sin t)
dt = e ((2c + d) cos t + (2d − c) sin t)

2a + b = 2a − c


½

2b − a = 2b − d
x(t) = ae2t cos t + be2t sin t
et nous obtenons
ou encore b = −c, a = d donc
et pour t = 0,
2c
+
d
=
a
+
2c
y(t)
= −be2t cos t + ae2t sin t



2d − c = b + 2d
½
x0 = a
et donc
y0 = −b
Si
½
La matrice
µ
¶ µ 2t
¶µ
¶
x(t) = e2t (x0 cos t − y0 sin t)
x(t)
e cos t −e2t sin t
x0
ou encore mieux
=
.
y(t) = e2t (y0 cos t + x0 sin t)
y(t)
e2t sin t e2t cos t
y0
µ 2t
¶
e cos t −e2t sin t
dR
R(t) =
vérie
dt = AR et R(0) = I2 . Elle ne nomme résolvante du problème
e2t sin t e2t cos t
Cauchy posé initialement.
7
de
But de la suite du cours à propos des systèmes linéaires à coecients constants.
Comme vous l'avez constaté sur l'exemple ci dessus, la réduction à la forme diagonale a été cruciale pour connaître
~
dX
~
dt = AX , où A est une matrice constante. Et si la matrice A n'est pas
diagonalisable ? Toute la suite du cours justiera la recette suivante.
la forme de la solution d'un système réel
λ1 , . . . , λ p
n = k1 + · · · + kn );
1. Trouver les valeurs propres réelles ou complexes et leurs multiplicités, mettons
dans le polynômes caractéristique
PA (x) = det(A − X.In )
2. Trouver les dimensions des sous espaces propres
(avec
de multiplicités
k1 , . . . , kp
1 ≤ si = dim ker(A − λi idE ) ≤ ki .
3. Séparer les valeurs propres réelles des valeurs propres complexes.
4. A une valeurs propre réelle, mettons
λq
on associe
t → eλq t Γq (t)
où
Γq (t)
est un polynôme réel de degré
kq − sq .
5. Chaque valeur propre complexe doit être associée la valeur propre complexe conjuguée (qui doit être aussi valeur
propre puisque le polynôme caractéristique est à coecients réels), mettons λq = aq + ibq et λq = aq − ibq , et à ce
t → (Γq cos bq t + ∆q sin bq t)eaq t où Γq et ∆q sont des polynômes réels de degré kq − sq .
couple on associe les fonctions
Ce faisant on introduit trop de constantes réelles !
6. On reporte dans le système initial la somme des fonctions génériques introduites dans 4) et 5), MAIS pour chaque
fonction inconnue, on introduit des constantes diérentes. (Comme on ne possède pas la matrice de passage de la
−1
base canonique à une base qui réduit l'endomorphisme, cela revient à prendre les coecients de la matrice P
TP
où
T
est la forme réduite de l'endomorphisme de manière quelconque, en ne retenant que l'idée que chaque élément
sera une combinaison linéaire des fonctions génériques de 4) et 5) et donc chaque fonction inconnue aussi). On en
introduit donc beaucoup trop ! On constate que le nombre de constantes introduites est bien
n
la dimension du
système, une fois toutes les équations du système vériées. La recette dit que cela marche sans expliquer pourquoi !
Il faut pour cela résoudre les systèmes linéaires obtenus (en identiant les coecients des fonctions génériques qui
forment un système libre dans l'espace vectoriel des fonctions réelles d'une variable réelle) et ramener le nombre de
constantes à
n.
7. On a obtenu la forme de la solution générale dépendant de
n constantes réelles, on y fait t = 0 et on extrait l'expression
n est grand, uniquement possible
de ces constantes en fonction des conditions initiales (cela peut-être redoutable si
numériquement et/ou de manière approchée !).
Dans la recette précédente,
rien n'est démontré,
on arme simplement que cela marche ! Il faudra sortir du cas
Cn sur Cn , dite réduction de Jordan, pour
diagonalisable et trouver une réduction générale d'un endomorphisme de
pouvoir justier cette recette. Il est remarquable que la recette conduise à des calculs souvent plus rapides que ceux
donnant la dite réduction sous forme de Jordan, mais sa justication théorique nécessite le célèbre résultat de Camille
n
Jordan. En fait la recette reste dans la base canonique de R , introduit beaucoup trop de constantes, puis en vériant le
−1
système à l'envers, calcule directement le produit P
T P qui donne la solution générale, et cela dans la base canonique
n
−1
de R , sans avoir besoin de calculer la matrice de passage P , ni T ni P
, ni la solution générale dans la nouvelle base,
ni le retour à l'ancienne base ! C'est pour cela que la recette est rapide et ecace. Pour la justier il faudra démonter
,−1
la formule A = P
T P avec T sous forme de Jordan (pensez à triangulaire supérieure avec des coecients non nuls
uniquement sur la diagonale et sur la diagonale juste au dessus), puis refaire le passage réels->complexes->réels comme
expliqué dans l'exemple 5 et ainsi éviter l'exemple 3 qui vous déroute tellement.
De plus on peut aussi sauter l'étape 2 et prendre les polynômes
Γq
et
∆q
de degré
kq − 1 ≥ kq − sq .
On introduit
alors encore d'autres constantes inutiles. Les systèmes linéaires obtenus, de taille plus grande, vont rendre nulles ces
constantes inutiles, ce qui embrouille souvent la compréhension de ce que l'on fait. C'est souvent la méthode présentée par
−1
les physiciens. Cela revient à utiliser P
T P avec T sous forme triangulaire supérieur, sans essayer à savoir si T peut être
n
mise sous une forme plus intrinsèque, décomposant R en sous espaces stables par A. Comme le comportement du système
diérentiel, localement et globalement est profondément lié à cette décomposition en sous espaces stables, décortiquer le
comportement du système diérentiel demande de comprendre la décomposition de Jordan. Cela revient à décomposer le
système en un certain nombre de sous-systèmes indépendants et analyser le comportement de chacun des sous-systèmes
possibles, ceux qui correspondent à la découverte de Jordan.
Exemple 6.








On veut résoudre le problème de Cauchy










 
x(t)
d 
y(t)  = 
dt
z(t) 
x(0)
 y(0)
z(0)

 
2 2 3
x(t)



0 2 −1   y(t)  



0
0
1
z(t)
 

.
x0




 =  y0 



z0

x(t)
Trouver t →  y(t)  définie sur [0, tmax [ à valeurs dans R3 , vérifiant




z(t)












2 2 3
2
On pose A =  0 2 −1 . Calculons le polynôme caractéristique PA (X) = (2 − X) (1 − X).
0 0 1
8
Recherchons donc les
fonctions inconnues comme combinaisons linéaires proposées par la recette



 x = e2t (at + b) + cet
y = e2t (dt + e) + f et

z = e2t (gt + h) + ket
d'où
dx
dt
= e2t (2at + 2b + a) + cet = 2x + 2y + 3z = (2at + 2b + 2dt + 2e + 3gt + 3h)e2t + (2c + 2f + 3k)et
dy
2t
t
2t
t
. La troisième équadt = e (2dt + 2e + d) + f e = 2y − z = (2dt + 2e − gt − h)e + (2f − k)e

dz
2t
t
2t
t
=
e
(2gt
+
2h
+
g)
+
ke
=
e
(gt
+
h)
+
ke
dt



 2g = g
 2d = 2d − g
 2a = 2a + 2d + 3g
2h + g = h la deuxième donne
2e + d = 2e − h et la première donne
2b + a = 2b + 2e + 3h d'où
tion donne



k=k
f = 2f − k
c = 2c + 2f + 3k
g = h = 0, (ces constantes sont nulles parce que le système initial était triangulaire supérieur, pas parce que l'on avait
sauté l'étape deux, qui donnerait ici le même nombre de constantes) puis f = k puis d = 0 , a = 2e et c = −5k et donc il reste



 x(t) = e2t (2et + b) − 5ket
 x0 = b − 5k
 x(t) = e2t (2(y0 − z0 )t + (x0 + 5z0 )) − 5z0 et
2t
t
y(t) = e (e) + ke
y0 = e + k d'où
y(t) = e2t (y0 − z0 ) + z0 et
et pour t = 0 on obtient



t
z(t) = ke
z0 = k
z(t) = z0 e
¡
¢ 
  2t

2t
x0
x(t)
e
2te2t ¢ −2e
+ 5e2t − 5e¢t
¡
¡ 2t
  y0  .
−te2t − e2t + et
Réponse :  y(t)  =  0
te + e2t
t
z(t)
z0
0
0
e
¡
¢ 
 2t
2t
+ 5e2t − 5e¢t
e
2te2t ¢ −2e
¡ 2t
¡
 vérie dR(t) = A.R et R(0) = I3 . Elle
R(t) =  0
te + e2t
−te2t − e2t + et
dt
t
0
0
e

La matrice
se nomme
résol-
vante du problème posé. Dicile de faire plus rapide pour l'obtenir en L2 ! La justication de cette procédure va prendre
toute la suite du cours
...
et nous faire passer par la triangulation, le théorème de Cayley Hamilton, l'arithmétique,
l'arithmétique des polynômes, l'algorithme d'Euclide, l'identité de Bezout, le théorème de décomposition des noyaux, les
noyaux itérés, les sous-espaces caractéristiques et la réduction de Jordan.
Quelle belle motivation pour ces sujets : pourquoi cette recette fonctionne-t-elle si miraculeusement ? Dans le cas
diagonalisable, nous l'avons compris. Sinon ?
Gardez en mémoire cette motivation, bien souvent elle donne l'intuition des résultats de la liste précédente ! N'hésitez
pas à me demander dans la suite du cours quelle est la relation avec la résolution des systèmes linéaires et ce que l'on fera.
9

Documents pareils