Résumé du cours

Transcription

Résumé du cours
Table des matières
Chapitre 1.
Produit scalaire et espaces préhilbertiens
3
1.
Dénitions
2.
Vecteurs orthogonaux
6
3.
Calculs dans une base orthogonale/orthonormée
6
4.
Orthogonalisation de Gram-Schmidt
7
5.
Projection orthogonale
6.
Distance à un sous-espace
7.
Bijection entre
Chapitre 2.
3
E
et
E∗
8
10
en dimension nie
Endomorphismes d'espaces euclidiens
10
11
1.
L'endomorphisme adjoint
11
2.
Endomorphismes orthogonaux, matrices orthogonales
12
3.
Théorème spectral : diagonalisation des endomorphismes et matrices symétriques
13
4.
Diagonalisation d'une forme quadratique dans une base orthonormée
14
5.
Endomorphismes positifs
14
6.
Décomposition polaire
15
7.
Symétrie par rapport à un sous-espace. Réexions.
15
8.
Transformations orthogonales en petite dimension
15
9.
Réduction des endomorphismes orthogonaux
16
Chapitre 3.
Espaces Hermitiens
Chapitre 4.
Géométrie ane
17
25
1.
Généralités
25
2.
Barycentres, combinaisons anes
25
3.
Sous-espace ane
27
4.
Applications anes
28
5.
Espaces anes euclidiens
29
1
Chapitre 1
Produit scalaire et espaces préhilbertiens
1. Dénitions
1.1. Le cas réel.
Définition 1.1. Soit E un R-espace vectoriel. Un produit scalaire dans E
h·, ·i : E × E → R qui est :
(l'image de x, y ∈ E sera notée hx, yi)
Symétrique : pour tous x, y ∈ E ,
hx, yi = hy, xi
est une application
∀ x, y ∈ E.
Linéaire à droite. Autrement dit, si on xe x ∈ E (l'argument de gauche), alors l'application
y 7→ hx, yi
est linéaire : pour tous
y, y 0 ∈ E
α ∈ R,
et
0
hx, y + αy i = hx, yi + αhx, y 0 i.
Dénie positive : pour tout x ∈ E , si x 6= 0 alors
hx, xi > 0.
On dénit la
norme associée au produit scalaire par :
kxk =
(pour
p
hx, xi
x ∈ E)
Example.
(i) Produit scalaire standard dans
hX, Y i = t XY =
n
X
Rn
xi yi ,
:
v
u n
uX
x2 .
kXk = t
i
1
1
(ii)
E = C([a, b], R),
Z
b
hf, gi =
f (t)g(t)dt.
a
Exercice 1.2. Montrer que ce sont des produit scalaire.
Remarque 1.3. Soit
h·, ·i
un produit scalaire sur un
R-e.v. E .
(i) Puisqu'il est linéaire à droite et symétrique,le produit scalaire est également linéaire à gauche.
bilinéaire (linéaire à droite et à gauche).
Si x = 0 alors hx, xi = 0. Ainsi, hx, xi ≥ 0 pour tout x ∈ E (nul ou non).
Ainsi, le produit scalaire est
(ii)
(iii) On a :
kx + yk2 = kxk2 + 2hx, yi + kyk2 ,
On observe que si
h·, ·i
kαxk2 = α2 kxk2
est un produit scalaire alors
x=0
⇐⇒
∀y hx, yi = 0
3
⇐⇒
kxk = 0.
Théorème 1.4 (Inégalité de Cauchy-Schwartz). Soit h·, ·i un produit scalaire sur un R-e.v., k·k
la norme associée. Alors |hx, yi| ≤ kxkkyk, et on a égalité si et seulement si x et y sont colinéaires.
Démonstration. Si
x = 0
: pas de problème. On suppose donc que
x 6= 0,
et on étudie
htx + y, tx + yi.
Corollaire 1.5. Soit h·, ·i un produit scalaire sur un R-e.v., k·k la norme associée. Alors k·k
vérie l'inégalité du triangle, et c'est bien une norme. Elle induit donc une distance euclidienne
dans E , dénie par d(x, y) = kx − yk.
Le produit scalaire est déterminé par la norme associée (identité de polarisation) :
hx, yi =
1.2. Le cas complexe.
1
kx + yk2 − kx − yk2 .
4
La même dénition ne marche pas pour un
x 6= 0
symétrique, linéaire à droite et dénie positive, on a pour
hx, xi > 0,
C-e.v.
En eet, si
h·, ·i
est
:
hix, ixi > 0,
hix, ixi = i2 hx, xi = −hx, xi,
ce qui est absurde.
Il faudra sacrier, ou plutôt modier, l'une des trois propriétés : symétrique sera remplacé
par une nouvelle notion : hermitien Définition 1.6. Soit
E
un
C-espace vectoriel. Un produit scalaire dans E
est une application
h·, ·i : E × E → C qui est :
x, y ∈ E sera notée hx, yi)
Hermitienne : pour tous x, y ∈ E ,
(l'image de
hx, yi = hy, xi.
Ici
hy, xi
a + ib = a − ib pour a, b ∈ R.
hx, xi ∈ R.
dit, si on xe x ∈ E (l'argument de gauche),
0
tous y, y ∈ E et α ∈ C,
est le conjugué complexe :
En particulier,
hx, xi = hx, xi,
Linéaire à droite. Autrement
y 7→ hx, yi
est linéaire : pour
d'où
hx, y + αy 0 i = hx, yi + αhx, y 0 i.
Dénie positive : pour tout
x ∈ E,
si
x 6= 0
alors
hx, xi > 0.
On dénit la
norme associée au produit scalaire par :
kxk =
(pour
p
hx, xi
x ∈ E)
Example. Le produit scalaire standard sur
Cn
est :
hX, Y i = t XY =
n
X
x i yi .
i=1
Exercice 1.7. Montrer que c'est un produit scalaire.
Remarque 1.8. Soit
h·, ·i
un produit scalaire sur un
4
C-e.v. E .
alors l'application
(i) Puisqu'il est linéaire à droite et hermitien,le produit scalaire est
semi-linéaire à gauche :
hx + αx0 , yi = hx, yi + αhx0 , yi.
sesquilinéaire (= une-fois-et-demi-linéaire).
Si x = 0 alors hx, xi = 0. Ainsi, hx, xi ≥ 0 pour tout x ∈ E (nul ou non).
Ainsi, le produit scalaire est
(ii)
(iii) On a :
kx + yk2 = kxk2 + 2< hx, yi + kyk2 ,
Théorème 1.9 (Inégalité de Cauchy-Schwartz).
R-e.v.
kαxk2 = |α|2 kxk2
Même énoncé pour les C-e.v. que pour les
Corollaire 1.10. Soit h·, ·i un produit scalaire sur un C-e.v., k·k la norme associée. Alors k·k
vérie l'inégalité du triangle, et c'est bien une norme.
On a
<hx, yi =
1
kx + yk2 − kx − yk2 .
4
Or
=hx, yi = <ihx, yi = <hyx, yi
D'où l'identité de polarisation pour les produits scalaires complexes :
hx, yi =
Désormais,
K
1
kx + yk2 − kx − yk2 + ikix + yk2 − ikix − yk2 .
4
est le corps réel
cas complexe en parallèle.
Définition 1.11. Un espace
{R, C}).
R
or le corps complexe
C.
Ainsi, on traitera du
préhilbertien est un K -e.v. E
On le notera par une paire
E, h·, ·i
ou par
E
cas réel et du
muni d'un produit scalaire (K
seul, considérant que la donnée de
∈
E
comprend la donnée du produit scalaire.
Un espace
Un espace
euclidien est un espace préhilbertien réel de dimension ni.
hermitien est un espace préhilbertien complexe de dimension ni.
On remarque que si
F
E
est un espace préhilbertien et
F ⊆ E est un sous-espace vectoriel,
E à F du produit scalaire.
alors
est lui aussi préhilbertien, une fois muni de la restriction de
Lemme 1.12 (Identité du parallélogramme). Soit E un espace préhilbertien. Alors la norme
associée au produit scalaire vérie l'identité du parallélogramme :
kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 .
Exercice 1.13. En déduire que la norme
kxk1 = |x1 | + |x2 |
sur
R2
(ou sur
C2 )
n'est pas
associée à un produit scalaire.
Remarque 1.14. La réciproque est vraie aussi, mais plus dicile à démontrer : toute norme
vériant l'identité du parallélogramme est associée à un produit scalaire (obtenu par la formule de
polarisation).
5
2. Vecteurs orthogonaux
Partout,
E
est un espace préhilbertien : un
K -e.v.
muni d'un produit scalaire, où
K =R
or
K = C.
Définition 1.15.
(ii) Si
(iii) Si
A⊆E
et
x ∈ E,
A, B ⊆ E ,
x⊥B
x⊥y
On observe que
on dit que
on dit que
ce qui revient à
Lemme 1.16.
(i) Deux vecteurs
ssi
A
x
est orthogonal à
pour tout
y ⊥ x,
A (x ⊥ A)
B (A ⊥ B )
si
si
x⊥y
x⊥y
pour tout
pour tout
y ∈ A.
x∈A
et
y ∈ B,
ssi
B ⊥ A.
On a
A⊥B
Définition 1.17. Soit
A
orthogonaux si hx, yi = 0, noté x ⊥ y.
x ∈ A.
A⊥B
et
sont
est orthogonal à
x⊥A
à
x, y ∈ E
⇐⇒ x ⊥ Vect(A)
⇐⇒ Vect(A) ⊥ Vect(B).
A ⊆ E . L'orthogonal de A est l'ensemble de vecteurs de E
orthogonaux
:
A⊥ = {x ∈ E : x ⊥ A} = {x ∈ E : ∀y ∈ A
Exercice 1.18.
(ii) Montrer que
(i) Montrer que
A⊥
⊥
(iii) Montrer que A
(iv) Montrer que
E.
Vect(A)⊥ .
Vect(A) ⊆ (A⊥ )⊥ .
Définition 1.19. Une famille de vecteurs de
famille sont deux à deux orthogonaux.
Une famille de vecteurs de
sont de norme
hx, yi = 0}.
A ⊥ A⊥ .
est un sous-espace vectoriel de
=
on a
E
est dite
E
est dite
orthogonale si les vecteurs de cette
orthonormée si elle est orthogonales et tous ses vecteurs
1.
D'une famille orthogonale
orthonormée en normalisant :
(e1 , e2 , ...)
e0i = keeii k .
sans vecteurs nuls on peut facilement passer à une famille
On verra que tout espace préhilbertien
de dimension nie
C'est faux en dimension innie : l'espace des fonctions continues
admet une base orthonormée.
C([a, b], R)
n'admet pas de base
orthogonale au sens algébrique.
Toute famille orthogonale sans vecteur nul est libre.
Toute famille orthonormée est libre.
Lemme 1.20.
Rn ou Cn (muni, sauf mention contraire, du produit scalaire standard) hx, yi =
standard (e1 , e2 , . . .) est orthonormée.
Example. Dans
P
x i yi ,
R 2π
0
la base
Exemple. 1. Dans l'espace des fonctions continues C([0, 2π], R) avec le produit scalaire hf, gi =
f (t)g(t)dt la famille (1, cos nx, sin nx)n≥1 est orthogonale et la famille ( √12π , √1π cos nx, √1π sin nx)n≥1
est orthonormée.
3. Calculs dans une base orthogonale/orthonormée
P
Soit (e1 , ..., en ) une base orthogonale, et x =
xi e i ∈ E .
On a le Théorème de Pythagore :
kxk2 =
X
6
|xi |2 kei k2 .
Plus généralement, si
y=
P
yi ei
on a :
hx, yi =
(Si
K = R,
ceci revient à
En développant
P
hei , xi,
xi yi kei k2 ,
X
xi yi kei k2 .
sans la conjugaison complexe.)
on obtient :
xi =
hei , xi
,
kei k2
que l'on peut substituer dans les formules précédentes, par exemple :
kxk2 =
Dans le cas ou la base est
X
|xi |2 kei k2 =
X |hei , xi|2
kei k2
orthonormée, ces formules prennent une forme plus simple :
xi = hei , xi,
X
kxk2 =
|xi |2 ,
X
hx, yi =
xi yi .
Autrement dit, dans une base orthonormée, un produit scalaire revient au produit scalaire
standard.
4. Orthogonalisation de Gram-Schmidt
Lemme 1.21.
Soit (u1 , . . . , uk ) une famille orthogonale dans E et v ∈ E . Nous posons :
u=v−
k
X
hui , vi
i=1
kui k2
ui .
Alors
(i)
(ii)
(iii)
u ⊥ u1 , . . . , uk
Vect(u1 , . . . , uk , v) = Vect(u1 , . . . , uk , u).
u = 0 ssi v ∈ Vect(u1 , . . . , uk ).
Théorème 1.22 (Orthogonalisation de Gram-Schmidt).
E . On construit une suite de vecteurs u1 , . . . , um par :
Soit (v1 , ..., vm ) une famille libre dans
u1 = v1
uk+1 = vk+1 −
k
X
hui , vk+1 i
i=1
(i)
(ii)
kui k2
ui .
La famille (u1 , . . . , um ) ainsi construite est une base orthogonale pour Vect(v1 , . . . , vm ).
Si on pose ei = kuuii k , alors (e1 , . . . , em ) est une base orthonormée pour Vect(v1 , . . . , vm ).
Variante : on peut normaliser
ei =
uk+1
ui
kui k pendant la construction et utiliser la formule
k
X
= vk+1 −
hei , vk+1 iei .
i=1
Bien que cette formule semble plus simple, le vecteurs normalisés
compliquée et le plus souvent on n'y gagne rien.
7
ei
auront souvent une forme plus
Si la famille
Pour chaque
peut enlever
vk
vk
(v1 , . . . , vm ) n'est pas libre, on peut toujours appliquer le procédé de Gram-Schmidt.
qui est engendré par les vecteurs qui lui précèdent, on aura uk = 0. Dans ce cas on
de la famille et continuer avec le vecteur suivant.
Tout espace préhilbertien de dimension nie (= espace euclidien ou hermitien) admet un base orthonormée.
Corollaire 1.23.
5. Projection orthogonale
p : E → E est un projecteur si p(x) = x
p ◦ p = p (on écrira plutôt : p2 = p).
surcroît on a img p ⊥ ker p.
Définition 1.24. Une application linéaire
x ∈ img p.
Autrement dit,
C'est un
p
pour tout
est un projecteur si
projecteur orthogonal si de
Soit p : E → E un projecteur. Alors E = img p ⊕ ker p.
D'ailleurs, si x = x1 + x2 ∈ E avec x1 ∈ img p et x2 ∈ ker p, alors p(x) = x1 . Ainsi, si on
connaît img p et ker p, on connaît p.
Lemme 1.25.
x ∈ img p ∩ ker p alors x = p(x) = 0.
x ∈ E on pose x1 = p(x) ∈ img E et x2 = x − x1 .
d'où E = img p ⊕ ker p.
Pour la deuxième partie : on a p(x) = x1 .
Démonstration. Si
Et pour
Alors
p(x2 ) = 0,
donc
x2 ∈ ker p,
Soit p : E → E un projecteur orthogonal. Alors ker p = (img p)⊥ .
Ainsi, si on connaît img p alors on connaît p.
Lemme 1.26.
ker p ⊆ (img p)⊥ . Réciproquement,
x1 ∈ img x et x2 ∈ ker p. Donc x ⊥ x1 , d'où :
Démonstration. Par dénition
p(x), x2 = x − p(x).
Alors
soit
x ∈ (img p)⊥ , x1 =
0 = hx, x1 i = hx2 , x1 i + kx1 k2 = kx1 k2
x1 = 0
Donc
et
x = x2 ∈ ker p.
Définition 1.27. Soit
F ⊆E
un s.e.v. L'unique projecteur orthogonal d'image
existe, sera noté pF . Il s'appelle le projecteur orthogonal sur F .
F,
si un tel
Si p est un projecteur alors p0 = idE −p l'est aussi, et ker p = img p0 , img p = ker p0 .
Si p est un projecteur orthogonal alors p0 l'est aussi.
Lemme 1.28.
Question. Soit
Si
img p0
F ⊆E
un s.e.v. Le projecteur orthogonal
pF existe on a F = img pF , ker pF = F ⊥ ,
= ker pF = F ⊥ , i.e. p0 = pF ⊥ :
d'où
pF
existe-t-il ?
E = F ⊕ F ⊥.
Si on pose
p0 = idE −pF
alors
idE = pF + pF ⊥ .
On obtient :
(F ⊥ )⊥ = ker pF ⊥ = img(idE −pF ⊥ ) = img pF = F.
Exercice 1.29. Montrer les réciproques : si
alors
pF
existe. Si
F =
(F ⊥ )⊥ , alors
E=F⊕
E = F ⊕ F⊥
(comment pourrait-ce être faux ?)
F ⊥.
Si dim F < ∞ le projecteur orthogonal sur F existe. Plus précisément, si B =
(e1 , . . . , en ) est une base orthogonale de F alors pour tout x ∈ E :
Lemme 1.30.
pF (x) =
n
X
hei , xi
i=1
8
kei k2
ei .
Si c'est une base orthonormée :
pF (x) =
n
X
hei , xiei .
i=1
Démonstration. Posons, pour une base orthogonale
p(x) =
n
X
(e1 , . . . , en )
F
de
:
hei , xi
ei .
kei k2
i=1
img p ⊆ F par construction, et
si x ∈ F alors p(x) = x par une formule vue plus tôt. D'où : img p = F et p est un projecteur.
Finalement, si p(x) = 0 on obtient x ⊥ e1 , . . . , en . Donc ker p ⊥ F = img p, et p est bien un
projecteur orthogonal d'image F : c'est bien pF .
Alors : C'est linéaire car le produit scalaire est linéaire à droite.
Lemme 1.31. Soit F ⊆ E un s.e.v. et p = pF le projecteur orthogonal sur F . Soit x ∈ E . Alors
y = pF (x) est l'unique vecteur de F tel que x − y ⊥ F .
On remarque que
x−y ⊥F
⇐⇒
∀ z ∈ F : hx − y, zi = 0
Lien avec Gram-Schmidt : soit
Fk = Vect(v1 , . . . , vk ).
(v1 , ..., vn )
⇐⇒
∀ z ∈ F : hx, zi = hy, zi.
E.
une famille libre dans
Pour
k = 1...n
ponsons
Alors
u1 = v1
uk = vk − PFk−1 (vk ) = PF ⊥ (vk )
k−1
Example.
E=
R3 muni du produit scalaire canonique.
v1 = (1, 1, 0),
Calculer explicitement
√
v2 = (1, 0, 1/ 2),
F = Vect(v1 , v2 )
PF (e1 ) = PF (1, 0, 0).
On applique Gram-Schmidt pour obtenir une base orthogonale de
u1 = (1, 1, 0),
u2 =
1 1 1
,− , √
2 2 2
F
:
,
Alors :
he1 , u2 i
1
1
he1 , u1 i
u1 +
u2 = u1 + u2 =
PF (e1 ) =
2
2
ku1 k
2
2
ku2
Example.
E = R3
Calculer explicitement
√
F = (x, y, z) : x − y − 2z = 0 .
PF (e1 ).
⊥
Autrement dit, F
= Vect(w).
F
PF (e1 ) + PF ⊥ (e1 ) = id(e1 ) = e1
observons que
F = w⊥ = Vect(w)⊥
Alors,
he1 , wi
1
PF ⊥ (e1 ) =
}w = w =
2
kwk
4
Or, puisque
3 1 1
, , √
4 4 2 2
muni du produit scalaire canonique,
Au lieu de trouver une base orthonormée pour
√
w = (1, −1, − 2).
1 1
1
,− ,− √
4 4 2 2
.
:
PF (e1 ) = e1 − PF ⊥ (e1 ) =
Au fait dans les deux exemples c'est le même
9
F
3 1 1
, , √
4 4 2 2
donnée de deux manières diérentes.
où
6. Distance à un sous-espace
Lemme 1.32. Soit F est un sous-espace de dimension nie et x ∈ E . Le point y = PF (x) est le
point de F le plus proche de x. En d'autres termes, c'est un minimum global strict de la fonction
z 7→ kx − zk sur F .
En particulier, d(x, F ) = d(x, PF (x)) = kPF ⊥ (x)k.
z ∈ F , z 6= y .
> kx − yk2 .
Démonstration. En eet, soit
kx −
zk2
= kx −
yk2
+ ky −
zk2
7. Bijection entre
Définition 1.33. Soit
ϕ : E → K.
dual de E .
E
un
K -e.v.
E
Une
y−z ∈ F
d'où
x−y ⊥ y−z
et E ∗ en dimension nie
forme linéaire sur E est une
application linéaire
E∗,
ϕx (y) = hx, yi.
et l'application x 7→ ϕx est un isomorphisme d'espaces vectoriels entre E et E ∗ .
Démonstration. C'est facilement linéaire, de noyau nul. On pourrait montrer que
dim E ∗
appelé le
Soit E un espace euclidien. Pour chaque x ∈ E dénissons
ϕx : E → R,
E∗,
et
L'ensemble de toutes les formes linéaires forme un espace vectoriel noté
Théorème 1.34.
Alors ϕx ∈
Alors
et déduire que
x 7→ ϕx
dim E =
est surjective, mais on préfère donner une construction plus explicite,
qui est d'ailleurs proche de l'argument que l'on utiliserait (sous des hypothèses supplémentaires) en
dimension innie.
ϕ ∈ E ∗ . Si ϕ = 0 alors ϕ = ϕ0 et c'est bon. Supposons donc que ϕ =
6 0 et posons
F = ker ϕ. Alors dim img ϕ = 1 d'où dim F = dim E − 1. Or en dimension nie on a E = F ⊕ F ⊥ ,
⊥ = 1. Choisissons x ∈ F ⊥ non nul, et posons
donc dim F
0
ϕ(x0 )
x0
x=
kx0 k2
Soit
ϕ = ϕ x0 .
y2 = αx0 .
Alors
En eet, si
y ∈ E,
on décompose
ϕx0 (y) = ϕx0 (y2 ) =
y = y1 + y2
avec
y1 ∈ F
et
y2 ∈ F ⊥ ,
si bien que
ϕ(x0 )hx0 , αx0 i
= ϕ(αx0 ) = ϕ(y2 ) = ϕ(y).
kx0 k2
Remarque 1.35. Pour
ϕ ∈ E∗
on dénit sa norme par :
kϕk = sup |ϕ(y)|
y:kyk≤1
Alors la bijection donnée polus haut préserve la norme :
kϕx k = kxk.
Remarque 1.36. Cas complexe : la seule diérence est que
ϕx + αϕx0
10
x 7→ ϕx
est semi-linéaire :
ϕx+αx0 =
Chapitre 2
Endomorphismes d'espaces euclidiens
1. L'endomorphisme adjoint
Soit
E
un espace euclidien (K
endomorphismes de E
= R)
(ou hermitien (K
Pour un endomorphisme
f
nous allons s'intéresser aux
(x, y) 7→ hx, f (y)i,
Définition 2.1. Soit
tel que pour tout
= C) et soit End(E) l'espace
E → E ).
deux applications E × E → K :
des
(c'est-à-dire, des applications linéaires
x, y ∈ E
f ∈ End(E).
(x, y) 7→ hf (x), yi
On appelle
adjoint de f
un endomorphisme
f ∗ ∈ End(E)
:
hf ∗ x, yi = hx, f yi.
Fixons-nous une base orthonormée
B = (e1 , . . . , en ).
Si
X
et
Y
sont les coordonnées de
x
et
y
dans cette base, on a déjà observé que :
hx, yi = t XY
Si
A = MatB f ,
on obtient :
hx, f (y)i = t XAY
hf (x), yi = t AXY = t X t AY.
(i) Pour tout f ∈ End(E), il existe un unique endomorphisme adjoint
f ∗.
Si B est une base orthonormée, f ∗ est l'unique endomorphisme tel que MatB (f ∗ ) = t MatB (f ).
Proposition 2.2.
(ii)
Lemme 2.3.
(i)
L'application f → f ∗ est semi-linéaire (linéaire si K = R) :
(f + g)∗ = f ∗ + g ∗ ,
(ii)
On a
(f g)∗ = g ∗ f ∗ ,
(iii)
(αf )∗ = αf ∗ .
(f ∗ )∗ = f.
Si f est inversible, f ∗ l'est aussi et
(f ∗ )−1 = (f −1 )∗ .
Définition 2.4. Un endomorphisme
f
est dit
auto-adjoint si f
= f ∗.
Si
K = R, f
est auto-
adjoint si et seulement si sa matrice dans un base orthonormée est symétrique. Ainsi, un tel
s'appelle parfois
symétrique
Example. Toute projection orthogonale
PF
vérie
PF = PF2 = PF∗ .
f
Elle est en particulier
auto-adjointe.
En eet, si
⊥ alors
de F
(e1 , . . . , em )
est une base orthonormée de
F
et
(em+1 , . . . , en )
une base orthonormée
B = (e1 , . . . , en )
A = A2 = t A
est une base orthonormée de
d'où le résultat.
11
E
et
A = MatB PF =
Im 0
.
0 0
Ainsi,
f ∈ End(E)
trouver F ?
Exercice 2.5. La réciproque est vraie aussi : si
égal à
PF
pour un certain s.e.v.
F ⊆ E.
Comment
vérie
f = f∗ = f2
alors
f
est
2. Endomorphismes orthogonaux, matrices orthogonales
−1 = f ∗ .
Définition 2.6. Un endomorphisme f ∈ End(E) est dit orthogonal si f
−1
t
Une matrice O ∈ Mn (R) est dites orthogonale si O
= O.
Un endomorphisme
f
est orthogonal ssi sa matrice dans une (toute) base orthonormée est
orthogonale.
Lemme 2.7. Soit O ∈ Mn (R) une matrice orthogonale. Alors toutes les valeurs propres (complexes) de O sont de module 1.
Ainsi, le déterminant de O est de module 1.
−1 = t U (une telle matrice est appelée unitaire). Alors
Lemme 2.8. Soit U ∈ Mn (C) tel que U
toutes les valeurs propres de U sont de module 1.
Ainsi, le déterminant de U est de module 1.
Démonstration. Supposons que
P
|xi |2 > 0.
X ∈ Cn \ {0}, U X = λX ,
et posons
kXk2 = t XX =
Alors :
kXk2 = t XX = t X(t U U )X = t (U X)U X = (λ̄t X)(λX) = λλ̄kXk2 ,
d'où
|λ|2 = λλ̄ = 1.
Si f, g sont des endomorphismes orthogonaux alors
et f g le sont aussi.
En particulier, l'ensemble des endomorphismes orthogonaux, noté O(E), est un groupe.
Pareil pour les matrices. Le groupe des matrices orthogonales est On (R) = {A ∈ Mn (R) : t AA =
Id}.
Proposition 2.10. Pour f ∈ End(E), les propriétés suivantes sont équivalentes.
(i) f est orthogonal.
(ii) f est isométrique : kf xk = kxk pour tout x.
(iii) f préserve le produit scalaire : hf x, f yi = hx, yi pour tout x, y .
(iv) f transforme toute base orthonormée en base orthonormée.
(v) f transforme une base orthonormée en base orthonormée.
f −1
Proposition 2.9.
Démonstration.
(i)
=⇒
(ii).
kf xk2 = hf x, f xi = hx, f ∗ f xi = hx, f −1 f xi = hx, xi = kxk2 .
=⇒ (iii). Puisque le produit scalaire est détermine par la norme (identité de polarisation).
=⇒ (iv). Soit B = (e1 , . . . , en ) une base orthonormée. Alors hf ei , f ej i = hei , ej i = δij =
(
1 i=j
(le delta de Kronecker). Donc, (f e1 , . . . , f en ) est aussi une famille orthonormée. Elle est
0 i 6= j
donc libre, de taille n = dim E , c'est donc une base.
(iv) =⇒ (v). Clair.
(v) =⇒ (i). Soit B = (e1 , . . . , en ) une base orthonormée telle que (f e1 , . . . , f en ) est aussi une
Pn
∗
base orthonormée, et montrons que f f x = x pour tout x. En eet on a x =
Pn
Pn i=1 hx, ei iei d'où
fPx = i=1 hx, ei if ei . Puisque (f e1 , . . . , f en ) est une base orthonormée : f x = i=1 hf x, f ei if ei =
n
∗
∗
i=1 hf f x, ei if ei . Il en découle que hx, ei i = hf f x, ei i pour tout i = 1, . . . , n. Par conséquent :
(ii)
(iii)
x=
n
X
i=1
∗
Donc f
=
hx, ei iei =
n
X
hf ∗ f x, ei iei = f ∗ f x.
i=1
f −1 .
12
Soit B = (e1 , . . . , en ) une base orthonormée, B0 = (e01 , . . . , e0n ) une base quelconque,
P la matrice de passage. Alors P est orthogonale ssi B 0 est orthonormée.
Lemme 2.11.
Démonstration. Soit
Alors
P
f
l'endomorphisme qui envoie
est une matrice orthogonale ssi
f
B
à
B0 ,
de sorte que
P = MB (f ).
B 0 est une
est un endomorphisme orthogonal ssi
base
orthonormée.
Lemme 2.12. Une matrice A ∈ Mn (R) est orthogonale ssi ses colonnes (lignes) forment une
base orthonormée de Rn par rapport au produit scalaire standard.
3. Théorème spectral : diagonalisation des endomorphismes et matrices symétriques
L'orthogonal d'un sous-espace stable par f est stable par f ∗ . C'est à dire
que si F ⊆ E est un s.e.v. tel que f (F ) ⊆ F alors f ∗ (F ⊥ ) ⊆ F ⊥ .
ker f ∗ = (im f )⊥ et im f ∗ = (ker f ∗ )⊥ .
Lemme 2.13.
(ii)
(i)
Si f est symétrique, alors ker f = (im f )⊥ , et E = ker f ⊕ im f . De plus,
l'orthogonal d'un sous-espace stable par f est stable par f , i.e., si f (F ) ⊆ F alors f (F ⊥ ) ⊆ F ⊥ .
Corollaire 2.14.
Lemme 2.15.
Soit f un endomorphisme auto-adjoint. Alors f admet une valeur propre réelle.
Lemme 2.16.
Soit A ∈ Mn (R) symétrique. Alors toutes les valeurs propres (complexes) de A
sont réelles.
Soit A ∈ Mn (C) telle que t A = A (une telle matrice est dite hermitienne). Alors
toutes les valeurs propres de A sont réelles.
Lemme 2.17.
Théorème 2.18 (Théorème spectral, 1ère formulation). Soit f un endomorphisme auto-adjoint.
Alors f est diagonalisable dans une base orthonormée. Autrement dit, il existe une base orthonormée
qui consiste en des vecteurs propres de f .
λ, avec vecteur
propre e1 que l'on peut supposer normalisé : ke1 k = 1. Puisque f e1 = λe1 , l'espace Vect(e1 ) est stable
∗
⊥
par f . Puisque f = f , l'orthogonal F := e1 = Vect(e1 ) est lui aussi stable par f . Ainsi, f se restreint
en un endomorphisme g = f F : F → F , qui est lui aussi auto-adjoint. Or, dim F = dim E − 1,
et par l'hypothèse de récurrence F admet une base orthonormée (e2 , . . . , en ) qui consiste en des
vecteurs propres de g , qui sont aussi des vecteurs propres de f . On conclut que (e1 , e2 , . . . , en ) est
une base orthonormée de E qui consiste en des vecteurs propres de f .
Démonstration. L'endomorphisme
f
admets au moins une valeur propre réelle
Corollaire 2.19 (Théorème spectral, 2ème formulation). Soit f un endomorphisme autoadjoint. Soit (λ1 , . . . , λk ) les valeurs propres de f , et soit Ei = ker(f − λi Id) le sous-espace propre
correspondant à λi . Alors
(i) Les sous-espaces propres de f sont deux à deux orthogonaux, i.e., Ei ⊥ Ej pour i 6= j . En
plus, E1 ⊕ E2 ⊕ . . . ⊕ Ek = E .
Pk
(ii) Décomposition spectrale : f =
i=1 λi PEi .
Exercice 2.20. Montrer directement, sans passer par le théorème spectral, que si
est auto-adjoint et
alors
v, w ∈ E
f ∈ End(E)
sont des vecteurs propres correspondant à des valeurs propres distinctes,
v ⊥ w.
Corollaire 2.21. Soit A ∈ Mn (R) une matrice symétrique. Alors A est diagonalisable par une
matrice orthogonale : il existe une matrice orthogonale O telle que O−1 AO = t OAO est diagonale.
On observe que la réciproque est vrai également : si
A
est symétrique.
13
O
est orthogonale et
t OAO est diagonale,
Soient f1 , f2 , . . . ∈ End(E) des endomorphismes auto-adjoints qui en plus
fi fj = fj fi pour tout i, j . Alors ils sont simultanément diagonalisables
dans une base orthonormée. Autrement dit, il existe une base orthonormée B dans laquelle toutes
les matrices MB (fi ) sont diagonales, i.e., les membres de B sont des vecteurs propres de chacun des
fi .
Une famille de matrices symétriques qui commutent entre elles sont simultanément diagonalisables par une matrice orthogonale.
Théorème 2.22.
commutent entre eux :
Démonstration. On démontre pour le cas de deux endomorphismes auto-adjoints
f g = gf . Soit λ une
pour tout x ∈ Eλ on a :
que
valeur propre de
f
et
Eλ ⊆ E
f, g
tels
le sous-espace propre correspondant. Alors
f (gx) = g(f x) = g(λx) = λ(gx),
gx ∈ Eλ . Ainsi Eλ est stable par g . D'après le théorème spectral appliqué à la restriction de g
Eλ , l'espace propre Eλ admet une base Bλ orthonormée qui consiste en des vecteurs propres de g .
Posons B = Bλ1 ∪ . . . ∪ Bλk où λ1 , . . . , λk sont toutes les valeurs propres de f . Puisque les espaces
Eλi sont deux-à-deux orthogonaux, B est une famille orthonormée. Puisque E = Eλ1 ⊕ . . . ⊕ Eλk ,
B est une base. Et nalement, les membres de B sont des vecteurs propres de f et de g à la fois.
Le cas général de m endomorphismes auto-adjoints qui commutent entre eux se démontre de la
même manière, par récurrence.
i.e.,
à
4. Diagonalisation d'une forme quadratique dans une base orthonormée
Soit q une forme quadratique sur un espace euclidien E . Soit B une
f ∈ End(E) tel que MatB f = MatB q . Alors f = f ∗ et q(x) = hx, f xi.
base orthonormée, et soit
Proposition 2.23 (Réduction aux axes principaux). Pour toute forme quadratique q il existe
une une base orthonorméePdans laquelle la matrice de q est diagonale et q est une combinaison
linéaire de carrés : q(x) = n1 ai x2i . Les coecients ai sont les valeurs propres de l'endomorphisme
auto-adjoint f associé (q(x) = hx, f (x)i).
On peut reformuler ce résultat comme la
tiques : la forme q
et le produit scalaire
diagonalisation simultanée de deux formes quadra-
hx, xi.
5. Endomorphismes positifs
Si
f
est un endomorphisme symétrique, la forme bilinéaire
coïncide avec
hf x, yi).
On l'appelle la
Un endomorphisme symétrique
associée
hx, f yi
positive
t XAX
est symétrique (et
est positive (respectivement, dénie positive). Une matrice symétrique
(respectivement,
>0
f
ϕf = hx, f yi
forme bilinéaire associée à f .
est dit positif (respectivement, déni positif)
pour tout
X
dénie positive)
si
t XAX
≥ 0
pour tout
X ∈ Rn
si la forme
A
est dite
(respectivement,
non-nul).
Le théorème spectral montre qu'un endomorphisme symétrique est positif (respectivement, déni
positive) si et seulement si toutes ses valeurs propres sont positives (respectivement, strictement
positives).
Soit f un
Pendomorphisme positif,
P √ Πi le
λi Πi .
projecteur spectral associé à la valeur propre λi , i = 1, ..., k. On a f = λi Πi . Posons g =
2 = f . On montre facilement qu'une telle racine carré positive
Alors
g
est
symétrique
positif
et
g
√
f = g est unique (en considérant la décomposition spectrale de g ).
Corollaire 2.24 (Racine carré d'une matrice positive).
14
6. Décomposition polaire
Théorème. Soit f un endomorphisme inversible. Il existe un unique endomorphisme orthogonal
U
et un unique endomorphisme déni positif
que
√
Construction : On pose S = f ∗ f ; S
U
∗
est orthogonal : U U
=
S
tels que
f = U S.
est déni positif. On dénit
S −1 f ∗ f S −1
=
S −1 S 2 S −1
U
par
U = f S −1
et on vérie
= Id.
7. Symétrie par rapport à un sous-espace. Réexions.
E = F ⊕ F⊥
⊥
et x2 ∈ F . La
F un sous-espace de E
écrit x = x1 + x2 avec x1 ∈ F
sF (x) = x1 − x2 .
Soit
et
la décomposition orthogonale. Pour
symétrie
sF
par rapport à
F
x ∈ E
on
est dénie par
On a :
sF = PF − PF ⊥ = id −2PF ⊥ = 2PF − id
s∗F = sF
s2F = id .
Autrement dit, une symétrie
sF
est orthogonale et auto-adjointe.
Exercice 2.25. Réciproquement, tout endomorphisme
gonal (i.e., tel que
f = f∗
et
f 2 = id)
f
qui est à la fois auto-adjoint et ortho-
est une symétrie. Comment trouver l'espace
F
à partir de
f?
Une symétrie par rapport à un hyperplan s'appelle
vecteur unitaire orthogonal à
Plus généralement, si
z
F,
réexion.
Si F est un hyperplan
F s'écrit sF (x) = x − 2hx, eie.
z.
F = z ⊥ alors sF (x) = x − 2 hx,zi
kzk2
et
e
le
la réexion par rapport au
est un vecteur quelconque et
Matrice d'une réexion :
Idn−1
−1
Le déterminant d'une réexion est donc toujours
−1.
Soit f ∈ End(E) orthogonal, r = rg(f −Id). Alors f s'exprime comme produit
d'au plus r réexions. En particulier, f s'exprime comme produit d'au plus n = dim E réexions.
Théorème 2.26.
Démonstration. Par récurrence sur
r0 < r
r.
r. Si r = 0 : f = Id est la composition de
f 6= Id, et il existe y tel que f y 6= y . Soit z = f y − y 6= 0 et F = z ⊥ . Alors :
kzk2 = 2kyk2 − 2hy, f yi.
hx,zi
Pour tout x : sF (x) = x − 2
z = x − kyk2hx,zi
z.
kzk2
−hy,f yi
D'où sF (y) = f (y) et sF (z) = −z .
Si f x = x alors x ⊥ z et sF (x) = x.
On applique l'hypothèse de récurrence à sF f .
Supposons que c'est vrai pour
et montrons pour
zéro réexions. Sinon,
8. Transformations orthogonales en petite dimension
Dimension 1. U x = x ou U x = −x.
Dimension 2. a) dét
U > 0 : U estune rotation.
Sa matrice est
b) dét
U=
U <0:U
cos t − sin t
sin t cos t
.
est une réexion.
15
U=
Sa matrice est
.
cos t sin t
sin t − cos t
Dimension 3. a) dét U
b) dét
U <0
:
U
>0:U
.
est une rotation autour d'un axe.
est une réexion composée avec une rotation autour de l'axe orthogonal au
plan de réexion.
Remarquer qu'il y a (au moins) une valeur propre réelle.
9. Réduction des endomorphismes orthogonaux
Soit A ∈ Mn (R) quelconque. Il existe un sous espace F ⊆ Rn , 1 ≤ dim F ≤ 2,
qui est stable par A.
Lemme 2.27.
A admet une valeur propre réelle λ, il existe X ∈ Rn \ {0} tel que
AX = λX , donc F = Vect(X) est stable par A, de dimension 1.
n
Sinon, soit λ ∈ C \ R une valeur propre, et soit X ∈ C un vecteur propre, AX = λX , d'où
AX = λ̄X . Puisque λ 6= λ̄, X et X ne sont pas colinéaire, on peu donc poser Y = X +X ∈ Rn \{0}.
2
2
2
An a AY = λX + λ̄X et A Y = λ X + λ̄ X = (λ + λ̄)AY − λλ̄Y , où λ + λ̄, λλ̄ ∈ R. Donc
F = Vect(Y, AY ) ⊆ Rn est stable par A.
Démonstration. Si
Soit U un endomorphisme orthogonal.
Si le sous-espace F est stable par U , alors F ⊥ est stable par U .
Toute valeur propre de U est de module 1.
E se décompose en somme orthogonale des sous-espaces stables par U de dimension 1 ou 2.
Proposition 2.28.
(i)
(ii)
(iii)
(i) On a U (F ) ⊆ F et puisque U est inversible, dim U (F ) = dim F , d'où
F = U (F ). Ainsi, F est stable par U −1 , i.e., par U ∗ . Maintenant, si x ∈ F ⊥ et y ∈ F alors
U ∗ y ∈ F et hU x, yi = hx, U ∗ yi = 0, donc U x ∈ F ⊥ également.
Démonstration.
(ii) Déjà vu.
(iii) D'après le Lemme précédent,
par
U
et
dim F ≤ 2.
Puisque
E admet un sous-espace vectoriel F ⊆ E , tel que F est stable
F ⊥ est aussi stable par E on peut procéder par récurrence.
16
Chapitre 3
Espaces Hermitiens
1. Formes hermitiennes.
.
La théorie des formes et espaces hermitiens est parallèle à celle des formes bilinéaires symétriques
et des epaces euclidiens.
1.1. Dénition. Soit E un espace vectoriel sur C.
Une forme hermitienne sur E est une application h : E × E → C , vériant :
1.
2.
h
h
est linéaire à droite :
h(x, αy + βz) = αh(x, y) + βh(x, z),
h(αx + βy, z) = αh(x, z) + βh(y, z).
h(y, x) = h(x, y) pour tous x, y ∈ E .
est semi-linéaire à gauche :
3. Symétrie hermitienne :
(Noter que 2. est la conséquence de 1. et 3.)
.
forme quadratique associée
qh (x) = h(x, x). Noter que qh est à valeurs réelles.
Pour une forme hermitienne
h
on dénit la
qh : E → R
:
La forme hermitienne est déterminée par la forme quadratique associée :
1
h(x, y) = [qh (x + y) − qh (x − y) + iqh (x − iy) − iqh (x + iy)]
4
"identité de polarisation").
(
.
L'ensemble de toutes les formes hermitiennes est un espace vectoriel sur
des formes hermitiennes et
a1 , ...ak
des scalaires réels,
a1 ϕ1 + ... + ak ϕk
R
: si
h1 , ..., hk
sont
est une forme hermitienne.
.
Exemples. 1. Si f
et
g
sont deux formes
C-linéaires, ϕ(x, y) = f (x)g(y) + g(x)f (y) est une forme
hermitienne.
E l'espace des matrices k × n sur C ; alors h(A, B) = tr(t ĀB) est une forme hermitienne.
Rb
Soit E = C([a, b], C) l'espace des fonctions continues sur [a, b]. Alors ϕ(f, g) =
a f (t)g(t)dt
2. Soit
3.
est une forme hermitienne.
.
1.2. Expression en coordonnées. OnP
suppose que dim E = n < ∞.
P
B = (e1 , ...,P
en ) une base de E , xP
= n1 xi ei , y = n1 yi ei .
n
n
Alors h(x, y) =
i,j=1 xi yj (ei , ej ) =
i,j=1 aij xi yj où aij = h(ei , ej ).
La matrice A = (aij ) = (h(ei , ej )) est la matrice de la forme hermitienne h dans la base B .
Cette matrice est hermitienne : aij = aji , ou t A = A. La forme quadratique associée s'écrit :
P
qh (x) = ni,j=1 aij xi xj .
t
Soit X la colonne des composantes du vecteur x : X = (x1 , ..., xn ). Alors on peut écrire h à
Soit
l'aide de la multiplication matricielle :
h(x, y) = t XAY
.
1.3. Changement de base (changement linéaire de coordonnées).
17
B 0 = (e01 , ..., e0n ) une autre base de E , soit X 0 et Y 0 les colonnes des coordonnées des vecteurs
x et y dans la base B 0 .
0
0
0
On a X = P X et Y = P Y , où P est la matrice de passage de B à B . Alors h(x, y) = t XAY =
t X 0t P AP Y 0 = t X 0 A0 Y 0 où
A0 = t P AP
Soit
h
est la matrice de la forme
dans la base
B0 .
.
1.4. Equivalence des formes. Deux formes hermitiennes h et h0 dénies dans E et E 0
0
0
dites équivalentes si il existe un isomorphisme f : E → E tel que h(x, y) = h (f (x), f (y)).
< ∞, les formes h et h0 sont équivalentes si leurs matrices A et B sont liées par
P inversible (autrement dit, si on peut trouver deux bases dans lequelles h et h0
Si dim(E)
B=
sont
t P AP avec
ont la même matrice).
.
1.5.
On appelle
rang d'une forme hermitienne le rang de sa matrice (il ne dépend pas du choix
non-dégénérée si son rang est égal à la dimension de E .
de la base). On dit que la forme est
Le
noyau de h est déni par
Ker
h = {x ∈ E : ∀y ∈ E, h(x, y) = 0}.
h) = dim (E ).
On a : rang (h) + dim (Ker
.
1.6.
Soit
base est dite
h
une forme hermitienne. Les vecteurs
x
et
y
orthogonaux si h(x, y) = 0. Une
sont
orthogonale si ses vecteurs sont deux à deuxPorthogonaux.
n
1 ai xi yi , avec
ai ∈ R et la matrice de
h est diagonale.
La forme quadratique associée devient alors une combinaison linéaire de carrés :
P
q(x) = n1 ai |xi |2 .
Le rang de h (ou de q ) est le nombre de coecients ai non-nuls. Le noyau de h est engendré par
les vecteurs de base ei pour lesquels ai = 0 (ai réels).
Dans une base orthogonale la forme s'écrit
h(x, y) =
.
1.7. Orthogonalisation de Gauss (réduction en carrés).
L'orthogonalisation de Gauss permet de fabriquer une base orthogonale pour la forme quadratique hermitienne
qh (x) =
Pn
i,j=1 aij xi xj par des changements de coordonnées successives.
La méthode est la même que pour les formes bilinéaires symétriques.
Résultat : toute forme hermitienne admet une base orthogonale.
.
1.8. Classication des formes hermitiennes. Signature
Soit
q
une forme quadratique hermitienne. Dans une base orthogonale, si on regroupe les coefs'écrit :
Pqr+s
2
i=r+1 ai |xi |
cients positifs et négatifs,
q(x) =
Pr
2
i=1 ai |xi | −
avec
ai > 0, i = 1, ..., k
et
r+s
est le rang de
q.
.
Théorème (loi d'inertie de Sylvester).
négatifs) sont indépendants du choix de la base
.
Le couple
(r, s)
s'appelle
Les entiers r et s
q−orthogonale.
(le nombre de carrés positif et
signature de la forme hermitienne.
.
Corollaire.
Deux formes hermitiennes sont équivalentes si et seulement si elles ont la même
signature.
.
1.9.
si
q est dite positive si q(x) ≥ 0 pour tout x ∈ E (donc,
dénie positive si q(x) > 0 pour tout x non-nul (donc, si r = dim(E )).
La forme quadratique hermitienne
s = 0) ;
elle est dite
18
.
A
X 6= 0.
En termes matriciels,
t XAX
>0
pour tout
Remarque :
et seulement si
est positive si t XAX
pour toute matrice
C
C
la matrice
≥ 0
pour tout
A = t CC
X; A
est dénie positive si
est positive ; t CC est dénie positive si
est inversible.
.
1.10. Orthogonalisation
de Gauss pour les formes dénie positives.
P
n
i,j=1 aij xi xj est dénie positive, on a
q(x) =
Si
aii > 0
pour tout
i.
Donc dans l'algorithme
de Gauss la matrice de changement de variables est à chaque étape triangulaire (supérieure) ; la
P vers la base orthonormale dans laquelle q est la somme des carrés est donc
−1 . On a A = t CC .
triangulaire supérieure et t P AP = In . Soit C = P
matrice de passage
Théorème de factorisation triangulaire (Gauss-Cholesky).
Pour toute matrice
A
hermitienne dénie positive il existe une unique matrice
supérieure à diagonale positive telle que
A=
C
triangulaire
t CC .
.
2. Espaces Hermitiens.
2.1. Soit E un C-espace vectoriel. Un produit scalaire sur E est une forme hermitienne dénie
positive, noté
La
< ., . >.
norme
kxk2 =< x, x >.
| < x, y > | ≤ kxkkyk
associée est dénie par
L'inégalité de Cauchy-Schwartz
entraine l'inégalité du triangle
kx + yk ≤
kxk + kyk.
La distance
d
dans
E
est dénie par
d(x, y) = kx − yk.
Le produit scalaire est déterminé par la norme associée ("identité de polarisation").
Un
tien.
C-espace
Exemples :
vectoriel de dimension nie muni d'un produit scalaire s'appelle
1. Produit scalaire canonique dans
:
< x, y >=
kxk2 = 1 |xi |2 .
Rb
E = C([a, b], C), < f, g >= a f (t)g(t)dt.
par le "théorème de Pythagore" :
2.
Cn
Pn
Pn
1
x i yi ;
espace hermi-
la norme est donnée
.
2.2. Deux vecteurs x et y sont orthogonaux si < x, y >= 0.
Sous-espace orthogonale. Soit A ⊂ E ; l'orthogonal de A est l'ensemble de vecteurs de E
A:
A⊥ = {x ∈ E : ∀y ∈ A on a < x, y >= 0}.
⊥
Il est claire que A est un sous-espace vectoriel de E .
Deux sous-espaces E1 et E2 sont orthogonaux si tout vecteur de E1 est orthogonal à tout
⊥
⊥
vecteur de E2 . Ceci est équivalent à dire que E2 ⊂ E1 ou que E1 ⊂ E2 . Il est évident dans ce cas
T
que E1
E2 = {0}.
orthogonaux à tous les vecteurs de
.
Famille orthogonale.
Une famille de vecteurs de
E
est dite
orthogonale
si les vecteurs de
cette famille sont deux à deux orthogonaux.
Une famille de vecteurs de
E
est dite
orthonormale si elle est orthogonales et tous ses vecteurs
sont de norme 1.
Lemme.
Une famille orthogonale sans vecteurs nuls est libre.
(e1 , ..., en , ...)
ei : e0i = keeii k .
D'une famille orthogonale
en normalisant les vecteurs
.
on peut facilement passer à une famille orthonormale
Exemple. 1. Dans l'espace des fonctions continues C([0, 2π], C) avec le produit scalaire < f, g >=
1
2π
R 2π
0
f (t)g(t)dt
la famille
(eint )n∈Z
est orthonormale.
19
.
2.3. Coordonnées dans une base orthonormale.P
n
Soit (e1 , ..., en ) une base orthonormale , soit x =
1 xi ei ,
P
Pn
y
=
1 yi e i .
Pn
n
2
2
=< ei , x >.
1 xi yi , kxk =
1 |xi | ("théorème de Pythagore") et xi P
Coordonnées
dans
une
base
orthogonale
:
< x, y >= n1 < ei , ei > xi yi
P
<ei ,x>
kxk2 = n1 < ei , ei > |xi |2 et xi = <e
.
i ,ei >
Alors
< x, y >=
.
2.4. Orthogonalisation de Gram-Schmidt.
Soit
(v1 , ..., vn , ...) une famille libre dans E . On peut construire une famille orthonormale e1 , ..., en , ...
V ect(v1 , ..., vk ) = V ect(e1 , ..., ek ) pour tout k ≥ 1. (Autrement dit, ek est une combinaison
de v1 , ..., vk .)
telle que
linéaire
.
La construction est la même que pour un produit scalaire euclidien.
.
Corollaire. Tout espace hermitien admet une base orthonormale. Toute famille orthonormale
dans un espace hermitien peut être complétée en une base orthonormale.
.
2.5. Projection orthogonale.
Soit
E
un espace muni du produit scalaire et
Motivation
. On sait que F
L
E=F
T
F ⊥ = {0}.
F ⊂E
un sous-espace.
Supposons que
F⊥
est un supplémentaire de
F,
donc
F ⊥ , somme directe orthogonale. (Ceci est toujours vrai en dimension nie.)
F , noté PF , est par dénition le projecteur sur F parallèlement à
x ∈ E on décompose x = x1 + x2 avec x1 ∈ F et x2 ∈ F ⊥ ; alors, par dénition, PF (x) = x1 ,
composante "orthogonale" de x dans F .
⊥ est P
Noter que le projecteur orthogonal sur F
F ⊥ = Id − PF .
Le projecteur othogonal sur
F ⊥ . Si
la
.
Dénition. Soit F
⊂ E un sous-espace de dimension nie.
(e1 , ..., en ) une base orthonormale
Pn de F .
On dénit PF : E → E par PF (x) =
1 < ei , x > ei . Alors on a
Lemme. PF est un projecteur sur F parallèlement à F ⊥ .
⊥ est
Corollaire.
Si F est un sous-espace de dimension nie, F
L ⊥
⊥
⊥
E=F
F , somme directe orthogonale. On a aussi (F ) = F .
Soit
un supplémentaire de
F
:
.
Projection orthogonale dans une base quelconque.
y = PF (x) est caractérisé par les conditions
y ∈ F et < z, y >=< z, x > pour tout vecteur z de F .
Soit (e1 , ..., en ) une base de F . La dernière condition est donc équivalente à < ej , y >=< ej , x >,
j = 1, ..., n.
Pn
Posons PF (x) =
1 yi ei . pour déterminer les coecients yi on doit résoudre le système :
Pn
y
<
e
,
e
>=<
ei , x >, j = 1, ..., n.
j
i
j
j=1
La matrice de ce système G = (< ei , ej >) s'appelle matrice de Gram. Soit (ẽ1 , ..., ẽn ) une base
P
orthonormale et ej =
i aij ẽi , donc
aij = (< ei , ẽj >). Soit A = (aij ), alors G = t AA. En particulier, G est dénie positive et dét
G=|dét A|2 .
Le vecteur
.
2.6. Projection othogonale et meilleure approximation en moyenne quadratique.
Distance à un sous-espace.
20
Lemme.
Soit
F
x ∈ E . Alors la projection PF (x)
kx − PF (x)k = min {kx − zk, z ∈ F }.
est un sous-espace de dimension nie et
réalise la distance minimale entre
x
et les vecteurs de
F
:
.
Exemple. Meilleure approximation en moyenne quadratique par des polynômes
trigonométriques.
P
Un polynôme trigonométrique de dégré
C([0, 2π]) une fonction continue. On cherche
R 2π
2
l'écart
0 |f (t) − p(t)| dt soit minimal.
≤ n
est la somme
p(t) =
on polynôme trigonométrique
n
ikt
k=−n ak e . Soit
p
de degré
≤n
f ∈
tel que
C([0, 2π]) sur le sous-espace des poR 2π
1
lynômes trigonométriques de dégré ≤ n ; le produit scalaire est < f, g >=
2π 0 f (t)g(t)dt. On
int )
a la famille orthogonale : (e
n∈Z . On en déduit les coecients du polynôme p(t) de meilleure
R
2π
1
−ikt
approximation : ak =
f (t)dt.
2π 0 e
La réponse est donnée par la projection orthogonal dans
.
2.7. Inégalité de Bessel et égalité de Bessel-Parseval.
Soit
Soit
E un espace hermitien, soit (e1 , ..., en ) une
P famille orthonormale.
x ∈ E et xi =< ei , x >. Il est claire que ni=1 |xi |2 ≤ kxk2 .
.
Lemme.
Soit x ∈ E . Les propriétés suivantes sont équivalentes :
P
n
|xi |2 = kxk2 .
i=1P
n
(ii) x =
i=1 xi ei .
(i)
(iii)
x appartient à l'espace vectoriel engendré par (e1 , ..., en ) (donc x est une cobinaison linéaire
e1 , ..., en ).
des vecteurs
.
Soit maintenant dim(E)
= ∞.
Théorème. Soit (e1 ,P
..., en , ...) une famille orthonormale innie, x ∈ E
n
2
2
A. Pour tout
n
on a
i=1 |xi | ≤ kxk
P
et
xi =< ei , x >.
∞
2
i=1 |xi | converge.
et la série
B. P
Les propriétés suivantes sont équivalentes :
∞
2
2
i=1 |xi | = kxk
Pn .
(ii) x = limn→∞
i=1 xi ei .
(i)
(iii)
x
appartient à l'adhérence de l'espace vectoriel engendré par la suite
(e1 , ..., en , ...).
.
Egalité de Bessel-Parseval dans une "base" orthogonale.
Si
(e1 , ..., en , ...)
est une famille orthogonale et
engendré par la suite
kxk2 =
.
(e1 , ..., en , ...),
x
appartient à l'adhérence de l'espace vectoriel
alors
<ei ,x>2
i=1 <ei ,ei > .
P∞
3. Formes hermitiennes et endomorphismes.
3.1. Proposition. Soit E un espace hermitien et f un endomorphisme de E . Il existe l'unique
f ∗ tel que
< x, f (y) >=< f ∗ (x), y >.
endomorphisme
Dénition. L'endomorphisme f ∗ tel que < x, f (y) >=< f ∗ (x), y > s'appelle l'adjoint de f .
La matrice de
Mf ∗ =
Dénition.
phisme
f∗
dans une base orthonormale est la transposée hermitienne de la matrice de
tM .
f
f
L'endomorphisme
f
est dit
auto-adjoint
ou
hermitien
si
f∗ = f.
f
L'endomor-
est hermitien si et seulement si sa matrice dans une base orthonormale est hermitienne.
.
Exemple. Une projection orthogonale est auto-adjoint.
.
21
:
3.2. Propriétés de l'adjoint.
(f −1 )∗
f → f∗
L'application
est linéaire ;
(f ∗ )∗ = f , (f g)∗ = g ∗ f ∗
et
(f ∗ )−1 .
=
Lemme. (1) L'orthogonal d'un sous-espace stable par f
(2) Ker
f∗
= (Im
f )⊥
et Im
f∗
=( Ker
est stable par
f ∗.
f )⊥ .
.
Corollaire. Si f
f
et Im
f.
est auto-adjoint, alors Ker
f
= (Im
L'orthogonal d'un sous-espace stable par
f
f )⊥
et
E
est la somme orthogonale de Ker
est stable par
f.
.
3.3. Diagonalisation des matrices hermitiennes.
Proposition. Soit f un endomorphisme auto-adjoint. Alors
(i) Toutes les valeurs propres de
(ii) Les sous-espaces propres de
(iii)
f
f sont réelles.
f sont deux à deux
.
3.4. Un endomorphisme hermitien f
associée
orthogonaux.
est diagonalisable dans une base orthonormale.
h(x, y) =< x, f (y) >
est dit
positif (respectivement, déni positif) si la forme
est positive (respectivement, déni positive).
La proposition précédente montre que'un endomorphisme hermitien est positif (respectivement,
déni positive) si et seulement si toutes ses valeurs propres sont positives (respectivement, stictement
positives).
Une matrice hermitienne
pour tout
X∈
A
est dit
positive
Rn (respectivement, t XAX
>0
(respectivement,
pour tout
X
déni positive)
si t XAX
≥0
non-nul).
.
Exemple : racine carré d'une matrice positive. Soit f
spectral associé à la valeur propre
est hermitien positif et
g2 = f .
λi , i = 1, ..., k .
On a
√i le projecteur
PΠ
λi √
Πi . Alors g
positive
f = g est
un endomorphisme positif,
f=
P
λ i Πi .
Posons
g=
On montre facilement qu'une telle racine carré
unique.
.
3.5. Diagonalisation d'une forme hermitienne dans une base orthonormale.
Soit q une forme quadratique hermitienne et soit f un endomorphisme auto-adjoint tel que
q(x) =< x, f (x) >. On a vu que dans une base orthonormale q et f ont la même matrice. Donc
dans une base orthonormale de vecteurs propres de f la matrice de q est diagonale et q est une
combinaison linéaire de carrés.
Proposition. "Réduction aux axes principaux". Pour toute forme quadratique hermitienne q il
existe une une base orthonormale dans laquelle la matrice de
linéaire de carrés :
auto-adjoint
f
q(x) =
Pn
associé (q(x)
2
1 ai |xi | . Les coecients
=< x, f (x) >).
On peut reformuler ce résultat comme la
tiques : la forme q
et le produit scalaire
.
4.1. Soit E
sont les valeurs propres de l'endomorphisme
diagonalisation simultanée de deux formes quadra-
< x, x >.
4. Transformations unitaires.
un espace hermitien.
U de E
< U x, U y >=< x, y >
Un endomorphisme
scalaire :
ai
q est diagonale et q est une combinaison
est
unitaire
pour tout
(est une isométrie linéaire) si
x, y ∈ E .
.
Proposition. Les propriétés suivantes sont équivalentes.
U est unitaire.
(ii) U préserve la norme : kU xk = kxk pour tout x ∈ E .
(iii) U transforme toute base orthonormale en base orthonormale.
(i)
22
U
préserve le produit
(iv)
U
transforme une base orthonormale en base orthonormale.
Un endomorphisme unitaire est injectif, donc inversible
(dim
E < ∞ !).
Son inverse est aussi unitaire.
.
si
4.2. L'égalité < U x, U y >=< x, y > s'écrit aussi
< U ∗ U x, y >=< x, y > ce qui est équivalent à U ∗ U = In . Donc U
U ∗ U = In , ou encore ssi U −1 = U ∗ .
Une
matrice unitaire
Une matrice unitaire
de
A
est orthogonal si et seulement
est la matrice d'un endomorphisme unitaire dans une base orthonormale.
est caractérisée par la relation t U U = U t U = In qui signie que les colonnes
U
(aussi que ses lignes) constituent une base orthonormale par rapport au produit scalaire
canonique dans
C n.
.
4.3. Transformations unitaires et diagonalisation d'une forme hermitienne dans une base orthonormale.
A
Soit
la matrice d'une forme quadratique hermitienne
q
dans une base
B;
soit
P
la matrice de
0
0
0
passage de B à une autre base B . Alors la matrice de la forme q dans la base B est A = t P AP .
−1
0
0
t
et on a A = t P AP =
Si les deux bases B et B sont orthonormales, P est unitaire : P = P
P −1 AP .
Donc la matrice d'une forme se transforme comme la matrice d'un endomorphisme si le
changement de coordonnées est unitaire. Cela montre encore une fois que la diagonalisation d'une
forme quadratique par une transformation unitaire demande la recherche des valeurs et des vecteurs
propres de
A.
.
.
4.4. Réduction des endomorphismes unitaires.
Proposition. Soit U un endomorphisme unitaire.
(i) Si le sous-espace
F
est stable par
(ii) Toute valeur propre de
(iii)
U
U
U,
alors
F⊥
est stable par
U.
est de module 1.
est diagonalisable dans une base orthonormale.
Transformations unitaires en petite dimension.
Dimension 1. U x = αx où |α| = 1.
Dimension 2.
Toute matrice
unitaire
peut s'écrire sous la forme suivante :
U=α
.
a −b̄
b ā
où
|α| = 1
et
|a|2 + |b|2 = 1.
4.5. Décompositon polaire.
Théorème. Soit A ∈ M atn (C) une matrice inversible. Il existe l'unique matrice unitaire U
l'unique matrice hermitienne dénie positive
S
telles que
et
A = U S.
.
4.6. Décomposition unitaire-triangulaire.
Théorème. Soit A ∈ M atn (C) une matrice inversible. Il existe l'unique matrice unitaire U
l'unique matrice triangulaire supérieure
T
avec une diagonale positive telles que
A = UT.
.
La décomposition unitaire-triangulaire est liée à l'orthogonalisation de Gram-Schmidt.
23
et
Chapitre 4
Géométrie ane
1. Généralités
Définition 4.1. Soit
Un
E
qui associe au couple de points
(i) Pour tout
(ii) Pour tous
La
R-espace
un
espace ane dirigé par E
O∈E
dimension de E
A, B ∈ E
l'application
A, B, C ∈ E
vectoriel de dimension nie.
est un ensemble non-vide
on a la
un vecteur
−→
A 7→ OA
−−→
AB ,
E
muni d'une application
et qui vérie
E sur E .
−→ −−→ −−→
relation de Chasles : AC = AB + BC .
est par dénition celle de
est une bijection de
E.
Exercice 4.2. La relation de Chasles a pour conséquence immédiate :
Example. L'espace vectoriel
E
: pour deux vecteurs
Fixons
O∈E
u
et
v
E
admet une
on pose
−→ →
−−→
−−→
−
AA = 0 et BA = −AB .
structure canonique d'espace ane dirigé par
−
→ = v − u.
uv
que l'on appellera origine, et posons
bijection qui identie la structure ane de
−−→ −→ −−→
v(B) − v(A) = OB − OA = AB
E ×E →E
E
−→
v(A) = OA.
Alors
avec la structure ane canonique
v : E → E est une
−−−−−−→
de E : v(A)v(B) =
- conséquence de la relation de Chasles. Le choix d'origine donc
"vectorialise" l'espace ane. Réciproquement, on peut dire qu'un espace ane est un espace vectoriel
avec l'origine (zéro) oubliée .
v ∈ E . Pour A ∈ E on dénit Tv (A) ∈ E
appelle Tv la translation par v .
Définition 4.3 (Translation). Soit
l'unique point tel que
Lorsque
la notation
−−−−−→
A Tv (A) = v .
On
comme étant
E = E (avec la structure ane canonique) on a Tv (u) = v + u. Par analogie, on adopte
−−→
−−→
: Tv (a) = A + v . Dans cette notation B = A + AB (et v = AB est l'unique tel que
B = A + v ).
On a :
T0 = Id et Tv+u = Tv Tu . Il en suit que Tv : E → E est une bijection, avec Tv−1 = T−v . (On
dit alors que le groupe additif (E, +) agit sur l'espace ane E .)
Lemme 4.4.
(i)
(ii)
−−→
Pour A, B ∈ E , il existe un unique vecteur v ∈ E tel que Tv (A) = B (c'est v = AB ).
E est équivalente à la donnée de l'action
Tv , v ∈ E , vériant les propriétés du lemme.
Remarque 4.5. La donnée de la structure ane sur
de
E
sur
E
- la donnée d'une famille de "translations"
2. Barycentres, combinaisons anes
Commençons avec un exemple :
Soit v ∈ E et A ∈ E . La droite ane passant par A dirigée par v est l'ensemble de points
M = A + λv , λ ∈ R. La droite ane passant par deux points A et B est dirigée par le vecteur
−−→
−−→
v = AB ; ses points sont M = A + λAB , λ ∈ R.
25
−−→
−−→
−→
−−→
O. Alors M = A + λAB si et seulement si OM = OA + λAB =
−→
−−→
(1 − λ)OA + λOB . Autrement dit, la droite ane passant par A et B consiste en tous les points
−−→
−→
−−→
M tels que OM = µOA + λOB avec λ + µ = 1. On appelle M le barycentre des points A et B
aectés de poids µ et λ.
P
Lemme 4.6. Soit A1 , ..., Ak des points aectés des poids λ1 , ..., λk , tels que
i λi 6= 0. Soit aussi
O ∈ E un point quelconque (une origine ). Les propriétés suivantes sont équivalentes pour un
point M ∈ E :
P −−−→
(i)
i λi M Ai = 0.
P
−−→ P −−→
(ii) (
i λi )OM =
i λi OAi .
−−→ P1 P −−→
(iii) OM =
i λi OAi .
i λi
−−→
1 P
(iv) M = O + P
i λi OAi . En particulier, un unique M ayant ces propriétés existe.
λi
Choisissons une "origine"
i
De surcroît, un unique tel point M existe toujours.
Démonstration.
X
(i)
⇐⇒
−−→
λi OAi −
!
X
i
(ii)
⇐⇒
(iii)
(ii). Puisque
λi
−−→ X −−→ −−→ X −−−→
OM =
λi OAi − OM =
λi M Ai = 0.
i
⇐⇒
i
i
(iv). Clair.
M déni dans le lemme s'appelle le barycentre des points A1 , ..., Ak
aectés des coecients λ1 , ..., λk . On notera M = Bar{(λi , Ai )}.
P
P
Si M = Bar{(λi , Ai )} et
i λ i Ai .
i λi = 1, on écrit aussi M =
P
P
−−→ P −−→
En d'autres mots, M =
λi = 1 et OM = i λi OAi (et ceci quel
i λi Ai si et seulement si
que soit O ).
1 P
Si E = E , le barycentre v des vecteurs u1 , ..., uk aectés des poids λ1 , ..., λk est v = P
i λi ui .
i λi
P
P
En particulier, si
i λi ui . (Comparer avec la notation pour le barycentre :
i λi = 1, alors v =
P
M = i λi Ai .)
Vu que v est une combinaison linéaire des vecteurs ui , on peut appeler le barycentre combinaison ane des points Ai .
Définition 4.7. Le point
repère ane de E la donnée de nP+ 1 points
n
B ∈ E s'exprime d'une manière unique comme B =
0 xi Ai (où
(x0 , . . . , xn ) les coordonnées barycentriques de B dans ce repère.
Définition 4.8 (Repère ane). On appelle
(A0 , . . . , An )
P
n
0 xi = 1 !).
tels que chaque
On appelle
Cette dénition est symétrique, dans le sens qu'une permutation d'un repère est un repère.
−−−→
A0 un rôle particulier et posant ei = A0 Ai . On a donc B =
−−→ Pn −−−→ Pn −−−→
0 xi Ai si et seulement si A0 B =
0 x i A0 Ai =
1 xi A0 Ai . Ainsi, (A0 , . . . , A
Pnn) est un repère si
et seulement si chaque vecteur v ∈ E s'exprime d'une manière unique comme
1 xi ei . Autrement
Brisons cette symétrie en donnant à
Pn
dit :
Lemme 4.9. Une famille de n + 1 vecteurs (A0 , . . . , An ) est un repère ane si et seulement si
(e1 , . . . , en ) est une base de E . En particulier, n = dim E .
Définition 4.10. Les
coordonnées anes d'un point B dans le repère (A0 , . . . , An ) sont par
dénition les coordonnées du vecteur
−−→
A0 B
dans la base
26
(e1 , . . . , en ).
(A0 , . . . , An ) sont (x0 , x1 , . . . , xn ) si
Pn
−−→
et seulement si (x1 , . . . , xn ) sont les coordonnées de A0 B dans la base (e1 , . . . , en ) et x0 = 1−
1 xi .
Le lien : les coordonnées barycentriques de
B
dans un repère
La propriété suivante de "l'associativité du barycentre" est très utile.
λi,j Ai,j , où
Pour chaque i = 1, . . . , k soit Bi = m
Pk
P
P
P j=1
C = i=1 µi Bi , où
µi = 1. Alors i,j µi λi,j = 1, et C = i,j µi λi,j Ai,j .
P
Proposition 4.11.
Démonstration. On a
X
−−−−→
λi,j Bi Ai,j = 0,
X
P
j
λi,j = 1. Soit
−−→
µi CBi = 0.
i
j
Ainsi
!
0=
X
µi
i
X
λi,j
X
−−→ X X
−−−−→ X
−−→ −−−−→
−−−→
CBi +
µi
λi,j Bi Ai,j =
µi λi,j (CBi + Bi Ai,j ) =
µi λi,j CAi,j .
i
i
j
i,j
i,j
3. Sous-espace ane
Définition 4.12. Une partie non vide
tout
A, B ∈ F , F
F
de l'espace ane
E
est un
sous-espace ane si pour
contient la droite passant par ces deux points.
Les conditions suivantes sont équivalentes pour une partie F ⊆ E :
F est un sous-espace ane de E .
Lemme 4.13.
(i)
(ii)
(iii)
(iv)
−−→
Pour tout O ∈ F l'ensemble F = {OM , M ∈ F} est un sous-espace vectoriel de E . Dans ce
cas, F ne dépend du choix de O, si bien que F est à son tour un espace ane dirigé par F .
On a F = {O + v, v ∈ F } où F est un sous-espace vectoriel de E et O un point de F .
Si A1 , ..., Ak ∈ F alors tout barycentre des points A1 , ..., Ak est dans F . (Toute combinaison
ane des points de F est dans F .)
droite est un sous-espace ane de dimension 1.
hyperplan est un sous-espace ane de codimension 1 (de dimension dim E − 1).
Une
Un
Lemme 4.14.
L'intersection d'une famille de sous-espaces anes de E et un sous-espace ane
si cette intersection est non vide.
Soit
F
un sous-espace ane dirigé par
donc un repère ane de
F
et tout point
B
F
de
; soit
F
O ∈ F
et
(v1 , ..., vk )
B =O+
Rk .
(s1 , ..., sk ) ∈
Soit (x1 , ..., xn ) un système de coordonnées anes
point O et (a1i ..., ani ) les coordonnées du vecteur vi .
Pk
Pk
i=1 si vi sont xj = cj +
i=1 aji si , j = 1, ..., n.
dans
E.
Soit
F.
Pk
une base de
admet l'expression unique :
(c1 , ..., cn )
On a
i=1 si vi ,
les coordonnées du
Alors les coordonnées du point
B = O+
Position relative de deux sous-espaces
(i) Soit F et G deux sous-espaces de E d'intersection non-vide. Alors F ∩ G
est dirigé par F ∩ G.
Si F + G = E alors F ∩ G est non vide.
Si les sous-espaces vectoriels F et G sont supplémentaires (E = F ⊕ G), alors F ∩ G est un
seul point.
Lemme 4.15.
(ii)
(iii)
Définition 4.16. On dit que deux sous-espaces
G ⊂ F.
Dans ce cas que soit
F
et
G
F
et
G
de
E
sont
parallèles
sont disjoints, soit l'un contient l'autre.
27
si
F ⊂ G
ou
Soit
S⊂E
Sous-espace ane engendré par une partie.
une partie non-vide. Le sous-espace ane engendré par
section de tous les sous-espaces anes qui contiennent
Lemme 4.17.
(i)
points de S .
noté A(S ), est l'inter-
A(S ) est l'ensemble de toutes les combinaisons anes (barycentres) des
−→
Soit O ∈ S et soit F le sous-espace vectoriel de E engendré par les vecteurs OA, A ∈ S .
Alors l'espace directeur de A(S) est F : A(S) = {O + v, v ∈ F }.
(A0 , ..., An ) est un repère ane si et seulement si n = dim E et A(A0 , ..., An ) = E .
(ii)
(iii)
4. Applications anes
Une application f : E → F est ane si f (λA + µB) = λf (A) + µf (B) pour
Définition 4.18.
tout
S,
S.
A, B ∈ E
et tout
λ, µ
tels que
λ + µ = 1.
Les conditions suivantes sont équivalentes pour une application f : E → F :
f est une application ane.
Lemme 4.19.
(i)
−−→
−−−−−−→
Il existe un point A ∈ E tel que l'application h : E → F déni par h(AB) = f (A)f (B) ou,
−−−−−−−−−→
avec une autre notation, h(v) = f (A)f (A + v) est linéaire.
Il existe une application linéaire que l'on notera df : E → F telle que pour tout point A on
ait f (A + v) = f (A) + df (v).
f préserve les barycentres et les combinaisons anes :
(ii)
(iii)
(iv)
X
f (Bar{(λi , Ai )}) = Bar{(λi , f (Ai ))}
lorsque
αi 6= 0
X
X
X
λ i Ai =
f
λi f (Ai )
lorsque
αi = 1
f : E → F une application ane. La partie linéaire de f , notée df ,
df : E → F telle que f (A + v) = f (A) + df (v). Ceci est équivalent à :
−−−−−−→
−−→
df (AB) = f (A)f (B), d'où l'unicité de la partie linéaire de f .
Définition 4.20. Soit
est l'application ane
On peut dire qu'une application ane est une application linéaire plus une constante.
4.1. Écriture en coordonnées.
0
Fixons les repères anes R = (A0 ; e1 , ..., en ) dans E et R =
0
0
(B0 ; e1 , ..., ek ) dans F .
Soit (x1 , ..., xn ) les coordonnées du point M dans R et (y1 , ..., yk ) les coordonnées de f (M ) dans
R0 .
Pn
Alors yi = ci +
j=1 aij xj , où (aij ) est la matrice de la diérentielle df dans les bases des repères
0
R, R et (c1 , ..., ck ) les coordonnées du point f (A0 ) .
c+
Fonction
ane f : E → R.
P
Dans un système de coordonnées anes
f
s'écrit
f (x1 , ..., xn ) =
i ai xi .
.
La
Im(f ).
formule du rang
Alors dim (E)
pour les applications linéaires s'adapte aux applications anes : Soit
=dim (Imf )+
dim (f
Soit f : E → F une application ane. Alors
Si E1 un sous-espace ane de E alors f (E1 ) est un sous-espace ane de F .
Si F1 un sous-espace ane de F et f −1 (F1 ) est non-vide, alors, f −1 (F1 ) est un sous-espace
ane de E .
Lemme 4.21.
(i)
(ii)
B∈
−1 (B)).
28
Equation d'un hyperplan : tout hyperplan est déni par une équation ane
P
i ai xi
= c.
.
"Combinaison ane" des applications anes.
Soit
fi : E → F ,Pi = 1, ..., k des applications
anes et λ1 + ... + λk = 1.
P
f = i λi fi par f (A) = i λi fi (A) (barycentre).
On dénit
Exercice :
anes
dénir une structure de l'espace ane dans l'ensemble de toutes les applications
f : E → F.
Applications anes de
dans E . Transformations anes.
E
.
Les propriérés d'une application ane
f
sont déterminées par les propriétés de sa diérentielle
df .
Si df n'admet pas de vecteur xe non-nul (i.e., si 1 n'est pas une
valeur propre de df ), alors f admet un unique point xe.
Si df admet des vecteurs xes non-nuls (i.e., si 1 est une valeur propre de df ), alors l'ensemble
des points xes de f est soit vide soit un sous-espace ane dirigé par {v ∈ E : df (v) = v}
(l'espace propre correspondant à 1).
Proposition 4.22.
(ii)
Si
f
(i)
admet un point xe
donc, en vectorialisant
Définition 4.23.
E
f
en
est une
Proposition 4.24.
(ii)
O et on prend O = f (O) pour origine, f s'écrit f (O + v) = O + df (v)
O, on identie f avec l'application linéaire df .
(i)
homothétie de centre O et de rapport k si f (O) = O et df
:
= kId.
f : E → E est une translation si et seulement si df = Id.
Si df = kId avec k 6= 1, alors f est une homothétie.
Projections et symétries anes.
associé, et soit
G
Soit
un sous-espace vectoriel de
F
E
E , F l'espace
E = F ⊕ G.
un sous-espace ane de
supplémentaire à
F
:
vectoriel
.
si
Soit Π : E → E
v ∈ G.
le projecteur vectoriel sur
Définition 4.25. Soit
−→
p(A) = O + Π(OA).
O ∈ F.
La
F
parallèlement à
G : Π(v) = v
projection ane p sur F
si
v∈F
parallèlement à
G
et
Π(v) = 0
est dénie par
(i) La projection ane sur F parallèlement à G ne dépend par du choix du
point O. Ainsi, elle vérie p(A) = A pour tout A ∈ F et dp = Π, et son image est F .
Soit f une transformation ane de E . Alors f est un projecteur ane si et seulement si
f 2 = f . Dans ce case c'est le projecteur ane sur F = f (E), parallèlement à ker df .
Lemme 4.26.
(ii)
Soit σ : E → E la
σ(v) = −v si v ∈ G.
symétrie vectorielle par rapport à
F
parallèlement à
2.7. Dénition. La symétrie ane s par rapport à F
G : σ(v) = v
parallèlement à
−−→
conditions s(O) = O si O ∈ F et ds = σ ; donc p(M ) = O + σ(OM ).
Lemme. s est une symétrie ane si et seulement si f · f = Id.
Définition 4.27. Un
vectoriel euclidien
5. Espaces anes euclidiens
espace ane euclidien est un espace
E.
On dénit la distance dans
E
par
−−→
d(A, B) = kABk.
29
ane
E
G
si
v∈F
et
est dénie par les
dirigé par une espace
Définition 4.28. Un repère ane
−−−→
−−−→
(A0 A1 , ..., A0 An )
(A0 , A1 , ..., An )
et
G
orthonormé
si la base vectorielle
est orthonormée.
Définition 4.29. Deux sous-espaces ane
F
est dit
F
et
G
sont
orthogonaux si leurs espaces directeurs
sont orthogonaux.
5.1. Isométries.
Définition 4.30. Soit
X→X
X
un espace métrique. On appelle
qui préserve la distance :
d(f x, f y) = d(x, y)
Remarque 4.31. Les isométries de
X
pour tous
isométrie
de
X
une bijection
f :
x, y ∈ X .
forment un groupe par rapport à la composition.
Lemme 4.32. Une application ane f : E → E est une isométrie si et seulement si sa partie
linéaire df : E → E est une isométrie de E .
Rappel [une variante de la formule de polarisation] : dans un espace euclidien on a toujours :
1
1
kxk2 + kyk2 − kx − yk2 = kxk2 + kyk2 − d(x, y)2 .
2
2
Lemme 4.33. Soit E un espace euclidien. Une isométrie f : E → E qui xe 0 est linéaire. C'est
donc un endomorphisme orthogonal de E .
hx, yi =
Démonstration. Montrons d'abord que
kf xk = kxk. En eet, kf xk = d(f x, 0) = d(f x, f 0) =
d(x, 0) = kxk.
Ainsi, pour tout
x, y ∈ E
:
1
kf xk2 + kf yk2 − kd(f x, f y)k2
2
1
= kxk2 + kyk2 − kd(x, y)k2
2
= hx, yi.
hf x, f yi =
B = (e1 , . . . , en ) une base orthonormée de E , et posons B 0 = f (e1 ), . . . , f (en ) .
0
D'après le point précédent, B est aussi une base orthonormée. On se rappelle que dans une base
orthonormée on a pour tout x :
X
x=
hei , xiei .
Soit maintenant
i
P
x = xi ei avec xi = hei , xi. Ainsi :
X
X
X
X
f
xi ei = f x =
hf (ei ), f xif (ei ) =
hei , xif (ei ) =
xi f (ei ).
En d'autres mots,
i
Ainsi
f
est linéaire. Il suit que
Théorème 4.34.
Remarque.
f
i
i
est orthogonal.
Toute isométrie d'un espace ane euclidien est une application ane.
Une application ane
f :E →E
est une isométrie si et seulement si
f
transforme
un (ou tout) repère orthonormé en repère orthonormé.
Définition 4.35. On appelle
placement
ou
isométrie indirecte)
déplacement
de
E
ou
isométrie directe
toute isométrie
f
telle que
(respectivement,
det df = 1
antidé-
(respectivement,
det df = −1).
Les translations sont évidemment des déplacements. Les déplacements forment un sous-groupe
dans Iso(E ) d'indice 2 ; le produit de deux antidéplacements est un déplacement.
30
Définition 4.36. Soit
PF : E → F ,
F
un sous-espace ane de
est la projection ane sur
Formule : on xe une origine
F
O ∈ F,
E . La projection
F ⊥.
orthogonale sur F , notée
parallèlement à
et
−→
PF (A) = O + PF (OA).
Définition 4.37. Soit
La
à
F
F
un sous-espace ane de
E.
symétrie orthogonale par rapport à F , notée sF : E → E est la symétrie ane par rapport
parallèlement à
F ⊥.
Formule : on xe une origine
O ∈ F,
et
−→
sF (A) = O + sF (OA).
Une symétrie orthogonale est une isométrie, car
(−1)dim E−dim F = (−1)dim E−dim F . Ainsi, sF est
paire (c'est à dire, dim(E) − dim(F) est paire).
On appelle
sF
est une isométrie de
E.
On a
det sF =
F est
directe si et seulement si la codimension de
reexion une symétrie orthogonale par rapport à un hyperplan ; une reexion est
une isométrie indirecte (un antidéplacement).
Étant donné deux points distincts
A
B
et
de
E,
l'hyperplan médiateur du segment
[AB]
est
−−→
−−→
+ 12 B + AB ⊥ = { 12 A + 12 B + v : v ⊥ AB} (i.e., l'unique s.e.a. passant par
donné par : F =
−−→⊥
1
2 (A + B) et dirigé par AB ). La réexion orthogonale sF échange A et B .
1
2A
Exercice 4.38. La réexion orthogonale
sF
est l'unique réexion orthogonale échangeant
A
et
B.
Vu que toute isométrie vectorièle dans
Rn
s'écrit comme un produit d'au plus
n
réexions, on
a :
Proposition 4.39.
exions.)
Toute isométrie de E s'écrit comme un produit d'au plus 1 + dim E ré-
Lemme 4.40. Soit E un espace euclidien, f ∈ End(E) un endomorphisme orthogonal. Alors
pour tout w ∈ E il existe v, u ∈ E tels que :
v = f v = w + f u − u.
Démonstration. Posons
⊥
g = f − id
∗
G = ker g = ker(f
i.e.,
dit,
et
−1
G = img g .
Alors
− id) = {x ∈ E : f x = x} = ker g,
ker g ⊕ img g = E . Ainsi on peut exprimer w = v + u0
f v = v et u0 = f u − u pour un certain u ∈ E .
où
v ∈ ker g
et
u0 ∈ img g .
Autrement
Soit E un espace ane euclidien et f : E → E une isométrie. Alors il existe
−−−−→
un point A tel que df (v) = v où v = Af (A).
Dans ce cas on pose fA (A + x) = A + df (x) et on a
dfA = df (en particulier, fA est une isométrie).
f = Tv fA = fA Tv .
fA (A) = A.
Proposition 4.41.
v, u ∈ E tels
−−−−→
v = df (v) = Of (O) + df (u) − u.
−−−−→
Posons A = O + u. Alors f (A) = f (O) + df (u) = O + u + Of (O) + df (u) − u = A + v ,
−−−−→
v = Af (A). On a déjà df (v) = v .
Démonstration. Fixons
O∈E
arbitrairement. D'après le Lemme il existe
31
que
donc
dfA (A) = A. Il reste :
Tv fA (A + x) = Tv A + df (x) = A + df (x) + v = f (A) + df (x) = f (A)
Par dénition de
fA
on a
dfA = df
et
fA Tv (A + x) = fA (A + x + v) = A + df (x + v) = A + df (x) + v = . . . = f (A).
3.10. Dénition. Une transformation ane f
multiplie toutes les distances par
d(f (x), f (y)) = kd(x, y)
k
k
df : E → E
Remarque :
:E→E
ki , i = 1, 2,
si
f
E
| k |.
est une similtude de rapport
est une similitude vectorielle :
les similitudes de
similitude de rapport
similitude de rapport k
x, y ∈ E .
est une similitude de rapport
Lemme. Une application ane f
partie linéaire
est une
:
pour tous
Une homothétie de rapport
:E →E
k
si et seulement si sa
kdf (v)k = ±kkvk.
forment un groupe par rapport à la composition. Si
alors
f1 f2
est une similitude de rapport
fi
est une
k1 k2 .
3.11. Lemme. (i) Toute similitude de rapport k 6= 1 admet un point xe (unique).
(ii) Toute similitude de rapport k est la composée d'une homothetie de rapport k
et d'une
isométrie.
.
Classication des isométries en dimension 2 et 3.
La classication des isométries anes repose sur la classifcation des isométries vectorielles.
Lemme. Soit U une isométrie de l'espace vectoriel E .
1. dim E = 2. a) dét U = 1 : U est une rotation.
b) dét
U = −1 : U
est une réexion.
2. dim E = 3. a) dét U
b) dét
U = −1 : U
=1:U
est une rotation autour d'un axe.
est une réexion composée avec une rotation autour de l'axe orthogonal au
plan de réexion.
.
4.1. Proposition. (i)
Isométries anes du plan
Tout déplacement du plan est une translation ou une rotation autour
d'un point ; ici la rotation commute avec la translation.
(ii)
Toute antidéplacement est le produit d'une réexion par rapport à une droite avec une
translation parallèle à cette droite (une "réexion-translation") ; ici la reexion commute avec la
translation.
.
4.2. Proposition. (i)
Isométries anes de l'espace.
Tout déplacement de l'espace est soit une translation soit le produit
(commutatif ) d'une rotation autour d'un axe et d'une translation parallèle à l'axe de rotation
("vissage").
(ii)
Toute antidéplacement est soit le produit (commutatif ) d'une réexion par rapport à un
plan avec une translation parallèle à ce plan ("réexion-translation"), soit le produit (commutatif )
d'une réexion par rapport à un plan avec une rotation autour d'un axe orthogonal à ce plan
("réexion-rotation").
.
Similitudes planes et nombres complèxes.
On identie le plan euclidien
4.3. Proposition.
R2
avec le plan complèxe
Toute similitude directe de
similitude indirecte s'écrit
Le rapport d'une telle
C
C.
s'écrit
s(z) = az + b,
s(z) = az̄ + b, a 6= 0.
similitude est | a |.
En particulier, c'est une isométrie si et seulement si
32
| a |= 1.
avec
a 6= 0.
Toute

Documents pareils