Résumé du cours
Transcription
Résumé du cours
Table des matières Chapitre 1. Produit scalaire et espaces préhilbertiens 3 1. Dénitions 2. Vecteurs orthogonaux 6 3. Calculs dans une base orthogonale/orthonormée 6 4. Orthogonalisation de Gram-Schmidt 7 5. Projection orthogonale 6. Distance à un sous-espace 7. Bijection entre Chapitre 2. 3 E et E∗ 8 10 en dimension nie Endomorphismes d'espaces euclidiens 10 11 1. L'endomorphisme adjoint 11 2. Endomorphismes orthogonaux, matrices orthogonales 12 3. Théorème spectral : diagonalisation des endomorphismes et matrices symétriques 13 4. Diagonalisation d'une forme quadratique dans une base orthonormée 14 5. Endomorphismes positifs 14 6. Décomposition polaire 15 7. Symétrie par rapport à un sous-espace. Réexions. 15 8. Transformations orthogonales en petite dimension 15 9. Réduction des endomorphismes orthogonaux 16 Chapitre 3. Espaces Hermitiens Chapitre 4. Géométrie ane 17 25 1. Généralités 25 2. Barycentres, combinaisons anes 25 3. Sous-espace ane 27 4. Applications anes 28 5. Espaces anes euclidiens 29 1 Chapitre 1 Produit scalaire et espaces préhilbertiens 1. Dénitions 1.1. Le cas réel. Définition 1.1. Soit E un R-espace vectoriel. Un produit scalaire dans E h·, ·i : E × E → R qui est : (l'image de x, y ∈ E sera notée hx, yi) Symétrique : pour tous x, y ∈ E , hx, yi = hy, xi est une application ∀ x, y ∈ E. Linéaire à droite. Autrement dit, si on xe x ∈ E (l'argument de gauche), alors l'application y 7→ hx, yi est linéaire : pour tous y, y 0 ∈ E α ∈ R, et 0 hx, y + αy i = hx, yi + αhx, y 0 i. Dénie positive : pour tout x ∈ E , si x 6= 0 alors hx, xi > 0. On dénit la norme associée au produit scalaire par : kxk = (pour p hx, xi x ∈ E) Example. (i) Produit scalaire standard dans hX, Y i = t XY = n X Rn xi yi , : v u n uX x2 . kXk = t i 1 1 (ii) E = C([a, b], R), Z b hf, gi = f (t)g(t)dt. a Exercice 1.2. Montrer que ce sont des produit scalaire. Remarque 1.3. Soit h·, ·i un produit scalaire sur un R-e.v. E . (i) Puisqu'il est linéaire à droite et symétrique,le produit scalaire est également linéaire à gauche. bilinéaire (linéaire à droite et à gauche). Si x = 0 alors hx, xi = 0. Ainsi, hx, xi ≥ 0 pour tout x ∈ E (nul ou non). Ainsi, le produit scalaire est (ii) (iii) On a : kx + yk2 = kxk2 + 2hx, yi + kyk2 , On observe que si h·, ·i kαxk2 = α2 kxk2 est un produit scalaire alors x=0 ⇐⇒ ∀y hx, yi = 0 3 ⇐⇒ kxk = 0. Théorème 1.4 (Inégalité de Cauchy-Schwartz). Soit h·, ·i un produit scalaire sur un R-e.v., k·k la norme associée. Alors |hx, yi| ≤ kxkkyk, et on a égalité si et seulement si x et y sont colinéaires. Démonstration. Si x = 0 : pas de problème. On suppose donc que x 6= 0, et on étudie htx + y, tx + yi. Corollaire 1.5. Soit h·, ·i un produit scalaire sur un R-e.v., k·k la norme associée. Alors k·k vérie l'inégalité du triangle, et c'est bien une norme. Elle induit donc une distance euclidienne dans E , dénie par d(x, y) = kx − yk. Le produit scalaire est déterminé par la norme associée (identité de polarisation) : hx, yi = 1.2. Le cas complexe. 1 kx + yk2 − kx − yk2 . 4 La même dénition ne marche pas pour un x 6= 0 symétrique, linéaire à droite et dénie positive, on a pour hx, xi > 0, C-e.v. En eet, si h·, ·i est : hix, ixi > 0, hix, ixi = i2 hx, xi = −hx, xi, ce qui est absurde. Il faudra sacrier, ou plutôt modier, l'une des trois propriétés : symétrique sera remplacé par une nouvelle notion : hermitien Définition 1.6. Soit E un C-espace vectoriel. Un produit scalaire dans E est une application h·, ·i : E × E → C qui est : x, y ∈ E sera notée hx, yi) Hermitienne : pour tous x, y ∈ E , (l'image de hx, yi = hy, xi. Ici hy, xi a + ib = a − ib pour a, b ∈ R. hx, xi ∈ R. dit, si on xe x ∈ E (l'argument de gauche), 0 tous y, y ∈ E et α ∈ C, est le conjugué complexe : En particulier, hx, xi = hx, xi, Linéaire à droite. Autrement y 7→ hx, yi est linéaire : pour d'où hx, y + αy 0 i = hx, yi + αhx, y 0 i. Dénie positive : pour tout x ∈ E, si x 6= 0 alors hx, xi > 0. On dénit la norme associée au produit scalaire par : kxk = (pour p hx, xi x ∈ E) Example. Le produit scalaire standard sur Cn est : hX, Y i = t XY = n X x i yi . i=1 Exercice 1.7. Montrer que c'est un produit scalaire. Remarque 1.8. Soit h·, ·i un produit scalaire sur un 4 C-e.v. E . alors l'application (i) Puisqu'il est linéaire à droite et hermitien,le produit scalaire est semi-linéaire à gauche : hx + αx0 , yi = hx, yi + αhx0 , yi. sesquilinéaire (= une-fois-et-demi-linéaire). Si x = 0 alors hx, xi = 0. Ainsi, hx, xi ≥ 0 pour tout x ∈ E (nul ou non). Ainsi, le produit scalaire est (ii) (iii) On a : kx + yk2 = kxk2 + 2< hx, yi + kyk2 , Théorème 1.9 (Inégalité de Cauchy-Schwartz). R-e.v. kαxk2 = |α|2 kxk2 Même énoncé pour les C-e.v. que pour les Corollaire 1.10. Soit h·, ·i un produit scalaire sur un C-e.v., k·k la norme associée. Alors k·k vérie l'inégalité du triangle, et c'est bien une norme. On a <hx, yi = 1 kx + yk2 − kx − yk2 . 4 Or =hx, yi = <ihx, yi = <hyx, yi D'où l'identité de polarisation pour les produits scalaires complexes : hx, yi = Désormais, K 1 kx + yk2 − kx − yk2 + ikix + yk2 − ikix − yk2 . 4 est le corps réel cas complexe en parallèle. Définition 1.11. Un espace {R, C}). R or le corps complexe C. Ainsi, on traitera du préhilbertien est un K -e.v. E On le notera par une paire E, h·, ·i ou par E cas réel et du muni d'un produit scalaire (K seul, considérant que la donnée de ∈ E comprend la donnée du produit scalaire. Un espace Un espace euclidien est un espace préhilbertien réel de dimension ni. hermitien est un espace préhilbertien complexe de dimension ni. On remarque que si F E est un espace préhilbertien et F ⊆ E est un sous-espace vectoriel, E à F du produit scalaire. alors est lui aussi préhilbertien, une fois muni de la restriction de Lemme 1.12 (Identité du parallélogramme). Soit E un espace préhilbertien. Alors la norme associée au produit scalaire vérie l'identité du parallélogramme : kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 . Exercice 1.13. En déduire que la norme kxk1 = |x1 | + |x2 | sur R2 (ou sur C2 ) n'est pas associée à un produit scalaire. Remarque 1.14. La réciproque est vraie aussi, mais plus dicile à démontrer : toute norme vériant l'identité du parallélogramme est associée à un produit scalaire (obtenu par la formule de polarisation). 5 2. Vecteurs orthogonaux Partout, E est un espace préhilbertien : un K -e.v. muni d'un produit scalaire, où K =R or K = C. Définition 1.15. (ii) Si (iii) Si A⊆E et x ∈ E, A, B ⊆ E , x⊥B x⊥y On observe que on dit que on dit que ce qui revient à Lemme 1.16. (i) Deux vecteurs ssi A x est orthogonal à pour tout y ⊥ x, A (x ⊥ A) B (A ⊥ B ) si si x⊥y x⊥y pour tout pour tout y ∈ A. x∈A et y ∈ B, ssi B ⊥ A. On a A⊥B Définition 1.17. Soit A orthogonaux si hx, yi = 0, noté x ⊥ y. x ∈ A. A⊥B et sont est orthogonal à x⊥A à x, y ∈ E ⇐⇒ x ⊥ Vect(A) ⇐⇒ Vect(A) ⊥ Vect(B). A ⊆ E . L'orthogonal de A est l'ensemble de vecteurs de E orthogonaux : A⊥ = {x ∈ E : x ⊥ A} = {x ∈ E : ∀y ∈ A Exercice 1.18. (ii) Montrer que (i) Montrer que A⊥ ⊥ (iii) Montrer que A (iv) Montrer que E. Vect(A)⊥ . Vect(A) ⊆ (A⊥ )⊥ . Définition 1.19. Une famille de vecteurs de famille sont deux à deux orthogonaux. Une famille de vecteurs de sont de norme hx, yi = 0}. A ⊥ A⊥ . est un sous-espace vectoriel de = on a E est dite E est dite orthogonale si les vecteurs de cette orthonormée si elle est orthogonales et tous ses vecteurs 1. D'une famille orthogonale orthonormée en normalisant : (e1 , e2 , ...) e0i = keeii k . sans vecteurs nuls on peut facilement passer à une famille On verra que tout espace préhilbertien de dimension nie C'est faux en dimension innie : l'espace des fonctions continues admet une base orthonormée. C([a, b], R) n'admet pas de base orthogonale au sens algébrique. Toute famille orthogonale sans vecteur nul est libre. Toute famille orthonormée est libre. Lemme 1.20. Rn ou Cn (muni, sauf mention contraire, du produit scalaire standard) hx, yi = standard (e1 , e2 , . . .) est orthonormée. Example. Dans P x i yi , R 2π 0 la base Exemple. 1. Dans l'espace des fonctions continues C([0, 2π], R) avec le produit scalaire hf, gi = f (t)g(t)dt la famille (1, cos nx, sin nx)n≥1 est orthogonale et la famille ( √12π , √1π cos nx, √1π sin nx)n≥1 est orthonormée. 3. Calculs dans une base orthogonale/orthonormée P Soit (e1 , ..., en ) une base orthogonale, et x = xi e i ∈ E . On a le Théorème de Pythagore : kxk2 = X 6 |xi |2 kei k2 . Plus généralement, si y= P yi ei on a : hx, yi = (Si K = R, ceci revient à En développant P hei , xi, xi yi kei k2 , X xi yi kei k2 . sans la conjugaison complexe.) on obtient : xi = hei , xi , kei k2 que l'on peut substituer dans les formules précédentes, par exemple : kxk2 = Dans le cas ou la base est X |xi |2 kei k2 = X |hei , xi|2 kei k2 orthonormée, ces formules prennent une forme plus simple : xi = hei , xi, X kxk2 = |xi |2 , X hx, yi = xi yi . Autrement dit, dans une base orthonormée, un produit scalaire revient au produit scalaire standard. 4. Orthogonalisation de Gram-Schmidt Lemme 1.21. Soit (u1 , . . . , uk ) une famille orthogonale dans E et v ∈ E . Nous posons : u=v− k X hui , vi i=1 kui k2 ui . Alors (i) (ii) (iii) u ⊥ u1 , . . . , uk Vect(u1 , . . . , uk , v) = Vect(u1 , . . . , uk , u). u = 0 ssi v ∈ Vect(u1 , . . . , uk ). Théorème 1.22 (Orthogonalisation de Gram-Schmidt). E . On construit une suite de vecteurs u1 , . . . , um par : Soit (v1 , ..., vm ) une famille libre dans u1 = v1 uk+1 = vk+1 − k X hui , vk+1 i i=1 (i) (ii) kui k2 ui . La famille (u1 , . . . , um ) ainsi construite est une base orthogonale pour Vect(v1 , . . . , vm ). Si on pose ei = kuuii k , alors (e1 , . . . , em ) est une base orthonormée pour Vect(v1 , . . . , vm ). Variante : on peut normaliser ei = uk+1 ui kui k pendant la construction et utiliser la formule k X = vk+1 − hei , vk+1 iei . i=1 Bien que cette formule semble plus simple, le vecteurs normalisés compliquée et le plus souvent on n'y gagne rien. 7 ei auront souvent une forme plus Si la famille Pour chaque peut enlever vk vk (v1 , . . . , vm ) n'est pas libre, on peut toujours appliquer le procédé de Gram-Schmidt. qui est engendré par les vecteurs qui lui précèdent, on aura uk = 0. Dans ce cas on de la famille et continuer avec le vecteur suivant. Tout espace préhilbertien de dimension nie (= espace euclidien ou hermitien) admet un base orthonormée. Corollaire 1.23. 5. Projection orthogonale p : E → E est un projecteur si p(x) = x p ◦ p = p (on écrira plutôt : p2 = p). surcroît on a img p ⊥ ker p. Définition 1.24. Une application linéaire x ∈ img p. Autrement dit, C'est un p pour tout est un projecteur si projecteur orthogonal si de Soit p : E → E un projecteur. Alors E = img p ⊕ ker p. D'ailleurs, si x = x1 + x2 ∈ E avec x1 ∈ img p et x2 ∈ ker p, alors p(x) = x1 . Ainsi, si on connaît img p et ker p, on connaît p. Lemme 1.25. x ∈ img p ∩ ker p alors x = p(x) = 0. x ∈ E on pose x1 = p(x) ∈ img E et x2 = x − x1 . d'où E = img p ⊕ ker p. Pour la deuxième partie : on a p(x) = x1 . Démonstration. Si Et pour Alors p(x2 ) = 0, donc x2 ∈ ker p, Soit p : E → E un projecteur orthogonal. Alors ker p = (img p)⊥ . Ainsi, si on connaît img p alors on connaît p. Lemme 1.26. ker p ⊆ (img p)⊥ . Réciproquement, x1 ∈ img x et x2 ∈ ker p. Donc x ⊥ x1 , d'où : Démonstration. Par dénition p(x), x2 = x − p(x). Alors soit x ∈ (img p)⊥ , x1 = 0 = hx, x1 i = hx2 , x1 i + kx1 k2 = kx1 k2 x1 = 0 Donc et x = x2 ∈ ker p. Définition 1.27. Soit F ⊆E un s.e.v. L'unique projecteur orthogonal d'image existe, sera noté pF . Il s'appelle le projecteur orthogonal sur F . F, si un tel Si p est un projecteur alors p0 = idE −p l'est aussi, et ker p = img p0 , img p = ker p0 . Si p est un projecteur orthogonal alors p0 l'est aussi. Lemme 1.28. Question. Soit Si img p0 F ⊆E un s.e.v. Le projecteur orthogonal pF existe on a F = img pF , ker pF = F ⊥ , = ker pF = F ⊥ , i.e. p0 = pF ⊥ : d'où pF existe-t-il ? E = F ⊕ F ⊥. Si on pose p0 = idE −pF alors idE = pF + pF ⊥ . On obtient : (F ⊥ )⊥ = ker pF ⊥ = img(idE −pF ⊥ ) = img pF = F. Exercice 1.29. Montrer les réciproques : si alors pF existe. Si F = (F ⊥ )⊥ , alors E=F⊕ E = F ⊕ F⊥ (comment pourrait-ce être faux ?) F ⊥. Si dim F < ∞ le projecteur orthogonal sur F existe. Plus précisément, si B = (e1 , . . . , en ) est une base orthogonale de F alors pour tout x ∈ E : Lemme 1.30. pF (x) = n X hei , xi i=1 8 kei k2 ei . Si c'est une base orthonormée : pF (x) = n X hei , xiei . i=1 Démonstration. Posons, pour une base orthogonale p(x) = n X (e1 , . . . , en ) F de : hei , xi ei . kei k2 i=1 img p ⊆ F par construction, et si x ∈ F alors p(x) = x par une formule vue plus tôt. D'où : img p = F et p est un projecteur. Finalement, si p(x) = 0 on obtient x ⊥ e1 , . . . , en . Donc ker p ⊥ F = img p, et p est bien un projecteur orthogonal d'image F : c'est bien pF . Alors : C'est linéaire car le produit scalaire est linéaire à droite. Lemme 1.31. Soit F ⊆ E un s.e.v. et p = pF le projecteur orthogonal sur F . Soit x ∈ E . Alors y = pF (x) est l'unique vecteur de F tel que x − y ⊥ F . On remarque que x−y ⊥F ⇐⇒ ∀ z ∈ F : hx − y, zi = 0 Lien avec Gram-Schmidt : soit Fk = Vect(v1 , . . . , vk ). (v1 , ..., vn ) ⇐⇒ ∀ z ∈ F : hx, zi = hy, zi. E. une famille libre dans Pour k = 1...n ponsons Alors u1 = v1 uk = vk − PFk−1 (vk ) = PF ⊥ (vk ) k−1 Example. E= R3 muni du produit scalaire canonique. v1 = (1, 1, 0), Calculer explicitement √ v2 = (1, 0, 1/ 2), F = Vect(v1 , v2 ) PF (e1 ) = PF (1, 0, 0). On applique Gram-Schmidt pour obtenir une base orthogonale de u1 = (1, 1, 0), u2 = 1 1 1 ,− , √ 2 2 2 F : , Alors : he1 , u2 i 1 1 he1 , u1 i u1 + u2 = u1 + u2 = PF (e1 ) = 2 2 ku1 k 2 2 ku2 Example. E = R3 Calculer explicitement √ F = (x, y, z) : x − y − 2z = 0 . PF (e1 ). ⊥ Autrement dit, F = Vect(w). F PF (e1 ) + PF ⊥ (e1 ) = id(e1 ) = e1 observons que F = w⊥ = Vect(w)⊥ Alors, he1 , wi 1 PF ⊥ (e1 ) = }w = w = 2 kwk 4 Or, puisque 3 1 1 , , √ 4 4 2 2 muni du produit scalaire canonique, Au lieu de trouver une base orthonormée pour √ w = (1, −1, − 2). 1 1 1 ,− ,− √ 4 4 2 2 . : PF (e1 ) = e1 − PF ⊥ (e1 ) = Au fait dans les deux exemples c'est le même 9 F 3 1 1 , , √ 4 4 2 2 donnée de deux manières diérentes. où 6. Distance à un sous-espace Lemme 1.32. Soit F est un sous-espace de dimension nie et x ∈ E . Le point y = PF (x) est le point de F le plus proche de x. En d'autres termes, c'est un minimum global strict de la fonction z 7→ kx − zk sur F . En particulier, d(x, F ) = d(x, PF (x)) = kPF ⊥ (x)k. z ∈ F , z 6= y . > kx − yk2 . Démonstration. En eet, soit kx − zk2 = kx − yk2 + ky − zk2 7. Bijection entre Définition 1.33. Soit ϕ : E → K. dual de E . E un K -e.v. E Une y−z ∈ F d'où x−y ⊥ y−z et E ∗ en dimension nie forme linéaire sur E est une application linéaire E∗, ϕx (y) = hx, yi. et l'application x 7→ ϕx est un isomorphisme d'espaces vectoriels entre E et E ∗ . Démonstration. C'est facilement linéaire, de noyau nul. On pourrait montrer que dim E ∗ appelé le Soit E un espace euclidien. Pour chaque x ∈ E dénissons ϕx : E → R, E∗, et L'ensemble de toutes les formes linéaires forme un espace vectoriel noté Théorème 1.34. Alors ϕx ∈ Alors et déduire que x 7→ ϕx dim E = est surjective, mais on préfère donner une construction plus explicite, qui est d'ailleurs proche de l'argument que l'on utiliserait (sous des hypothèses supplémentaires) en dimension innie. ϕ ∈ E ∗ . Si ϕ = 0 alors ϕ = ϕ0 et c'est bon. Supposons donc que ϕ = 6 0 et posons F = ker ϕ. Alors dim img ϕ = 1 d'où dim F = dim E − 1. Or en dimension nie on a E = F ⊕ F ⊥ , ⊥ = 1. Choisissons x ∈ F ⊥ non nul, et posons donc dim F 0 ϕ(x0 ) x0 x= kx0 k2 Soit ϕ = ϕ x0 . y2 = αx0 . Alors En eet, si y ∈ E, on décompose ϕx0 (y) = ϕx0 (y2 ) = y = y1 + y2 avec y1 ∈ F et y2 ∈ F ⊥ , si bien que ϕ(x0 )hx0 , αx0 i = ϕ(αx0 ) = ϕ(y2 ) = ϕ(y). kx0 k2 Remarque 1.35. Pour ϕ ∈ E∗ on dénit sa norme par : kϕk = sup |ϕ(y)| y:kyk≤1 Alors la bijection donnée polus haut préserve la norme : kϕx k = kxk. Remarque 1.36. Cas complexe : la seule diérence est que ϕx + αϕx0 10 x 7→ ϕx est semi-linéaire : ϕx+αx0 = Chapitre 2 Endomorphismes d'espaces euclidiens 1. L'endomorphisme adjoint Soit E un espace euclidien (K endomorphismes de E = R) (ou hermitien (K Pour un endomorphisme f nous allons s'intéresser aux (x, y) 7→ hx, f (y)i, Définition 2.1. Soit tel que pour tout = C) et soit End(E) l'espace E → E ). deux applications E × E → K : des (c'est-à-dire, des applications linéaires x, y ∈ E f ∈ End(E). (x, y) 7→ hf (x), yi On appelle adjoint de f un endomorphisme f ∗ ∈ End(E) : hf ∗ x, yi = hx, f yi. Fixons-nous une base orthonormée B = (e1 , . . . , en ). Si X et Y sont les coordonnées de x et y dans cette base, on a déjà observé que : hx, yi = t XY Si A = MatB f , on obtient : hx, f (y)i = t XAY hf (x), yi = t AXY = t X t AY. (i) Pour tout f ∈ End(E), il existe un unique endomorphisme adjoint f ∗. Si B est une base orthonormée, f ∗ est l'unique endomorphisme tel que MatB (f ∗ ) = t MatB (f ). Proposition 2.2. (ii) Lemme 2.3. (i) L'application f → f ∗ est semi-linéaire (linéaire si K = R) : (f + g)∗ = f ∗ + g ∗ , (ii) On a (f g)∗ = g ∗ f ∗ , (iii) (αf )∗ = αf ∗ . (f ∗ )∗ = f. Si f est inversible, f ∗ l'est aussi et (f ∗ )−1 = (f −1 )∗ . Définition 2.4. Un endomorphisme f est dit auto-adjoint si f = f ∗. Si K = R, f est auto- adjoint si et seulement si sa matrice dans un base orthonormée est symétrique. Ainsi, un tel s'appelle parfois symétrique Example. Toute projection orthogonale PF vérie PF = PF2 = PF∗ . f Elle est en particulier auto-adjointe. En eet, si ⊥ alors de F (e1 , . . . , em ) est une base orthonormée de F et (em+1 , . . . , en ) une base orthonormée B = (e1 , . . . , en ) A = A2 = t A est une base orthonormée de d'où le résultat. 11 E et A = MatB PF = Im 0 . 0 0 Ainsi, f ∈ End(E) trouver F ? Exercice 2.5. La réciproque est vraie aussi : si égal à PF pour un certain s.e.v. F ⊆ E. Comment vérie f = f∗ = f2 alors f est 2. Endomorphismes orthogonaux, matrices orthogonales −1 = f ∗ . Définition 2.6. Un endomorphisme f ∈ End(E) est dit orthogonal si f −1 t Une matrice O ∈ Mn (R) est dites orthogonale si O = O. Un endomorphisme f est orthogonal ssi sa matrice dans une (toute) base orthonormée est orthogonale. Lemme 2.7. Soit O ∈ Mn (R) une matrice orthogonale. Alors toutes les valeurs propres (complexes) de O sont de module 1. Ainsi, le déterminant de O est de module 1. −1 = t U (une telle matrice est appelée unitaire). Alors Lemme 2.8. Soit U ∈ Mn (C) tel que U toutes les valeurs propres de U sont de module 1. Ainsi, le déterminant de U est de module 1. Démonstration. Supposons que P |xi |2 > 0. X ∈ Cn \ {0}, U X = λX , et posons kXk2 = t XX = Alors : kXk2 = t XX = t X(t U U )X = t (U X)U X = (λ̄t X)(λX) = λλ̄kXk2 , d'où |λ|2 = λλ̄ = 1. Si f, g sont des endomorphismes orthogonaux alors et f g le sont aussi. En particulier, l'ensemble des endomorphismes orthogonaux, noté O(E), est un groupe. Pareil pour les matrices. Le groupe des matrices orthogonales est On (R) = {A ∈ Mn (R) : t AA = Id}. Proposition 2.10. Pour f ∈ End(E), les propriétés suivantes sont équivalentes. (i) f est orthogonal. (ii) f est isométrique : kf xk = kxk pour tout x. (iii) f préserve le produit scalaire : hf x, f yi = hx, yi pour tout x, y . (iv) f transforme toute base orthonormée en base orthonormée. (v) f transforme une base orthonormée en base orthonormée. f −1 Proposition 2.9. Démonstration. (i) =⇒ (ii). kf xk2 = hf x, f xi = hx, f ∗ f xi = hx, f −1 f xi = hx, xi = kxk2 . =⇒ (iii). Puisque le produit scalaire est détermine par la norme (identité de polarisation). =⇒ (iv). Soit B = (e1 , . . . , en ) une base orthonormée. Alors hf ei , f ej i = hei , ej i = δij = ( 1 i=j (le delta de Kronecker). Donc, (f e1 , . . . , f en ) est aussi une famille orthonormée. Elle est 0 i 6= j donc libre, de taille n = dim E , c'est donc une base. (iv) =⇒ (v). Clair. (v) =⇒ (i). Soit B = (e1 , . . . , en ) une base orthonormée telle que (f e1 , . . . , f en ) est aussi une Pn ∗ base orthonormée, et montrons que f f x = x pour tout x. En eet on a x = Pn Pn i=1 hx, ei iei d'où fPx = i=1 hx, ei if ei . Puisque (f e1 , . . . , f en ) est une base orthonormée : f x = i=1 hf x, f ei if ei = n ∗ ∗ i=1 hf f x, ei if ei . Il en découle que hx, ei i = hf f x, ei i pour tout i = 1, . . . , n. Par conséquent : (ii) (iii) x= n X i=1 ∗ Donc f = hx, ei iei = n X hf ∗ f x, ei iei = f ∗ f x. i=1 f −1 . 12 Soit B = (e1 , . . . , en ) une base orthonormée, B0 = (e01 , . . . , e0n ) une base quelconque, P la matrice de passage. Alors P est orthogonale ssi B 0 est orthonormée. Lemme 2.11. Démonstration. Soit Alors P f l'endomorphisme qui envoie est une matrice orthogonale ssi f B à B0 , de sorte que P = MB (f ). B 0 est une est un endomorphisme orthogonal ssi base orthonormée. Lemme 2.12. Une matrice A ∈ Mn (R) est orthogonale ssi ses colonnes (lignes) forment une base orthonormée de Rn par rapport au produit scalaire standard. 3. Théorème spectral : diagonalisation des endomorphismes et matrices symétriques L'orthogonal d'un sous-espace stable par f est stable par f ∗ . C'est à dire que si F ⊆ E est un s.e.v. tel que f (F ) ⊆ F alors f ∗ (F ⊥ ) ⊆ F ⊥ . ker f ∗ = (im f )⊥ et im f ∗ = (ker f ∗ )⊥ . Lemme 2.13. (ii) (i) Si f est symétrique, alors ker f = (im f )⊥ , et E = ker f ⊕ im f . De plus, l'orthogonal d'un sous-espace stable par f est stable par f , i.e., si f (F ) ⊆ F alors f (F ⊥ ) ⊆ F ⊥ . Corollaire 2.14. Lemme 2.15. Soit f un endomorphisme auto-adjoint. Alors f admet une valeur propre réelle. Lemme 2.16. Soit A ∈ Mn (R) symétrique. Alors toutes les valeurs propres (complexes) de A sont réelles. Soit A ∈ Mn (C) telle que t A = A (une telle matrice est dite hermitienne). Alors toutes les valeurs propres de A sont réelles. Lemme 2.17. Théorème 2.18 (Théorème spectral, 1ère formulation). Soit f un endomorphisme auto-adjoint. Alors f est diagonalisable dans une base orthonormée. Autrement dit, il existe une base orthonormée qui consiste en des vecteurs propres de f . λ, avec vecteur propre e1 que l'on peut supposer normalisé : ke1 k = 1. Puisque f e1 = λe1 , l'espace Vect(e1 ) est stable ∗ ⊥ par f . Puisque f = f , l'orthogonal F := e1 = Vect(e1 ) est lui aussi stable par f . Ainsi, f se restreint en un endomorphisme g = f F : F → F , qui est lui aussi auto-adjoint. Or, dim F = dim E − 1, et par l'hypothèse de récurrence F admet une base orthonormée (e2 , . . . , en ) qui consiste en des vecteurs propres de g , qui sont aussi des vecteurs propres de f . On conclut que (e1 , e2 , . . . , en ) est une base orthonormée de E qui consiste en des vecteurs propres de f . Démonstration. L'endomorphisme f admets au moins une valeur propre réelle Corollaire 2.19 (Théorème spectral, 2ème formulation). Soit f un endomorphisme autoadjoint. Soit (λ1 , . . . , λk ) les valeurs propres de f , et soit Ei = ker(f − λi Id) le sous-espace propre correspondant à λi . Alors (i) Les sous-espaces propres de f sont deux à deux orthogonaux, i.e., Ei ⊥ Ej pour i 6= j . En plus, E1 ⊕ E2 ⊕ . . . ⊕ Ek = E . Pk (ii) Décomposition spectrale : f = i=1 λi PEi . Exercice 2.20. Montrer directement, sans passer par le théorème spectral, que si est auto-adjoint et alors v, w ∈ E f ∈ End(E) sont des vecteurs propres correspondant à des valeurs propres distinctes, v ⊥ w. Corollaire 2.21. Soit A ∈ Mn (R) une matrice symétrique. Alors A est diagonalisable par une matrice orthogonale : il existe une matrice orthogonale O telle que O−1 AO = t OAO est diagonale. On observe que la réciproque est vrai également : si A est symétrique. 13 O est orthogonale et t OAO est diagonale, Soient f1 , f2 , . . . ∈ End(E) des endomorphismes auto-adjoints qui en plus fi fj = fj fi pour tout i, j . Alors ils sont simultanément diagonalisables dans une base orthonormée. Autrement dit, il existe une base orthonormée B dans laquelle toutes les matrices MB (fi ) sont diagonales, i.e., les membres de B sont des vecteurs propres de chacun des fi . Une famille de matrices symétriques qui commutent entre elles sont simultanément diagonalisables par une matrice orthogonale. Théorème 2.22. commutent entre eux : Démonstration. On démontre pour le cas de deux endomorphismes auto-adjoints f g = gf . Soit λ une pour tout x ∈ Eλ on a : que valeur propre de f et Eλ ⊆ E f, g tels le sous-espace propre correspondant. Alors f (gx) = g(f x) = g(λx) = λ(gx), gx ∈ Eλ . Ainsi Eλ est stable par g . D'après le théorème spectral appliqué à la restriction de g Eλ , l'espace propre Eλ admet une base Bλ orthonormée qui consiste en des vecteurs propres de g . Posons B = Bλ1 ∪ . . . ∪ Bλk où λ1 , . . . , λk sont toutes les valeurs propres de f . Puisque les espaces Eλi sont deux-à-deux orthogonaux, B est une famille orthonormée. Puisque E = Eλ1 ⊕ . . . ⊕ Eλk , B est une base. Et nalement, les membres de B sont des vecteurs propres de f et de g à la fois. Le cas général de m endomorphismes auto-adjoints qui commutent entre eux se démontre de la même manière, par récurrence. i.e., à 4. Diagonalisation d'une forme quadratique dans une base orthonormée Soit q une forme quadratique sur un espace euclidien E . Soit B une f ∈ End(E) tel que MatB f = MatB q . Alors f = f ∗ et q(x) = hx, f xi. base orthonormée, et soit Proposition 2.23 (Réduction aux axes principaux). Pour toute forme quadratique q il existe une une base orthonorméePdans laquelle la matrice de q est diagonale et q est une combinaison linéaire de carrés : q(x) = n1 ai x2i . Les coecients ai sont les valeurs propres de l'endomorphisme auto-adjoint f associé (q(x) = hx, f (x)i). On peut reformuler ce résultat comme la tiques : la forme q et le produit scalaire diagonalisation simultanée de deux formes quadra- hx, xi. 5. Endomorphismes positifs Si f est un endomorphisme symétrique, la forme bilinéaire coïncide avec hf x, yi). On l'appelle la Un endomorphisme symétrique associée hx, f yi positive t XAX est symétrique (et est positive (respectivement, dénie positive). Une matrice symétrique (respectivement, >0 f ϕf = hx, f yi forme bilinéaire associée à f . est dit positif (respectivement, déni positif) pour tout X dénie positive) si t XAX ≥ 0 pour tout X ∈ Rn si la forme A est dite (respectivement, non-nul). Le théorème spectral montre qu'un endomorphisme symétrique est positif (respectivement, déni positive) si et seulement si toutes ses valeurs propres sont positives (respectivement, strictement positives). Soit f un Pendomorphisme positif, P √ Πi le λi Πi . projecteur spectral associé à la valeur propre λi , i = 1, ..., k. On a f = λi Πi . Posons g = 2 = f . On montre facilement qu'une telle racine carré positive Alors g est symétrique positif et g √ f = g est unique (en considérant la décomposition spectrale de g ). Corollaire 2.24 (Racine carré d'une matrice positive). 14 6. Décomposition polaire Théorème. Soit f un endomorphisme inversible. Il existe un unique endomorphisme orthogonal U et un unique endomorphisme déni positif que √ Construction : On pose S = f ∗ f ; S U ∗ est orthogonal : U U = S tels que f = U S. est déni positif. On dénit S −1 f ∗ f S −1 = S −1 S 2 S −1 U par U = f S −1 et on vérie = Id. 7. Symétrie par rapport à un sous-espace. Réexions. E = F ⊕ F⊥ ⊥ et x2 ∈ F . La F un sous-espace de E écrit x = x1 + x2 avec x1 ∈ F sF (x) = x1 − x2 . Soit et la décomposition orthogonale. Pour symétrie sF par rapport à F x ∈ E on est dénie par On a : sF = PF − PF ⊥ = id −2PF ⊥ = 2PF − id s∗F = sF s2F = id . Autrement dit, une symétrie sF est orthogonale et auto-adjointe. Exercice 2.25. Réciproquement, tout endomorphisme gonal (i.e., tel que f = f∗ et f 2 = id) f qui est à la fois auto-adjoint et ortho- est une symétrie. Comment trouver l'espace F à partir de f? Une symétrie par rapport à un hyperplan s'appelle vecteur unitaire orthogonal à Plus généralement, si z F, réexion. Si F est un hyperplan F s'écrit sF (x) = x − 2hx, eie. z. F = z ⊥ alors sF (x) = x − 2 hx,zi kzk2 et e le la réexion par rapport au est un vecteur quelconque et Matrice d'une réexion : Idn−1 −1 Le déterminant d'une réexion est donc toujours −1. Soit f ∈ End(E) orthogonal, r = rg(f −Id). Alors f s'exprime comme produit d'au plus r réexions. En particulier, f s'exprime comme produit d'au plus n = dim E réexions. Théorème 2.26. Démonstration. Par récurrence sur r0 < r r. r. Si r = 0 : f = Id est la composition de f 6= Id, et il existe y tel que f y 6= y . Soit z = f y − y 6= 0 et F = z ⊥ . Alors : kzk2 = 2kyk2 − 2hy, f yi. hx,zi Pour tout x : sF (x) = x − 2 z = x − kyk2hx,zi z. kzk2 −hy,f yi D'où sF (y) = f (y) et sF (z) = −z . Si f x = x alors x ⊥ z et sF (x) = x. On applique l'hypothèse de récurrence à sF f . Supposons que c'est vrai pour et montrons pour zéro réexions. Sinon, 8. Transformations orthogonales en petite dimension Dimension 1. U x = x ou U x = −x. Dimension 2. a) dét U > 0 : U estune rotation. Sa matrice est b) dét U= U <0:U cos t − sin t sin t cos t . est une réexion. 15 U= Sa matrice est . cos t sin t sin t − cos t Dimension 3. a) dét U b) dét U <0 : U >0:U . est une rotation autour d'un axe. est une réexion composée avec une rotation autour de l'axe orthogonal au plan de réexion. Remarquer qu'il y a (au moins) une valeur propre réelle. 9. Réduction des endomorphismes orthogonaux Soit A ∈ Mn (R) quelconque. Il existe un sous espace F ⊆ Rn , 1 ≤ dim F ≤ 2, qui est stable par A. Lemme 2.27. A admet une valeur propre réelle λ, il existe X ∈ Rn \ {0} tel que AX = λX , donc F = Vect(X) est stable par A, de dimension 1. n Sinon, soit λ ∈ C \ R une valeur propre, et soit X ∈ C un vecteur propre, AX = λX , d'où AX = λ̄X . Puisque λ 6= λ̄, X et X ne sont pas colinéaire, on peu donc poser Y = X +X ∈ Rn \{0}. 2 2 2 An a AY = λX + λ̄X et A Y = λ X + λ̄ X = (λ + λ̄)AY − λλ̄Y , où λ + λ̄, λλ̄ ∈ R. Donc F = Vect(Y, AY ) ⊆ Rn est stable par A. Démonstration. Si Soit U un endomorphisme orthogonal. Si le sous-espace F est stable par U , alors F ⊥ est stable par U . Toute valeur propre de U est de module 1. E se décompose en somme orthogonale des sous-espaces stables par U de dimension 1 ou 2. Proposition 2.28. (i) (ii) (iii) (i) On a U (F ) ⊆ F et puisque U est inversible, dim U (F ) = dim F , d'où F = U (F ). Ainsi, F est stable par U −1 , i.e., par U ∗ . Maintenant, si x ∈ F ⊥ et y ∈ F alors U ∗ y ∈ F et hU x, yi = hx, U ∗ yi = 0, donc U x ∈ F ⊥ également. Démonstration. (ii) Déjà vu. (iii) D'après le Lemme précédent, par U et dim F ≤ 2. Puisque E admet un sous-espace vectoriel F ⊆ E , tel que F est stable F ⊥ est aussi stable par E on peut procéder par récurrence. 16 Chapitre 3 Espaces Hermitiens 1. Formes hermitiennes. . La théorie des formes et espaces hermitiens est parallèle à celle des formes bilinéaires symétriques et des epaces euclidiens. 1.1. Dénition. Soit E un espace vectoriel sur C. Une forme hermitienne sur E est une application h : E × E → C , vériant : 1. 2. h h est linéaire à droite : h(x, αy + βz) = αh(x, y) + βh(x, z), h(αx + βy, z) = αh(x, z) + βh(y, z). h(y, x) = h(x, y) pour tous x, y ∈ E . est semi-linéaire à gauche : 3. Symétrie hermitienne : (Noter que 2. est la conséquence de 1. et 3.) . forme quadratique associée qh (x) = h(x, x). Noter que qh est à valeurs réelles. Pour une forme hermitienne h on dénit la qh : E → R : La forme hermitienne est déterminée par la forme quadratique associée : 1 h(x, y) = [qh (x + y) − qh (x − y) + iqh (x − iy) − iqh (x + iy)] 4 "identité de polarisation"). ( . L'ensemble de toutes les formes hermitiennes est un espace vectoriel sur des formes hermitiennes et a1 , ...ak des scalaires réels, a1 ϕ1 + ... + ak ϕk R : si h1 , ..., hk sont est une forme hermitienne. . Exemples. 1. Si f et g sont deux formes C-linéaires, ϕ(x, y) = f (x)g(y) + g(x)f (y) est une forme hermitienne. E l'espace des matrices k × n sur C ; alors h(A, B) = tr(t ĀB) est une forme hermitienne. Rb Soit E = C([a, b], C) l'espace des fonctions continues sur [a, b]. Alors ϕ(f, g) = a f (t)g(t)dt 2. Soit 3. est une forme hermitienne. . 1.2. Expression en coordonnées. OnP suppose que dim E = n < ∞. P B = (e1 , ...,P en ) une base de E , xP = n1 xi ei , y = n1 yi ei . n n Alors h(x, y) = i,j=1 xi yj (ei , ej ) = i,j=1 aij xi yj où aij = h(ei , ej ). La matrice A = (aij ) = (h(ei , ej )) est la matrice de la forme hermitienne h dans la base B . Cette matrice est hermitienne : aij = aji , ou t A = A. La forme quadratique associée s'écrit : P qh (x) = ni,j=1 aij xi xj . t Soit X la colonne des composantes du vecteur x : X = (x1 , ..., xn ). Alors on peut écrire h à Soit l'aide de la multiplication matricielle : h(x, y) = t XAY . 1.3. Changement de base (changement linéaire de coordonnées). 17 B 0 = (e01 , ..., e0n ) une autre base de E , soit X 0 et Y 0 les colonnes des coordonnées des vecteurs x et y dans la base B 0 . 0 0 0 On a X = P X et Y = P Y , où P est la matrice de passage de B à B . Alors h(x, y) = t XAY = t X 0t P AP Y 0 = t X 0 A0 Y 0 où A0 = t P AP Soit h est la matrice de la forme dans la base B0 . . 1.4. Equivalence des formes. Deux formes hermitiennes h et h0 dénies dans E et E 0 0 0 dites équivalentes si il existe un isomorphisme f : E → E tel que h(x, y) = h (f (x), f (y)). < ∞, les formes h et h0 sont équivalentes si leurs matrices A et B sont liées par P inversible (autrement dit, si on peut trouver deux bases dans lequelles h et h0 Si dim(E) B= sont t P AP avec ont la même matrice). . 1.5. On appelle rang d'une forme hermitienne le rang de sa matrice (il ne dépend pas du choix non-dégénérée si son rang est égal à la dimension de E . de la base). On dit que la forme est Le noyau de h est déni par Ker h = {x ∈ E : ∀y ∈ E, h(x, y) = 0}. h) = dim (E ). On a : rang (h) + dim (Ker . 1.6. Soit base est dite h une forme hermitienne. Les vecteurs x et y orthogonaux si h(x, y) = 0. Une sont orthogonale si ses vecteurs sont deux à deuxPorthogonaux. n 1 ai xi yi , avec ai ∈ R et la matrice de h est diagonale. La forme quadratique associée devient alors une combinaison linéaire de carrés : P q(x) = n1 ai |xi |2 . Le rang de h (ou de q ) est le nombre de coecients ai non-nuls. Le noyau de h est engendré par les vecteurs de base ei pour lesquels ai = 0 (ai réels). Dans une base orthogonale la forme s'écrit h(x, y) = . 1.7. Orthogonalisation de Gauss (réduction en carrés). L'orthogonalisation de Gauss permet de fabriquer une base orthogonale pour la forme quadratique hermitienne qh (x) = Pn i,j=1 aij xi xj par des changements de coordonnées successives. La méthode est la même que pour les formes bilinéaires symétriques. Résultat : toute forme hermitienne admet une base orthogonale. . 1.8. Classication des formes hermitiennes. Signature Soit q une forme quadratique hermitienne. Dans une base orthogonale, si on regroupe les coefs'écrit : Pqr+s 2 i=r+1 ai |xi | cients positifs et négatifs, q(x) = Pr 2 i=1 ai |xi | − avec ai > 0, i = 1, ..., k et r+s est le rang de q. . Théorème (loi d'inertie de Sylvester). négatifs) sont indépendants du choix de la base . Le couple (r, s) s'appelle Les entiers r et s q−orthogonale. (le nombre de carrés positif et signature de la forme hermitienne. . Corollaire. Deux formes hermitiennes sont équivalentes si et seulement si elles ont la même signature. . 1.9. si q est dite positive si q(x) ≥ 0 pour tout x ∈ E (donc, dénie positive si q(x) > 0 pour tout x non-nul (donc, si r = dim(E )). La forme quadratique hermitienne s = 0) ; elle est dite 18 . A X 6= 0. En termes matriciels, t XAX >0 pour tout Remarque : et seulement si est positive si t XAX pour toute matrice C C la matrice ≥ 0 pour tout A = t CC X; A est dénie positive si est positive ; t CC est dénie positive si est inversible. . 1.10. Orthogonalisation de Gauss pour les formes dénie positives. P n i,j=1 aij xi xj est dénie positive, on a q(x) = Si aii > 0 pour tout i. Donc dans l'algorithme de Gauss la matrice de changement de variables est à chaque étape triangulaire (supérieure) ; la P vers la base orthonormale dans laquelle q est la somme des carrés est donc −1 . On a A = t CC . triangulaire supérieure et t P AP = In . Soit C = P matrice de passage Théorème de factorisation triangulaire (Gauss-Cholesky). Pour toute matrice A hermitienne dénie positive il existe une unique matrice supérieure à diagonale positive telle que A= C triangulaire t CC . . 2. Espaces Hermitiens. 2.1. Soit E un C-espace vectoriel. Un produit scalaire sur E est une forme hermitienne dénie positive, noté La < ., . >. norme kxk2 =< x, x >. | < x, y > | ≤ kxkkyk associée est dénie par L'inégalité de Cauchy-Schwartz entraine l'inégalité du triangle kx + yk ≤ kxk + kyk. La distance d dans E est dénie par d(x, y) = kx − yk. Le produit scalaire est déterminé par la norme associée ("identité de polarisation"). Un tien. C-espace Exemples : vectoriel de dimension nie muni d'un produit scalaire s'appelle 1. Produit scalaire canonique dans : < x, y >= kxk2 = 1 |xi |2 . Rb E = C([a, b], C), < f, g >= a f (t)g(t)dt. par le "théorème de Pythagore" : 2. Cn Pn Pn 1 x i yi ; espace hermi- la norme est donnée . 2.2. Deux vecteurs x et y sont orthogonaux si < x, y >= 0. Sous-espace orthogonale. Soit A ⊂ E ; l'orthogonal de A est l'ensemble de vecteurs de E A: A⊥ = {x ∈ E : ∀y ∈ A on a < x, y >= 0}. ⊥ Il est claire que A est un sous-espace vectoriel de E . Deux sous-espaces E1 et E2 sont orthogonaux si tout vecteur de E1 est orthogonal à tout ⊥ ⊥ vecteur de E2 . Ceci est équivalent à dire que E2 ⊂ E1 ou que E1 ⊂ E2 . Il est évident dans ce cas T que E1 E2 = {0}. orthogonaux à tous les vecteurs de . Famille orthogonale. Une famille de vecteurs de E est dite orthogonale si les vecteurs de cette famille sont deux à deux orthogonaux. Une famille de vecteurs de E est dite orthonormale si elle est orthogonales et tous ses vecteurs sont de norme 1. Lemme. Une famille orthogonale sans vecteurs nuls est libre. (e1 , ..., en , ...) ei : e0i = keeii k . D'une famille orthogonale en normalisant les vecteurs . on peut facilement passer à une famille orthonormale Exemple. 1. Dans l'espace des fonctions continues C([0, 2π], C) avec le produit scalaire < f, g >= 1 2π R 2π 0 f (t)g(t)dt la famille (eint )n∈Z est orthonormale. 19 . 2.3. Coordonnées dans une base orthonormale.P n Soit (e1 , ..., en ) une base orthonormale , soit x = 1 xi ei , P Pn y = 1 yi e i . Pn n 2 2 =< ei , x >. 1 xi yi , kxk = 1 |xi | ("théorème de Pythagore") et xi P Coordonnées dans une base orthogonale : < x, y >= n1 < ei , ei > xi yi P <ei ,x> kxk2 = n1 < ei , ei > |xi |2 et xi = <e . i ,ei > Alors < x, y >= . 2.4. Orthogonalisation de Gram-Schmidt. Soit (v1 , ..., vn , ...) une famille libre dans E . On peut construire une famille orthonormale e1 , ..., en , ... V ect(v1 , ..., vk ) = V ect(e1 , ..., ek ) pour tout k ≥ 1. (Autrement dit, ek est une combinaison de v1 , ..., vk .) telle que linéaire . La construction est la même que pour un produit scalaire euclidien. . Corollaire. Tout espace hermitien admet une base orthonormale. Toute famille orthonormale dans un espace hermitien peut être complétée en une base orthonormale. . 2.5. Projection orthogonale. Soit E un espace muni du produit scalaire et Motivation . On sait que F L E=F T F ⊥ = {0}. F ⊂E un sous-espace. Supposons que F⊥ est un supplémentaire de F, donc F ⊥ , somme directe orthogonale. (Ceci est toujours vrai en dimension nie.) F , noté PF , est par dénition le projecteur sur F parallèlement à x ∈ E on décompose x = x1 + x2 avec x1 ∈ F et x2 ∈ F ⊥ ; alors, par dénition, PF (x) = x1 , composante "orthogonale" de x dans F . ⊥ est P Noter que le projecteur orthogonal sur F F ⊥ = Id − PF . Le projecteur othogonal sur F ⊥ . Si la . Dénition. Soit F ⊂ E un sous-espace de dimension nie. (e1 , ..., en ) une base orthonormale Pn de F . On dénit PF : E → E par PF (x) = 1 < ei , x > ei . Alors on a Lemme. PF est un projecteur sur F parallèlement à F ⊥ . ⊥ est Corollaire. Si F est un sous-espace de dimension nie, F L ⊥ ⊥ ⊥ E=F F , somme directe orthogonale. On a aussi (F ) = F . Soit un supplémentaire de F : . Projection orthogonale dans une base quelconque. y = PF (x) est caractérisé par les conditions y ∈ F et < z, y >=< z, x > pour tout vecteur z de F . Soit (e1 , ..., en ) une base de F . La dernière condition est donc équivalente à < ej , y >=< ej , x >, j = 1, ..., n. Pn Posons PF (x) = 1 yi ei . pour déterminer les coecients yi on doit résoudre le système : Pn y < e , e >=< ei , x >, j = 1, ..., n. j i j j=1 La matrice de ce système G = (< ei , ej >) s'appelle matrice de Gram. Soit (ẽ1 , ..., ẽn ) une base P orthonormale et ej = i aij ẽi , donc aij = (< ei , ẽj >). Soit A = (aij ), alors G = t AA. En particulier, G est dénie positive et dét G=|dét A|2 . Le vecteur . 2.6. Projection othogonale et meilleure approximation en moyenne quadratique. Distance à un sous-espace. 20 Lemme. Soit F x ∈ E . Alors la projection PF (x) kx − PF (x)k = min {kx − zk, z ∈ F }. est un sous-espace de dimension nie et réalise la distance minimale entre x et les vecteurs de F : . Exemple. Meilleure approximation en moyenne quadratique par des polynômes trigonométriques. P Un polynôme trigonométrique de dégré C([0, 2π]) une fonction continue. On cherche R 2π 2 l'écart 0 |f (t) − p(t)| dt soit minimal. ≤ n est la somme p(t) = on polynôme trigonométrique n ikt k=−n ak e . Soit p de degré ≤n f ∈ tel que C([0, 2π]) sur le sous-espace des poR 2π 1 lynômes trigonométriques de dégré ≤ n ; le produit scalaire est < f, g >= 2π 0 f (t)g(t)dt. On int ) a la famille orthogonale : (e n∈Z . On en déduit les coecients du polynôme p(t) de meilleure R 2π 1 −ikt approximation : ak = f (t)dt. 2π 0 e La réponse est donnée par la projection orthogonal dans . 2.7. Inégalité de Bessel et égalité de Bessel-Parseval. Soit Soit E un espace hermitien, soit (e1 , ..., en ) une P famille orthonormale. x ∈ E et xi =< ei , x >. Il est claire que ni=1 |xi |2 ≤ kxk2 . . Lemme. Soit x ∈ E . Les propriétés suivantes sont équivalentes : P n |xi |2 = kxk2 . i=1P n (ii) x = i=1 xi ei . (i) (iii) x appartient à l'espace vectoriel engendré par (e1 , ..., en ) (donc x est une cobinaison linéaire e1 , ..., en ). des vecteurs . Soit maintenant dim(E) = ∞. Théorème. Soit (e1 ,P ..., en , ...) une famille orthonormale innie, x ∈ E n 2 2 A. Pour tout n on a i=1 |xi | ≤ kxk P et xi =< ei , x >. ∞ 2 i=1 |xi | converge. et la série B. P Les propriétés suivantes sont équivalentes : ∞ 2 2 i=1 |xi | = kxk Pn . (ii) x = limn→∞ i=1 xi ei . (i) (iii) x appartient à l'adhérence de l'espace vectoriel engendré par la suite (e1 , ..., en , ...). . Egalité de Bessel-Parseval dans une "base" orthogonale. Si (e1 , ..., en , ...) est une famille orthogonale et engendré par la suite kxk2 = . (e1 , ..., en , ...), x appartient à l'adhérence de l'espace vectoriel alors <ei ,x>2 i=1 <ei ,ei > . P∞ 3. Formes hermitiennes et endomorphismes. 3.1. Proposition. Soit E un espace hermitien et f un endomorphisme de E . Il existe l'unique f ∗ tel que < x, f (y) >=< f ∗ (x), y >. endomorphisme Dénition. L'endomorphisme f ∗ tel que < x, f (y) >=< f ∗ (x), y > s'appelle l'adjoint de f . La matrice de Mf ∗ = Dénition. phisme f∗ dans une base orthonormale est la transposée hermitienne de la matrice de tM . f f L'endomorphisme f est dit auto-adjoint ou hermitien si f∗ = f. f L'endomor- est hermitien si et seulement si sa matrice dans une base orthonormale est hermitienne. . Exemple. Une projection orthogonale est auto-adjoint. . 21 : 3.2. Propriétés de l'adjoint. (f −1 )∗ f → f∗ L'application est linéaire ; (f ∗ )∗ = f , (f g)∗ = g ∗ f ∗ et (f ∗ )−1 . = Lemme. (1) L'orthogonal d'un sous-espace stable par f (2) Ker f∗ = (Im f )⊥ et Im f∗ =( Ker est stable par f ∗. f )⊥ . . Corollaire. Si f f et Im f. est auto-adjoint, alors Ker f = (Im L'orthogonal d'un sous-espace stable par f f )⊥ et E est la somme orthogonale de Ker est stable par f. . 3.3. Diagonalisation des matrices hermitiennes. Proposition. Soit f un endomorphisme auto-adjoint. Alors (i) Toutes les valeurs propres de (ii) Les sous-espaces propres de (iii) f f sont réelles. f sont deux à deux . 3.4. Un endomorphisme hermitien f associée orthogonaux. est diagonalisable dans une base orthonormale. h(x, y) =< x, f (y) > est dit positif (respectivement, déni positif) si la forme est positive (respectivement, déni positive). La proposition précédente montre que'un endomorphisme hermitien est positif (respectivement, déni positive) si et seulement si toutes ses valeurs propres sont positives (respectivement, stictement positives). Une matrice hermitienne pour tout X∈ A est dit positive Rn (respectivement, t XAX >0 (respectivement, pour tout X déni positive) si t XAX ≥0 non-nul). . Exemple : racine carré d'une matrice positive. Soit f spectral associé à la valeur propre est hermitien positif et g2 = f . λi , i = 1, ..., k . On a √i le projecteur PΠ λi √ Πi . Alors g positive f = g est un endomorphisme positif, f= P λ i Πi . Posons g= On montre facilement qu'une telle racine carré unique. . 3.5. Diagonalisation d'une forme hermitienne dans une base orthonormale. Soit q une forme quadratique hermitienne et soit f un endomorphisme auto-adjoint tel que q(x) =< x, f (x) >. On a vu que dans une base orthonormale q et f ont la même matrice. Donc dans une base orthonormale de vecteurs propres de f la matrice de q est diagonale et q est une combinaison linéaire de carrés. Proposition. "Réduction aux axes principaux". Pour toute forme quadratique hermitienne q il existe une une base orthonormale dans laquelle la matrice de linéaire de carrés : auto-adjoint f q(x) = Pn associé (q(x) 2 1 ai |xi | . Les coecients =< x, f (x) >). On peut reformuler ce résultat comme la tiques : la forme q et le produit scalaire . 4.1. Soit E sont les valeurs propres de l'endomorphisme diagonalisation simultanée de deux formes quadra- < x, x >. 4. Transformations unitaires. un espace hermitien. U de E < U x, U y >=< x, y > Un endomorphisme scalaire : ai q est diagonale et q est une combinaison est unitaire pour tout (est une isométrie linéaire) si x, y ∈ E . . Proposition. Les propriétés suivantes sont équivalentes. U est unitaire. (ii) U préserve la norme : kU xk = kxk pour tout x ∈ E . (iii) U transforme toute base orthonormale en base orthonormale. (i) 22 U préserve le produit (iv) U transforme une base orthonormale en base orthonormale. Un endomorphisme unitaire est injectif, donc inversible (dim E < ∞ !). Son inverse est aussi unitaire. . si 4.2. L'égalité < U x, U y >=< x, y > s'écrit aussi < U ∗ U x, y >=< x, y > ce qui est équivalent à U ∗ U = In . Donc U U ∗ U = In , ou encore ssi U −1 = U ∗ . Une matrice unitaire Une matrice unitaire de A est orthogonal si et seulement est la matrice d'un endomorphisme unitaire dans une base orthonormale. est caractérisée par la relation t U U = U t U = In qui signie que les colonnes U (aussi que ses lignes) constituent une base orthonormale par rapport au produit scalaire canonique dans C n. . 4.3. Transformations unitaires et diagonalisation d'une forme hermitienne dans une base orthonormale. A Soit la matrice d'une forme quadratique hermitienne q dans une base B; soit P la matrice de 0 0 0 passage de B à une autre base B . Alors la matrice de la forme q dans la base B est A = t P AP . −1 0 0 t et on a A = t P AP = Si les deux bases B et B sont orthonormales, P est unitaire : P = P P −1 AP . Donc la matrice d'une forme se transforme comme la matrice d'un endomorphisme si le changement de coordonnées est unitaire. Cela montre encore une fois que la diagonalisation d'une forme quadratique par une transformation unitaire demande la recherche des valeurs et des vecteurs propres de A. . . 4.4. Réduction des endomorphismes unitaires. Proposition. Soit U un endomorphisme unitaire. (i) Si le sous-espace F est stable par (ii) Toute valeur propre de (iii) U U U, alors F⊥ est stable par U. est de module 1. est diagonalisable dans une base orthonormale. Transformations unitaires en petite dimension. Dimension 1. U x = αx où |α| = 1. Dimension 2. Toute matrice unitaire peut s'écrire sous la forme suivante : U=α . a −b̄ b ā où |α| = 1 et |a|2 + |b|2 = 1. 4.5. Décompositon polaire. Théorème. Soit A ∈ M atn (C) une matrice inversible. Il existe l'unique matrice unitaire U l'unique matrice hermitienne dénie positive S telles que et A = U S. . 4.6. Décomposition unitaire-triangulaire. Théorème. Soit A ∈ M atn (C) une matrice inversible. Il existe l'unique matrice unitaire U l'unique matrice triangulaire supérieure T avec une diagonale positive telles que A = UT. . La décomposition unitaire-triangulaire est liée à l'orthogonalisation de Gram-Schmidt. 23 et Chapitre 4 Géométrie ane 1. Généralités Définition 4.1. Soit Un E qui associe au couple de points (i) Pour tout (ii) Pour tous La R-espace un espace ane dirigé par E O∈E dimension de E A, B ∈ E l'application A, B, C ∈ E vectoriel de dimension nie. est un ensemble non-vide on a la un vecteur −→ A 7→ OA −−→ AB , E muni d'une application et qui vérie E sur E . −→ −−→ −−→ relation de Chasles : AC = AB + BC . est par dénition celle de est une bijection de E. Exercice 4.2. La relation de Chasles a pour conséquence immédiate : Example. L'espace vectoriel E : pour deux vecteurs Fixons O∈E u et v E admet une on pose −→ → −−→ −−→ − AA = 0 et BA = −AB . structure canonique d'espace ane dirigé par − → = v − u. uv que l'on appellera origine, et posons bijection qui identie la structure ane de −−→ −→ −−→ v(B) − v(A) = OB − OA = AB E ×E →E E −→ v(A) = OA. Alors avec la structure ane canonique v : E → E est une −−−−−−→ de E : v(A)v(B) = - conséquence de la relation de Chasles. Le choix d'origine donc "vectorialise" l'espace ane. Réciproquement, on peut dire qu'un espace ane est un espace vectoriel avec l'origine (zéro) oubliée . v ∈ E . Pour A ∈ E on dénit Tv (A) ∈ E appelle Tv la translation par v . Définition 4.3 (Translation). Soit l'unique point tel que Lorsque la notation −−−−−→ A Tv (A) = v . On comme étant E = E (avec la structure ane canonique) on a Tv (u) = v + u. Par analogie, on adopte −−→ −−→ : Tv (a) = A + v . Dans cette notation B = A + AB (et v = AB est l'unique tel que B = A + v ). On a : T0 = Id et Tv+u = Tv Tu . Il en suit que Tv : E → E est une bijection, avec Tv−1 = T−v . (On dit alors que le groupe additif (E, +) agit sur l'espace ane E .) Lemme 4.4. (i) (ii) −−→ Pour A, B ∈ E , il existe un unique vecteur v ∈ E tel que Tv (A) = B (c'est v = AB ). E est équivalente à la donnée de l'action Tv , v ∈ E , vériant les propriétés du lemme. Remarque 4.5. La donnée de la structure ane sur de E sur E - la donnée d'une famille de "translations" 2. Barycentres, combinaisons anes Commençons avec un exemple : Soit v ∈ E et A ∈ E . La droite ane passant par A dirigée par v est l'ensemble de points M = A + λv , λ ∈ R. La droite ane passant par deux points A et B est dirigée par le vecteur −−→ −−→ v = AB ; ses points sont M = A + λAB , λ ∈ R. 25 −−→ −−→ −→ −−→ O. Alors M = A + λAB si et seulement si OM = OA + λAB = −→ −−→ (1 − λ)OA + λOB . Autrement dit, la droite ane passant par A et B consiste en tous les points −−→ −→ −−→ M tels que OM = µOA + λOB avec λ + µ = 1. On appelle M le barycentre des points A et B aectés de poids µ et λ. P Lemme 4.6. Soit A1 , ..., Ak des points aectés des poids λ1 , ..., λk , tels que i λi 6= 0. Soit aussi O ∈ E un point quelconque (une origine ). Les propriétés suivantes sont équivalentes pour un point M ∈ E : P −−−→ (i) i λi M Ai = 0. P −−→ P −−→ (ii) ( i λi )OM = i λi OAi . −−→ P1 P −−→ (iii) OM = i λi OAi . i λi −−→ 1 P (iv) M = O + P i λi OAi . En particulier, un unique M ayant ces propriétés existe. λi Choisissons une "origine" i De surcroît, un unique tel point M existe toujours. Démonstration. X (i) ⇐⇒ −−→ λi OAi − ! X i (ii) ⇐⇒ (iii) (ii). Puisque λi −−→ X −−→ −−→ X −−−→ OM = λi OAi − OM = λi M Ai = 0. i ⇐⇒ i i (iv). Clair. M déni dans le lemme s'appelle le barycentre des points A1 , ..., Ak aectés des coecients λ1 , ..., λk . On notera M = Bar{(λi , Ai )}. P P Si M = Bar{(λi , Ai )} et i λ i Ai . i λi = 1, on écrit aussi M = P P −−→ P −−→ En d'autres mots, M = λi = 1 et OM = i λi OAi (et ceci quel i λi Ai si et seulement si que soit O ). 1 P Si E = E , le barycentre v des vecteurs u1 , ..., uk aectés des poids λ1 , ..., λk est v = P i λi ui . i λi P P En particulier, si i λi ui . (Comparer avec la notation pour le barycentre : i λi = 1, alors v = P M = i λi Ai .) Vu que v est une combinaison linéaire des vecteurs ui , on peut appeler le barycentre combinaison ane des points Ai . Définition 4.7. Le point repère ane de E la donnée de nP+ 1 points n B ∈ E s'exprime d'une manière unique comme B = 0 xi Ai (où (x0 , . . . , xn ) les coordonnées barycentriques de B dans ce repère. Définition 4.8 (Repère ane). On appelle (A0 , . . . , An ) P n 0 xi = 1 !). tels que chaque On appelle Cette dénition est symétrique, dans le sens qu'une permutation d'un repère est un repère. −−−→ A0 un rôle particulier et posant ei = A0 Ai . On a donc B = −−→ Pn −−−→ Pn −−−→ 0 xi Ai si et seulement si A0 B = 0 x i A0 Ai = 1 xi A0 Ai . Ainsi, (A0 , . . . , A Pnn) est un repère si et seulement si chaque vecteur v ∈ E s'exprime d'une manière unique comme 1 xi ei . Autrement Brisons cette symétrie en donnant à Pn dit : Lemme 4.9. Une famille de n + 1 vecteurs (A0 , . . . , An ) est un repère ane si et seulement si (e1 , . . . , en ) est une base de E . En particulier, n = dim E . Définition 4.10. Les coordonnées anes d'un point B dans le repère (A0 , . . . , An ) sont par dénition les coordonnées du vecteur −−→ A0 B dans la base 26 (e1 , . . . , en ). (A0 , . . . , An ) sont (x0 , x1 , . . . , xn ) si Pn −−→ et seulement si (x1 , . . . , xn ) sont les coordonnées de A0 B dans la base (e1 , . . . , en ) et x0 = 1− 1 xi . Le lien : les coordonnées barycentriques de B dans un repère La propriété suivante de "l'associativité du barycentre" est très utile. λi,j Ai,j , où Pour chaque i = 1, . . . , k soit Bi = m Pk P P P j=1 C = i=1 µi Bi , où µi = 1. Alors i,j µi λi,j = 1, et C = i,j µi λi,j Ai,j . P Proposition 4.11. Démonstration. On a X −−−−→ λi,j Bi Ai,j = 0, X P j λi,j = 1. Soit −−→ µi CBi = 0. i j Ainsi ! 0= X µi i X λi,j X −−→ X X −−−−→ X −−→ −−−−→ −−−→ CBi + µi λi,j Bi Ai,j = µi λi,j (CBi + Bi Ai,j ) = µi λi,j CAi,j . i i j i,j i,j 3. Sous-espace ane Définition 4.12. Une partie non vide tout A, B ∈ F , F F de l'espace ane E est un sous-espace ane si pour contient la droite passant par ces deux points. Les conditions suivantes sont équivalentes pour une partie F ⊆ E : F est un sous-espace ane de E . Lemme 4.13. (i) (ii) (iii) (iv) −−→ Pour tout O ∈ F l'ensemble F = {OM , M ∈ F} est un sous-espace vectoriel de E . Dans ce cas, F ne dépend du choix de O, si bien que F est à son tour un espace ane dirigé par F . On a F = {O + v, v ∈ F } où F est un sous-espace vectoriel de E et O un point de F . Si A1 , ..., Ak ∈ F alors tout barycentre des points A1 , ..., Ak est dans F . (Toute combinaison ane des points de F est dans F .) droite est un sous-espace ane de dimension 1. hyperplan est un sous-espace ane de codimension 1 (de dimension dim E − 1). Une Un Lemme 4.14. L'intersection d'une famille de sous-espaces anes de E et un sous-espace ane si cette intersection est non vide. Soit F un sous-espace ane dirigé par donc un repère ane de F et tout point B F de ; soit F O ∈ F et (v1 , ..., vk ) B =O+ Rk . (s1 , ..., sk ) ∈ Soit (x1 , ..., xn ) un système de coordonnées anes point O et (a1i ..., ani ) les coordonnées du vecteur vi . Pk Pk i=1 si vi sont xj = cj + i=1 aji si , j = 1, ..., n. dans E. Soit F. Pk une base de admet l'expression unique : (c1 , ..., cn ) On a i=1 si vi , les coordonnées du Alors les coordonnées du point B = O+ Position relative de deux sous-espaces (i) Soit F et G deux sous-espaces de E d'intersection non-vide. Alors F ∩ G est dirigé par F ∩ G. Si F + G = E alors F ∩ G est non vide. Si les sous-espaces vectoriels F et G sont supplémentaires (E = F ⊕ G), alors F ∩ G est un seul point. Lemme 4.15. (ii) (iii) Définition 4.16. On dit que deux sous-espaces G ⊂ F. Dans ce cas que soit F et G F et G de E sont parallèles sont disjoints, soit l'un contient l'autre. 27 si F ⊂ G ou Soit S⊂E Sous-espace ane engendré par une partie. une partie non-vide. Le sous-espace ane engendré par section de tous les sous-espaces anes qui contiennent Lemme 4.17. (i) points de S . noté A(S ), est l'inter- A(S ) est l'ensemble de toutes les combinaisons anes (barycentres) des −→ Soit O ∈ S et soit F le sous-espace vectoriel de E engendré par les vecteurs OA, A ∈ S . Alors l'espace directeur de A(S) est F : A(S) = {O + v, v ∈ F }. (A0 , ..., An ) est un repère ane si et seulement si n = dim E et A(A0 , ..., An ) = E . (ii) (iii) 4. Applications anes Une application f : E → F est ane si f (λA + µB) = λf (A) + µf (B) pour Définition 4.18. tout S, S. A, B ∈ E et tout λ, µ tels que λ + µ = 1. Les conditions suivantes sont équivalentes pour une application f : E → F : f est une application ane. Lemme 4.19. (i) −−→ −−−−−−→ Il existe un point A ∈ E tel que l'application h : E → F déni par h(AB) = f (A)f (B) ou, −−−−−−−−−→ avec une autre notation, h(v) = f (A)f (A + v) est linéaire. Il existe une application linéaire que l'on notera df : E → F telle que pour tout point A on ait f (A + v) = f (A) + df (v). f préserve les barycentres et les combinaisons anes : (ii) (iii) (iv) X f (Bar{(λi , Ai )}) = Bar{(λi , f (Ai ))} lorsque αi 6= 0 X X X λ i Ai = f λi f (Ai ) lorsque αi = 1 f : E → F une application ane. La partie linéaire de f , notée df , df : E → F telle que f (A + v) = f (A) + df (v). Ceci est équivalent à : −−−−−−→ −−→ df (AB) = f (A)f (B), d'où l'unicité de la partie linéaire de f . Définition 4.20. Soit est l'application ane On peut dire qu'une application ane est une application linéaire plus une constante. 4.1. Écriture en coordonnées. 0 Fixons les repères anes R = (A0 ; e1 , ..., en ) dans E et R = 0 0 (B0 ; e1 , ..., ek ) dans F . Soit (x1 , ..., xn ) les coordonnées du point M dans R et (y1 , ..., yk ) les coordonnées de f (M ) dans R0 . Pn Alors yi = ci + j=1 aij xj , où (aij ) est la matrice de la diérentielle df dans les bases des repères 0 R, R et (c1 , ..., ck ) les coordonnées du point f (A0 ) . c+ Fonction ane f : E → R. P Dans un système de coordonnées anes f s'écrit f (x1 , ..., xn ) = i ai xi . . La Im(f ). formule du rang Alors dim (E) pour les applications linéaires s'adapte aux applications anes : Soit =dim (Imf )+ dim (f Soit f : E → F une application ane. Alors Si E1 un sous-espace ane de E alors f (E1 ) est un sous-espace ane de F . Si F1 un sous-espace ane de F et f −1 (F1 ) est non-vide, alors, f −1 (F1 ) est un sous-espace ane de E . Lemme 4.21. (i) (ii) B∈ −1 (B)). 28 Equation d'un hyperplan : tout hyperplan est déni par une équation ane P i ai xi = c. . "Combinaison ane" des applications anes. Soit fi : E → F ,Pi = 1, ..., k des applications anes et λ1 + ... + λk = 1. P f = i λi fi par f (A) = i λi fi (A) (barycentre). On dénit Exercice : anes dénir une structure de l'espace ane dans l'ensemble de toutes les applications f : E → F. Applications anes de dans E . Transformations anes. E . Les propriérés d'une application ane f sont déterminées par les propriétés de sa diérentielle df . Si df n'admet pas de vecteur xe non-nul (i.e., si 1 n'est pas une valeur propre de df ), alors f admet un unique point xe. Si df admet des vecteurs xes non-nuls (i.e., si 1 est une valeur propre de df ), alors l'ensemble des points xes de f est soit vide soit un sous-espace ane dirigé par {v ∈ E : df (v) = v} (l'espace propre correspondant à 1). Proposition 4.22. (ii) Si f (i) admet un point xe donc, en vectorialisant Définition 4.23. E f en est une Proposition 4.24. (ii) O et on prend O = f (O) pour origine, f s'écrit f (O + v) = O + df (v) O, on identie f avec l'application linéaire df . (i) homothétie de centre O et de rapport k si f (O) = O et df : = kId. f : E → E est une translation si et seulement si df = Id. Si df = kId avec k 6= 1, alors f est une homothétie. Projections et symétries anes. associé, et soit G Soit un sous-espace vectoriel de F E E , F l'espace E = F ⊕ G. un sous-espace ane de supplémentaire à F : vectoriel . si Soit Π : E → E v ∈ G. le projecteur vectoriel sur Définition 4.25. Soit −→ p(A) = O + Π(OA). O ∈ F. La F parallèlement à G : Π(v) = v projection ane p sur F si v∈F parallèlement à G et Π(v) = 0 est dénie par (i) La projection ane sur F parallèlement à G ne dépend par du choix du point O. Ainsi, elle vérie p(A) = A pour tout A ∈ F et dp = Π, et son image est F . Soit f une transformation ane de E . Alors f est un projecteur ane si et seulement si f 2 = f . Dans ce case c'est le projecteur ane sur F = f (E), parallèlement à ker df . Lemme 4.26. (ii) Soit σ : E → E la σ(v) = −v si v ∈ G. symétrie vectorielle par rapport à F parallèlement à 2.7. Dénition. La symétrie ane s par rapport à F G : σ(v) = v parallèlement à −−→ conditions s(O) = O si O ∈ F et ds = σ ; donc p(M ) = O + σ(OM ). Lemme. s est une symétrie ane si et seulement si f · f = Id. Définition 4.27. Un vectoriel euclidien 5. Espaces anes euclidiens espace ane euclidien est un espace E. On dénit la distance dans E par −−→ d(A, B) = kABk. 29 ane E G si v∈F et est dénie par les dirigé par une espace Définition 4.28. Un repère ane −−−→ −−−→ (A0 A1 , ..., A0 An ) (A0 , A1 , ..., An ) et G orthonormé si la base vectorielle est orthonormée. Définition 4.29. Deux sous-espaces ane F est dit F et G sont orthogonaux si leurs espaces directeurs sont orthogonaux. 5.1. Isométries. Définition 4.30. Soit X→X X un espace métrique. On appelle qui préserve la distance : d(f x, f y) = d(x, y) Remarque 4.31. Les isométries de X pour tous isométrie de X une bijection f : x, y ∈ X . forment un groupe par rapport à la composition. Lemme 4.32. Une application ane f : E → E est une isométrie si et seulement si sa partie linéaire df : E → E est une isométrie de E . Rappel [une variante de la formule de polarisation] : dans un espace euclidien on a toujours : 1 1 kxk2 + kyk2 − kx − yk2 = kxk2 + kyk2 − d(x, y)2 . 2 2 Lemme 4.33. Soit E un espace euclidien. Une isométrie f : E → E qui xe 0 est linéaire. C'est donc un endomorphisme orthogonal de E . hx, yi = Démonstration. Montrons d'abord que kf xk = kxk. En eet, kf xk = d(f x, 0) = d(f x, f 0) = d(x, 0) = kxk. Ainsi, pour tout x, y ∈ E : 1 kf xk2 + kf yk2 − kd(f x, f y)k2 2 1 = kxk2 + kyk2 − kd(x, y)k2 2 = hx, yi. hf x, f yi = B = (e1 , . . . , en ) une base orthonormée de E , et posons B 0 = f (e1 ), . . . , f (en ) . 0 D'après le point précédent, B est aussi une base orthonormée. On se rappelle que dans une base orthonormée on a pour tout x : X x= hei , xiei . Soit maintenant i P x = xi ei avec xi = hei , xi. Ainsi : X X X X f xi ei = f x = hf (ei ), f xif (ei ) = hei , xif (ei ) = xi f (ei ). En d'autres mots, i Ainsi f est linéaire. Il suit que Théorème 4.34. Remarque. f i i est orthogonal. Toute isométrie d'un espace ane euclidien est une application ane. Une application ane f :E →E est une isométrie si et seulement si f transforme un (ou tout) repère orthonormé en repère orthonormé. Définition 4.35. On appelle placement ou isométrie indirecte) déplacement de E ou isométrie directe toute isométrie f telle que (respectivement, det df = 1 antidé- (respectivement, det df = −1). Les translations sont évidemment des déplacements. Les déplacements forment un sous-groupe dans Iso(E ) d'indice 2 ; le produit de deux antidéplacements est un déplacement. 30 Définition 4.36. Soit PF : E → F , F un sous-espace ane de est la projection ane sur Formule : on xe une origine F O ∈ F, E . La projection F ⊥. orthogonale sur F , notée parallèlement à et −→ PF (A) = O + PF (OA). Définition 4.37. Soit La à F F un sous-espace ane de E. symétrie orthogonale par rapport à F , notée sF : E → E est la symétrie ane par rapport parallèlement à F ⊥. Formule : on xe une origine O ∈ F, et −→ sF (A) = O + sF (OA). Une symétrie orthogonale est une isométrie, car (−1)dim E−dim F = (−1)dim E−dim F . Ainsi, sF est paire (c'est à dire, dim(E) − dim(F) est paire). On appelle sF est une isométrie de E. On a det sF = F est directe si et seulement si la codimension de reexion une symétrie orthogonale par rapport à un hyperplan ; une reexion est une isométrie indirecte (un antidéplacement). Étant donné deux points distincts A B et de E, l'hyperplan médiateur du segment [AB] est −−→ −−→ + 12 B + AB ⊥ = { 12 A + 12 B + v : v ⊥ AB} (i.e., l'unique s.e.a. passant par donné par : F = −−→⊥ 1 2 (A + B) et dirigé par AB ). La réexion orthogonale sF échange A et B . 1 2A Exercice 4.38. La réexion orthogonale sF est l'unique réexion orthogonale échangeant A et B. Vu que toute isométrie vectorièle dans Rn s'écrit comme un produit d'au plus n réexions, on a : Proposition 4.39. exions.) Toute isométrie de E s'écrit comme un produit d'au plus 1 + dim E ré- Lemme 4.40. Soit E un espace euclidien, f ∈ End(E) un endomorphisme orthogonal. Alors pour tout w ∈ E il existe v, u ∈ E tels que : v = f v = w + f u − u. Démonstration. Posons ⊥ g = f − id ∗ G = ker g = ker(f i.e., dit, et −1 G = img g . Alors − id) = {x ∈ E : f x = x} = ker g, ker g ⊕ img g = E . Ainsi on peut exprimer w = v + u0 f v = v et u0 = f u − u pour un certain u ∈ E . où v ∈ ker g et u0 ∈ img g . Autrement Soit E un espace ane euclidien et f : E → E une isométrie. Alors il existe −−−−→ un point A tel que df (v) = v où v = Af (A). Dans ce cas on pose fA (A + x) = A + df (x) et on a dfA = df (en particulier, fA est une isométrie). f = Tv fA = fA Tv . fA (A) = A. Proposition 4.41. v, u ∈ E tels −−−−→ v = df (v) = Of (O) + df (u) − u. −−−−→ Posons A = O + u. Alors f (A) = f (O) + df (u) = O + u + Of (O) + df (u) − u = A + v , −−−−→ v = Af (A). On a déjà df (v) = v . Démonstration. Fixons O∈E arbitrairement. D'après le Lemme il existe 31 que donc dfA (A) = A. Il reste : Tv fA (A + x) = Tv A + df (x) = A + df (x) + v = f (A) + df (x) = f (A) Par dénition de fA on a dfA = df et fA Tv (A + x) = fA (A + x + v) = A + df (x + v) = A + df (x) + v = . . . = f (A). 3.10. Dénition. Une transformation ane f multiplie toutes les distances par d(f (x), f (y)) = kd(x, y) k k df : E → E Remarque : :E→E ki , i = 1, 2, si f E | k |. est une similtude de rapport est une similitude vectorielle : les similitudes de similitude de rapport similitude de rapport k x, y ∈ E . est une similitude de rapport Lemme. Une application ane f partie linéaire est une : pour tous Une homothétie de rapport :E →E k si et seulement si sa kdf (v)k = ±kkvk. forment un groupe par rapport à la composition. Si alors f1 f2 est une similitude de rapport fi est une k1 k2 . 3.11. Lemme. (i) Toute similitude de rapport k 6= 1 admet un point xe (unique). (ii) Toute similitude de rapport k est la composée d'une homothetie de rapport k et d'une isométrie. . Classication des isométries en dimension 2 et 3. La classication des isométries anes repose sur la classifcation des isométries vectorielles. Lemme. Soit U une isométrie de l'espace vectoriel E . 1. dim E = 2. a) dét U = 1 : U est une rotation. b) dét U = −1 : U est une réexion. 2. dim E = 3. a) dét U b) dét U = −1 : U =1:U est une rotation autour d'un axe. est une réexion composée avec une rotation autour de l'axe orthogonal au plan de réexion. . 4.1. Proposition. (i) Isométries anes du plan Tout déplacement du plan est une translation ou une rotation autour d'un point ; ici la rotation commute avec la translation. (ii) Toute antidéplacement est le produit d'une réexion par rapport à une droite avec une translation parallèle à cette droite (une "réexion-translation") ; ici la reexion commute avec la translation. . 4.2. Proposition. (i) Isométries anes de l'espace. Tout déplacement de l'espace est soit une translation soit le produit (commutatif ) d'une rotation autour d'un axe et d'une translation parallèle à l'axe de rotation ("vissage"). (ii) Toute antidéplacement est soit le produit (commutatif ) d'une réexion par rapport à un plan avec une translation parallèle à ce plan ("réexion-translation"), soit le produit (commutatif ) d'une réexion par rapport à un plan avec une rotation autour d'un axe orthogonal à ce plan ("réexion-rotation"). . Similitudes planes et nombres complèxes. On identie le plan euclidien 4.3. Proposition. R2 avec le plan complèxe Toute similitude directe de similitude indirecte s'écrit Le rapport d'une telle C C. s'écrit s(z) = az + b, s(z) = az̄ + b, a 6= 0. similitude est | a |. En particulier, c'est une isométrie si et seulement si 32 | a |= 1. avec a 6= 0. Toute