Algèbre linéaire de MPSI
Transcription
Algèbre linéaire de MPSI
Algèbre linéaire de MPSI I - Structure d’espace vectoriel K désigne R ou C. 1) Définition On appelle K-espace vectoriel tout triplet (E, +, .) où : 1) E est un ensemble dont les éléments sont appelés vecteurs. 2) + est une loi de composition interne sur E telle que (E, +) soit un groupe abélien. L’élément neutre 0 est appelé vecteur nul. 3) . : K × E (λ, x) → → ∗ ∀(λ, µ) ∈ K2 E est une loi de composition externe vérifiant : λ.x ∀x ∈ E ∗ ∀λ ∈ K ∀(x, y) ∈ E ∗ ∀(λ, µ) ∈ K2 ∗ ∀x ∈ E ∀x ∈ E (λ + µ).x = λ.x + µ.x ; λ.(x + y) = λ.x + λ.y ; λ.(µ.x) = (λµ).x ; 1.x = x. Exemples : 1) (K, +, .) où . est la multiplication dans K. 2) L’ensemble E D des applications d’un ensemble D dans un espace vectoriel E (les opérations dans E D étant définies grâce à celles de E : f +g : x → f(x)+g(x) ; λ.f : x → λ.f(x)). 2) Propriétés élémentaires • ∀x ∈ E 0.x = 0. • ∀λ ∈ K λ.0 = 0. • ∀(λ, x) ∈ K × E λ.x = 0 ⇔ (λ = 0 ou x = 0). • ∀(λ, x) ∈ K × E (−λ).x = −(λ.x) = λ.(−x). 3) Espace vectoriel produit Soit (Ek , +, .) 1≤k≤n une famille de K-espaces vectoriels. L’ensemble E1 × · · · × En muni des lois + et . définies par : • (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) • λ.(x1 , . . . , xn ) = (λ.x1 , . . . , λ.xn ) est un K-espace vectoriel, appelé espace vectoriel produit de E1 , . . . , En . Exemples : 1) L’exemple canonique est Kn . 2) C s’identifie à R2 en tant que R-espace vectoriel. II - Sous-espaces vectoriels E désigne un K-espace vectoriel. 1) Définition Soit F une partie de E. On dit que F est un sous-espace vectoriel de E si et seulement si la restriction de la loi + à F × F et la restriction de la loi . à K × F induisent sur F une structure de K-espace vectoriel. Algèbre linéaire de MPSI Page 2 2) Caractérisations Une partie F de E est un sous-espace vectoriel de E si et seulement si • 0 ∈ F et ∀(x, y) ∈ F 2 x + y ∈ F et ∀(λ, x) ∈ K × F λ.x ∈ F ; ou bien • 0 ∈ F et ∀λ ∈ K ∀(x, y) ∈ F 2 λ.x + y ∈ F . 3) Intersection de sous-espaces vectoriels Théorème : l’intersection d’une famille quelconque de sous-espaces vectoriels de E est un sous-espace vectoriel de E. Attention ! En général, l’union de deux sous-espaces vectoriels de E n’est pas un sous-espace vectoriel de E (c’en est un si et seulement si l’un des deux sous-espaces considérés est inclus dans l’autre. . . ). 4) Sous-espace engendré par une partie ou une famille Soit A une partie de E. On appelle sous-espace vectoriel engendré par A l’intersection de tous les sous-espaces vectoriels de E contenant A, notée Vect A. Vect A est le plus petit (au sens de l’inclusion) des sous-espaces de E contenant A. p Vect A est l’ensemble formé du vecteur nul et des vecteurs de la forme λk .ak , où les λk sont des scalaires et les ak des vecteurs de A (Vect ∅ = {0}). k=1 Si (xi )i∈I est une famille de vecteurs de E, on note Vect (xi )i∈I les sous-espace engendré par la partie {xi , i ∈ I}. 5) Somme de deux sous-espaces vectoriels Définition : soient F et G deux sous-espaces vectoriels de E, on appelle somme de F et G la partie de E notée F + G définie par : F + G = {x ∈ E / ∃(y, z) ∈ F × G x = y + z}. Théorème : F + G est un sous-espace vectoriel de E. C’est le plus petit sous-espace vectoriel de E contenant F et G (autrement dit F + G = Vect (F ∪ G)). 6) Sous-espaces vectoriels supplémentaires Définition : deux sous-espaces vectoriels F et G de E sont dits supplémentaires dans E si et seulement si tout vecteur de E se décompose de façon unique comme somme d’un vecteur de F et d’un vecteur de G, c’est-à-dire si et seulement si : ∀x ∈ E ∃!(y, z) ∈ F × G x = y + z . Théorème : les assertions suivantes sont équivalentes : a) F et G sont supplémentaires dans E. b) E ⊂ F + G et F ∩ G = {0}. Attention ! Ne pas confondre un supplémentaire et le complémentaire. Si x est un vecteur de E qui n’appartient pas à F , x n’est pas pour autant nécessairement dans G ! On peut seulement affirmer a priori que x s’écrit y + z, avec (y, z) ∈ F × G et z = 0 . . . Algèbre linéaire de MPSI Page 3 III - Translations, sous-espaces affines Soit E un K-espace vectoriel. 1) Translations Définition : pour tout vecteur a de E, on appelle translation de vecteur a l’application τ a : x → a + x, de E dans E . Propriétés : 1) τ 0 = IE et ∀ (a, b) ∈ E 2 τ a ◦ τ b = τ a+b . 2) Pour tout a de E, τ a est bijective et τ −1 a = τ −a . 3) L’ensemble des translations de E est un sous-groupe commutatif du groupe des bijections de E dans E. 2) Sous-espaces affines Définition : on appelle sous-espace affine de E toute partie W de E de la forme a + F , où F est un sous-espace vectoriel de E et où l’on note : a + F = τ a (F ) = {a + x, x ∈ F } Exemples : 1) Pour tout a de E, a + {0} = {a}. 2) Pour v vecteur non nul de E, et a ∈ E, a + Vect v est la droite affine passant par a dirigée par v. Théorème et définition : soit W = a + F un sous-espace affine de E ; alors pour tout b de W , on a W = b + F ; par contre, le sous-espace vectoriel F est unique, on l’appelle la direction de W . Définition : soient W et W ′ deux sous-espaces affines de E. On dit que W est parallèle à W ′ si et seulement si la direction de W est incluse dans celle de W ′ . Attention ! Cette relation n’est pas symétrique. On dira que W et W ′ sont parallèles si et seulement si leurs directions sont égales. Par exemple en dimension 3, on peut avoir une droite parallèle à un plan, deux droites parallèles ou deux plans parallèles. 3) Intersection de deux sous-espaces affines Soient W = a + F et W ′ = a′ + F ′ deux sous-espace affines de E. • L’intersection W ∩ W ′ est, soit vide, soit un sous-espace affine de direction F ∩ F ′ . • Si F + F ′ = E, alors W ∩ W ′ est non vide (c’est donc un sous-espace affine de direction F ∩ F ′ ). • Si F et F ′ sont supplémentaires, W ∩ W ′ est un singleton. IV - Applications linéaires 1) Définition Soient E et F deux K-espaces vectoriels et u une application de E dans F . On dit que u est linéaire (ou encore un morphisme d’espaces vectoriels) si et seulement si : ∀(x, y) ∈ E 2 u(x + y) = u(x) + u(y) ∀λ ∈ K ∀x ∈ E u(λ.x) = λ.u(x) (ou bien : ∀λ ∈ K ∀(x, y) ∈ E 2 u(λ.x + y) = λ.u(x) + u(y) ) Si, de plus : • u est bijective, on dit que u est un isomorphisme (E et F sont dits isomorphes) ; • E = F , on dit que u est un endomorphisme de E ; • E = F et u bijective, on dit que u est un automorphisme de E ; • F = K, on dit que u est une forme linéaire sur E. Algèbre linéaire de MPSI Page 4 Notations : on désigne par • L(E, F ) l’ensemble des applications linéaires de E dans F ; • L(E) l’ensemble des endomorphismes de E. • E ∗ l’ensemble des formes linéaires sur E, appelé dual de E (ne pas confondre E ∗ et E\{0} !). Propriétés : soit u ∈ L(E, F ). 1) u(0E ) = 0F . 2) Si E ′ est un sous-espace vectoriel de E, alors u(E ′ ) est un sous-espace vectoriel de F . 3) Si F ′ est un sous-espace vectoriel de F , alors u−1 (F ′ ) est un sous-espace vectoriel de E. 2) Image Définition : soit u ∈ L(E, F ). On appelle image de u le sous-espace u(E) de F noté Im u : Im u = {y ∈ F / ∃x ∈ E u(x) = y} = {u(x), x ∈ E} . Propriété : u est surjective si et seulement si Im u = F . 3) Noyau Définition : soit u ∈ L(E, F ). On appelle noyau de u le sous-espace u−1 ({0F }) de E noté Ker u : Ker u = {x ∈ E / u(x) = 0F }. Propriété : u est injective si et seulement si Ker u = {0E } (ou encore si et seulement si : ∀x ∈ E u(x) = 0F ⇒ x = 0E ). 4) Équations linéaires Étant donnés u dans L (E, F ) et b dans F , la résolution de l’équation linéaire u(x) = b est la recherche de l’ensemble S des vecteurs x de E tels que u(x) = b. S est vide si et seulement si b n’appartient pas à Im u. Lorsque b est dans Im u, S est non vide et pour tout x0 dans S, S est l’ensemble des vecteurs de E de la forme x0 + z, z décrivant Ker u : S = x0 + Ker u = {x0 + z, z ∈ Ker u} . 5) Exemples fondamentaux d’isomorphismes • Tous les supplémentaires dans E d’un même sous-espace vectoriel de E sont isomorphes. • Soit u ∈ L(E, F ). Tout supplémentaire de Ker u dans E est isomorphe à Im u. • Soient F et G deux sous-espaces vectoriels de E. L’application ϕ : F ×G (y, z) linéaire surjective. C’est un isomorphisme si et seulement si F ∩ G = {0}. −→ −→ F + G est y+z 6) Opérations sur les applications linéaires a) Structure de L(E, F ) Si E et F sont deux K-espaces vectoriels, alors (L(E, F ), +, .) est un K-espace vectoriel. b) Composition des applications linéaires Si E, F, G sont des K-espaces vectoriels et si u ∈ L (E, F ), v ∈ L (F, G), alors v ◦ u ∈ L (E, G). Pour φ fixé dans L (E, F ), l’application v → v ◦ φ est une application linéaire de L (F, G) dans L (E, G). Pour ψ fixé dans L (F, G), l’application u → ψ ◦u est une application linéaire de L (E, F ) dans L (E, G). Algèbre linéaire de MPSI Page 5 Théorème : si u est un isomorphisme de E dans F , alors u−1 est linéaire (donc un isomorphisme) de F dans E. c) Structure de L(E) Si E est un K-espace vectoriel, alors (L(E), +, ., ◦) est une K-algèbre. Théorème et définition : soit GL(E) l’ensemble des automorphismes de E. (GL(E), ◦) est un groupe (non abélien en général), appelé groupe linéaire de E. V - Projecteurs et symétries 1) Projecteurs Définition : soient F et G deux sous-espaces supplémentaires de E ; l’application p de E dans E qui à tout vecteur x de E associe le vecteur y de F tel que x = y + z avec (y, z) ∈ F × G est appelée projecteur (ou projection vectorielle) de E sur F parallèlement à G. Propriétés : soit p le projecteur de E sur F parallèlement à G. a) p est un endomorphisme de E. b) Ker p = G et Im p = F ; F est l’ensemble des vecteurs invariants par p. c) IE − p est le projecteur de E sur G parallèlement à F . Caractérisation : soit p ∈ L(E). p est un projecteur si et seulement si p ◦ p = p. Dans ce cas, p est le projecteur de E sur Im p parallèlement à Ker p. 2) Symétries vectorielles Définition : soient F et G deux sous-espaces supplémentaires de E ; l’application s de E dans E qui à tout vecteur x de E associe le vecteur y − z de E où (y, z) est le couple de F × G tel que x = y + z est appelée symétrie vectorielle par rapport à F parallèlement à G. Propriétés : soit s la symétrie vectorielle par rapport à F parallèlement à G. a) s est un automorphisme involutif de E. b) L’ensemble des vecteurs invariants par s est F ; l’ensemble des vecteurs transformés en leur opposé est G. c) −s est la symétrie vectorielle par rapport à G parallèlement à F . d) Si p est le projecteur de E sur F parallèlement à G, on a les relations : 1 s = 2p − IE , p = · (IE + s) . 2 Caractérisation : soit s ∈ L(E). s est une symétrie vectorielle si et seulement si s ◦ s = IE . Alors s est la symétrie par rapport à F = {x ∈ E / s(x) = x} = Ker (s − IE ) parallèlement à G = {x ∈ E / s(x) = −x} = Ker (s + IE ). VI - Familles libres, génératrices ; bases 1) Familles génératrices Définition : soit F = (xi )i∈I une famille finie de vecteurs de E. On dit qu’un vecteur x de E est combinaison linéaire des vecteurs de F si et seulement s’il existe une famille (λi )i∈I ∈ KI telle que x = λi .xi . i∈I Définition : soit F une famille finie de vecteurs de E. On dit que F est une famille génératrice de E si et seulement si tout vecteur de E est combinaison linéaire des vecteurs de F (i.e. Vect F = E). Algèbre linéaire de MPSI Page 6 Propriétés : 1) Toute sur-famille d’une famille génératrice est génératrice. 2) Soit (xi )i∈I une famille finie, génératrice de E et J une partie de I. (xi )i∈J est aussi une famille génératrice de E si et seulement si, pour tout k de I\J, xk est combinaison linéaire des vecteurs de (xi )i∈J . 2) Familles libres Définition : soit F = (x1 , . . . , xp ) une famille finie de vecteurs de E. On dit que F est libre si et seulement si la seule combinaison linéaire nulle des vecteurs de F est celle dont tous les coefficients sont nuls : p p ∀(λ1 , . . . , λp ) ∈ K λk .xk = 0 =⇒ ∀k ∈ Np λk = 0 . k=1 Une famille quelconque (xi )i∈I de vecteurs de E est dite libre si et seulement si toutes ses sous-familles finies sont libres. Une partie A de E est dite libre si et seulement si la famille (x)x∈A est libre. Par convention, ∅ est libre. Propriétés : 1) Soit x ∈ E. La famille (x) formée du seul vecteur x est libre si et seulement si x est non nul. 2) Toute sous-famille d’une famille libre est libre. 3) Une famille (xi )i∈I est libre si et seulement si, pour toute famille de scalaires (λi )i∈I à support fini, λi .xi = 0 ⇒ ∀i ∈ I λi = 0. i∈I 4) Si une partie A de E est libre et si x est un vecteur de E, A ∪ {x} est libre si et seulement si x n’est pas combinaison linéaire des vecteurs de A (i.e. x ∈ / Vect A). 3) Familles liées Définition : une famille F de vecteurs de E (resp. une partie A de E) est dite liée si et seulement si elle n’est pas libre. On dit alors que les vecteurs de F (resp. de A) sont linéairement dépendants. Deux vecteurs sont dits colinéaires si et seulement s’ils sont linéairement dépendants. Caractérisation : 1) Une famille F de vecteurs de E est liée si et seulement s’il existe des vecteurs x1 , . . . , xp de F et une famille (λ1 , . . . , λp ) de scalaires non tous nuls telle que p λk .xk = 0 (relation de dépendance linéaire). k=1 2) Une famille d’au moins deux vecteurs est liée si et seulement si l’un au moins de ses vecteurs est combinaison linéaire des autres. 3) Deux vecteurs x, y sont colinéaires si et seulement si : x = 0 ou ∃λ ∈ K y = λ.x. Propriétés : 1) Toute sur-famille d’une famille liée est liée ; toute famille contenant le vecteur nul est liée. 2) Si une partie A de E est libre et si x est un vecteur de E, A∪{x} est liée si et seulement si x est combinaison linéaire des vecteurs de A (i.e. x ∈ Vect A). 4) Bases Définition : soit F une famille finie de vecteurs de E. On dit que F est une base de E si et seulement si F est libre et génératrice. de E s’écrit Une famille B = (ei )i∈I de vecteurs de E est une base de E si et seulement si tout vecteur de manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x = λi .ei , la famille (λi )i∈I est appelée la famille des coordonnées de x dans la base B. i∈I Algèbre linéaire de MPSI Page 7 5) Caractérisation des familles libres et génératrices, des bases Soit (x1 , . . . , xp ) une famille de vecteurs de E. On lui associe l’application linéaire φ de Kp dans E qui, p à (λ1 , . . . , λp ) associe la combinaison linéaire λk xk . k=1 Propriétés : 1) (x1 , . . . , xp ) est libre si et seulement si φ est injective ; 2) Im φ = Vect (x1 , . . . , xp ) ; (x1 , . . . , xp ) est génératrice si et seulement si φ est surjective ; 3) (x1 , . . . , xp ) est une base de E si et seulement si φ est un isomorphisme. 6) Image d’une famille de vecteurs par une application linéaire E et F sont deux K-espaces vectoriels. Théorème : soient u ∈ L(E, F ), F = (xi )i∈I une famille finie de vecteurs de E et u(F) = (u(xi ))i∈I . a) Si F est une famille génératrice de E, alors u(F) est une famille génératrice de Im u. b) Si F est liée, alors u(F) est liée. c) Si F est libre et u injective, alors u(F) est libre. Théorème : soit u ∈ L(E, F ) et B une base de E. a) u est surjective si et seulement si u(B) est une famille génératrice de F . b) u est injective si et seulement si u(B) est libre. c) u est bijective si et seulement si u(B) est une base de F . 7) Caractérisation d’une application linéaire par l’image d’une base Théorème : soient E et F deux K-espaces vectoriels, B = (ei )i∈I une base de E et (yi )i∈I une famille de vecteurs de F (indexées par le même ensemble I). Il existe une unique application linéaire u de E dans F telle que : ∀i ∈ I u(ei ) = yi . En outre : ∗ u est injective si et seulement si la famille (yi )i∈I est libre. ∗ u est surjective si et seulement si la famille (yi )i∈I est génératrice de F . ∗ u est bijective si et seulement si la famille (yi )i∈I est une base de F . VII - Notion de dimension Définition : on dit qu’un K-espace vectoriel est de dimension finie si, et seulement si, il admet une famille génératrice finie. Lemme de Steinitz Si E est un K-espace vectoriel admettant une famille génératrice à p éléments (p ∈ N∗ ), alors toute famille d’au moins p + 1 éléments est liée. Existence d’une base Tout espace vectoriel de dimension finie non réduit à {0} admet au moins une base. Théorème et définition : soit E un K-espace vectoriel de dimension finie, non réduit à {0}. 1) E admet au moins une base finie B. 2) Toutes les bases de E ont le même cardinal n. Cet entier est appelé dimension de E et est noté dim E ou dimK E. On convient que {0} est de dimension nulle. Caractérisation des bases : Soit E un K-espace vectoriel de dimension n et F une famille de p vecteurs de E. • Si F est libre, alors p ≤ n avec égalité si et seulement si F est une base de E. • Si F est génératrice, alors p ≥ n avec égalité si et seulement si F est une base de E. Algèbre linéaire de MPSI Page 8 VIII - Théorème de la base incomplète Soit E un K-espace vectoriel de dimension finie. Pour toute famille libre L de E et toute famille génératrice G de E, il existe au moins une base B de E obtenue en complétant L à l’aide de vecteurs de G. En particulier, pour toute famille libre L de E, il existe au moins une base B de E obtenue en complétant L à l’aide de vecteurs de E. IX - Sous-espaces d’un espace vectoriel de dimension finie 1) Dimension d’un sous-espace Théorème : soit E un K-espace vectoriel de dimension finie et F un sous-espace vectoriel de E. F est de dimension finie et dim F ≤ dim E. De plus, F = E si et seulement si dim F = dim E. Définition : on appelle rang d’une famille de vecteurs de E la dimension du sous-espace vectoriel de E engendré par cette famille. 2) Sous-espaces vectoriels supplémentaires Caractérisation : soient F et G deux sous-espaces vectoriels non réduits à {0} d’un espace vectoriel E de dimension finie. F et G sont supplémentaires dans E si et seulement s’ils admettent pour bases respectives deux parties complémentaires d’une base de E. Conséquence : si E = F ⊕ G , alors dim E = dim F + dim G. Théorème : tout sous-espace vectoriel d’un espace vectoriel E de dimension finie admet au moins un supplémentaire dans E. Théorème : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie. E = F ⊕ G ⇔ (F ∩ G = {0} et dim F + dim G = dim E) . 3) Dimension d’une somme quelconque de sous-espaces Théorème : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie dim(F + G) = dim F + dim G − dim(F ∩ G) (formule de Grassmann). Conséquence : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie E = F ⊕ G ⇔ (F + G = E et dim F + dim G = dim E) . X - Théorème du rang 1) Théorème d’isomorphisme Théorème : deux espaces vectoriels E et F de dimension finie sont isomorphes si et seulement s’ils ont la même dimension. 2) Rang d’une application linéaire Théorème du rang Soit u ∈ L(E, F ). Si E est de dimension finie, alors Im u est de dimension finie et dim E = dim Im u + dim Ker u. Définition : soit u ∈ L(E, F ) avec E de dimension finie. On appelle rang de u la dimension de Im u, notée rg u. Algèbre linéaire de MPSI Page 9 Propriété : si E et F sont de dimension finie et si u ∈ L(E, F ), alors : u injective ⇒ dim E ≤ dim F ; u surjective ⇒ dim E ≥ dim F ; Caractérisation des isomorphismes Si E et F sont de même dimension finie (dim E = dim F = n) et si u ∈ L(E, F ), alors les propositions suivantes sont équivalentes : • u est bijective ; • u est injective (i.e. Ker u = {0}) ; • u est surjective (i.e. rg u = n) ; • u est inversible à droite ; • u est inversible à gauche. Propriété : le rang d’une application linéaire est invariant par composition avec un isomorphisme. XI - Opérations sur les dimensions Théorème : soient E et F deux K-espaces vectoriels de dimension finie. a) E × F est de dimension finie et : dim E × F = dim E + dim F . b) L (E, F ) est de dimension finie et : dim L (E, F ) = dim E × dim F . Dém : on considère (ej )1≤j≤p une base de E et (fi )1≤i≤n une base de F . 1) En posant v1 = (e1 , 0F ) , · · · , vp = (ep , 0F ) ; vp+1 = (0E , f1 ) , · · · , vp+n = (0E , fn ) , on vérifie que (vi )1≤i≤p+n est une base de E × F . 2) Pour tout élément (i, j) de Nn × Np , on désigne par ui,j l’unique application linéaire de E vers F telle que (δ j,k désignant le symbole de Kronecker ) : ∀k ∈ Np ui,j (ek ) = δ j,k .fi On vérifie que (ui,j )1≤i≤n est une base de L (E, F ). 1≤j≤p XII - Matrices — Généralités 1) Définition - notations Soient n et p deux entiers naturels non nuls. On appelle matrice de type (n, p) à coefficients dans K tout tableau M constitué de n lignes et p colonnes d’éléments de K. On écrit M = (ai,j )1≤i≤n , ai,j étant le terme situé à l’intersection de la ie ligne et de 1≤j≤p la j e colonne de M. Mn,p (K) désigne l’ensemble des matrices de type (n, p) à coefficients dans K. Mn (K) désigne l’ensemble Mn,n (K) des matrices carrées d’ordre n à coefficients dans K. 2) Matrice d’une application linéaire Soient E et F deux K-espaces vectoriels de bases respectives B = (e1 , . . . , ep ) et C = (f1 , . . . , fn ). Pour u ∈ L(E, F ), on appelle matrice de u dans les bases B et C la matrice MB,C (u) de Mn,p (K) dont les colonnes contiennent les coordonnées des vecteurs u(e1 ), . . . , u(ep ) dans la base C de F : n MB,C (u) = (ai,j )1≤i≤n avec ∀j ∈ Np u(ej ) = ai,j .fi . 1≤j≤p NB : le nombre de lignes n est la dimension de l’espace d’arrivée ; le nombre de colonnes p est la dimension de l’espace de départ. i=1 Pour u ∈ L(E), on appelle matrice de u dans la base B la matrice carrée MB (u) de Mp (K) dont les colonnes contiennent les coordonnées des vecteurs u(e1 ), . . . , u(ep ) dans la même base B de E. Algèbre linéaire de MPSI Page 10 XIII - Opérations sur les matrices 1) Structure de Mn,p (K) Soient A = (ai,j )1≤i≤n , B = (bi,j )1≤i≤n , et λ ∈ K. On pose, par définition : 1≤j≤p 1≤j≤p A + B = (ai,j + bi,j )1≤i≤n et λ.A = (λai,j )1≤i≤n . 1≤j≤p 1≤j≤p Théorème : (Mn,p (K), +, .) est un K-espace vectoriel de dimension np. La base canonique de Mn,p (K) est (Ei,j )1≤i≤n où Ei,j est la matrice élémentaire dont tous les termes 1≤j≤p sont nuls, sauf celui situé à l’intersection de la ie ligne et de la j e colonne, qui vaut 1 : Eij = (δ k,i δ ℓ,j )1≤k≤n . 1≤ℓ≤p Avec les notations précédentes, l’application u → MB,C (u) est un isomorphisme de L (E, F ) sur Mn,p (K). Inversement, étant donnée A ∈ Mn,p (K), on note souvent Can A l’application linéaire de Kp dans Kn de matrice A dans les bases canoniques. 2) Produit matriciel Définition : soient A = (ai,j )1≤i≤m et B = (bj,k )1≤j≤n . 1≤j≤n 1≤k≤p A × B est la matrice de type (m, p) définie par : A × B = (ci,k )1≤i≤m où : 1≤k≤p ∀(i, k) ∈ Nm × Np ci,k = n ai,j bj,k . j=1 Propriété : si u ∈ L(E, F ) a pour matrice A dans les bases B et C, si X est la matrice colonne des coordonnées d’un vecteur x de E dans la base B, alors le produit AX est la matrice colonne des coordonnées de u(x) dans la base C. 3) Structure de Mn (K) (Mn (K), +, ., ×) est une K-algèbre (non commutative pour n ≥ 2). Avec les notations précédentes, l’application u → MB (u) est un isomorphisme d’algèbres de L (E) sur Mn (K). L’élément neutre de la multiplication est la matrice identité d’ordre n : In = (δ ji )1≤i,j≤n . Définition : soit A ∈ Mn (K). On dit que : • a1,1 , . . . , an,n constituent la diagonale principale de A ; • A est une matrice scalaire si et seulement si A est de la forme λ.In , λ ∈ K ; • A est une matrice diagonale si et seulement si i = j ⇒ ai,j = 0 ; dans ce cas on note A = diag(a1,1 , . . . an,n ) ; • A est une matrice triangulaire supérieure si et seulement si i > j ⇒ ai,j = 0 ; • A est une matrice triangulaire inférieure si et seulement si i < j ⇒ ai,j = 0. Propriétés : les matrices scalaires forment un corps isomorphe à K. Les matrices diagonales forment une sous-algèbre commutative de (Mn (K), +, ., ×). Les matrices triangulaires supérieures (resp. inférieures) forment une sous-algèbre de (Mn (K), +, ., ×). 4) Matrices carrées inversibles Soit A ∈ Mn (K) ; A est inversible si et seulement si ∃A′ ∈ Mn (K) A × A′ = A′ × A = In Soit GLn (K) l’ensemble des matrices carrées d’ordre n inversibles. (GLn (K), ×) est un groupe (non commutatif en général), isomorphe au groupe linéaire (GL(E), ◦) si E est un K-espace vectoriel de dimension n. Algèbre linéaire de MPSI Page 11 Théorème : soit A ∈ Mn (K). Les assertions suivantes sont équivalentes : a) A est inversible. b) ∃B ∈ Mn (K) A × B = In (dans ce cas A−1 = B ). c) ∃C ∈ Mn (K) C × A = In (dans ce cas A−1 = C ). Propriété : une matrice triangulaire est inversible si et seulement si les éléments de sa diagonale principale sont tous non nuls. 5) Transposition Définition : soit A = (ai,j )1≤i≤n ∈ Mn,p (K). On appelle transposée de A la matrice de Mp,n (K), 1≤j≤p notée t A, définie par t A = (a′i,j ) 1≤i≤p où ∀(i, j) ∈ Np × Nn 1≤j≤n a′i,j = aj,i . Propriétés : 1) L’application Mn,p (K) A → → Mp,n (K) est un isomorphisme de K-espaces vectoriels. tA 2) ∀(A, B) ∈ Mm,n (K) × Mn,p (K) t (AB) = t B × t A. 3) Soit A ∈ Mn (K). A est inversible si et seulement si t A est inversible, auquel cas (t A)−1 = t (A−1 ). Définition : soit A ∈ Mn (K). On dit que : ∗ A est symétrique si et seulement si t A = A (∀(i, j) ∈ N2n ai,j = aj,i ) ; ∗ A est antisymétrique si et seulement si t A = −A (∀(i, j) ∈ N2n ai,j = −aj,i ; en particulier ∀i ∈ Nn ai,i = 0 ). Propriété : les matrices symétriques d’une part, antisymétriques d’autre part, forment deux sousn (n + 1) n (n − 1) espaces supplémentaires de Mn (K), de dimensions respectives et . 2 2 XIV - Changements de bases 1) Matrice d’un système de vecteurs dans une base Soit B une base d’un K-espace vectoriel E de dimension n et F = (x1 , . . . , xp ) une famille de vecteurs de E. On appelle matrice de F dans la base B la matrice M de type (n, p) dont la j e colonne (1 ≤ j ≤ p) contient les coordonnées du vecteur xj dans la base B. 2) Matrice de passage Soient B et B′ deux bases d’un K-espace vectoriel E de dimension n. On appelle matrice de passage de B à B′ la matrice de la famille B′ dans la base B, notée PB,B′ . NB : PB,B′ est la matrice dans la base B de l’endomorphisme de E qui transforme B en B′ ; c’est aussi la matrice de IE dans les bases B′ (dans E considéré comme espace de départ) et B (dans E considéré comme espace d’arrivée). Propriétés : soient B et B′ deux bases de E. a) si X et X ′ sont les matrices colonnes des coordonnées d’un vecteur u de E dans les bases B et B′ respectivement, on a : X = PB,B′ X ′ . b) PB,B′ est inversible et son inverse est la matrice de passage de B′ à B. c) Si B′′ est une troisième base de E, on a : PB,B′′ = PB,B′ × PB′ ,B′′ . Algèbre linéaire de MPSI Page 12 3) Changement de bases pour une application linéaire Théorème : soient B et B′ deux bases de E, P = PB,B′ , C et C ′ deux bases de F , Q = PC,C ′ et f ∈ L(E, F ). Si A est la matrice de u dans les bases B, C et A′ la matrice de u dans les bases B′ , C ′ , alors : A′ = Q−1 AP . 4) Changement de base pour un endomorphisme Théorème : soient B et B′ deux bases de E, P = PB,B′ et u ∈ L(E, F ). Si A est la matrice de u dans la base B et A′ la matrice de u dans la base B′ , alors : A′ = P −1 AP . Définition : deux matrices carrées A et B d’ordre n sont semblables si et seulement si : ∃P ∈ GLn (K) B = P −1 AP . i.e. si et seulement si A et B représentent un même endomorphisme dans deux bases. XV - Rang d’une matrice Définition : soit A ∈ Mn,p (K). On appelle rang de A le rang du système de ses p vecteurs colonnes dans Kn , noté rg A. Théorème : soient E et F deux K-espaces vectoriels de dimensions respectives p et n, rapportés aux bases B et C. Si u est une application linéaire de E dans F , de matrice A dans les bases B et C, alors : rg u = rg A Conséquences : 1) Soit A ∈ Mn,p (K). rg A = r si et seulement si A est de la forme UJr V , où U, V sont deux matrices carrées inversibles et Jr = (αi,j ) est définie par : αi,j = 1 si i = j ≤ r, αi,j = 0 sinon. 2) rg t A = rg A (le rang d’une matrice est aussi le rang du système de ses vecteurs lignes). 3) Le rang d’une matrice est inchangé lorsqu’on la multiplie par une matrice carrée inversible. 4) Une matrice carrée d’ordre n est inversible si et seulement si son rang est égal à n. XVI - Opérations élémentaires sur les matrices 1) Définitions On appelle opération élémentaire sur une matrice A de Mn,p (K) : 1) l’échange de deux lignes (resp. colonnes) de A (codage Li ↔ Lj (resp. Ci ↔ Cj )) ; 2) la multiplication d’une ligne (resp. colonne) de A par un scalaire non nul (codage Li ← λ.Li (resp. Ci ← λ.Ci ) avec λ = 0) ; 3) l’ajout à une ligne (resp. colonne) le produit d’une autre ligne (resp. colonne) de A par un scalaire quelconque (codage Li ← Li + λ.Lj (resp. Ci ← Ci + λ.Cj ) avec j = i). Algèbre linéaire de MPSI Page 13 2) Interprétation en termes de produit matriciel NB : si A ∈ Mn,p (K) et si Ei,j est une matrice élémentaire de Mn (K), alors le produit Ei,j × A est la matrice de Mn,p (K) dont la ie ligne est constituée par la j e ligne de A et dont toutes les autres lignes sont nulles. Il en résulte les correspondances suivantes : Opération Interprétation matricielle Li ← Li + λ.Lj A ← (In + λ.Ei,j )A . Li ← λ.Li A ← (In + (λ − 1).Ei,i )A Li ↔ Lj A ← (In − Ei,i − Ej,j + Ei,j + Ej,i )A Théorème : les opérations élémentaires sur les lignes de A transforment A en une matrice de même rang (on vérifie que les matrices In + λ.Ei,j (j = i), In + (λ − 1).Ei,i (λ = 0) et In − Ei,i − Ej,j + Ei,j + Ej,i sont inversibles). NB : les opérations sur les colonnes de A s’obtiennent par multiplication à droite par des matrices carrées d’ordre p inversibles analogues. 3) Applications a) Calcul du rang d’une matrice La phase de descente de l’algorithme du pivot de Gauss permet, en utilisant exclusivement des opérations élémentaires sur les lignes, de transformer toute matrice A de Mn,p (K) en une matrice de la forme suivante (en anglais row echelon form, voir la fonction ref de certaines calculatrices) : piv1 * · · · * * * ··· ··· * * * ··· * 0 0 · · · 0 piv2 * · · · · · · * * * ··· * .. . 0 ··· 0 0 0 ··· * * * ··· * 0 .. .. .. .. .. .. . . . . . . * * * · · · * Aref = 0 0 ··· 0 0 0 · · · · · · 0 pivr * · · · * 0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0 . . . . . . . . . .. .. .. .. .. .. .. .. .. 0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0 où piv1 , . . . , pivr sont des scalaires non nuls, les pivots. Le nombre r desdits pivots n’est autre que le rang de la matrice A (puisqu’elle a même rang que Aref ). b) Calcul de l’inverse d’une matrice carrée La phase de remontée de l’algorithme du pivot de Gauss permet, toujours par des opérations élémentaires sur les lignes, de transformer la matrice Aref précédente en une matrice de la forme suivante (en anglais reduced row echelon form, fonction rref) : 1 * ··· * 0 * ··· ··· * 0 * ··· * 0 0 ··· 0 1 * ··· ··· * 0 * ··· * .. . * 0 * ··· * 0 0 ··· 0 0 0 ··· . . . . . . . . .. .. .. .. * 0 * · · · * . . Arref = 0 0 · · · 0 0 0 · · · · · · 0 1 * · · · * 0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0 . . .. .. .. .. .. .. .. .. .. . . . . . . . 0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0 (on a divisé la ligne de chaque pivot par ledit pivot et fait ensuite apparaître des 0 au dessus dudit pivot, le tout “en remontant”). La matrice initiale A est inversible si et seulement si n = p = r, auquel cas Arref n’est autre que In , ce qui fournit une méthode “pratique” de calcul de l’inverse de A lorsqu’elle existe : en effet, si je note Ω1 , . . . , Ωk les matrices associées aux opérations élémentaires sur les lignes utilisées pour transformer A en Arref = In , j’ai Ωk . . . Ω1 A = In d’où A−1 = Ωk . . . Ω1 = Ωk . . . Ω1 In (!!) Algèbre linéaire de MPSI Page 14 Il en résulte que A−1 s’obtient en faisant subir à la matrice In , successivement et dans le même ordre, les opérations élémentaires sur les lignes qui permettent de transformer A en In . c) Résolution d’un système linéaire Par des opérations élémentaires sur les lignes, on transforme tout système linéaire AX = B en un système équivalent ayant une matrice de la forme Arref ci-dessus. Les n − r dernières lignes sont de la forme : 0 = β j (β j étant l’expression au second membre résultant des opérations sur les lignes, expression “constante”, indépendante des inconnues du système, pouvant par contre dépendre de paramètres initialement présents dans les coefficients du système. . . ). Ces n − r dernières lignes sont les conditions de compatibilité du système. En effet, l’ensemble S des solutions est non vide si et seulement si les β j , j ∈ [[r + 1, n]], sont tous nuls. Lorsque lesdites conditions de compatibilité sont satisfaites, on achève la résolution en renvoyant au second membres les p−r inconnues ne correspondant pas aux colonnes des pivots (inconnues auxiliaires) et l’on exprime les r inconnues correspondant aux colonnes des pivots (inconnues principales) en fonction des coefficients du système et des inconnues auxiliaires, qui peuvent être choisies arbitrairement. Cela fournit une représentation paramétrique de l’ensemble des solutions. Noter la présence de p − r paramètres, alors que l’on savait que S (ici non vide !) était un sous-espace affine de Kp de direction Ker Can A, justement de dimension p − r (cf. le théorème du rang !!). On en déduit une “solution particulière” a et une base de Ker Can A, en faisant apparaître la “solution générale” comme élément d’un sous-espace affine de la forme W = a+Vect (v1 , . . . , vp−r ) (les coefficients des vecteurs v1 , . . . , vp−r étant les inconnues auxiliaires). On a ainsi S ⊂ W , avec S de dimension p − r et W de dimension au plus p − r : par conséquent S = W , Ker Can A = Vect (v1 , . . . , vp−r ) et donc (v1 , . . . , vp−r ) est une base de Ker Can A. Exemple : appliquons la première phase de l’algorithme du pivot au système ci-dessous, les 3 paramètres x′ , y ′ , z ′ étant donnés dans R3 x + 2y − z + t = x′ x + 2y − z + t = x′ 3x + 6y + z − 2t = y ′ ⇐⇒ 4z − 5t = y ′ − 3x′ (S) ′ 5x + 10y + 3z − 5t = z 0 = z ′ − 2y′ + x′ 1 2 −1 1 1 −2 et u = Can A sont de rang 2. Il est apparu une Ainsi, (S), sa matrice A = 3 6 5 10 3 −5 condition de compatibilité : l’ensemble S des solutions est non vide si et seulement si (x′ , y ′ , z ′ ) vérifient la relation x′ − 2y′ + z ′ = 0. Noter qu’il s’agit d’une équation cartésienne du sous-espace de R3 engendré par les 4 vecteurs colonnes de A, ainsi que de Im u : en effet S est non vide si et seulement si l’on peut écrire (x′ , y ′ , z ′ ) comme combinaison linéaire des vecteurs colonnes de A, ou encore si et seulement s’il existe (x, y, z, t) dans R4 tel que u (x, y, z, t) = (x′ , y ′ , z ′ ), c’est-à-dire si et seulement si (x′ , y ′ , z ′ ) ∈ Im u. Achevons la résolution dans le cas particulier (x′ , y ′ , z ′ ) = (1, 1, 1) (qui vérifie la condition !). Effectuons la phase de remontée et faisons apparaître les inconnues principales et auxiliaires : 1 1 1 1 − t = − 2y + t x + 2y x = 4 2 2 4 (S) ⇐⇒ ⇐⇒ 5 1 5 z = −1 z − t = − + t 4 2 2 4 Soit : 1 1 1 5 (S) ⇐⇒ (x, y, z, t) = , 0, − , 0 + y · (−2, 1, 0, 0) + t · , 0, , 1 . 2 2 4 4 1 1 Donc a = , 0, − , 0 est solution “particulière” et la direction de S est : 2 2 1 5 Ker u = Vect (−2, 1, 0, 0) , , 0, , 1 = Vect (−2, 1, 0, 0) , (1, 0, 5, 4) . 4 4 Noter que Ker u est aussi l’ensemble des coefficients des combinaisons linéaires nulles des vecteurs colonnes C1 , C2 , C3 , C4 de A : en particulier −2C1 + C2 = 0 et C1 + 5C3 + 4C4 = 0. Algèbre linéaire de MPSI Page 15 d) Cas particulier des systèmes de Cramer Un système linéaire est dit de Cramer si et seulement si r = n = p. La matrice associée est alors carrée et inversible, le système admet donc une solution unique, quel que soit le second membre. Pour la résolution pratique, l’algorithme du pivot de Gauss fonctionne évidemment. Toutefois, si le système (avec la même matrice A inversible) doit être résolu avec divers second membres, il pourra être plus judicieux de déterminer une fois pour toute A−1 , la résolution du système pour chaque second membre Y se réduisant alors au calcul direct du produit A−1 Y . XVII - Déterminants 1) Groupe symétrique a) Définitions — Notations On note, pour n ∈ N, n ≥ 2, Nn l’ensemble [[1, n]] et Sn l’ensemble des bijections de Nn dans lui-même, appelées permutations de Nn . • (Sn , ◦) est un groupe, non commutatif dès que n est au moins égal à 3, dit groupe symétrique de Nn ; son cardinal est n!. 1 2 3 ··· n • Un élément σ de Sn est parfois noté : σ = . σ (1) σ (2) σ (3) · · · σ (n) • La loi ◦ est souvent notée multiplicativement, ◦ étant remplacé par un point, voire par rien. • On appelle cycle tout élément γ de Sn pour lequel il existe ℓ dans N, ℓ ≥ 2, et ℓ éléments distincts a1 , . . . , aℓ de Nn tels que γ soit défini par : ∀i ∈ Nℓ−1 γ (ai ) = ai+1 , γ (aℓ ) = a1 , ∀x ∈ Nn \ {a1 , . . . , aℓ } γ (x) = x (i.e. γ opère une “permutation circulaire” sur a1 , . . . , aℓ et laisse fixes les autres éléments de Nn ). ℓ est la longueur du cycle γ, l’ensemble {a1 , . . . , aℓ } est le support de γ ; on note γ = a1 a2 . . . aℓ (sans virgules). • On appelle transposition tout cycle de longueur 2 : τ = (a b) échange a et b et laisse fixes les autres éléments de Nn . Attention ! les transpositions (a b) et (b a) sont égales, mais, si a, b, c sont distincts dans Nn , les cycles de longueur 3 (a b c) et (a c b) sont différents, bien qu’ayant même support. Par contre, (a b c) = (b c a) = (c a b). NB : Pour a, b, c distincts dans Nn , on vérifie facilement que (a b) (b c) = (a b c). On en déduit que (b c) (a b) = (c b) (b a) = (c b a), d’où la non commutativité de Sn pour n ≥ 3 . . . Propriété : si γ est un cycle de longueur ℓ, alors γ ℓ = INn (et ℓ est le plus petit des entiers naturels non nuls k tels que γ k = INn ). Si τ est une transposition, τ −1 = τ (τ est une involution). Attention ! Une puissance d’un cycle n’est pas nécessairement un cycle : (1 2 3 4)2 = (1 3) (2 4) . . . b) Décomposition en produit de transpositions Théorème : toute permutation σ, élément de Sn , peut s’écrire comme produit (i.e. comme composée) de transpositions. Exemple : soit σ le cycle (1 2 3 4) dans S4 ; j’applique l’algorithme fourni par la démonstration par récurrence du théorème précédent, qui conduit à poser successivement : 1 2 3 4 1 2 3 4 ; σ 2 = (1 3) σ1 = = (1 2) ; σ1 = (1 4) σ = 2 3 1 4 2 1 3 4 finalement : σ = (1 4) (1 3) (1 2). Algèbre linéaire de MPSI Page 16 Attention ! Il n’y a pas unicité de cette décomposition en produit de transpositions : on peut allonger arbitrairement ce type de produit en ajoutant des facteurs de la forme τ τ ; il peut y avoir aussi des égalités moins triviales : voir par exemple, pour le cycle ci-dessus, (1 2 3 4) = (1 4) (1 3) (1 2) = (1 2) (2 3) (3 4) . c) Signature d’une permutation Définition : soit σ ∈ Sn ; on dit que le couple (i, j) de N2n est une inversion pour σ si et seulement si i<j et σ (i) > σ (j) . On note Inv (σ) le nombre d’inversions pour σ. La signature de σ est ε (σ) = (−1)Inv(σ) (ε (σ) ∈ {−1, 1}). Les permutations de signature 1 sont dites permutations paires, les permutations de signature −1 sont dites permutations impaires. Calcul pratique : σ étant donnée par les deux lignes habituelles contenant i et σ (i), j’ajoute une troisième ligne où j’indique, pour chaque valeur de i, le nombre Ni d’entiers j de Nn tels que (i, j) soit une inversion pour σ. Inv (σ) étant la somme des Ni , j’en déduis ε (σ). Exemple : σ = 1 2 3 4 5 6 7 6 3 1 5 2 7 4 5 2 0 2 0 1 0 ←i ← σ (i) ← Ni ; Inv (σ) = 10 ; ε (σ) = 1. Propriété : ε (INn ) = 1 ; pour toute transposition τ , ε (τ ) = −1. Théorème fondamental : l’application ε : (Sn , ◦) dans ({−1, 1} , ×). En particulier, ∀ σ, σ′ ∈ S2n Sn σ → → {−1, 1} ε (σ) est un morphisme de groupes de ε σσ′ = ε (σ) ε σ′ . Conséquences : 1) Si σ s’écrit comme produit de k transpositions, alors ε (σ) = (−1)k ; 2) Les permutations paires forment un sous-groupe An de (Sn , ◦), appelé groupe alterné. 3) Pour n ≥ 2, soit τ une transposition de Sn ; l’application σ → τ σ est une involution de Sn qui échange An et Sn \An , donc tous deux de cardinal n!/2. 2) Applications multilinéaires a) Notion d’application p -linéaire Soient E, F deux K-espaces vectoriels, p ∈ N, p ≥ 2 et f une application de E p dans F . f est p -linéaire sur E si et seulement si, pour tout j de Np et tout (x1 , . . . , xj−1 , xj+1 , . . . , xp ) fixé dans E p−1 , la j-ième application partielle, de E dans F , qui à x associe f (x1 , . . . , xj−1 , x, xj+1 , . . . , xp ) , est linéaire (on dit que f est linéaire par rapport à chacune des p variables). Pour p = 2, on dit bilinéaire. Les formes p -linéaires sur E sont les applications p -linéaires de E p dans K. Exemples : dans un R-espace vectoriel euclidien orienté de dimension 3, les applications (;u, ;v) → ;u.;v et (;u, ;v) → ;u ∧ ;v sont bilinéaires, l’application (;u, ;v, w) ; → [;u, ;v , w] ; = (;u ∧ ;v) .w ; (produit mixte) est une forme 3 -linéaire. Propriétés : 1) L’ensemble des formes p -linéaires sur E est un K-espace vectoriel. 2) Si f est p -linéaire et si l’un des vecteurs xj est nul, alors f (x1 , . . . , xp ) = 0. b) Applications p -linéaires symétriques, antisymétriques et alternées Soient f p -linéaire sur E et σ ∈ Sp ; on note σ · f l’application p -linéaire sur E définie par ∀ (x1 , . . . , xp ) ∈ E p (σ · f ) (x1 , . . . , xp ) = f xσ(1) , . . . , xσ(p) . Algèbre linéaire de MPSI Page 17 Définition : une application f p -linéaire sur E est dite : ∗ symétrique si et seulement si : ∀σ ∈ Sp σ · f = f ; ∗ antisymétrique si et seulement si : ∀σ ∈ Sp σ · f = ε (σ) .f ; ∗ alternée si et seulement si f (x1 , . . . , xp ) est nul dès que deux des xj sont égaux, c’està-dire si et seulement si : ∀ (x1 , . . . , xp ) ∈ E p ∃ (i, j) ∈ N2p i = j et xi = xj ⇒ f (x1 , . . . , xp ) = 0 . Caractérisation à l’aide des transpositions : soit f p -linéaire sur E ; • f est symétrique si et seulement si, pour toute transposition τ de Sp , τ · f = f ; • f est antisymétrique si et seulement si, pour toute transposition τ de Sp , τ · f = −f. Théorème : soit f p -linéaire sur E ; f est alternée si et seulement si f est antisymétrique. Idée de la dém. Si f est antisymétrique et (x1 , . . . , xp ) tel que xi = xj , utiliser τ · f avec τ = (i j). Réciproquement, si f est alternée, considérer une transposition τ = (i j) (i < j) et montrer que τ · f = −f en développant par multilinéarité l’expression : f (x1 , . . . , xi−1 , xi + xj , xi+1 , . . . , xj−1 , xi + xj , xj+1 , . . . , xp ) Propriétés : 1) L’ensemble Ap (E) des formes p -linéaires alternées sur E est un K-espace vectoriel. 2) Soient f ∈ Ap (E) et (x1 , . . . , xp ) ∈ E p ; on ne modifie pas f (x1 , . . . , xp ) en ajoutant à l’un des xj une combinaison linéaire des autres. En particulier, si (x1 , . . . , xp ) est liée, alors f (x1 , . . . , xp ) = 0. Attention ! Si l’on multiplie l’un des xj par un scalaire λ, f (x1 , . . . , xp ) est multiplié par λ ; Si l’on multiplie tous les xj par un scalaire λ, f (x1 , . . . , xp ) est multiplié par λp : f (λx1 , . . . , λxp ) = λp f (x1 , . . . , xp ) . Symétrisée, antisymétrisée : si f est p -linéaire sur E, alors S (f) = σ · f est p -linéaire symétrique et A (f ) = σ∈Sp ε (σ) . (σ · f ) est p -linéaire antisymétrique. σ∈Sp Idée de la dém. (non exigible) choisir une transposition τ et constater que : τ · S (f) = τ · (σ · f) = (τ σ) · f = S (f) , σ∈S p σ∈Sp en réindexant, grâce à l’involution de Sp définie par σ → τ σ. De même, τ · A (f ) = ε (σ) . τ · (σ · f ) = − ε (τ σ) . (τ σ) · f = −A (f) . σ∈Sp σ∈Sp 3) Déterminants a) Déterminant d’un système de vecteurs dans une base Soient E un K-espace vectoriel de dimension n, B = (e1 , . . . , en ) une base de E ; l’application f: En → K n (x1 , . . . , xn ) → ai,i si ∀j ∈ Nn i=1 xj = n ai,j .ei i=1 est une forme n-linéaire sur E. D’après le paragraphe précédent, in fine, l’application detB : En → K n (x1 , . . . , xn ) → ε (σ) ai,σ(i) σ∈Sn i=1 si ∀j ∈ Nn xj = n ai,j .ei i=1 est une forme n-linéaire alternée sur E, appelée déterminant dans la base B. En outre detB B = 1. Algèbre linéaire de MPSI Page 18 Théorème fondamental Si E est un K-espace vectoriel de dimension n, l’espace An (E) des formes n-linéaires alternées sur E est une droite vectorielle. Pour toute base B = (e1 , . . . , en ) de E, detB est l’unique forme n-linéaire alternée prenant la valeur 1 en B et ∀f ∈ An (E) f = λ. detB où λ = f (B) = f (e1 , . . . , en ) . n ai,j .ei , En outre, si ∀j ∈ Nn xj = i=1 alors le déterminant dans la base B du système de vecteurs (x1 , . . . , xn ) est n n detB (x1 , . . . , xn ) = ε (σ) ai,σ(i) = ε (σ) aσ(j),j σ∈Sn i=1 σ∈Sn j=1 (le nombre de vecteurs est égal à la dimension de l’espace). NB : on obtient directement l’égalité de ces deux sommes par réindexation, en remplaçant σ par σ−1 . . . Caractérisation des bases Soient E un K-espace vectoriel de dimension n, B = (e1 , . . . , en ) une base de E et (x1 , . . . , xn ) un système de n vecteurs de E. • (x1 , . . . , xn ) est une base de E si et seulement si detB (x1 , . . . , xn ) = 0 ; • (x1 , . . . , xn ) est une famille liée si et seulement si detB (x1 , . . . , xn ) = 0. b) Déterminant d’un endomorphisme Théorème et définition : Soient E un K-espace vectoriel de dimension n, u ∈ L (E) ; il existe un unique scalaire, noté det u, appelé déterminant de u, tel que : f u (x1 ) , . . . , u (xn ) = (det u) · f (x1 , . . . , xn ) . ∀f ∈ An (E) ∀ (x1 , . . . , xn ) ∈ E n En outre, pour toute base B = (e1 , . . . , en ) de E : det u = detB u (e1 ) , . . . , u (en ) . Propriétés : soit E un K-espace vectoriel de dimension n. 1) det IE = 1. 2) ∀λ ∈ K ∀u ∈ L (E) 3) ∀ (u, v) ∈ L (E)2 det (λ · u) = λn · det u. det (u ◦ v) = (det u) · (det v). 4) Un endomorphisme u de E est un automorphisme si et seulement si det u = 0, auquel cas 1 det u−1 = . det u Attention ! Rien pour det (u + v) . . . Exemple : pour σ ∈ Sn et B = (e1 , . . . , en ) base de E, soit u l’endomorphisme de E défini par ∀j ∈ Nn u (ej ) = eσ(j) detB étant une forme n-linéaire antisymétrique, il vient : det u = detB u (e1 ) , . . . , u (en ) = detB eσ(1) , . . . , eσ(n) = ε (σ) · detB B = ε (σ) . Algèbre linéaire de MPSI Page 19 c) Déterminant d’une matrice carrée a1,1 . . . Définition : soit M = (ai,j ) ∈ Mn (K), on appelle déterminant de M, noté det M ou ... an,1 . . . a1,n .. . an,n le déterminant du système des vecteurs colonnes de M dans la base canonique de Kn : n n ε (σ) ai,σ(i) = ε (σ) aσ(j),j . det M = i=1 σ∈Sn σ∈Sn , j=1 Remarque fondamentale Soit u ∈ L (E), det u est égal au déterminant de la matrice de u dans toute base de E. Propriétés 1) det In = 1. 2) ∀λ ∈ K ∀M ∈ Mn (K) 3) ∀ (M, N) ∈ Mn (K)2 det (λ · M) = λn · det M. det (M × N) = (det M) · (det N). 4) M ∈ Mn (K) est inversible si et seulement si det M = 0, auquel cas det M −1 = 5) ∀M ∈ Mn (K) 1 . det M det t M = det M. 6) det M est aussi le déterminant du système des vecteurs lignes de M dans la base canonique de Kn . 4) Calcul des déterminants a) Déterminant d’une matrice triangulaire par blocs Propriété : le déterminant d’une matrice triangulaire est le produit de ses éléments diagonaux. Théorème : le déterminant d’une matrice triangulaire par blocs est le produit des déterminants des blocs diagonaux. NB : la “phase de descente” de l’algorithme du pivot de Gauss permet de se ramener à une matrice triangulaire pour calculer un déterminant d’ordre n au prix d’un nombre d’opérations de l’ordre de n2 . b) Développement d’un déterminant Définition : soit M = (ai,j ) ∈ Mn (K) ; pour tout couple (i, j) dans N2n , le cofacteur de l’élément d’indice (i, j) dans M est le scalaire Ai,j = (−1)i+j det Mi,j où Mi,j est la matrice de Mn−1 (K) obtenue à partir de M en supprimant la ligne i et la colonne j. Théorème : soit M = (ai,j ) ∈ Mn (K) ; on a : 1) développement par rapport à la colonne j : pour j fixé dans Nn , det M = n ai,j Ai,j n ai,j Ai,j i=1 2) développement par rapport à la ligne i : pour i fixé dans Nn , det M = j=1 Algèbre linéaire de MPSI Page 20 5) Applications des déterminants a) Comatrice — Inversion des matrices carrées Théorème et définition : soit M ∈ Mn (K) ; on appelle comatrice de M la matrice des cofacteurs des éléments de M : Com M = (Ai,j )1≤i,j≤n . On a alors les relations : M × t (Com M ) = t (Com M) × M = (det M) .In donc, si det M = 0 : 1 · t (Com M) . M −1 = det M Exemple : si ad − bc = 0, −1 1 a c d −c = · −b a b d ad − bc (en effet Com a c b d = d −b −c a ). b) Formules de Cramer x1 b1 Soit (S) : MX = B un système de Cramer, avec M ∈ GLn (K) , X = ... et B = ... . xn bn La solution de (S) est donnée par : det Mj ∀j ∈ Nn xj = det M où Mj ∈ Mn (K) est obtenue à partir de M en remplaçant la colonne j par le second membre B. ax + by =c Exemple : si ab′ − ba′ = 0, la solution du système est donnée par : a′ x + b′ y = c′ a c c b ′ ′ ′ ′ a c c b cb′ − bc′ ac′ − ca′ et y = . x= = = ab′ − ba′ ab′ − ba′ a b a b ′ ′ ′ ′ a b a b c) Orientation d’un R-espace vectoriel Théorème et définition : soit E un R-espace vectoriel de dimension n ≥ 1 ; deux bases B et B′ de E sont dites de même orientation si et seulement si la matrice de passage PB,B′ a un déterminant strictement positif. En regroupant les bases de E selon leur orientation, on obtient une partition de l’ensemble des bases de E en exactement deux classes. Orienter E, c’est choisir l’une de ces deux classes, dont les éléments sont appelés bases directes, les autres étant les bases rétrogrades (ou indirectes). Propriétés : 1) Soit σ ∈ Sn ; les bases (e1 , . . . , en ) et eσ(1) , . . . , eσ(n) sont de même orientation si et seulement si σ est une permutation paire. 2) Soit u ∈ GL (E) ; les bases (e1 , . . . , en ) et u (e1 ) , . . . , u (en ) sont de même orientation si et seulement si det u > 0. d) Applications à la géométrie affine Penser à écrire un déterminant pour obtenir une équation cartésienne d’un hyperplan donné par un point et une base de la direction : −−→ • en dimension 2, M ∈ A + Vect (;u) ⇔ detB AM, ;u = 0 −−→ • en dimension 3, M ∈ A + Vect (;u, ;v) ⇔ detB AM, ;u, ;v = 0 Algèbre linéaire de MPSI Page 21 e) Applications à la géométrie euclidienne Produit mixte de n vecteurs en dimension n Soit E un espace vectoriel euclidien orienté de dimension n. La matrice de passage entre deux bases orthonormales directes de E a pour déterminant +1. Par conséquent, le déterminant d’un système (;u1 , . . . , ;un ) de n vecteurs de E dans une base orthonormale directe de E est indépendant du choix de cette base orthonormale directe. Il est appelé produit mixte de (;u1 , . . . , ;un ), noté ;u1 , . . . , ;un (ou encore Det (;u1 , . . . , ;un ), par exemple dans le programme officiel. . . ). Produit vectoriel de deux vecteurs en dimension 3 Soit E un espace vectoriel euclidien orienté de dimension 3. Etant donnés deux vecteurs ;a et ;b de E, le produit vectoriel ;a ∧ ;b est l’unique vecteur de E tel que ∀;u ∈ E ;a, ;b, ;u = ;a ∧ ;b · ;u ( · étant le symbole du produit scalaire) (cette définition intrinsèque, justifiée par l’isomorphisme canonique entre E et son dual, ;u → ;a, ;b, ;u étant une forme linéaire sur E, redonne bien sûr les coordonnées de ;a ∧ ;b dans n’importe quelle base orthonormale directe, en fonction de celles de ;a et ;b . . . ). Calculs d’aires −− −− → → −→ Dans un plan euclidien orienté, AB, AC donne l’aire du parallélogramme ABDC (où D = C + AB) 1 −− → −→ et · AB, AC donne l’aire du triangle ABC. 2 Calculs de volumes −− → −→ −−→ Dans un espace euclidien orienté de dimension 3, AB, AC, AD donne le volume du parallélépipède −→ −→ −−→ −− → −→ −−→ 1 − construit sur AB, AC, AD et · AB, AC, AD donne le volume du tétraèdre ABCD. 6