1 à 13 - Département de mathématiques et de statistique

Transcription

1 à 13 - Département de mathématiques et de statistique
INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION
MAT 6609
ABRAHAM BROER
Références
[1] Ya. G. Berkovich and E.M. Zhmud’, Characters of finite groups. Part 1 and Part 2. Translations of Mathematical
Monographs Vol. 172 and Vol. 181, Amer. Math. Soc., 1997.
[2] C.W. Curtis et I. Reiner, Representation theory of finite groups and associative algebras, Interscience Publishers,
New York, 1962.
[3] D.S. Dummit et R.M. Foote, Abstract algebra. Third edition, 2003.
[4] W. Fulton et J. Harris, Representation theory. A first course, G.T.M. 129, Springer-Verlag, New York, 1991.
[5] I.M. Martin, Character theory of finite groups, Dover Publ., New York, 1994.
[6] N. Jacobson, Basic algebra. I, W. H. Freeman and Co., San Francisco, Calif., 1974.
[7] N. Jacobson, Basic algebra. II, W. H. Freeman and Co., San Francisco, Calif., 1980.
[8] G. James et M. Liebeck, Representations and characters of groupes. Second edition, Cambridge University Press,
Cambridge, United Kingdom, 2001.
[9] J.-P. Serre, Représentations linéaires des groupes finis. Deuxième édition, Hermann, Paris, 1971.
1. Introduction
Chaque matrice complexe n × n est conjuguée à une matrice de la forme normale de Jordan. Si
un groupe agit linéairement sur Cn , chaque élément du groupe est représenté par une matrice. La
théorie de la représentation cherche des formes normales pour toutes ces matrices simultanément.
La théorie est particulièrement bien développée pour les groupes finis. Pour les groupes infinis
la théorie générale est trop générale pour obtenir des résultats intéressant; il faut se restreindre sur
certaines sous-catégories de représentations pour obtenir des théories satisfaisantes.
Par exemple pour les groupes de Lie compacts et leurs représentations continues la théorie s’est
aussi aussi bien développée comme la théorie des représentations des groupes finis. Dans ce cours
il s’agit principalement de ce deux théories de représentations. Ces deux théories sont à la base de
toute autre théorie de la représentations. Il faut mentionner qu’aussi autres catégories de groupes
(et algèbres) et de classes de représentations sont bien étudiées et appliquées dans les domaines
diverses comme la théorie des nombres, l’analyse harmonique ou la physique quantique.
1.1. Un exemple. Pour un exemple, considérons le groupe S3 des permutations de {1, 2, 3}. Dans
le tableau suivant on donne trois représentations; ρ1 de dimension 1 (la représentation triviale), ρ2
Date: January 11, 2007.
1
2
ABRAHAM BROER
de dimension 2 (la représentation signe) et ρ3 de dimension 2 (la représentation dihédrale).
S3
ρ1
ρ2
ρ3
(1)
(1)
(1) !
1 0
0 1
(1, 2)
(1)
(−1) !
−1 1
0 1
(1, 3)
(1)
(−1) !
0 −1
−1 0
(2, 3)
(1)
(−1) !
1 0
1 −1
(1, 2, 3)
(1)
(1) !
0 −1
1 −1
(1, 3, 2)
(1)
(1) !
−1 1
−1 0
L’analogue du théorème de Jordan pour le groupe S3 est le résultat suivant. Soit µ une représentation
de S3 par des matrices complexes n × n. Alors (possiblement après conjugaison) pour chaque permutation π ∈ S3 la matrice associée à π est une matrice block-diagonale de la forme
diag(µ1 (π), µ2 (π), . . . , µs (π))
où chaque block µi est soit ρ1 , ou ρ2 , ou ρ3 .
Par exemple, considérons la représentation par matrices de permutation
S3
µ
(1)
(1, 2)
(1, 3)
(2, 3)
(1, 2, 3)
(1, 3, 2)

 
 
 
 
 

1 0 0
0 1 0
0 0 1
1 0 0
0 0 1
0 1 0

 
 
 
 
 

0 1 0 1 0 0 0 1 0 0 0 1 1 0 0 0 0 1
0 0 1
0 0 1
1 0 0
0 1 0
0 1 0
1 0 0
Soit

1 1
0


P := 1 −1 1  .
1 0 −1

Si on remplace chaque matrice M par P −1 M P on obtient la représentation matricielle
S3
P −1 µP
(1)
(1, 2)
(1, 3)
(2, 3)
(1, 2, 3)
(1, 3, 2)

 
 
 
 
 

1 0 0
1 0 0
1 0
0
1 0 0
1 0 0
1 0 0

 
 
 
 
 

0 1 0 0 −1 1 0 0 −1 0 1 0  0 0 −1 0 −1 1
0 0 1
0 0 1
0 −1 0
0 1 −1
0 1 −1
0 −1 0
Alors
P −1 µP = diag(ρ1 , ρ3 ).
Soit µ = diag(ρ1 , ρ2 , ρ3 ) de dimension 4. Considérons R, la collection de toutes les matrices de
la forme


∗ 0 0 0
0 ∗ 0 0 



.
0 0 ∗ ∗ 
0 0 ∗ ∗
C’est une algèbre complexe de dimension 6, c’est à dire, R est un anneau et simultanément un
espace vectoriel complexe de dimension 6. On voit que les six matrices µ(π), π ∈ S3 , font une
base de R. C’est à dire, si M ∈ R, alors ils existent 6 uniques scalaires cπ ∈ C, π ∈ S3 , tels que
INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION
M=
P
π∈S3 cπ µ(π).
Soit M 0 =
0
π∈S3 cπ µ(π)
P
MM0 =
X
3
un autre élément de R. Alors
X
cπ µ(π)
c0π µ(π)
π∈S3
=
MAT 6609
π∈S3
X
cπ1 c0π2 µ(π1 )µ(π2 )
π1 ,π2 ∈S3
=
X
cπ1 c0π2 µ(π1 π2 )
π1 ,π2 ∈S3


=
X
X

π1 ∈S3
π∈S3
cπ1 c0π−1 π  µ(π)
1
Donc on peut effectuer le produit matriciel M M 0 par un calcul avec l’algèbre de groupe, comme
on vient de faire. Inversement, on peut effectuer un calcul dans l’algèbre de groupe, par un calcul
matriciel.
Chaque représentation de dimension finie de S3 contient un certain nombre de copies de ρ1 , ρ2 et
ρ2 , disons n1 , n2 et respectivement n3 . Il y a une méthode simple et explicite pour calculer le nombre
de copies avant de connaı̂tre la forme normale. Cette méthode utilise seulement la trace (et pas
toute la matrice), qui ne change pas après une conjugaison. Et aussi tr(diag(µ1 , µ2 ) = tr(µ1 )+tr(µ2 )
pour les matrices block-diagonales.
Remarquons d’abord que la somme des matrices de ρ2 est 0, et aussi que la somme des matrices
de ρ3 est la matrice 0. Mais la somme des matrices de ρ1 est (6). Il suit que n1 est la trace de la
P
matrice 61 π∈S3 ρ(π), ou
1 X
n1 =
tr(ρ(π)).
6
π∈S3
Puis, remarquons que si on multiplie les matrices ρ3 (π) par le signe de π ∈ S3 et après on prend
la somme, on obtient encore une fois la matrice 0; la même chose pour ρ1 , mais cette fois on obtient
la somme (6) pour ρ2 . Il suit que
1 X
n2 =
ρ1 (π)tr(ρ(π)).
6
π∈S3
Si n × n est la taille des matrices de ρ, alors n = n1 + n2 + 2n3 , donc
n − n1 − n2
.
n3 =
2
Alternativement, remarquons que si on multiplie les ρ1 (π) par tr(ρ3 (π)) pour π ∈ S3 et après on
!
3 0
prend la somme, on obtient (0); la même chose pour ρ2 , mais cette fois on obtient la somme
0 3
pour ρ3 . Et donc on obtient la formule
1 X
n3 =
tr(ρ3 (π))tr(ρ(π)).
6
π∈S3
Soit V = C[X1 , X2 , X3 ] l’anneau de polynômes complexes dans les variables X1 , X2 , X3 . En
particulier, V est un espace vectoriel complexe. On a une décomposition comme espace vectoriel
V = V 0 ⊕ V1 ⊕ V2 ⊕ V 3 ⊕ . . . ⊕ Vn ⊕ . . . ,
4
ABRAHAM BROER
où Vn est la collection des polynômes homogènes de degré n. Une base est par exemple
1, X1 , X2 , X3 , X12 , X22 , X32 , X1 X2 , X1 X3 , X2 X3 , X13 , . . .
Comparer avec l’expansion de
1
(1 − X1 t)(1 − X2 t)(1 − X3 t)
en t = 0
1 + (X1 + X2 + X3 )t + (X12 + X22 + X32 + X1 X2 + X1 X3 + X2 X3 )t2 + (X13 + . . .)t3 + . . . .
On voit que le coefficient de tn est une somme de monômes, et ces monômes forment une base de
Vn . Si on met toutes les variables égales à 1 on obtient que le coefficient de tn dans l’expansion à
1
t = 0 de (1−t)
3 est exactement la dimension de n.
Le groupe S3 agit linéairement sur V et chaque Vn en permutant les variables. Donc chaque
permutation π de S3 donne pour chaque n une application linéaire de Vn dans Vn ; cette application
est représentée par une matrice µn (π). Par exemple si π = (1, 3, 2) et n = 2, alors
2
πX12 = Xπ(1)
= X32 , πX22 = X12 , πX32 = X22 , πX1 X2 = X3 X1 , πX1 X3 = X3 X2 , πX2 X3 = X1 X2
et la matrice

0

0

1
µ2 ((1, 3, 2)) = 
0


0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1

0

0

0

1


0
0
De façon analogue on obtient pour (1, 2), (1, 3), (2, 3), (1, 2, 3) les matrices

0

1

0

0


0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
1
 
0
0
 
0  0
 

0
 ; 1

0
 0
 
1  0
0
0
0
1
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
1
0
 
1
0
 
0  0
 

0
 ; 0

1
 0
 
0  0
0
0
0
0
1
0
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
1
0
0
 
0
0
 
0  1
 

0
 ; 0

0
 0
 
0  0
1
0
0
0
1
0
0
0
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
1
0
0

0

0

0
.
0


1
0
La matrice identité est associée à (1) ∈ S3 . Nous pouvons calculer n1 = 61 (6 + 2 + 2 + 2 + 0 + 0) = 2,
n2 = 16 (6 − 2 − 2 − 2 + 0 + 0) = 0 et n3 = (6 − 2)/4 = 2 = 16 (12 + 0 + 0 + 0 − 0 − 0). Donc il existe
une matrice P tel que P −1 µ2 P = diag(ρ1 , ρ1 , ρ3 , ρ3 ).
1
La trace de (1, 3, 2) de la matrice associée à Vn est le coefficient de (1−t
3 ) (vous voyez pourquoi?
changer la base X1 , X2 , X3 vers une base de vecteurs propre), pour les autres permutations:
S3
tr
(1)
(1, 2)
(1, 3)
(2, 3)
1
(1−t)3
1
(1−t)(1−t2 )
1
(1−t)(1−t2 )
1
(1−t)(1−t2 )
(1, 2, 3) (1, 3, 2)
1
(1−t3 )
1
(1−t3 )
On a
1
6
1
1
1
1
1
1
+
+
+
+
+
(1 − t)3 (1 − t)(1 − t2 ) (1 − t)(1 − t2 ) (1 − t)(1 − t2 ) (1 − t3 ) (1 − t3 )
INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION
MAT 6609
5
est égale à
1
(1 − t)(1 − t2 )(1 − t3 )
Donc le coefficient de tn dans l’expansion de
dans Vn .
1
(1−t)(1−t2 )(1−t3 )
est le nombre de fois que ρ1 apparaı̂t
2. Rappel de quelques résultats de l’algèbre
Travailler uniquement avec des matrices n’est pas suffisamment flexible, il sera nécessaire d’abstraire
et de travailler avec des espaces vectoriels et les applications linéaires et même avec des modules
sur des anneaux et ses morphismes.
Dans cette section on rappelle quelques constructions algébriques et on donne quelques résultats
préliminairs.
Pour nous les anneaux seront toujours supposés d’être associatifs et unitairs. Si M est un module
à gauche d’un anneau R d’unité 1, on supposera aussi toujours que 1 · m = m, pour chaque m ∈ M .
Pour un anneau R on dénote le sous-ensemble de ses unité par R× , donc R× est la collection des
éléments qui admettent un inverse multiplicativement. En fait, R× est un groupe. Un corps gauche
est un anneau dont chaque élément non-zéro admet un inverse multiplicatif, alors si R× = R\{0}.
Un corps gauche est un corps si la multiplication est commutative.
Pour un R-module à gauche M on dénote
EndR (M ) : L : M → M ; L est endomorphisme de M comme R-module à gauche}
pour l’anneau des endomorphismes de M . Et puis on écrit GL(M ) := (EndR (M ))× , alors
GL(M ) := {L : M → M ; L est automorphisme de M comme R-module à gauche}.
Soit M un R-module. On rappelle que le R-module dual M ∗ est défini par
M ∗ := HomR (M, R),
c’est l’ensemble des fonctionnelles sur M .
On dit qu’un sous-ensemble B ⊆ M d’un R-module à gauche M est indépendant si pour chaque
equation linéaire
r1 b1 + r2 b2 + . . . + rn bn = 0,
avec ri ∈ R, et bi ∈ B (tous différents), on a automatiquement que les scalaires ri sont 0. On dit
que B ⊆ M est un ensemble générateur, si M coincide avec le sous R-module de M engendré par
B, noté par < B >R . On dit que B ⊆ M est une base si B est un ensemble générateur indépendant.
Pas chaque R-module à gauche contient une base. Par exemple, le Z-module Z/2Z n’admet pas de
base.
2.1. Modules libres et bases. Soit R un anneau. Les modules à gauche libres ressemblent le plus
les espaces vectoriels. Ce sont par définition les modules qui admettent une base. Explicitement,
B ⊂ M est une base de M si pour chaque non-zero m ∈ M il existe une unique expression finie
m = c1 b1 + c2 b2 + . . . + cr br ,
où les bi ∈ B et où les ci ∈ R sont tous non-zéro. Une base n’est pas nécessairement finie.
6
ABRAHAM BROER
Si R est un anneau commutatif et M un R-module admettant deux bases finies B1 et B2 , alors
|B1 | = |B2 |, pour une preuve voir [6, Theorem 3.4]. La même chose est vraie si R est un corps
gauche, par exemple les quaternions de Hamilton H (la preuve est analogue au cas des espace
vectoriels usuels sur des corps) ou n’importe quel corps. Dans ces cas r := |B1 | est appelé le rang
de M (ou la dimension de M ).
Si B ⊂ M est une base et N un autre R-module (pas nécessairement libre) alors chaque application φ : B → N a une unique extension φ̃ : M → N qui est R-linéaire et φ̃(b) = φ(b), pour chaque
b ∈ B. Elle est définie par
φ̃(m) := c1 φ(b1 ) + c2 φ(b2 ) + . . . + cr φ(br ),
si m = c1 b1 + c2 b2 + . . . + cr br .
2.2. Le module libre sur un ensemble. Le R-module libre RX sur un ensemble X, où X un
ensemble quelconque et R un anneau, est défini comme l’ensemble des applications f : X → R
telles que f (x) 6= 0 pour seulement un nombre fini de x ∈ X :
RX := {f : X → R; |{x ∈ X; f (x) 6= 0}| < ∞}.
On définit f1 + f2 et cf par
(f1 + f2 )(x) := f1 (x) + f2 (x), (cf )(x) := c(f (x))
où l’addition et la multiplication de R sont utilisés. Ici f, f1 , f2 ∈ RX et c ∈ R. RX est appelé le
R-module à gauche libre sur l’ensemble X.
Chaque x ∈ X donne un élément δx ∈ RX défini par
δx (x) = 1 et δx (y) = 0 si y 6= x.
Chaque f ∈ RX s’écrit uniquement comme une somme finie
X
f=
f (x)δx ,
x∈X
parce que f (x) est parr définition presque toujours 0. Souvent on simplifie l’écriture, et on écrit
P
simplement f = x f (x)x, c-à-d, δx est remplacé par x. Et puis on peut identifier X avec un
sous-ensemble de RX; ce sous-ensemble est la base naturelle de RX comme R-module à gauche
libre.
Chaque application (ensembliste) φ : X → M vers un R-module M donne un R-module homomorphisme φ̃ : RX → M par
X
φ̃(f ) =
f (x)φ(x).
x∈X
C’est l’unique R-homomorphisme φ̃ tel que
φ̃(δx = φ̃(x)) = φ(x).
Cette construction nous sera souvent très utile.
INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION
MAT 6609
7
2.3. Coordonnés. Soit M est un R-module à gauche libre avec la base finie ordonnée
B = {e1 , e2 , . . . , er }.
Alors pour chaque m ∈ M il existe un unique vecteur de coordonnés
[m]B = (m1 , m2 , . . . , mr ) ∈ Rr ,
tels que m =
Pr
i=1 mi ei .
On a
[cm + c0 m0 ]B = c[m]B + c0 [m0 ]B ,
alors l’application de M → Rn qui associe à chaque m ∈ M son vecteur de coordonnés est un
isomorphisme de R-modules à gauche. Si la base ordonnée est fixée on écrit simplement [m] = [m]B .
Soit maintenant M 0 un autre R-module libre avec base ordonnée finie B 0 = {f1 , . . . fs } et soit
φ : M → M 0 un R-module homomorphisme, c-à-d, φ(cm + c0 m0 ) = cφ(m) + c0 φ(m0 ). Définissons
comme en algèbre linéaire la matrice s × r
[φ]B
B0 = [φ] = (cij )1≤i≤s,1≤j≤r ∈ Mat(s × r, R)
par
φ(ej ) =
s
X
cij fi .
i=1
On a pour m =
P
i mi ei :
r
X
φ(m) = φ(
mj ej )
j=1
=
r
X
mj φ(ej )
j=1
=
r X
s
X
mj cij fi
j=1 i=1
=
s
X
i=1


r
X

mj cij  fi
j=1
Considérons premièrement le cas que où R est un anneau commutatif. Alors on a


s
r
X
X

φ(m) =
cij mj  fj
i=1
j=1
et donc si on considère un vecteur de coordonnés comme un vecteur colonne
[φ(m)]B0 = [φ]B
B0 · [m]B ,
où à droite on a utilisé la multiplication matricielle entre une matrice et un vecteur colonne. Pour
c ∈ R on a
[φ(cm)] = [φ][cm] = [φ]c[m] = c[φ][m]
(encore une fois, parce que R est supposé d’être commutatif).
8
ABRAHAM BROER
Si M 00 est un troisème module avec base B 00 et φ2 : M 0 → M 00 est aussi un R-morphisme on a
[φ1 ◦ φ2 ][m] = [(φ1 ◦ φ2 )(m)] = [φ1 (φ2 (m)] = [φ1 ][φ2 (m)] = [φ1 ][φ2 ][m],
donc [φ1 ◦ φ2 ] = [φ1 ][φ2 ].
En particulier si M = M 0 , B = B 0 on obtient un homomorphisme de groupe φ 7→ [φ] de
GL(M ) → GL(r, R), qui est en fait un isomorphisme.
Lemme 2.1. Supposons R est un anneau commutatif. Le choix d’une base d’un R-module libre de
dimension r induit un isomorphisme de groupe:
GL(M ) ' GL(r, R) : φ 7→ [φ]
Mais si R n’est pas commutatif, les matrices scalaires ne commutent plus avec toutes les matrices,
alors la multiplication par une matrice n’est plus une application R-linéaire, et on doit modifier
cette méthode un peu. Pour une matrice M , soit M t la matrice transpose Mijt := Mji . Remarquons
que maintenant on n’a plus que (M1 M2 )t = M2t M1t pour deux matrices.
Si on considère cette fois un vecteur de coordononnés comme un vecteur ligne on a
t
[φ(m)]B0 = [m]B [φ]B
B0 ,
où à droite on a utilisé la multiplication matricielle entre un vecteur ligne et une matrice. Pour
c ∈ R on a
[φ(cm)] = [cm][φ]t = c[m][φ]t .
Si M 00 est un troisème module avec base B 00 et φ2 : M 0 → M 00 est aussi un R-morphisme on a
[m][φ1 ◦ φ2 ]t = [(φ1 ◦ φ2 )(m)] = [φ1 (φ2 (m))] = [φ2 (m)][φ1 ]t = [m][φ2 ]t [φ1 ]t ,
donc [φ1 ◦ φ2 ]t = [φ2 ]t [φ1 ]t .
−1
L’application φ 7→ [φ]t
de GL(M ) vers GL(r, R) est un homomorphisme de groupe, parce
que
−1
−1
−1
−1
= [φ1 ◦ φ2 ]t
= [φ2 ]t [φ1 ]t
[φ1 ]t
[φ2 ]t
C’est même un isomorphisme de groupe.
Lemme 2.2. Le choix d’une base d’un R-module libre de dimension r induit un isomorphisme de
groupe:
−1
GL(M ) ' GL(r, R) : φ 7→ [φ]t
]
Si R est commutatif on va toujours utiliser la première isomorphisme.
Un petit exemple. Soit R = M = H, le corps gauche de quaternions. Soit φ : H → H une
application H-linéaire pour le module à gauche H. Alors φ(h) = φ(h · 1) = h · φ(1), alors φ est la
multiplication à droite par φ(1) ∈ H. L’application φ est inversible, si et seulement si φ(1) 6= 0.
L’isomorphisme GL(V ) → GL(1, H) = H× est donné par φ 7→ (φ(1))−1 .
Il y a d’autres différences entre la théorie classique où R est commutatif, et le cas général. Par
exemple, si R est commutatif, une matrice carrée avec coefficients dans R est inversible (i.e., cette
matrice est dans GL(r, R)) si et seulement si son déterminant est inversible dans R. Par contre si
R n’est pas commutatif, on n’a même pas une bonne définition de déterminant en général.
INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION
MAT 6609
9
2.4. Module dual et base duale. Soit M un R-module. On rappelle que le module dual M ∗ est
défini par
M ∗ := HomR (M, R).
Supposons M est libre avec base B. Pour un vecteur de base b ∈ B, on définit le vecteur de base
dual (ou la fonction coordonné associé à b ∈ B) b∗ ∈ M ∗ = HomR (M, R) comme l’application
P
R-lineaire telle que b∗ (v) est le coefficient vb de b dans l’écriture v = b0 ∈B vb0 b0 . La base duale est
la collection
B ∗ := {b∗ ; b ∈ B} ⊂ V ∗ .
Mais il faut faire attention, c’est une définition confusante : en général B ∗ n’est pas une base de
l’espace dual M ∗ , sauf si B est finie ! Par exemple, l’application
X
X
H:v=
cb (v)b 7→
cb (v)
b∈B
b∈B
est dans M ∗ , mais n’est pas une combinaison finie des vecteurs de base duale B ∗ , sauf si B est
P
finie. On pourrait écrire H = b∈B b∗ , mais cette somme n’est pas finie ! En fait, M ∗ est le produit
direct (et pas la somme directe) de ses sous-espaces Rb∗ , b ∈ B: chaque η ∈ HomR (M, R) s’écrit
uniquement comme une expression formelle (possiblement infinie)
X
η=
cb b∗ ,
b∈B
où chaque coefficient cb est dans R. Pour chaque v ∈ V il y a seulement un nombre fini d’ĺéments
de base duale b∗ tel que b∗ (v) 6= 0, donc
X
η(v) =
cb b∗ (v)
b∈B
devient une somme finie. Donc chaque fonctionnelle est quand-même une combinaison linéaire
(mais possiblement infinie !) des vecteurs de base duals.
Supposons φ : M → M est un endomorphisme de R-module. Alors on obtient un endomorphisme
duale φ∗ : M ∗ → M ∗ , par φ∗ (η) := η ◦ φ. Supposons que la base fixée est finie, disons B =
P
{e1 , . . . , er } et [φ] est la matrice associée. Alors φ(ej ) = i [φ]i,j ei et
[φ]i,j = e∗i (φ(ej )).
On a
X
φ∗ (e∗j ) (ei ) = (e∗j ◦ φ)(ei ) = e∗j ( [φ]j,r er = [φ]j,i .
r
Donc la matrice de φ∗ par rapport à la base duale est [φ]t , la matrice transposée.
2.5. Existence de bases et lemme de Zorn. Soit V un espace vectoriel sur un corps k (ou un
module sur un corps gauche). L’existence d’une base est une conséquence du ”lemme de Zorn” des
fondements des mathématiques. C’est une hypothèse fondamentale des mathématiques équivalente
à l’axiome de choix. On peut la voir comme une type d’induction transcendante.
Soit Ω un ensemble muni d’un ordre partiel ≤. Une chaı̂ne C de Ω est un sous-ensemble
totalement ordonné, c-à-d, pour chaque pair x, y ∈ C soit x ≤ y, soit y ≤ x. Une borne supérieure
d’un sous-ensemble A ⊂ Ω est un x ∈ Ω tel que y ≤ x pour chaque y ∈ A. Un élément maximal de
Ω est un élément x ∈ Ω tel que x ≤ y est seulement possible si x = y.
10
ABRAHAM BROER
Hypothèse 2.1 (Lemme de Zorn). Soit Ω un ensemble non-vide muni d’un ordre partiel. Supposons que chaque chaı̂ne de Ω a une borne supérieure. Alors Ω contient au moins un élément
maximal.
En acceptant cette hypothèse on déduit l’existence d’une base.
Corollaire 2.1. Soit V un espace vectoriel sur un corps k et supposons V 6= 0.
Si A est un sous-ensemble linéairement indépendant de V et B un sous-ensemble générateur de
V et A ⊆ B, alors il existe une base B contenant A et contenue dans B :
A ⊆ B ⊆ B.
Le résultat reste vrai si on remplace V par un module non-zero sur un corps gauche.
Preuve. Posons Ω pour l’ensemble de tous les sous-ensembles linéairement indépendant contenant
A et contenu dans B. Alors Ω n’est pas vide, parce que V 6= 0 et donc B n’est pas vide, et Ω est
partiellement ordonné par ⊆. Soit Σ ⊂ Ω une chaı̂ne. Alors la réunion U := ∪Y ∈Σ Y contient A
P
et est contenue dans B. Soit ni=1 ci ui = 0 une relation linéaire entre n éléments de U . Comme
Σ est totalement ordonné, il existe un C ∈ Σ contenant tous les ui ’s. Mais C est linéairement
indépendant, donc la relation est triviale. Donc U ∈ Ω et U est une borne supérieure pour la
chaine Σ.
Par le lemme de Zorn on conclut que Ω contient un élément maximal B, en particulier A ⊆ B ⊆ B
et B est un ensemble indépendant. Montrons que B est aussi un ensemble générateur. Soit v ∈ B−B,
par la maximalité de B l’ensemble B ∪ {v} n’est plus linéairement indépendant, donc il existe une
P
relation non-triviale cv + ni=1 ci bi = 0 pour un nombre fini de bi ’s dans B et des scalaires c, ci .
Si c = 0, alors nécessairement les autres constants sont aussi 0, parce que B est indépendant; une
contradiction. Donc c 6= 0 et v est une combinaison linéaire des b1 , . . . , bn . Mais B est un ensemble
générateur, donc B est aussi un ensemble générateur.
Corollaire 2.2. Soit U ⊂ V un sous-espace vectoriel. Alors il existe un complément, c-à-d, il
existe un sous-espace vectoriel U 0 ⊂ V tel que V = U ⊕ U 0 .
Preuve. Soit ei , i ∈ I une base de U . Par le résultat précédent on peut trouver fj ; j ∈ J tel que
{ei ; i ∈ I} ∪ {fj ; j ∈ J} est une base de V . On définit maintenant U 0 comme l’espace engendré par
les fj , j ∈ J.
3. L’algèbre de groupe et ses modules
Fixons un groupe G et un anneau R, typiquement R sera C ou un autre corps. On va donner
le R-module à gauche sur G, RG, la structure d’un anneau. La multiplication sur RG est induite
par la multiplication de G :
δg ∗ δk := δgk ,
où gk est le produit de g et k dans le groupe G. Donc (avec la notation simplifiée) g ∗ k := gk et
!
X
X
X
X X
f ∗h=
f (g)g ∗
h(k)k =
f (g)h(k)gk =
f (k)h(k −1 g g.
g∈G
k∈G
g,k∈G
g∈G
k
INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION
MAT 6609
11
Ou le produit f ∗ h est la fonction sur G définie par
X
(f ∗ h)(g) :=
f (k)h(k −1 g),
k∈G
le produit de convolution. Les sommes sont tous finies, à cause de la restriction sur les fonctions
sur G permises dans RG. L’unité de cet anneau est 1 = δ1G ; l’associativité de la multiplication
de RG est une conséquence de l’associativité de la multiplication du groupe et de l’associativité de
la multiplication de l’anneau R. Il est facile de vérifier les autres axiomes d’anneau (associatif et
unitaire). Nous pouvons identifier R avec le sous-anneau R1 de RG; ainsi par restriction chaque
RG-module est aussi un R-module.
La méme construction fonctionne aussi si on remplace G par un monoı̈de.
3.1. Actions linéaires de groupes. Soit M un RG-module, alors par restriction M est aussi un
R-module. Chaque g ∈ G peut être considéré comme un élément de la base naturelle de RG, et
donc la multiplication g · m ∈ M satisfait
(i) 1G · m = m; (ii) (g1 g2 ) · m = g1 · (g2 · m); (iii) g · (c1 m1 + c2 m2 ) = c1 (g · m1 ) + c2 (g · m2 ),
pour chaques m, m1 , m2 ∈ V , g, g1 , g2 ∈ G et c1 , c2 ∈ k.
Inversement, si M est un R-module et G × M → M : g, 7→ g · m satisfait les trois règles (i), (ii)
et (iii), alors M est un RG-module. Un tel action de G sur M est appelé une action R-linéaire.
Donc les actions R-linéaires de G sont exactement les RG-modules.
Ce qu’on vient de définir sont les actions linéaires à gauche. On pourrait aussi définir les actions
à droites, comme on fait dans les livres sur la thèorie de la représentations de la provenance de
l’Angletère, par exemple [8]. La théorie ne change pas essentiellement, sauf dans les détails, et il
faut faire attention si on lit ces livres que ”gauche” est remplacé par ”droite”, et vice versa (par
exemple la définition du groupe symétrique y est un peu différente).
Dans ce cours le plus souvent le corps C des nombres complexes sera utilisé pour R, mais on
utilisera aussi les nombres réels R et des corps fini de temps en temps. On est aussi intéressé à
utiliser les quaternions H, des espaces vectoriels sur H et des matrices avec des coefficients dans H.
On rappelle que l’anneau H est presque un corps, le seul axiom des corps qui n’est pas satisfait est
l’axiom de la commutativité de la multiplication, en particulier n’importe quelle quaternion nonzero a un inverse (unique). On dit que c’est un corps gauche. Pour être capable de travailler aussi
avec H (et d’autres corps gauches) il faut modifier les faits standard de l’algèbre linéaire un peu.
Mais il est aussi facile de travailler avec un anneau, qui sera ici toujours supposé d’être associatif
et unitair, et ses modules. Aussi R = Z est utilisé de temps en temps.
Une variation sur le théorème de Cayley généralisé des actions sur un ensemble est le suivant, la
preuve est analogue.
Lemme 3.1. Soit M un R-module à gauche, où R est un anneau (associatif et unitaire), et G un
groupe.
(i) Supposons g · m est une action R-linéaire de G sur M . Définissons ρ : G → GL(M ) par
ρ(g)(m) := g · m. Alors ρ est un homomorphisme de groupes.
(ii) Supposons ρ : G → GL(M ) est un homomorphisme de groupe. Alors g · m := ρ(g)(m) définit
une action R-linéaire de G sur M .
12
ABRAHAM BROER
Preuve. (i) Soit G × M → M : (g, m) 7→ g · m une action linéaire. On définit l’application
ρ(g) : M → M par
ρ(g)(m) := g · m.
Alors ρ(g) est un R-module homomorphisme :
ρ(g)(λv + µw) = g · (λv + µw) = λ(g · v) + µ(g · w) = λρ(g)(v) + µρ(g)(w).
Et ρ(g) est inversible avec l’inverse ρ(g −1 ) :
(ρ(g) ◦ ρ(g −1 ))(m) = ρ(g)(ρ(g −1 )(m)) = g · (g −1 · m) = (gg −1 ) · m = 1G · m = m
et d’une manière analogue ρ(g −1 ) ◦ ρ(g) = 1.
Donc on a une application
ρ : G → GL(M ).
C’est un homomorphisme de groupes :
ρ(g1 g2 )(m) = (g1 g2 ) · m = g1 · (g2 · m) = ρ(g1 ) (ρ(g2 )(m)) = (ρ(g1 ) ◦ ρ(g2 )) (m)
(ii) Par contre, supposons ρ : G → GL(M ) est un homomorphisme de groupe. On définit une
action
G × M → M : (g, m) 7→ g · m := ρ(g)(m).
On vérifie :
1G · m = ρ(1G )(m) = 1(m) = m;
et
(g1 g2 ) ◦ m = ρ(g1 g2 )(m) = (ρ(g1 ) ◦ ρ(g2 )) (m) = ρ(g1 ) (ρ(g2 )(m)) = g1 · (g2 · m).
L’action est linéaire :
g · (λv + µw) = ρ(g)(λv + µw) = λρ(g)(v) + µρ(g)(w) = λ(g · v) + µ(g · w).
On dira que deux représentations f1 : G → GL(M1 ) et f2 : G → GL(M2 ), où M1 et M2 sont
tous les deux R-modules, sont équivalentes, s’il existe un R-module isomorphisme
ω : V1 → V2 ,
tel que
f2 (g) ◦ ω = ω ◦ f1 (g)
pour chaque g ∈ G, où
g · ω(m) = ω(g · m),
pour les action linéaires correspondantes.
Lemme 3.2. Soit R un anneau, M un R-module à gauche et G un groupe.
(i) Si g · m est une action linéaire de G sur M alors M est un RG-module à gauche par
X
f m :=
f (g)(g · m).
g∈G
(ii) Si M est un RG module, alors G agit linéairement sur M par l’action g · m := δg m.
INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION
MAT 6609
13
3.2. Morphismes de kG-modules. Le langage de modules est utile.
Soit φ : M → M 0 un morphisme de RG-modules. Alors c’est un R-module homomorphisme tel
que φ : M → M 0 qui respecte les deux opérations de G :
g · φ(m) = φ(g · m),
pour chaque g ∈ G et v ∈ M .
Le noyaux et l’image d’un RG-morphisme sont des RG-modules. Si W1 , W2 sont deux sous
RG-modules de V , alors W1 ∩ W2 et W1 + W2 = {w1 + w2 ; w1 ∈ W1 , w2 ∈ W2 } sont aussi des
sous RG-modules. Pour chaque sous RG-module W ⊂ V , le quotient V /W a une structure de RG
module avec l’action linéaire g · (v + W ) := g · v + W .
On a aussi comme d’habitude deux notions de somme directe. Si W1 , W2 sont deux sous RGmodules à gauche de V , on écrit V = W1 ⊕ W2 si V1 + V2 = V et V1 ∩ V2 = 0. Si V1 et V2 sont deux
RG-modules on écrit V1 ⊕ V2 pour le produit cartésien des deux R-modeles à gauche avec l’action
g · (v1 , v2 ) := (g · v1 , g · v2 ).
On dit qu’un RG-module V est décomposable si V = W1 ⊕ W2 pour deux sous RG-modules nonzéro; sinon V est indécomposable. On dit qu’un RG-module V est simple si V ne contient aucun RGsous-module non-trivial. Un module simple est indécomposable, mais un module indécomposable
n’est pas nécessairement simple.
Si ρ : G → GL(M ) est une représentation, alors M est un RG-module. Si U ⊂ V est un sous RGmodule, par la correspondance on aura une représentation ρU : G → GL(U ). Cette représentation
est appelé sous-représentation de ρ.
3.3. Actions et actions linéaires. Soit X un G-ensemble, c’est à dire, il y une multiplication
externe fixé (g, x) 7→ g · x satisfaisant
(i)1G · x = x, (ii)(g1 g2 ) · x = g1 · (g2 · x).
Alors RX devient un RG-module à gauche défini par :

X
cg
g·
X
nx x :=
x
X
cg nx (g · x) =
X

x
g∈G,x∈X

X
g∈G
Ou RX est un RG-module par
[f ∗ h](x) :=
X
g∈G
f (g)h(g −1 · x).
cg ng−1 ·x  x.
INTRODUCTION À LA THÉORIE DE LA REPRÉSENTATION
MAT 6609
21
Département de mathématiques et de statistique, Université de Montréal, C.P. 6128, succursale
Centre-ville, Montréal (Québec), Canada H3C 3J7
E-mail address: [email protected]