Corrigé

Transcription

Corrigé
Devoir Surveillé no 2
MP 933 & 934
Corrigé
Un entier proche de n! e−1
d’après CCP PSI 2007 Maths I
1. (1) On calcule sans difficulté
α0 = 1,
α1 = 0,
α2 = 1,
α3 = 2,
α4 = 9.
(2) On procède par récurrence. Après quelques tâtonnements, on s’aperçoit que l’hérédité ne fonctionne pas si bien
que ça pour les petites valeurs de n, et ne permet de toute façon pas de passer de « αn > 0 » à « αn+1 > 0 ».
Alors tant pis, on force, en vérifiant à la main les petites valeurs et en choisissant une propriété légèrement plus
forte que celle demandée ; on note, pour tout entier n ∈ N :
« αn ∈ N∗ . »
P(n) :
• La propriété P(2) est vraie.
• Soit n > 2 et supposons les propriétés P (2), . . . , P (n) vérifiées. Alors
αn+1 = (n + 1) αn + (−1)n+1
est déjà un entier, dont on doit montrer qu’il est strictement positif. Comme αn > 1, on a αn+1 > (n+1)−1 =
n > 2 et on a prouvé P(n + 1).
• Le principe de récurrence permet de conclure que P(n) est vraie pour tout n > 2.
Comme enfin α0 et α1 sont des entiers naturels, on conclut :
Pour tout entier n, αn est un entier naturel.
2. (1) Sans trop de mystère,
β0 = 1,
β1 = 0,
β2 = 1,
β3 = 2,
β4 = 9.
Tiens, ça me rappelle quelque chose...
(2) On a, pour tout entier n,
βn =
n
X
n
(−1)k
k=0
et, étant somme d’entiers relatifs :
n! X
(−1)k n(n − 1) · · · (k + 1)
=
k!
k=0
βn est un entier relatif pour tout n ∈ N.
(3) On a, pour tout entier n :
βn+1 − (n + 1) βn = (n + 1)!
n+1
X
k=0
∀n ∈ N
n
(−1)k X (−1)k
−
k!
k!
k=0
!
= (−1)n+1 .
βn+1 − (n + 1) βn = (−1)n+1 .
Ça alors, la suite β vérifie la même relation de récurrence que la suite α !
(4) Comme α0 = β0 et que les deux suites vérifient la même relation de récurrence d’ordre 1, on en déduit que
α = β.
3. (1) La suite de terme général (−1)n /n! est alternée, elle est décroissante en valeur absolue, et elle tend vers 0. On
peut appliquer le critère des séries alternés :
Pour tout n entier, ρn est du signe de (−1)n+1 .
vendredi  septembre  —  vendémiaire 
/home/walter/LaTeX/MP/Annee/2013/DS-2013/DS02.tex
Devoir Surveillé no 2 (Corrigé)

Mathématiques, MP 933 & 934
(2) Le même théorème indique que |ρn | 6 1/(n + 1)! pour tout n ∈ N, donc
∀n ∈ N
n! |ρn | 6
1
.
n+1
Comme la suite de terme 1/n! est strictement décroissante, on reprend la démonstration du critère des séries
alternées, on montre que les suites (ρ2n )n et (ρ2n+1 )n sont strictement monotones, et on conclut que l’inégalité
est stricte :
∀n ∈ N
n! |ρn | <
1
.
n+1
(3) On a, pour tout entier n, βn /n! + ρn = e−1 donc
∀n > 1
ce qui permet d’affirmer que
βn − n! e−1 = |−n! ρn | <
1
1
6
n+1
2
βn est l’entier le plus proche de n! e−1 .
Un entier proche de n! e−1
DS02.tex
Devoir Surveillé no 2 (Corrigé)

Mathématiques, MP 933 & 934
(Inspiré de) ISUP 2004, maths 2
Première partie
1. Pour changer, la question la plus difficile du problème est la première : qu’est-ce qui était attendu ? Il s’agit de
convaincre le correcteur qu’on sait ce qu’est un endomorphisme :
– ∆ est bien linéaire (∆(λP1 + µP2 ) = · · · = λ∆(P1 ) + µ∆(P2 ));
– Si P ∈ R[X], alors ∆(P) appartient également à R[X].
∆ est un endomorphisme de R[X].
2. Si P est de degré inférieur ou égal à n, alors P(X + 1) également (il a le même degré que P), donc P(X + 1) − P(X)
aussi. Ainsi :
Rn [X] est stable par ∆.
3. Il s’agit d’exprimer, pour chaque j ∈ [ 0 ; n]], ∆(Xj ) dans la base Cn . Or : ∆(1) = 0, et pour j ∈ [ 1 ; n]] :
∆(Xj ) = (X + 1)j − Xj =
j−1 X
j
Xi .
i
i=1
La matrice de ∆ dans Cn va donc être un triangle de Pascal amputé de sa diagonale...

0
 ..
.

.
mat(∆) =  ..
Cn

.
 ..
0
1 1
0 2
..
. 0
.. ..
. .
0 0
..
.

1
n 

1 
.. 
.
. 


n 
n−1
0
4. La matrice précédente étant triangulaire, le spectre de ∆n se lit sur la diagonale : il est réduit à {0}. Si ∆n était
diagonalisable, on aurait alors E = Ker(∆n ), donc ∆n = 0, ce qui se serait vu.
On peut également écrire tout cela matriciellement, en supposant l’existence d’une matrice inversible P telle que
matC (∆n ) = P · 0 · P−1 ...
∆n n’est pas diagonalisable.
5. – Matriciellement : « on sait bien » qu’une matrice triangulaire T à diagonale nulle est nilpotente. Plus précisément,
2
si k ∈ N, alors pour tout couple (i, j) ∈ [ 1 ; n]] tel que j − i < k, on a (Tk )i,j = 0.
– Géométriquement : si P est un polynôme non nul, alors ∆(P) est de degré strictement plus petit que P. Ainsi,
pour tout P ∈ Rn [X], ∆nn (P) = ∆n (P) = 0. Ceci étant valable pour tout P ∈ Rn [X], on a ∆nn = 0.
∆n est nilpotent.
6. Si n ∈ N, alors ∆n (Xn+1 ) est un polynôme constant non nul, donc ∆n , n’est pas l’application nulle. Ceci étant
valable pour tout n ∈ N :
∆ n’est pas nilpotent.
On aura noté que « pour tout P, il existe n tel que ∆n (P) = 0 », mais « il n’existe pas n tel que pour tout P,
∆n (P) = 0 »; quel phénomène étrange et nouveau...
7. Tout comme ∆, l’opérateur de dérivation fait décroître le degré des polynômes non nuls, et laisse donc stable les
sous-espaces Rn [X]. La matrice dans Cn de sa restriction à Rn [X] est également triangulaire à diagonale nulle.
Les restrictions de D aux Rn [X] sont nilpotentes non diagonalisables, et D est non nilpotent.
ISUP 2004, maths 2
DS02.tex
Devoir Surveillé no 2 (Corrigé)

Mathématiques, MP 933 & 934
Deuxième partie
1. D’après ce qui précède :

0
A = 0
0
De plus :


1 0
0
0 2 et B = 0
0 0
0

0 0
A0 = B0 = I3 , A2 = B2 = 0 0
0 0
2. D’après ce qui précède :
Les matrices
√1
2
A et
√1
2

1 1
0 2
0 0

2
0, et Ak = Bk = 0 pour tout k > 3.
0
B sont deux solutions distinctes de (E1 ).
3. (a) i. ❏ Soit x ∈ Ker(g). On a alors :
g (f (x)) = ((f ◦ f ) ◦ f ) (x) = (f ◦ (f ◦ f )) (x) = f (g(x)) = f (0) = 0,
donc f (x) ∈ Ker(g). ❏
On a monré que Ker(g) est bien stable par f .
❏ Soit maintenant y ∈ Im(g). Il existe alors x ∈ E = R2 [X] tel que y = g(x). On a alors :
f (y) = f ((f ◦ f )(x)) = (f ◦ f ) (f (x)) = g f (x) ,
donc f (y) est bien dans Im(g).
Ainsi :
Le noyau et l’image de g sont stables par f .
On pouvait également arguer que g et g commutent...
ii. La matrice J1 est évidemment la matrice représentative de g dans la base canonique C2 . Notamment, g est
de rang 1. Puisque 1 ∈ Im g, on en déduit
Im g = Vect(1).
Enfin, le noyau de g est de dimension 3 − 1 = 2. Or 1 et X sont dans le noyau de g, donc finalement
Ker g = Vect(1, X).
iii. L’énoncé guide maintenant vers une analyse-synthèse... On cherche la forme nécessaire de M (c’est la partie
Analyse).
Si M est une racine de (E1 ), alors son application canoniquement associée f stabilise Im(g) = Vect(1) (ce
qui impose l’allure de la première colonne) et Ker(g) = Vect(1, X), donc M est triangulaire supérieure :


λ a b
M = 0 µ c 
0 0 ν
 4

λ
∗
∗
Or, M4 = J21 = 0 =  0 µ4 ∗  donc λ = µ = ν = 0 et
0
0 ν4


0 a b
M est nécessairement de la forme M = 0 0 c .
0 0 0


0 0 ac
(b) Réciproquement (c’est la Synthèse...) une matrice de la forme précédente a son carré égal à 0 0 0 ,
0 0 0
donc M est solution si et seulement si ac = 1.
Ainsi,



β
 0 α

L’ensemble des solutions de (E1 ) est : 0 0 1/α , (α, β) ∈ R∗ × R .


0 0
0
...Et on note que
ISUP 2004, maths 2
√1
2
A et
√1
2
B sont bien de ce type !
DS02.tex
Devoir Surveillé no 2 (Corrigé)

Mathématiques, MP 933 & 934
(c) L’analyse faite dans la question précédente reste valable : si f ◦ f = g, alors l’image et le noyau de g sont stables
par f . Ainsi, une éventuelle solution de M2 = J2 aurait son application linéaire « canoniquement1 » associée
stabilisant à nouveau Vect(1) et Vect(1, X) (image
 et noyau
 sont inversés par rapport au cas précédent). La
0 a b
matrice M est alors nécessairement de la forme 0 0 c, mais on a vu que le carré d’une telle matrice ne
0 0 0
peut valoir J2 . Ainsi :
L’équation M2 = J2 n’a pas de solution
Autre point de vue, plus géométrique : une éventuelle solution de l’équation (E2 ) serait un nilpotent (car J32 = 0)
d’ordre au moins 5 (car J22 6= 0), ce qui est impossible en dimension 3.
Troisième partie
1. Voici une solution dont l’efficacité n’égale que la malhonnêteté :
– Com(f ) est le noyau de l’application linéaire Φ : g ∈ L (E) 7→ f ◦ g − g ◦ f ∈ L (E), donc est un sous-espace de
L (E).
– Pol(f ) est l’image de l’application linéaire Ψ : P ∈ R[X] 7→ P(f ) ∈ L (E), donc est à ce titre un sous-espace de
L (E).
L’astuce consiste évidemment à ne pas vérifier la linéarité des applications citées. La fainéantise et l’efficacité étant
deux qualités appréciées chez le matheux, une telle solution serait certainement validée quel que soit le concours !
2. Hum... ça rappelle vaguement des choses... Puisque un−16= 0, on peut fixer x0 ∈ E tel que un−1 (x0 ) 6= 0. On montre
alors comme d’habitude2 que la famille x0 , ..., un−1 (x0 ) est libre; c’est donc une base de E. La matrice de u dans
cette base est presque celle recherchée... et il suffit alors de la retourner pour avoir la forme recherchée.
La matrice de u dans B = un−1 (x0 ), ..., u(x0 ), x0 est N.

0





3. On calcule de façon classique Nk = 





···
..
.
0
..
(0)
1
..
.
.
..
..
.
..
.
..
.
.

(0)




1
, c’est-à-dire

0



0
(Nk )i,j =
(
1
0
si j = i + k
sinon .
On en déduit (par résolution de Nk X = 0, ou avec une inclusion et le fait que Nk est de rang n − k) :
Le noyau de uk est Vect(e1 , ..., ek ).
4. – Tout d’abord, on montre sans trop de mal3 que (IdE , u, ..., un−1 ) est une famille libre de Pol(u).
– Pour le caractère générateur, on fixe v ∈ Pol(u) il existe alors P ∈ R[X] tel que v = P(u). On divise euclidiennement : il existe Q, R ∈ R[X] tels que P = Xn Q + R, avec R de degré strictement plus petit que n. On a
alors
v = P(u) = un ◦ Q(u) + R(u) = R(u) ∈ Vect(IdE , u, ..., un−1 ),
ce qui prouve le caractère générateur.
(IdE , u, ..., un−1 ) est une base de Pol(u).
5. C’est presque une question de cours... Fixons donc x ∈ Ker (P(u)) et montrons : w(x) ∈ Ker (P(u)).
Pour tout k ∈ N, w commute avec uk (récurrence immédiate), puis w commute avec P(u). On a alors :
P(u) (w(x)) = (P(u) ◦ w) (x) = (w ◦ P(u)) (x) = w (P(u)(x)) = w(0) = 0.
Le noyau de P(u) est stable par w.
1
Usuellement, on parle d’application canoniquement associée lorsque l’espace en jeu est Kn ; passons...
Ce qui inclut qu’on le veuille ou non une récurrence avec prédécesseurs, qu’elle soit masquée par des petits points, ou le procédé usuel
« prenons le plus petit gnagna tel que ceci soit faux... »
3
Par exemple en regardant les matrices associées.
2
ISUP 2004, maths 2
DS02.tex
Devoir Surveillé no 2 (Corrigé)

Mathématiques, MP 933 & 934
6. D’après les questions 3 et 5, les sous-espaces Vect(e1 , ..., ek ) sont stables par w. Si j ∈ [ 1 ; n]], alors w(ej ) ∈
Vect(e1 , ..., ej ) : cela se traduit sur la matrice W = mat(w, B) par Wi,j = 0 pour tout i > j : c’est ce qu’on voulait
montrer.
La matrice de w dans B est triangulaire supérieure.
7. – Tout d’abord, u commute avec chaque uk donc avec tout polynôme en u, donc : Pol(u) ⊂ Com(u).
– Réciproquement,
( soit w ∈ Com(u). Sa matrice W dans(la base B est triangulaire supérieure et commute avec N.
0
si j = 1
0
si i = n
Or (WN)i,j =
alors que (NW)i,j =
wi,j+1 sinon
wi+1,j sinon
On en déduit que pour i 6 n − 1 et j > 2, wi,j+1 = wi+1,j , ou encore : pour tout α, β 6 n − 2, wα,β = wα+1,β+1 .
La matrice W est donc de la forme


α0 α1 · · · αn−1

.. 
..
.

. ..
. 


W=

.
..

α1 
(0)
α0
En prenant P = α0 + α1 X + · · · + αn−1 Xn−1 , on a alors W = P(N), donc w = P(u) ∈ Pol(u), et donc Com(u) ⊂
Pol(u). Comme on connaît une base de ce dernier, la dimension ne fait guère mystère.
Com(u) = Pol(u) est de dimension n.
8. Pour des raisons de lisibilité, notons plutôt v = u′ ce nilpotent d’indice n − 1. On cherche une base B ′ de E dans
laquelle la matrice de v vaut :


0 1
(0) 0

.. 
..
..

.
.
.




.
. . 1 0



 (0)
0 0
0
c’est-à-dire : v(e′1 ) = v(e′n ) = 0, v(e′2 ) = e′1 , ..., v(e′n−1 ) = e′n−2 . Tout ceci implique en particulier : pour tout
k ∈ [[1, n − 2]], e′k = v n−1−k (e′n−1 ).
Si on a bien en tête les résultats un peu fins sur les noyaux/images itérés, on sait que le noyau de v est de dimension 2
(la suite des dimensions des noyaux de v k est concave : si Ker(v) était de dimension 1, alors Ker(v n−1 ) serait au
plus de dimension n − 1, ce qui est absurde). Il resterait alors à construire une base de Ker(v n−2 ) de la façon usuelle
(qui va suivre) et compléter avec un vecteur du noyau non colinéaire avec celui dont on dispose déjà. Mais ce résultat
n’étant peut-être pas considéré comme basique (...), on va procéder autrement.
Commençons par fixer x0 tel que v n−2 (x0 ) 6= 0. La famille x0 , ..., v n−2 (x0 ) est alors libre (enfin, il me semble...).
On définit alors e′k = v n−1−k (x0 ), pour tout k ∈ [[1, n − 1]], et on complète la famille libre (e′1 , ..., e′n−1 ) en une base
de E à l’aide d’un vecteur f . La matrice de v dans cette base est alors :


0 1
(0)
α1

.. 
..
..

.
.
. 



.
V1 = 
.. 1 α


n−2 


(0)
0 αn−1 
αn
Puisque V1n = 0, on a immédiatement αn = 0. Ensuite, u(α1 e′1 ) = u2 (α2 e′2 ) = · · · = un−2 (αn−2 e′n−2 ) = 0, donc :
0 = un−1 (f ) = un−2 (u(f )) = un−2 αn−1 e′n−1 = αn−1 e′1 ,
donc αn−1 = 0.
Prenons maintenant e′n = f − α1 e′2 + · · · + αn−2 e′n−1 , de sorte que e′n ∈ Ker(v) : la famille B ′ = (e′1 , ..., e′n ) est
alors une base de E (on a seulement transvecté sur une base !), et :
La matrice de u′ dans B est celle demandée.
9. Bien entendu, il y a un isomorphisme entre l’espace des endomorphismes commutant avec u′ et l’espace des matrices
′
commutant
voit que M =
avec N : c’est ce dernier espace que l’on va déterminer. En raisonnant par blocs, on A C
N0 0
′
(avec A ∈ Mn−1 (R), C une matrice colonne et L une matrice ligne) commute avec N =
si et
L α
0 0
seulement si AN0 = N0 A, NC = 0 et LN = 0. La première condition impose la forme de A (question 7); la seconde
ISUP 2004, maths 2
DS02.tex
Devoir Surveillé no 2 (Corrigé)

Mathématiques, MP 933 & 934
impose C = t λ 0 · · · 0 , et la dernière impose L = 0 · · · 0 µ . Ces conditions sont en fait nécessaires et
suffisantes pour avoir MN′ = N′ M. Les matrices commutant avec N′ sont donc celles de la forme


λ0 λ1 · · · λn−1 λ


..
..
..

.
.
.
0



.. 
..

.
(0)
λ1
.



λ0
0
0 ··· 0
µ
α
et finalement :
Com(u′ ) est de dimension (n − 1) + 3 = n + 2
Quatrième partie
1. Pas besoin d’aller chercher bien loin :
0 0
0
Les matrices A =
et B =
1 0
0
1
0 1
sont nilpotentes, mais pas leur somme
.
0
1 0
La somme est en effet inversible. Pour le produit, ce n’est guère plus compliqué :
0 0
0 1
0 0
Les matrices A =
et B =
sont nilpotentes, mais pas leur produit AB =
.
1 0
0 0
0 1
Leur produit est ici un projecteur non nul : pour tout k > 2, (AB)k = AB 6= 0.
2. (a) Notons p = α(A), q = α(B), et supposons : p 6 q. On a alors : (AB)p = (AB)(AB)...(AB) = Ap Bp (car A et B
commutent4), or Ap = 0, donc (AB)p = 0, et ainsi :
La matrice AB est nilpotente d’indice majoré par p = min(α(A), α(B)).
Formellement, la matrice nulle est nilpotente d’indice 1, et donc :
0 1
En prenant A = B =
, on a α(A) = α(B) = 2 et α(AB) = 1 < min (α(A), α(B)).
0 0
Ceux qui ne sont pas convaincus par la matrice nulle pourront préférer prendre par exemple :


0 1 0
A = B = 0 0 1.
0 0 0
(b) Notons p = α(A) et q = α(B). Puisque A et B commutent, on peut binômiser :
p+q−1
(A + B)
=
p+q−1
X k=0
p + q + 1 k p+q−1−k
A B
.
k
Si k > p alors Ak = 0. Pour k 6 p − 1, on a cette fois p + q − 1 − k > q donc Bp+q−1−k = 0. Ainsi, tous les
termes de la somme sont nuls, donc (A + B)p+q−1 = 0, donc :
A + B est nilpotente d’ordre majoré par α(A) + α(B) − 1, avec égalité si A = B = 0.
Ici encore, on poouura préférer un exemple moins trivial en prenant pour A la matrice N′ vue dans la partie
précédente, et B la matrice élémentaire En−1,n .
3. (a) Pour tout k > r, Ak = 0, donc dans les deux définitions de exp(A) et ln(In + A), les termes au delà de k = r
sont nuls :
En prenant P :=
r−1 k
X
X
k=0
k!
et Q :=
r−1
X
(−1)k−1
k=1
k
Xk , on a exp(A) = P(A) et ln(In + A) = Q(A)
On note pour la suite que d = r − 1.
4
Oui, bon, par récurrence immédiate...
ISUP 2004, maths 2
DS02.tex
Devoir Surveillé no 2 (Corrigé)

Mathématiques, MP 933 & 934
(b) On reconnaît les développements limités des fonctions exponentielle et logarithme aux voisinages de 0 et 1 :
et = P(t) + o(td ) et ln(1 + u) = Q(u) + o(ud ). On va les composer...
– D’une part, eln(1+u) = 1 + u ;
– d’autre part, ln(1 + u) ∼ u −→ 0, donc
u→0
eln(1+u) = P (ln(1 + u)) + o ln(1 + u)d = P Q(u) + o(ud ) + o(ud )
|
{z
}
=o(ud )
=
d
X
k
1
Q(u) + o(ud ) = P (Q(u)) + o(ud ).
k! |
{z
}
k=0
On a donc comme annoncé :
Q(u)k +o(ud )
Au voisinage de 0, P (Q(u)) = 1 + u + o(ud ).
La seconde relation se prouve de la même façon.
(c) Lorsqu’un polynôme R vérifie R(t) = o(td ) au voisinage de 0, alors sa valuation vaut au moins d + 1; il existe
alors un polynôme R1 tel que R = Xd+1 R1 . Ainsi :
Il existe deux polynômes S1 et T1 tels que P(Q(x)) = 1 + X + Xr S1 et Q(P(X) − 1) = X + Xr T1 .
4. Avec les notations de la question précédente, on a donc :
exp(ln(In + A)) = P(Q(A)) = In + A + Ar S1 (A).
Mais comme Ar = 0, on obtient exp(ln(In + A)) = In + A. Ainsi, lorsque U est unipotente, exp (ln(U)) = U, donc
exp ◦ ln = IdU (avec U l’ensemble des matrices unipotentes).
De même, ln ◦ exp = IdN , avec N l’ensemble des matrices nilpotentes.
Les fonctions ln et exp induisent donc deux bijections réciproques entre U et N .
Au fait : sauriez-vous encore (...) montrer que si f et g sont des applications de E (respectivement F) dans F
(respectivement E) vérifiant g ◦ f = IdE et f ◦ g = IdF , alors f et g sont bijectives (injective et surjectives) ?
5. On peut invoquer un résultat général bien connu sur les exponentielles de matrices qui commutent... mais l’esprit
de l’énoncé me semble être de le reprouver. Soient donc A et B deux matrices qui commutent. Dans le produit
exp(A) exp(B), on va regrouper les termes Ai Bj à somme s = i + j constante :

! n−1
n−1
2n−2
s
2n−2
X Ai
X Bj
XX
X 1
Ai Bs−i

=
=
exp(A) exp(B) =
(A + B)s = exp(A + B)
i!
j!
i!
(s
−
i)!
s!
s=0 i=0
s=0
i=0
j=0
|
{z
}
s
1 P s Ai Bs−i
s! i=0 ( i )
(on a binômisé, ce qui était licite puisque A et B commutent).
Si A et B sont deux matrices nilpotentes qui commutent, alors exp(A + B) = exp(A) exp(B)
6. Déjà, on peut avoir une géniale intuition qui nous guide vers le résultat...
Supposons que U et V commutent. Les matrices ln(U) et ln(V) commutent alors également, puisque ce sont des
polynômes en U et V. On peut donc utiliser ce qui précède :
exp (ln(U) + ln(V)) = exp (ln(U)) exp (ln(V)) = UV = exp (ln(UV)) ,
donc par injectivité de la fonctions exp, on en déduit :
Si U et V sont deux matrices unipotentes qui commutent, alors ln(UV) = ln(U) + ln(V)
7. C’est dans le cours, entre les séries, la réduction et la topologie ! Si on munit Mn (R) d’une norme, alors la série
P An
est absolument convergente, ce qui permet de définir l’exponentielle de toute matrice réelle (ou complexe,
n!
d’ailleurs). En travaillant dans l’esprit de la question 5 (en contrôlant les restes : il ne s’agit plus de polynômes5),
on prouve de même que si A et B sont deux matrices qui commutent, alors exp(A + B) = exp(A) exp(B).
Si kAk < 1, la série définissant ln(I + A) est également convergente. Comme on peut raisonnablement l’espérer, exp
et ln sont alors localement des bijections réciproques.
5
Pour savoir si on a le droit d’utiliser le cours sur les produits de Cauchy de séries absolument convergentes, il faudrait bien connaître
le cours en question : est-il quesiton de séries de réels/complexes, ou bien de séries dans des algèbres normées ? Mystère...
ISUP 2004, maths 2
DS02.tex