Un aperçu de la théorie de la ruine

Transcription

Un aperçu de la théorie de la ruine
Un aperçu de la théorie de la ruine
Florin Avram
17 janvier 2014
Table des matières
1 Processus de Lévy : marches aléatoires en temps continu
1.1 Définition et propriétés de linéarité de processus de Lévy . . . . . . . . . . .
1.2 Exemple : le processus de Poisson composé . . . . . . . . . . . . . . . . . . .
1.3 La décomposition de Levy-Khinchine . . . . . . . . . . . . . . . . . . . . . .
3
3
5
6
2 Marches aléatoires infinitesimales et mouvement Brownien
2.1 Le mouvement Brownien standard . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Problèmes de premier passage/Dirichlet, et le générateur . . . . . . . . . . .
2.3 La formule de Black-Scholes pour les options d’achat . . . . . . . . . . . . .
7
8
9
10
3 Le modèle de Cramér-Lundberg
3.1 Les problèmes de premier passage pour les processus de Cramér-Lundberg .
3.2 L’équation intégro-différentielle pour la probabilité de ruine . . . . . . . . .
3.3 Sinistres Exponentiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 La formule de Pollaczek-Khinchin pour la transformée de Laplace . . . . . .
3.5 Probabilités de ruine sur un horison exponentiel . . . . . . . . . . . . . . . .
3.6 Conditionnement par le premier escalier en bas et l’équation de renouvellement
3.7 Exposants de Lévi rationnels . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8 L’équation Cramér Lundberg généralisée pour le modèle de Sparre-Andersen
3.9 Le processus de Cramér-Lundberg avec perturbation Brownienne . . . . . . .
3.10 Approximations de type Padé pour les probabilités de ruine du processus de
Cramér-Lundberg perturbé . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
13
15
15
17
19
20
21
24
24
2
27
Chapitre 1
Processus de Lévy : marches
aléatoires en temps continu
Motivation : Les processus de Lévy sont la généralisation des marches aléatoires
discrètes au cas des temps continus(et possiblement espace d’états continus). Le processus
de Poisson en fourni un exemple. Mais, on a du mal a donner une définition ”explicite”
analogue à ”somme des sommands i.i.d.” (”intégrale des petits acroissements i.i.d.” n’est pas
si facile a formaliser).
1.1
addlev
Définition et propriétés de linéarité de processus
de Lévy
On denotera par
XI = X[s,t] := X(t) − X(s)
l’acroissement/increment d’un processus X sur un intervalle I = [s, t]. Les marches aléatoires
discrètes Xn , n ∈ N et certaines processus en temps continu X(t), t ∈ R+ que nous verrons plus tard (le processus de Poisson composé, le mouvement Brownien, ...) partagent la
proprieté d’avoir des increments independants X[s,t] sur d’intervalles disjoints. Sur chaque
interval I = [s, t], la distribution depend seulement de la longueur t − s de l’intervalle (et
pas du point initial s). Ces propriétés fournissent la définition des processus de Lévy :
Définition 1.1 Un processus X(t) s’appelle processus A.S.I. (à acroissements/increments
stationnaires et independants) si :
– L’increment X[t,s] := X(t)−X(s) sur un intervalle [s, t] est independant des increments
sur d’autres intervalles [s′ , t′ ] disjoints de [s, t].
– La distribution du increment X[s,s+t] = X(s + t) − X(s) est identique à la distribution
du increment initiale X[0,t] = X(t) − X(0), pour chaque s ∈ R+ .
Remarque 1.1 Il est facile de verifier que le mouvement linéaire X(t) = c t et le processus
de Poisson satisfont ces proprietées.
Note : En temps discret, les processus a.s.i. s’appellent de preference marches aleatoires et
en temps continu, processus de Lévy. Le théorème suivant montre que les propriétés ci-dessus
impliquent que l’espérance , variance, et la fonction génératrice des cumulants des processus
de Lévy sont des fonctions additives en temps.
3
Théorème 1.1 Pour chaque t, s ∈ R+ : a) l’esperance m(t) = EX(t) d’une marche aleatoire/processus de Lévy X(t) avec X(0) = 0 est additive :
m(t + s) = m(t) + m(s)
et linéaire
m(t) = tm(1)
b) la variance v(t) = E(X(t) − m(t))2 est additive :
v(t + s) = v(t) + v(s)
et linéaire
v(t) = tv(1)
c) La fonction génératrice des moments d’un processus de Lévy X(t) avec X(0) = 0 M (t) =
Mθ (t) := EeθX(t) est multiplicative
M (t + s) = M (t) M (s)
pour chaque t, s où elle est bien definie. d) Déduisez qu’elle doit etre de la forme : M (t) =
etκ(θ) pour une certaine fonction κ(θ) (appelée exposant de Lévy, où fonction génératrice des
cumulants).
Demo : a) (b) : One décompose X(t+s) = X(s)+(X(t+s)−X(s)). Prenant lespérance
(variance) on demontre la proprieté f (t + s) = f (t) + f (s). Finalement, pour conclure la
linearité, on s’appuie sur la lemme 1.1, et la mesurabilité de ces fonctions. c) Cette fois
la décomposition X(t + s) = X(s) + (X(t + s) − X(s)) implique multiplicativité. d) En
prenant logarithmes, on transforme la multiplicativité en additivité, c.-à-d. on conclut que
f (t) = LogM (t) satisfait f (t + s) = f (t) + f (s).
l:lin
Lemme 1.1 Si une fonction continue ou monotone (en fait, mesurable suffit) f (t) : R+ − >
R satisfait pour chaque s, t, l’identitè :
f (t + s) = f (t) + f (s)
alors f (t) est une fonction linéaire, c.-à-d.
f (t) = f (1)t.
Demo : On établie la linearité d’une fonction additive d’abord les temps t naturels t =
1, 2, 3, ..., en suite pour les temps t fractionnaires t = 1/2, 1/3, ..., en suite pour les temps
rationnels t ∈ Q, et finalement on approche t réel par des temps rationnels.
Remarque 1.2 La fonction génératrice des cumulants/exposant de Laplace characterise
uniquement un processus de Lévy. Elle est une variation naturelle dans ce contexte de la
fonction génératrice des moments/fonction caractéristique, qui a leurs tour réflechissent le
role fondamental de la fonction exponentielle dans l’analyse sur Rd .
4
1.2
Exemple : le processus de Poisson composé
Définition 1.2 Le processus de Poisson composé
Nλ (t)
St =
∑
Zi
(1.1)
i=1
est une somme des variables i.i.d.(independantes et idéntiquement
distribuées) Zi , avec
∫ ∞ θx
distribution cumulative et mgf denotées par F (z) = FZ (z), MZ (θ) = −∞ e dF (x), où Nλ (t)
est un processus de Poisson, independant de Zi .
Outrement dit, il s’agit des marches aléatoires avec increments qui arrivent après des temps
exponentiels. Ce processus est utilisé par exemple pour modéliser le montant total des sinistres d’une compagnie d’assurances.
e:PCom
Exercice 1.1 a) Calculer ESt , et Var St pour un processus de Poisson composé. b) Calculer
la fonction génératrice des moments.
Solution : Considerons plus generalement des sommes aleatoires des variables identiques
S=
N
∑
Zi ,
i=1
avec N independant de Zi , et P [N = k] = pk , k ∈ Z+ . En conditionnant sur le nb. des sauts,
on trouve : a)
ES =
∞
∑
pj (jEZ1 ) = EZ1 EN = λt
∫
xfZ (x)dx
j=0
Si les Zi sont aussi independants, alors :
Var S = E(S)2 − (ES)2 =
∞
∑
j=0
=
∞
∑
pj E(
j
∑
Zi )2 − (EN EZ1 )2
i=1
pj (jE(Z12 ) + j(j − 1)(EZ1 )2 ) − (EN EZ1 )2
j=0
= EN Var Z1 + Var N (EZ1 )2 = λtE(Z12 )
∫
b) Soit MZ (u)∑= EeuZ = 0∞ eux f (x)dx la fonction génératrice de moments∫ de Zi . On trouve :
∞ ux
NT
j
∑
λt(
(e −1)f (x)dx)
−λt (λt)
j
λt(MZ (u)−1)
0
=
e
EeuSt = Eeu( t=1 Zt ) = ∞
(M
(u))
=
e
=
e
. En
Z
j=0
j!
conclusion,
EeuSt = etκ(u) ,
∫
κ(u) = λ(MZ (u) − 1) = λ(
∞
−∞
eux f (x)dx − 1) =
∫
∞
−∞
(eux − 1)ν(dx)
(1.2)
Il se trouve que la formule de la variance (un peu difficile a obtenir directement), admet une
generalisation plus facile a demontrer – voir Proposition ?? !
5
Exercice 1.2 Déterminer la fonction de covariance
Cov [X(t), X(t + s)]
d’un processus de Poisson composé X(t), t ≥ 0.
Exercice 1.3 (Ross, Exercice 63) Une société d’assurance paie pour les déclarations
de sinistres dans le cadre des contrats d’assurance vie selon un processus de Poisson de taux
λ = 5 par semaine. Si le montant payé pour chaque contrat suit une distribution exponentielle
de moyenne 2000, quelles sont la moyenne et la variance des montants payés par la société
d’assurances dans un intervalle de quatre semaines ?
Exercice 1.4 (Ross, Exercice 66) L’arrivée des clients à un distributeur de billets suit
un processus de Poisson de taux 12 per hour. Le montant rétiré à chaque transaction est une
variable aléatoire de moyenne 30 et écart-type 50 (un retrait négatif signifie que de l’argent
a été déposé). La machine est utilisée 15 heures par jour. Approximez la probabilité que le
montant total rétiré par jour soit infèrieur à 6000.
1.3
La décomposition de Levy-Khinchine
Un résultat important, mais difficile à démontrer, est :
Théorème 1.2 Un processus de Levy a des chemins continus ssi il est un mouvement Brow2
nien, c.-à-d. sa fonction génératrice des cumulants est quadratique κ(θ) = µθ + σ2 θ2 .
La partie qui reste d’un processus de Levy apres avoir ”enlevé” une eventuelle composante
Browniennne est un processus des sauts pur avec espace d’états continu R. Ce type
des processus de Levy est characterisé par une ”mesure de Levy”, c.-à-d. une mesure ν(dz)
satisfaisant
ν[{|z| ≥ 1}] < ∞,
∫
{|z|≤1}
z 2 ν(dz) < ∞,
(1.3)
et tq ν(dz) fournit le taux d’arrivée des sauts de taille z. Le point de troncation 1 entre les
”grands sauts” et les petits sauts est arbitraire. Remarquez que la masse totale de grands
sauts et finie, mais celle des petits sauts pas forcemment. Si en plus la masse des petits sauts
est finie, on a faire avec un processus de Poisson composé, c.-à-d.
ν(dz) = λF (dz),
où F (dz) est une cdf. Le cas général peut etre approximé par des processus de Poisson
composé, mais pour simplifier, nous allons travailler dans un premier temps seulement avec
des processus qui sont sommes independantes d’un mouvement Brownien avec tendance et
d’un processus de Poisson composé.
Un résultat fondamental, la décomposition de Levy-Khinchine, nous assure que chaque
processus de Levy est la somme independante d’un mouvement Brownien avec tendance et
d’un processus de Levy des sauts (qui est une limite des processus de Poisson composés).
Remarquons aussi qu’il y a une correspondance biunivoque entre les processus de Levy et
les mesures infinitement divisibles.
6
Chapitre 2
limbr
Marches aléatoires infinitesimales et
mouvement Brownien
Nous avons déjà vu deux exemples des processus de Levy : le mouvement linéaire et le
processus de Poisson composé. Un autre exemple, très important, est celui du mouvement
Brownien, qui est conceptuellement ”une limite continue des marches aléatoires ”infinitesimales” à petits pas en espace et en temps”. Comme l’étude de ce processus comporte
beaucoup des points fins (par exemple la continuité et la nondifférentiabilité des chemins,
etc...), on va se contenter ici de donner seulement quelques idées principales, autour de l’approche historique consistant en approximer ce processus par une marche aléatoire discrète
”infinitesimale”, c.-à-d. par une somme des variables aléatoires i.i.d., judicieusement choisies.
Intuitivement, une marche aléatoire “infinitesimale” est un processus de la forme
(h,D)
Xt
= X0 + D(Z1 + Z2 + · · · + Zn ), n = [t/h],
où des petits increments ϵi := DZi arrivent après des intervalles de temps longueur h.
En choisisant h, D tel que
(h,D)
Xt = lim Xt
h,D
est un processus avec chemins continus on obtient le mouvement Brownien, un des processus
les plus utiles dans la modélisation stochastique.
Pour assurer qu’une marche aléatoire infinitesimale a une limite, ”vue de loin”, il est
naturelle d’assurer d’abord que les limites de l’espérance et de la variance, sont finies, disons
µt et σ 2 t, σ > 0 (la linéarité en t est nécessaire pour tous les processus de Levy).
Par le théorème de limite centrale, une marche aléatoire infinitesimale aura dans la
limite des distribution marginales Gaussienne, a tout moment t (en plus les lois jointes
seront determinées complétement par les paramètres µ, σ).
Donnons maintenant quelques exemples des marches aléatoire infinitesimales qui approximent dans la limite le mouvement Brownien.√
– La marche Gaussienne. Supposons ϵi = hNi , avec Ni variables Gaussiennes standards. Cette construction implique que Xt − X0 a une Loi Gaussienne, de variance
h⌊t/h⌋ → t, i.e. µ = 0, σ = 1.
– Une marche simple,
symmétrique, avec tendance ajoutée, est obtenue en pre√
nant ϵi = µh + hZi , Zi = ±1, ac. p. p = q = 1/2.
– La marche simple asymétrique, est obtenue en choisissant ϵi := DZi de loi
P [ϵn = D] = p, P [ϵn = −D] = q = 1 − p. Pour assurer l’existence d’une limite, il
7
(h,D)
est nécessaire que l’éspérance et la variance de Xt
EXt − X0 = [t/h](p − q)D ∼ t(p − q)(D/h),
convergent. On a :
V ar(Xt − X0 ) = [t/h](D2 − D2 (p − q)2 )
Pour la convergence de éspérance, il est nécessaire que (p − q)D = O(h), et pour
convergence de la variance, il est nécessaire que D2 = O(h). En posant D2 = σ 2 h et
h
D
1
µ
1
µ√
p − q = µ = µ 2 ⇔ p, q = ± 2 D = (1 ±
h),
D
σ
2 2σ
2
σ
on conclut que sous ces conditions, il suit que :
lim EXt − X0 = µt,
h→0
lim V ar(Xt − X0 ) = tσ 2
h→0
Exercice 2.1 Verifier la convergence en distribution des marches aleatoires infinitesimales
asymetriques vers le mouvement Brownien. En deduire sa fonction génératrice des cumulants.
2.1
Le mouvement Brownien standard
Supposons maintenant pour simplicité
µ = 0 (donc une marche symmétrique) et σ = 1.
√
(h, h)
On peut montrer que la limite de Xt
quand h → 0, appelée mouvement Brownien, existe
vraiment, et que ce processus et qu’il s’agit d’un processus de Markov en temps continu et
à espace d’états continu (en fait, un processus de Levy).
Théorème 2.1 Il existe un processus A.S.I. (unique) Xt ∈ R, τ ∈ R+ , tq :
1. les acroissements X[t,s] := Xt − Xs sur un intervalle [s, t] sont independants des increments sur d’autres intervalles [s′ , t′ ] disjoints de [s, t].
2. L’éspérance et la variance de Xt conditionné par X0 sont :
EXt = 0,
V arXt = t
3. La distribution du acroissement X[s,s+t] = Xs+t − Xs est identique à la distribution du
acroissement initial X[0,t] = Xt − X0 , pour chaque s ∈ R+ ; il s’agit d’une distribution
u2
Gaussienne N(0,t) , avec fonction génératrice de moments et 2 .
4. Le processus Xt a des trajectoires continues.
Définition 2.1 a) Le processus de Levy B(t) avec fonction génératrice des cumulants quadratique de la forme :
1
κ(θ) = θ2
2
s’appelle mouvement Brownien standard. b) Le processus de Levy
Bµ,σ2 (t) = µt + σB(t)
avec fonction génératrice des cumulants quadratique de la forme :
σ2 2
θ
2
s’appelle mouvement Brownien avec tendance µ et coefficient de diffusion σ. Ce processus
pt-etre écrit comme
Bµ,σ (t) = µt + σBt
κ(θ) = µθ +
et a des distribution marginales Gaussiennes avec moyenne µt et variance σ 2 t, ∀t.
8
∑
∑
Exercice 2.2 a) Calculer E[( si=1 Zi )( ti=1 Zi )], s < t si Zi sont i.i.d. centrées avec
E(Zi2 ) = σ 2 . b) Calculer E[B(s)B(t)], s < t pour le mouvement Brownien standard.
Exercice 2.3 Calculer (*) E[X(t)]α , α = 2, 4 pour le mouvement Brownien standard et pour
∑Nλ (t)
un processus de Poisson composé S(t) = i=1
Zi (avec Zi i.i.d.).
Exercice 2.4 (*) Calculer les cumulants Kk et les moments EXtk , k ∈ N pour le mouvement
Brownien standard.
Exercice 2.5 (*) Considerez la marche aleatoire obtenue en discretisant le mouvement
2
Brownien standard avec h = 1, D = 1, c.-à-d. avec p[Zi = ±n] = ct e−n /2 . Calculer la
constante de normalisation ct de cette distribution. Combien des chiffres sont exactes ?
2.2
Problèmes de premier passage/Dirichlet, et le générateur
Decouvrons maintenant le ”générateur” du mouvement Brownien. Officieusement, il
s’agit d’un operateur agissant sur des fonctions sur l’espace des états, qui interviendra dans
toutes les problèmes concernant notre processus, comme par exemples les problème de premier passage. Nous allons découvrir maintenant le générateur du mouvement Brownien, en
(h,D)
commençant avec les marches aléatoires infinitesimales Xt
, et en passant ensuite à la
limite h, D → 0.
(h,D)
Exercice 2.6 La marche symétrique. Soit Xt = Xt
= X0 + ϵ1 + ϵ2 + · · · + ϵn , n =
[t/h], une marche aléatoire “infinitesimale” symétrique sur R, c.-à-d. une marche avec des
petits increments (indépendants) de loi P [ϵn = D] = 1/2 = P [ϵn = −D], arrivant après
des intervalles de longueur h. On supposera, en suivant Einstein, D2 = h = t/n. Nous
considerons le processus Xt conditionné sur X0 = x pour x ∈ [0, B], jusq’au temps d’arrêt
T = min[T0 , TB ] quand le processus sort de cet intervalle.
1. Problème de Dirichlet homogène Ex g(XT ). Obtenez l’équation de récurrence et
les conditions frontière satisfaites par bx = Px {XT = B} = Ex I{XT =B} .
Obtenez une équation différentielle qui est la limite de la récurrence, quand h → 0.
Résolvez l’équation différentielle.
∫
2. Problème de Dirichlet non-homogène Ex 0T h(Xs )ds (ou de Poisson). Résolvez
l’équation différentielle satisfaite par la fonction t(x) = Ex [T]
−sT
−s
∫T
3. Problèmes de Dirichlet avec discompte w(x) = Ex e g(XT ), v(x) = Ex e 0 r(Xu )du g(XT ).
Résolvez les équations différentielles satisfaites par les fonctions w(x) = Ex e−sT , v(x) =
Ex e−sT I{XT =B} . En déduire t(x) et v(x) = tB (x) = Ex [TI{XT =B} ].
4. Problèmes
de Feynman-Kac (Dirichlet non-homogène avec discompte) f (x) =
∫ T −s ∫ v r(Xu )du
Ex 0 e 0
h(Xv )dv. Résolvez l’équation différentielle satisfaites par la fonction
∫ T −sv
f (x) = Ex 0 e Xv dv
R : 3. La solution de 12 w′′ (x) − sw(x) = 0, w(0) = 1, w(B) = 1 est
√
e
√
+ e s(B−x)
s2 x(B 3 − 2Bx2 + x3 )
√
+ ...
= 1 + st(x) +
2
12
1 + e sB
sx
La solution de 12 v ′′ (x) − sv(x) = 0, v(0) = 0, v(B) = 1 est
e
√
√
s(B+x)
− e s(B−x)
√
e2 sB − 1
=
x(x2 − B 2 )
x
+s
+ ... = Ex [I{XT =B} ] + sEx [TI{XT =B} ] + ...
B
6B
9
Exercice 2.7 La marche simple asymétrique. Soit Xt = X0 + ϵ1 + ϵ2 + · · · + ϵn une
marche aléatoire infinitesimale asymétrique sur DZ, c.-à-d. une marche avec (ϵn ) une suite
de variables aléatoires réelles indépendantes de même loi P [ϵn = D] = p et P [ϵn = −D] =
q = 1 − p, ou p, q = 21 ± 2σµ2 D, D2 = σ 2 h, et h → 0, n → ∞ et n h = t. Pour tout x, l, u
de la forme kD, k ∈ Z, considerons le processus X̃t conditionné sur X̃0 = x pour x ∈ [l, u],
jusq’au temps d’arrêt τ quand le processus sort de l’intervalle [l, u].
1. Montrez que l’éspérance et la variance de la marche aléatoire infinitesimale Xt approchent ceux d’un mouvement Brownien Bµ,σ2 (t) de tendance µ et variabilité σ (
Bµ,σ2 (t) = x0 + σBt + µt, où Bt est le mouvement Brownien standard.)
2. Montrez que la fonction génératrice de moments de Xt , donné par EeθXt , converge vers
2 2
etκ(θ) où κ(θ) = µθ + σ 2θ , et donc elle exhibe la linéarité en t charactèristique aux
processus de Levy.
3. Obtenez l’équation de récurrence et les conditions frontière satisfaites par px =
Px {X̃τ = K}, tx = Ex τ , et fx = Ex X̃τ et dx = Ex e−rτ . Indication : Approximez par la
marche aléatoire “infinitesimale” Xt , conditionez
sur le premier pas ϵ1 et utilisez les
∑τ −1
relations : Ex [g(Xτ ) | ϵ1 = ±1] = px±1 , Ex [ 0 c(Xi ) | ϵ1 = ±1] = c(x) + tx±1 , ...
4. Résolvez les équations de récurrence qui en résultent pour px , tx , fx et dx dans le cas
p = q = 1/2.
5. (a) Obtenez l’équation différentielle et les conditions frontière satisfaites par le coût
total esperé
∫ τ
fσ (x) = Ex
c(X̃t )dt
0
(où X̃t est un mouvement Brownien de tendance µ et variabilité σ). Indication :
Prenez la limite d’une équation de récurrence semblable a celle obtenue dans le
problème 1 (a)i.
(b) Résolvez l’équation dans le cas l = 0, u = ∞, µ < 0, pour la fonction de coût
unitaire c(x) = 1. Est-ce que le résultat depend de σ ? Donnez une interpretation
geometrique du cas σ = 0.
(c) Résolvez l’équation dans le cas l = 0, u = ∞, µ < 0, pour la fonction de coût
unitaire c(x) = x. Donnez une interprétation geometrique du cas σ = 0. Quelle
(x)
est la limite limx→∞ ffσ0 (x)
?
Exercice 2.8 a) Calculez le temps espéré pour le mouvement Brownien reflechi en 0 jusqu’au temps de premier passage en B. b) Même pb. pour la marche simple symétrique.
R : a) tx =
2.3
B 2 −x2
2
b) a) tx =
B(B+1)−x2
2
La formule de Black-Scholes pour les options d’achat
Le mouvement Brownien exponentié a été le premier modèle à ramener des résultats
intéréssants dans les mathémathiques financières .
1. Calculez l’espérance du mouvement Brownien exponentiel St = s0 eB(µ,σ2 ) (t) .
2. Donnez une formule pour sa distribution cumulative, en termes de la = distribution
cumulative Φ(x) d’une variable normale standardisée.
3. Calculez le ”mode” de St (le point où la densité prend sa valeur maximale).
10
4. Calculez la ”mediane” de St .
5. Supposant r = 0, Est-ce qu’un actif évoluant comme un mouvement Brownien expo2
nentiel St = s0 eB(µ,σ2 ) (t) sera un bon investissement si − σ2 < µ < 0 ?
6. a) Calculez léspérance actualisée d’une option d’achat Ee−rT (ST −K)+ epour un actif ST
évoluant comme un mouvement Brownien exponentiel St = s0 eB(µ,σ2 ) (t). b) Supposant
2
que µ = r − σ2 (”neutralité du risque”), deduisez la formule de Black Scholes :
log ( KS˜0 ) +
√T
c(T, s0 , K, σ, r) = S0 Φ(
VT
Solution :
√
1
VT
2
2
) − K˜T Φ(
1
log ( KS˜0 ) −
√T
VT
VT
2
)
2
= S0 eg t e 2 σ t = S0 e(g+ 2 σ )t
√
ln( x )−g t
2. P{St ≤ x} = P{S0 exp (g t + σBt ) ≤ x} = P{+σ tN ) ≤ ln( Sx0 ) − g t} = Φ( Sσ0√t
1. ES0 e(g t+σB(t)) = ES0 eg t eσ
tN
e
−
(ln(x)−gt)2
2σ 2 t
3. The density p(x, t) is proportional to
(called lognormal density). Letting
x
E(x)
E(x) denote the exponential (so that p(x, t) = x ) and setting the derivative to 0 we
2
1
get E(x)(− (ln(x)−gt)
x − 1) = 0 and we find that the mode is e(g−σ )t .
σ2 t
x
4. We have to find m so that P{St ≤ m} = P{egt+σBt ≤ m} = P{gt + σBt ≤ ln(m)} =
P{σBt ≤ ln(m) − gt} = 21 . Since σBt is a symmetric normal variable, its median is 0
and the last equation can only be satisfied if ln(m) − gt = 0 and m = egt .
11
Chapitre 3
Le modèle de Cramér-Lundberg
Un exemple très important historiquement de processus de Lévy et de Markov est le
processus de réserves (ou de risque) d’une compagnie d’assurance.
Définition 3.1 Le processus de risque de Cramér Lundberg est un processus de la forme
Nλ (t)
X(t) = u + c t − S(t),
S(t) =
∑
Zi ,
(3.1)
i=1
où Zi sont des variables aléatoires i.i.d. nonnegatives, et Nλ (t) est un processus de Poisson
independant de Zi .
fig1
X(t): Risk process: skipfree upward Y(t): workload process, skip
free downward, reflected at 0
Birth−death process:skfree
in both directions.
x
u
τ(q)
T
1
2
1 2
1
0
1
2 1
Busy period
−y
Figure 3.1 – Skip-free (spectrally one sided) processes
Le processus (3.1) modélise le capital d’une compagnie d’assurance en tenant compte des
cotisations des assurés c t, du montant global S(t) des sinistres Zi à couvrir, et du capital
initial de la compagnie X(0) = u. Le processus de Cramér-Lundberg est à cet effet la
difference de deux sous processus : le processus des cotisations des assurés et le processus
des sinistres à couvrir.
Remarque 3.1 Le processus (3.1) vit naturellement en temps continu. Mais, il peut aussi
etre consideré en temps discret, s’il est observé que pour t ∈ N, et aussi avec un espace
d’états discret, si c est un entier.
Remarque 3.2 Le processus N (t) de Poisson de taux λ a est le choix le plus simple de processus de comptage. En le remplaceant avec un processus de comptage général, on arrive au
modèle de Sparre-Andersen. Quand N (t) suit une distribution de Poisson, alors le processus
S(t) représentant le montant global des sinistres est un cas particulier des processus de Poisson composé. Comme les sauts sont positifs, c’est aussi un cas particulier de subordinateur
(c’est à dire de processus de Lévy non décroissant).
12
Exercice 3.1 a) Calculer l’exposant de Laplace κ(s) d’un processus de Cramér Lundberg,
en fonction de la transformée de Laplace fbZ (s).
b) Montrer qu’il s’agı̂t d’une fonction convexe.
c) Obtenez une representation alternative de l’exposant de Laplace κ(s), en fonction de
b̄
la transformée de Laplace F Z (s) en utilisant integration par parties.
d) Calculer les limites
κ(s)
κ(s)
lim
, κ′ (0) = lim
s→∞ s
s→0 s
R : L’exposant de Lévy du processus de Cramér Lundberg est facile a obtenir, à partir de
celui du processus de Poisson composé (1.2) :
κ(s) = cs +
λ(fZ∗ (s)
− 1) = cs +
∫
∞
(e
0
−sz
− 1)λfZ (z)dz = cs +
∫
0
∞
(e−sz − 1)ν(dz), (3.2)
où ν(dz) = λfZ (z)dz est appelée mesure de Levy. Taux de profit et coefficient relatif
de sécurité. L’espérance du processus X(t) − X(0) est linéaire en t :
E[X(t) − X(0)] = E0 [X(t)] = c t − E[N (t)] · E[Z. ] = (c − λm1 )t := pt
(3.3)
Par la loi des grands nombres, si le taux de profit p = c − ES(1) est negatif, alors la ruine
de la compagnie est certaine, ce qui n’est pas le cas dans le cas contraire. Le cas d’intéret
pratique est donc quand le taux de profit p = c − ES(1) est positif. Le coefficient relatif de
sécurité est le profit relatif au risque, par unité de temps :
θ=
c − ES(1)
c − λm1
p
=
=
.
ES(1)
λm1
λm1
Le taux des cotisations pourrait etre décomposé de la manière suivante :
c = ES(1) + p = (1 + θ) ES(1).
La valeur du coefficient relatif de sécurité est d’habitude comprise entre 10% et 20%.
3.1
Les problèmes de premier passage pour les processus de Cramér-Lundberg
On s’interesse aux temps
τb+ = inf{t ≥ 0, X(t) ≥ b,
Le temps
τb− = inf{t ≥ 0, X(t) ≤ b}
τ = τ0− = inf{t ≥ 0 : X(t) ≤ 0}
de premier passage du processus X(t) en dessous de 0 est appelé temps de ruine.
Remarque 3.3 Si X(t) > 0, ∀t ≥ 0 alors τ = ∞.
On dénote la loi du temps de ruine conditionnée par X(0) = u par
τ (u) = inf{t ≥ 0, X(t) < 0|X(0) = u} = inf{t ≥ 0|Y (t) ≥ u} = τY (u),
où Y (t) = u − X(t) =
∑Nλ (t)
i=1
Zi − ct
13
Remarque 3.4 Le modèle de Cramér-Lundberg est un processus de Lévy spectralement negatif, c.-à-d. sa mesure de Lévy est concentré sur (−∞, 0), et Y (t) est un processus de Lévy
spectralement positif.
Nous sommes intéressés par :
– La probabilité de ruine ”éventuelle” (sur un horizon infini) définie par :
Ψ(u) = P[τ < ∞|X(0) = u] = P [Ȳ ≥ u],
∑N
(3.4)
(t)
λ
où Ȳ = M ax{0≤t≤∞} i=1
Zi − ct est le déficit maximal (aggregated loss).
– La probabilité de ruine sur un horizon fini c’est à dire avant un instant donné t, défini
par
Ψ(t|u) = P[τ < t|X(0) = u] = P[Y (t) ≥ u], Y (t) := M ax{0≤s≤t} Y (s)
– On étudie aussi les probabilités de survie :
Ψ(t|u) = P[τ ≥ t|X(0) = u] = 1 − Ψ(t|u)
Ψ(u) = P[τ = ∞|X(0) = u] = 1 − Ψ(u)
(3.5)
Remarque 3.5 a) La probabilité de survie ”perpétuelle” (à horizon infini) (3.5) et la probabilité de ruine éventuelle (3.4) représentent respectivement la fonction de répartition cumulative (c.d.f.) et la fonction de survie (c.c.d.f.) du déficit maximal Ȳ = sup0≤s<∞ Y (s) :
Ψ(u) = P [Ȳ ≤ u],
Ψ(u) = P [Ȳ > u]
b) Ψ(t|u) est une fonction de répartition (c.d.f.) en t, et une fonction de survie en u.
Remarque 3.6 Les probabilités de ruine sur un horizon fini satisfont l’équation intégrodifférentielle partielle de Kolmogorov –voir section 3.2. Un moyen naturel de les calculer est
de commencer par une transformée de Laplace(-Carson) en t
∫
Ψq (u) =
∞
qe−qt Ψ(t|u)dt,
0
et en suite d’inverser (ou d’approximer) la transforméee. Notons quelques différentes définitions
possibles pour cette transformée :
∫
Ψq (u) =
∫
=
0
∞
∞
0
e−qt Ψ(dt, u) = Eu e−qτ
qe−qt Pu [τ ≤ t]dt
(3.6)
= Pu [τ ≤ Eq ] = P [Ȳq > u]
où la première ligne est obtenue en intégrant par parties, et la dernière ligne montre l’interprétation de probabilité de ruine du processus ”terminé” après une v.a. independante exponentielle Eq de taux q.
+
Exercice 3.2 a) Calculer φ(b) = E0 [e−qτb ] en utilisant une martingale de Wald
M (t) = esX(t)−κ(s)t
avec s choisi judicieusement.
b) Soit X̄t = sup{0≤s≤t} X(s), et soit Eq une v.a. exponetielle de taux q. Montrer que X̄Eq
a une loi exponentielle, avec un taux qu’on determinera.
14
3.2
s:id
L’équation intégro-différentielle pour la probabilité
de ruine
Des équations intégro-différentielles pour les probabilités de ruine Ψ(u) et de survie
Ψ(u) = 1 − Ψ(u) du processus de Cramér-Lundberg s’obtiennent simplement par la méthode
de conditionenment, après un temps infinitesimal, ou après le premier saut. Ces équations
font intervenir l’operateur ”générateur du semigroupe” correspondant à ce processus
G g(x) = c
proEID
∫ ∞
∂
g(x − z)FZ (dz) − λg(x).
g(x) + λ
∂x
0
Proposition 3.1 Les probabilités de ruine et survie sont, respectivement, des solutions de :
G Ψ(x) = 0,
G Ψ(x) = 0,
Ψ(x) = 1, si x < 0,
Ψ(x) = 0, si x < 0,
Ψ(∞) = 0
Ψ(∞) = 1
(3.7)
(3.8)
Une forme alternative de la première équation est
G̃ Ψ(x) + λF̄Z (x) = 0,
où G̃h(x) = ch′ (x) + λ
∫x
0
Ψ(x) = 1, si x < 0,
Ψ(∞) = 0,
(3.9)
h(x − z)fZ (z)dz − λh(x).
Démo Les deux méthodes de conditionnement, après un temps infinitesimal, et après le
premier saut, donnent respectivement :
Ψ(x)
(1 − λdt)Ψ(x + cdt) + λdt
=
⇐⇒ cΨ′ (x) − λΨ(x) + λdt
∫
0
x
∫
0
∞
Ψ(x − z)FZ (dz)
Ψ(x − z)FZ (dz) + λF̄Z (x)
et
∫
∞
∫
∫
0
∞ (∫ x+ct
Ψ(x) =
0
= λ
0
∞
Ψ(x + ct − z)λe−λt FZ (dz)dt
0
)
Ψ(x + ct − z)FZ (dz) + F̄Z (x + ct) e−λt dt
Exercice 3.3 Obtenez l’équation intégro-différentielle pour les probabilités de ruine Ψ(u),
en conditionnant après un temps infinitesimal.
Exercice 3.4 (*) Obtenez une équation pour les probabilités de ruine Ψ(u), en conditionnant sur le premier saut.
3.3
Sinistres Exponentiels
Dans le cas des sinistres exponentielles d’intensité µ, la probabilité de ruine eventuelle
Ψ(u) satisfait
cΨ′ (x) + λ
(∫
x
0
)
Ψ(x − z)µe−µz dz + e−µx − Ψ(x) = 0,
15
Ψ(∞) = 0
(3.10)
La solution est :
Ψ(x) = ρe
−γx
κ′ (0)
λ
=
< 1, θ = ρ−1 − 1,
ρ=− ′
κ (−γ)
µc
θ
1 − 1+θ
µx
=
e
,
1+θ
(3.11)
expruin
où γ = µ − λ/c > 0 et −γ est l’unique racine negative de l’équation Cramér Lundberg :
κ(s) = 0,
(
(3.12)
CL
)
avec κ(s) = log E0 esX(1) = cs − λs/(µ + s) la ”fonction generatrice de cumulants/exposant
de Laplace/symbole” du processus X(t). Finalement, la transformée de Laplace est
(
b
Ψ(δ|u)
:= Eu (e−δτ ) = ρ(δ)e−γ(δ)u =
)
γδ −γδ u
1−
e
,
µ
(3.13)
où −γ = −γδ est la solution negative de
(
b
ab(δ + cγ)p(−γ)
=
ex:expm
λ
λ + δ + cγ
)(
µ
µ−γ
)
=1
(3.14)
Exercice 3.5 a) Obtenir la formule (3.11) pour les probabilités de ruine au cas où les sinistres ont une loi exponentielle E(µ) de taux µ, en utilisant la martingale de Wald Mt = eθXt ,
où θ = −µ(1 − ρ) ⇐⇒ ρ = λmc 1 est la solution négative de l’équation de Cramér-Lundberg
κ(θ) = 0.
b) Obtenir la formule (3.11) en appliquant la transformée de Laplace à l’EID (3.10).
R : a)
eθu = Pu [τ < ∞] Ee−θE(µ) = Pu [τ < ∞]
Pu [τ < ∞] =
µ
=⇒
µ+θ
µ + θ θu
e = ρe−γu = P0 [τ < ∞]e−γu
µ
où γ = −θ > 0.
La propriété de manque de mémoire de la loi exponentielle, appliqué a la sévérité de
ruine −Xτ , a joué ici un rôle essentiel. Il est possible de généraliser cet approche au sinistres
de type phase (β, B) – voir Section 3.7.
b) Appliqant la transformée de Laplace à l’EID (3.10) donne :
b
Ψ(s)
=
∫
∞
−su
e
Ψ(u)du =
0
=
1
cΨ(0) − λ s+µ
s(c −
λ
)
s+µ
=
sΨ(0) + Ψ(0)µ − λ/c
s(s + µ − λ/c)
A
B
+ ⇔ Ψ(x) = Ae−x(µ−λ/c) + B
s + µ − λ/c
s
Pour obtenir l’inconnue Ψ(0), il faut appliquer l’astuce de ”simplification par s”, which
rests on the known fact that the net profit condition p = c − λ/µ > 0 implies that Ψ(∞) =
0 ⇔ B = 0. Le fait que s doit se simplifier dans la fraction ci-dessus implique la relation
Ψ(0) =
16
λEZ1
λµ−1
=
.
c
c
Lundber
This argument and the last relation turn out to be valid with arbitrary claims distribution
having finite mean, et implique la formule de Pollaczek-Khinchine – voir Section 3.4.
Note that Ψ(0) and Ψ(0) are proportional respectively to the expected payments and
profit per time unit.
Le resultat (3.11) peut être aussi obtenu par d’autres méthodes :
1. En reduisant (3.10) to a ODE with constant coefficients and then to look for combinations of exponentials (or to look
directly for combinations of exponentials).
2. By the ”ladder decomposition” for the Cramer Lundberg process due to Dubordieu(1952)-Benes(1957)-Kendall(1957).
Remarque 3.7 L’ approximation asymptotique de Cramér Lundberg Si l’équation
Cramér Lundberg (3.12) admet une solution negative, alors l’expression
κ′ (0) −γx
Ψ(x) ∼ − ′
e
κ (−γ)
3.4
s:PK
La formule de Pollaczek-Khinchin pour la transformée de Laplace
Désignons par F (x) la fonction de répartition des montants des remboursements des
sinistres (les Zi ), par f (x) sa fonction de densité et par mi , i = 1, 2, ..., ses moments d’ordre
i. La relation entre F (u) et Ψ(u) devient plus simple après avoir pris une transformée de
Laplace dans l’équation integro-différentielle (3.9), ce qui ramène à :
b
Ψ(s)(cs
− λsF̄ ∗ (s)) = cΨ(0) − λF̄ ∗ (s)
b
⇔ Ψ(s)
=
Ψ(0) − λ̃F̄ ∗ (s)
s(1 − λ̃F̄ ∗ (s))
(3.15)
où λ̃ = λc .
b
L’équation (3.15) pose un pb, car elle contient deux inconnues Ψ(s)
et Ψ(0). Son solution
est quand même possible par le ”truc de la simplication de la singularité” en 0 qui fourni
l’inconnue auxiliaire Ψ(0) : comme le coefficient κ(s) de côté gauche s’annule pour s = 0, et
b
comme Ψ(0)
prends une valeur finie § il suit que le côté droit s’annule aussi. Donc,
Ψ(0) =
λ
∫∞
0
λm1
F̄ (x)dx
=
:= ρ,
c
c
∫
(si λm1 := ν1 = 0∞ xν(dx) = E(S1 ) < ∞,) ce qui ramène finalement à la formule explicite
de Pollaczek-Khinchin :
Proposition 3.2 Pour le processus de risque de Cramér Lundberg avec ν1 =
E(S1 ) < ∞, les probabilité de ruine et survie à partir de 0 sont :
∫∞
0
xν(dx) =
ES(1)
ν1
λm1
b
Ψ(0) = lim sΨ(s)
=
=
=
:= ρ
s→∞
c
c
c
κ′ (0)
Ψ(0) = P0 [Ȳ = 0] = 1 − ρ =
.
c
∫∞
b
§. Note that lims→0 Ψ(s)
= 0 Ψ(u)du. Since limu→∞ Ψ(u) = 0, it is plausible and indeed true under
b
b
weak conditions that Ψ(0)
is well defined, c.-à-d. that the apparent singularity at 0 of Ψ(s)
must ”simplify”.
17
Les transformées de Laplace des probabilité de ruine et de survie sont :
∫
ρ(1 − ρfbe (s))
1−ρ
m1 − F̄ ∗ (s)
1
1 κ′ (0)
=
−
−(3.16)
=
=
κ(s)
s s(1 − ρfbe (s))
s
κ(s)
0
s(1 − ρfbe (s))
∫ ∞
∫ ∞
κ′ (0)
1−ρ
Ψ(0)
∗
Ψ (s) =
e−su Ψ(u)du =
e−su P [Ȳ ≤ u]du =
=
=
,
b
κ(s)
0
0
s(1 − ρfe (s))
s(1 − ρfbe (s))
b
Ψ(s)
=
∞
e−su Ψ(u)du = λ
où ρ = (λm1 )/c, et fe (x) := F̄ (x)/m1 dénote la densité stationnaire des excédents des
remboursements, avec transformée de Laplace fbe (s) = (1 − b∗ (s))/(m1 s) et moments µk =
mk+1
.
(k+1)m1
Remarque 3.8 La dernière formule, exprimé entièrement en fonction du symbôle κ(s),
est importante car elle est valable pour tout processus de Lévy spectralement negatif, avec
b̄
b̄
E(S1 ) < ∞ (si on remplace λF (s) par la transformée ν(s)
d’une mesure de Lévy arbitraire).
La formule avant la dernière est importante a cause de son intrepretation probabiliste – voir
chapitre 3.6.
ex:expr
Exercice 3.6 a) Appliquer la formule de Pollaczek-Khinchine au cas des sinistres ayant
une loi exponentielle de paramètre µ, translatée à droite par a.
b) Obtenir la formule (3.11) pour les probabilités de ruine au cas des sinistres exponentiels
de taux µ, en inversant la formule de Pollaczek-Khinchine.
R : a) Par la formule de Pollaczek-Khinchine , transformée de Laplace des probabilités
de survie est :
∗
Ψ (s) =
=
ex:uni
1 − λ̃m1
1 − λ̃m1
(1 − λ̃m1 )(µ + s)
=
=
−as
µe
s(1 − λ̃F̄ ∗ (s))
s(µ + s) − λ̃((µ + s) − µe−as ))
s(1 − λ̃( 1s − s(µ+s)
))
(1 − λ̃m1 )(µ + s)
s2 + s(µ − λ̃) − λ̃µ(1 − e−as )
Exercice 3.7 Trouver la formule pour les transformées de Laplace des probabilités de survie
perpetuelle et de ruine au cas des sinistres Zi ayant
1. une loi Weibull avec fonction de survie F̄ (x) = e−( µ ) , avec k = 2, E[X] = µΓ(1 +
1/k) = 1, µ = √2π , et transformée de Laplace
x k
2. une loi U [0, 2]
3. la valeur constante Zi = 1.
4. (*) une loi Pareto avec fonction de survie F̄ (x) = ( xx0 )−k , avec x0 = 12 , k = 2, E[X] =
k
x =1
k−1 0
5. Trouver les probabilités de ruine correspondantes, en utilisant par exemple ilaplace et
INVLAP de Matlab.
6. Tracer tous les cas sur le même graph et comparer les résultats.
Exercice 3.8 Demontrer la formule de Pollaczek-Khinchine , en prenant la transformée de
Laplace de l’équation IDE. Ind : Les cas σ = 0 et σ > 0 sont un peu différents ; dans le
deuxième cas, la condition ψ(0) = 1, vraie a cause des propriétés du mouvement Brownien,
doit etre ajoutée.
18
Remarque 3.9 Notons que la formule de Pollaczek-Khinchin produit également la distribution stationnaire de la durée d’attente dans une file d’attente M/G/1, et en fait la distribution
de toute somme géométrique composée § .
3.5
Probabilités de ruine sur un horison exponentiel
On peut intrepreter le calcul des probabilités de ruine
Ψq (x) = Ex e−qτ
comme celui des probabilités de ruine, au cas où le processus peut-être tué en chaque intervalle dt avec probabilité qdt. Cela ramène à l’équation
G̃ Ψ(x) − (λ + q)Ψ(x) + λF̄Z (x) = 0,
Ψ(x) = 1, si x < 0,
Ψ(∞) = 0, (3.18)
∫
où G̃h(x) = ch′ (x) + λ 0x h(x − z)fZ (z)dz. Une transformée de Laplace de l’équation integrodifférentielle ramène à :
Ψ∗q (s)(cs − λsF̄ ∗ (s) − q) = cΨ(0) − λF̄ ∗ (s) ⇔
b
Ψ(s)
=
(3.19)
−
F̄ ∗ (Φq ) − F̄ ∗ (s)
Ψ(0) − λ̃F̄ ∗ (s)
= λ̃
=
,
κ(s) − q
κ(s) − q
κ(s) − q
κ(s)
s
q
Φq
(3.20)
où λ̃ = λc , et où Φq est l’unique racine positive Φq du denominateur.
Remarque 3.10 Pour eliminer l’inconnue Ψ(0), on a apliqué le ”truc de la simplication de
la fausse singularité” en Φq . La dernière forme, seulement en termes du symbôle κ(s), est
valable pour tous les processus de Lévy.
Exercice 3.9 La probabilité de ruine sur un horison exponentiel Eq est aussi exponentielle :
Ψq (x) = Px [τ < Eq ] = (1 +
s− xs−
λ/c xs−
)e
=
e ,
µ
µ + s+
où s± sont les racines positive et négative de l’équation de Cramér-Lundberg κ(θ) = 0 :
κ(s) = q,
(3.21)
qui se réduit ici a une équation quadratique cs2 + s(cµ − λ − q) − qµ = 0.
§. We may also obtain a formula for the Laplace transform of the density of the supremum of a
spectrally positive Lévy process :
∫ ∞
1−ρ
e−su fȲ (u)du =
ϕ(s) =
,
(3.17)
1 − ρfbe (s)
0
∗
b
where ϕ(s) is defined by Ψ (s) = ϕ(s)
⇔ Ψ(s)
= 1−ϕ(s)
.ϕ(s) has also another probabilistic interpretation
s
s
Ber
as one of the two factors of the celebrated Wiener-Hopf décomposition –see (?), and ϕ(s) = E[e−sȲ ] = P[Ȳ =
∫ ∞ −su
′
∗
(0)s
0] + 0 e fȲ (u)du = sΨ (s) = κκ(s)
19
CLq
ex:expmk
Exercice 3.10 a) Obtenir une équation ID pour les probabilités de ruine Ψδ (u) d’un processus Cramér Lundberg sur un horizon de loi exponentielle E(δ) de taux δ, ainsi que la
b (s) = ∫ ∞ e−su Ψ (u)du, au cas où les arrivées des sinistres ont une
transformée de Laplace Ψ
δ
δ
0
′
”sous-densité” λ′ e−λx , λ′ ≤ λ de masse totale λλ ≤ 1.
b) Qu-est-ce qu’on obtient au cas particulier des sinistres ayant une loi exponentielle
E(µ) de taux µ ?
R : La transformée de Laplace Ψδ (u) est obtenue en stoppant la martingale de Wald
Mt = eθXt −δt , où θ = θ(δ) est la solution négative de l’équation de Cramér-Lundberg κ(θ) =
λ.
en utilisant la martingale de Wald Mt = eθXt , où θ = −µ(1 − ρ) ⇐⇒ ρ = λmc 1 est la
solution négative de l’équation de Cramér-Lundberg κ(θ) = 0. 3.6
s:esc
Conditionnement par le premier escalier en bas et
l’équation de renouvellement
Remarque 3.11 En inversant la dernière équation en (3.16) :
∗
∗
Ψ (s) = Ψ (s)ρfbe (s) +
Ψ(0)
s
nous trouvons
∫
x
Ψ(x) = Ψ(0) + ρ
0
Ψ(x − z)fe (z)dz.
(3.22)
Cette équation intégrale a une interpretation probabiliste intéressante, obtenue en conditionant sur la taille e1 du premier ”escalier en bas” σ1 :
Ψ(x) = P [σ1 = ∞] + P [σ1 < ∞]
∫
x
0
Ψ(x − z)fσ1 (z)dz.
(3.23)
Cela implique que Ψ(0) = 1 − ρ est la probabilité de ne∫ jamais revenir au niveau initial, ρ
∞
F̄Z (u)du
est la probabilité de revisiter le niveau initial, et fe (z) =
= fσ1 (z) est la densité du
m1
premier ”escalier en bas” (ou de la severité de ruine avec reserves initiales u = 0, en sachant
qu’elle est positive). Thi beautiful interpretation was given by Dubordieu(1952), Benes(1957)
and Kendall(1957).
z
Remarque 3.12 Les équations intégrales de type (3.23), apellées équations de renouvellement, aparaissent aussi dans la théorie des marches aléatoires discrètes, et figurent notamment dans les chapitres 11,12,14 et 18 dans la ”bible des probabilistes”, écrite par Feller.
En particulier, elles interviennent dans le modèle de Sparre-Andersen, où on suppose
que les inter-arrivées des sinistres t1 , t2 , ... sont indépendants de sinistres et ont une distribution continue arbitraire avec densité a(t), et avec esperance finie. En fait, l’équation (3.23)
est evidemment valable pour le modèle de Sparre-Andersen ”stationnaire” (en començant
au moment de l’arrivée d’un sinistre), mais dans ce cas l’identification de fσ1 (z) est assez
compliquée, demandant une factorisation de Wiener-Hopf au cas avec des ”skip/sauts avec
dépassement” dans les deux directions.
20
The equation (3.23) is a particular case of renewal/convolution equation (which are
further particular cases of Volterra equations of second kind) :
∫
x
v(x) = g(x) + λ
0
v(x − y)f (y)dy,
x≥0
(3.24)
For these equations, the Laplace transform of the solution :
vb(s)(1 − λfb(s)) = gb(s) ⇐⇒ vb(s) =
gb(s)
,
1 − λfb(s)
(3.25)
is expandable in a geometric series, and the original function itself may be expanded in a
convolutions series
∫
v(x) =
0
x
g(x − y)U (dy) =
∫
0
x
(
g(x − y)
∞
∑
)
k ∗k
λ f (y) dy,
k=0
∑
k ∗k
where U (dy) = ∞
k=0 λ f (y)dy is called the renewal measure.
λ
En conclusion, ρ := ψ(0) = cµ
, 1 − ρ := ψ(0) et la solution may be in the form :
ψ(u) =
∞
∑
(1 − ρ) ρn Fe (u)∗n ⇐⇒ ψ(u) =
n=0
∞
∑
(1 − ρ) ρn F̄e (u)∗n
(3.26)
n=1
which reflects the fact that the number of ladder times has the geometric distribution
ψ(0) ψ(0)n , and that ruin occurs iff the total sum of the ladder heights exceeds u.
Nowadays, the ”ladder series decomposition” (3.26) is sometimes called the BeekmanPollaczek-Khinchine formula, even though the last two researchers only provided the Laplace
transform (3.25), not its inversion.
s:PH
3.7
Exposants de Lévi rationnels
From the Pollaczek-Khinchine formula(3.16), it is clear that if the claims have a rational
Laplace transform
∑K−1
∗
B̄ (s) =
k
k=0 ak s
,
∑
k
sK + K−1
k=0 bk s
(3.27)
then the same will be true of the Laplace transform of the ultimate ruin probability. Furthermore, the Laplace transform may be inverted symbolically, § either by
1. the matrix-exponential formalism, or by
2. splitting into partial fractions, yielding mixtures of exponentials involving the roots of
the Cramer-Lundberg equation.
Avec un logiciel symbolique comme Mathematica, il suffit de calculer
m1 −F̄ ∗ (s)
InverseLaplaceTransform[Simplify[λ s(c−λ
. Si les racines du denominateur sont entières,
F̄ ∗ (s))
une décomposition en fractions simples suffit pour obtenir l’inverse (et sur une ile deserte,
sans logiciels symboliques, on arrive encore avec la main).
§. For non-rational symbols, the task of Laplace inversion is more challenging ; for example, the case of
lognormal claims is not so straightforward.
21
Exercice 3.11 Soit Y (t) un processus de Cramér-Lundberg Y (t) = u + c t − C(t), C(t) =
∑N (t)
i=1 Zi , où N (t) est un processus de Poisson d’intensité λ = 1, et les sinistres Zi ont une
distribution hyperexponentielle F̄ (x) = 61 e−2x + 65 e−6x . a) Calculez l’espérance des sinistres
m1 = EZ1 et le taux de profit p = c − λm1 , si le taux de cotisation est c = 3m1 /2. b)
Calculez la probabilité de ruine Ψ(u), à partir de la formule de Pollaczek-Khinchin pour sa
transformée de Laplace
1
p
m1 − F̄ ∗ (s)
b
Ψ(s)
= −
,
=λ
s κ(s)
s(c − λF̄ ∗ (s))
(
)
où le symbole/exposant de Lévy est κ(s) = s c − λF̄ ∗ (s) . R : 95 e−x + 19 e−4x
Exercice 3.12 Calculez la probabilité de ruine Ψ(u) pour un processus de Cramér-Lundberg
∑N (t)
Y (t) = u+c t−C(t), C(t) = i=1 Zi , où N (t) est un processus de Poisson d’intensité λ =
1, c = 8/5m1 , et les sinistres Zi ont une distribution hyperexponentielle F̄ (x) = 14 e−2x + 34 e−4x .
Exercice 3.13 Calculez la probabilité de ruine Ψ(u) pour un processus de Cramér-Lundberg
∑N (t)
Y (t) = u + c t − C(t), C(t) = i=1 Zi , où N (t) est un processus de Poisson d’intensité
λ = 1, c = 10/7m1 , et les sinistres Zi ont une distribution hyperexponentielle F̄ (x) =
1 −2x
e
+ 89 e−5x .
9
Exercice 3.14 Calculez la probabilité de ruine Ψ(u) pour un processus de Cramér-Lundberg
∑N (t)
Y (t) = u + c t − C(t), C(t) = i=1 Zi , où N (t) est un processus de Poisson d’intensité
1 −2x
e +
λ = 1, c = 4/3m1 , et les sinistres Zi ont une distribution hyperexponentielle F̄ (x) = 16
15 −6x
e
.
16
Exercice 3.15 Calculez la probabilité de ruine Ψ(u) pour un processus de Cramér-Lundberg
∑N (t)
Y (t) = u+c t−C(t), C(t) = i=1 Zi , où N (t) est un processus de Poisson d’intensité λ =
1, c = 5/3m1 , et les sinistres Zi ont une distribution hyperexponentielle F̄ (x) = 13 e−2x + 23 e−5x .
Il est aussi possible d’exprimer l’inverse comme une probabilité de survie de type phase.
Supposons que la loi des sinistres est de type phase (β, B). Alors, il va faloir tenor
compte de plusieurs inconnues Ψ(u) = (Ψ1 (u), ..., ΨJ (u)) répresentant les probabilités de
ruine avec la ruine arrivant en phase j. Finalement, il va être utile de considérer aussi
tous les situations initiales possibles et cela nous ramène à ajouter une matrice d’inconnues
Φj (i, u), i = 1, ...J, j = 1, ...J où les inconnues Φj (i, u), i = 1, ...J, j = 1, ...J répresentent les
probabilités de ruine avec la ruine arrivant en phase j, en commençant avec un sinistre en
phase i.
Une analyse de la phase ”aux moments où le mimimum du processus descend” suggère
alors la formule
Φ(u) = euQ , Q = B + bρ
où les inconnues ρ = (ρ1 , ..., ρJ ) répresentent des probabilités de ”reincarnation” ou de ruine
ρj = P0 [{τ < ∞}, J(τ ) = j], arrivée en phase j à partir de u = 0, après une excursion en
haut.
Une consideration de la phase du saut qui cause le premier escalier en bas, au moment
où le niveau initial est franchi, suggère la formule :
Pu [τ < ∞] = ρe(B+bρ)u 1.
22
(3.28)
Pour trouver ρ, faisons un conditionnement sur le début du premier saut en bas, en
supposant (??) :
∫
uQ
ψ(u) = ρe
∞
=
λe
−λt
0
∫
Φβ (u + ct)dt =
∞
λe−λt βe(u+ct)Q dt
0
Après simplification de euQ (ou en supposant du début u = 0,) on trouve l’équation :
∫
∞
ρ=
0
(
(
)−1
λe−λt βeQct dt ⇐⇒ ρ = λ̃β λ̃I − Q
)
(
)
ρ λ̃I − (B + bρ) − λ̃β = ρB + λ̃β (I − 1ρ)) = 0
où λ̃ = λc . La solution ρ = λ̃β(−B)−1 est obtenue en annulant le premier facteur.
La formule (3.28) reduit l’inversion de la transformée de Laplace a la resolution d’un
système linéaire pour ρ. Elle est bien sur équivalente à la formule de Pollaczek-Khinchine
λ̃β(−B)−1 (sI − B − bρ))−1 1 =
1
1−ρ
−
,
s s(1 − λ̃(sI − B)−1 1)
mais la vérification demande un peu d’algèbre, qui demande l’identité
(
−1
(A − bρ)
−1
=A
1
1
A−1 bρA−1 = A−1 I +
bρA−1
+
−1
1 − ρA b
1 − ρb
)
et aussi l’identité des résolvantes
(sI − G)−1 (s′ I − G)−1 =
(
−1
−1
λ̃β(−B) (sI − B)
)
1 (
−1
′
−1
(sI
−
G)
−
(s
I
−
G)
s′ − s
)
1
I+
bρ(sI − B)−1 1 =
−1
1 − ρ(sI − B) b
(
)


s−1 λ̃β (−B)−1 − (sI − B)−1 I +
)
(
s−1 λ̃β (−B)−1 − (sI − B)−1 1 +
−
1
b̄
s(1 − λ̃F (s))
1
b̄
1 − λ̃F (s)
1
b̄
bρ(sI − B)−1  1 =
s(1 − λ̃F (s))
λ̃ρ(sI − B)−1 1
λ̃β(sI − B)−1 bρ(sI − B)−1 1
Notons finalement que l’approche martingale ramène à un système d’équations
eθj x = ψ(u)(θj I − B)−1 b, j = 1, ..., J
où θj sont les racines négatives de l’équation Cramér Lundberg , qui offre une autre dérivation
rigoureuse de la formule (3.28).
Une formule analogue est disponible pour Ψq (x), en fonction des racines négatives θi (q)
de l’équation de Cramér Lundberg κ(θ) = q. Dans le cas des racines négatives distincts
23
θi = θi (q) de l’équation de Cramér Lundberg κ(θ) = q, la probabilité de ruine est une
combinaison d’exponentielles :
∑
Ψ(x) =
Ci eθi x ,
i
Ci = −
∏n
′
(
1−
κ (0)
j=1
= ∏ (
′
κ (θi )
j̸=i 1 −
)
θi (q)
µj
).
θi (q)
θj (q)
(3.29)
Pour le cas des racines non-distincts, on a encore a faire avec les formules classiques de la
décomposition en fractions simples, au cas des poles multiples.
3.8
L’équation Cramér Lundberg généralisée pour le
modèle de Sparre-Andersen
L’idée essentielle pour le modèle de Sparre-Andersen, due a De Finetti, est de regarder
∑
le processus seulement au moments Tn = ni=1 ti . La recherche de martingales de Wald de la
forme
n
Mn = eSn , Sn = x −
∑
(Zi − cti )
i=1
ramène alors à l’équation :
0 = 1 − Ee−s(Zi −cti ) = 1 − fbZ (s)ab(−cs)
(3.30)
Remarque 3.13 La première forme de l’équation est valable aussi avec dépendance entre
ti et Zi .
Remarque 3.14 Dans l’étude de la transformée de Laplace du temps de ruine Ψq (u) intervienne l’équation
0 = 1 − fbZ (s)ab(q − cs)
(3.31)
L’analyse classique de Feller demande d’effectuer une factorisation de Wiener-Hopf
(séparation des racines positives et négatives) de 1 − fbZ (s)ab(q − cs). Par contre, des solutions plus probabilistes et potentiellement plus utiles ont apparu récemment dans la théorie
de la ruine.
Exercice 3.16 Le modèle de Sparre-Andersen avec sinistres exponentielles(*)
Montrer que la probabilité de ruine ψ(u), en començant au moment de l’arrivée d’un sinistre, pour un processus avec sinistres exponentielles de paramètre µ et densité des arrivées
a(t) avec esperance finie, est de la forme ψ(u) = (− µγ e−γu , avec −γ étant l’unique racine
négative de l’équation Cramér Lundberg généralisée.
3.9
Le processus de Cramér-Lundberg avec perturbation Brownienne
Consider the Cramér Lundberg process with Brownian perturbation
Nλ (t)
X(t) − u = σB(t) + ct −
∑
i=1
24
Zi ,
with Laplace exponent
κ(s) = ps +
∞
η2,σ 2 ∑
λmk
(−s)k
s +
,
2
k!
k=3
(3.32)
where λmk are the moments of the Lévy density, η2,σ = λm2 + σ 2 , and p = c − λm1 > 0 =
λm1 θ is the Levy drift/profit rate.
For this process, we have, besides Ψ(u), two unknowns of interest : the probability of
”creeping ruin” by diffusion Ψd (u), and that of ”ruin by jump” Ψj (u). The respective IDE’s
and ”obvious boundary conditions” are :
GΨj (u) + λF̄ (u) = 0 Ψj (0) = 0
GΨd (u) = 0,
Ψd (0) = 1
GΨ(u) + λF̄ (u) = 0, Ψ(0) = 1
(3.33)
(3.34)
(3.35)
2
Taking Laplace transform, putting D = σ2 and using the fact that the factor s of κ(s)
must appear also in the RHS (since the positive loading condition implies that s = 0 is not
a singularity) yields
b̄
b (s) = D(Ψ′ (0)) − λF (s),
κ(s)Ψ
j
j
DΨ′j (0) − λm1 = 0
b (s) = D(s + Ψ′ (0)) + c,
κ(s)Ψ
d
d
DΨ′d (0) + c = 0
b̄
b
κ(s)Ψ(s)
= D(s + Ψ′ (0)) + c − λF (s), DΨ′ (0) + c − λm1 = 0
Solving for the Laplace transforms yields :
b̄
b̄
λ̃(m1 − F (s))
λ(m1 − F (s))
=
,
b̄
κ(s)
s(s + c̃ − λ̃F (s))
D
1
b (s) = Ds =
Ψ
=
d
b̄
b̄
κ(s)
Ds + c − λF (s)
s + c̃ − λ̃F (s)
b (s) =
Ψ
j
b
Ψ(s)
=
(3.36)
(3.37)
b̄
Ds − λ(F (s) − m1 )
c − λm1
κ′ (0)
b̄
⇐⇒ Ψ(s) =
=
,
κ(s)
κ(s)
κ(s)
where λ̃, c̃ indicate scaled values divided by
(3.38)
σ2
.
2
Remarque 3.15 The last formula shows, as well-known, that the Pollaczek-Khinchine formula is insensitive to the form of the spectrally negative Levy process involved, when written
in terms of the symbol κ(s).
Remarque 3.16 The second formula implies that
b (s) =
Ψ
d
σ 2 /2
b
b
φ(s)
= p̃−1 φ(s),
κ′ (0)
b (s) =
Ψ
j
b
p
1 − φ(s)
b
− p̃−1 φ(s),
p̃ = 2
s
σ /2
where φ(u) is the density of the continuous part of the aggregated loss L = supt
ct − σB(t), with transform
b
b
φ(s)
= 1 − sΨ(s)
=
1−ρ
p̃
=
b̄
b
1 − ρfe (s) + s/c̃
p̃ − λ̃(F (s) − m1 ) + s
25
(3.39)
∑Nλ (t)
i=1
Zi −
(3.40)
b (s) determines all the other transforms. For example, Ψ
b (x) =
b
Thus, knowing φ(s)
or Ψ
d
j
∫x b
∫ ∞ b̄
0 Ψd ∗ (u)g(x − u)du, where g(x) = m1 − 1 + x F (u)du.
In conclusion, we recover the results of Dufresne and Gerber
Proposition 3.3 The probabilities of ruin by diffusion Ψd (u) and by jump Ψj (u) satisfy the
boundary conditions
Ψd (0) = 1, Ψj (0) = 0, Ψ′d (0) = −c̃, Ψ′j (0) = λ̃m1 ,
(3.41)
and their Laplace transforms satisfy
b (s) = φ(s),
p̃Ψ
d
b
where φ(s)
=
1−ρ
2 ,
1−ρfbe (s)+ σ2c s
b (s) =
Ψ
j
p̃ =
b (s)
1 − p̃Ψ
d
b (s) = 1 − φ(s) − φ(s)
−Ψ
d
s
s
p̃
(3.42)
p
.
σ 2 /2
Exercice 3.17 Trouver les probabilités de ruine du processus perturbé (par diffusion et par
saut), avec des sauts exponentiels de taux β, avec exposant de Lévy
κ(s) =
σ 2 s2
s
+ cs − λ
.
2
s+β
Solution :
1. Ψ(x) satisfait l’IDE :
σ 2 ′′
Ψ (x) + cΨ′ (x) + λ
2
Ψ(0) = 1, Ψ(∞) = 0
(∫
x
0
)
Ψ(x − z)βe−βz dz + e−βx − Ψ(x) = 0
2. Les formules pour les transformées de Laplace sont :
∗
Ψ (s) =
κ′ (0)
c − λ/β
β+s
b
= σ2
=⇒ φ(s)
= (c̃ − λ̃/β)
.
λ
κ(s)
(s + c̃)(β + s) − λ̃
s( 2 s + c − β+s )
b
Ψ(s)
=
1
=
s
1 κ′ (0)
1
−
= −
s
κ(s)
s
σ2
λs
s + β(β+s)
2
σ2
λ
s + c − β+s
2
=
σ2 2
s
2
σ2
2
+
σ2
s
2
+
σ 2 /2
b
b
Ψd (s) =
φ(s)
=
p
1
c − λ/β
= (1 −
s
s
+ cs − λ β+s
λ
β(β+s)
λ
c − β+s
=
1+
λ̃
β(β+s)
s + c̃ −
λ̃
β+s
c − λ/β
)
λ
+ c − β+s
σ2
s
2
=
β+s+
λ̃
β
(β + s)(s + c̃) − λ̃
s+β
β+s
=
,
(s + γ1 )(s + γ2 )
(s + c̃)(β + s) − λ̃
b (s) = Ψ(s)
b
b (s) =
Ψ
−Ψ
j
d
λ̃
β
(β + s)(s + c̃) − λ̃
=
2λ
σ2 β
(s + γ1 )(s + γ2 )
(3.43)
,
(3.44)
où γ1 , γ2 sont les valeurs absolues des racines negatives de l’équation Cramér Lundberg
”simplifiée” :
s2 + s(c̃ + β) + c̃β − λ̃ = 0
qui satisfont γ1 < β < γ2 .
26
3. It follows that
λ̃
β
(e−γ1 u − e−γ2 u )
γ2 − γ1
β − γ1 −γ1 u γ2 − β −γ2 u
Ψd (u) =
e
+
e
γ2 − γ1
γ2 − γ1
1 − γ1 /β −γ1 u 1 − γ2 /β −γ2 u
Ψ(u) =
e
+
e
,
1 − γ1 /γ2
1 − γ2 /γ1
Ψj (u) =
The equality Ψ(u) = Ψd (u) + Ψd (u) may be checked using γ1 + γ2 = c̃ + β, γ1 γ2 =
c̃β − λ̃.
Remarque 3.17 The ladder decomposition, σ > 0. A beautiful probabilistic interpretation of the last Pollaczek-Khinchine formula (3.15) was discovered by Dufresne-Gerber, and
recently rederived in an elementary way by Kella, by considering Then, writing (3.40) as :
φ(s) =
1
1−ρ
1
b
1 + s/(c/D) 1 − ρfe (s) 1+s/(c/D)
(3.45)
reveals the fact that L is an independent sum of a ”first creep at the current infimum”, which
, and of an alternating geometric sum of jump ladders and further
is an exponential
of rate σ2c2kella2011class
dufresne1991risk
upcreeps – see (?, Fig 2), (?).
3.10
s:per
Approximations de type Padé pour les probabilités de ruine du processus de Cramér-Lundberg
perturbé
To satisfy the boundary conditions Ψd (0) = 1, Ψj (0) = 0, Ψ′d (0) = −c̃, Ψ′j (0) = λ̃m1 , as
well as the Dufresne-Gerber equations (3.42), we must use at least a (1, 2) Padé approximation.
Let us look for (1, 2) Padé approximations of the form
aj
s + ad
b (s) =
b (s) =
Ψ
, Ψ
j
d
2
2
s + b1 s + b0
s + b1 s + b0
b (s) = Ψ (0) = 0, and lim
b
satisfying thus lims→∞ sΨ
j
j
s→∞ sΨd (s) = Ψd (0) = 1. The DufresneGerber equations (3.42) impose two more condition b0 = p̃ad , b1 = ad + aj + p̃, leaving only
two coefficients aj , ad to determine.
We determine now the coefficients aj , ad by equating the first coefficients in the Padé
b̄
b (s) around 0, using F
approximation of Ψ
(s) = m1 − m22 s + m3!3 s2 + ....
d
b (s) =
Ψ
d
1
b̄
1
=
≈
s + ad
+ (ad + aj + p̃)s + ad p̃
p̃ + (1 +
−
+ ...
s + c̃ − λ̃F (s)
m3
m2
(ad + s)(p̃ + (1 + λ̃ )s − λ̃ s2 + ...) ≈ s2 + (ad + aj + p̃)s + ad p̃
2
3!
This yields :
λ̃ m22 )s

a = a λ̃ m2
j
d
2
ad = 3m2
m3
27
λ̃ m3!3 s2
s2
t:per
Théorème 3.1 Let
m2
3λm2
3m2
, aj = ad λ̃
= 2 2
m3
2
σ m3
and let −γ1 , −γ2 denote the roots of
ad =
s2 + (ad + aj + p̃)s + ad p̃ = 0
(3.46)
(3.47)
Then :
1. The discriminant of (3.47) is always non-negative. Assuming w.l.o.g. γ1 < γ2 , it holds
that and 0 < γ1 < ad < γ2 .
2. The approximations for the ”creeping ruin” and ”ruin by jump”
ad − γ1 −γ1 x γ2 − ad −γ2 x
Ψd (x) =
e
+
e
γ2 − γ1
γ2 − γ1
aj
Ψj (x) =
[e−γ1 x − e−γ2 x ],
(3.48)
γ2 − γ1
satisfy (3.42), the first two conditions in (3.41) Ψd (0) = 1, Ψj (0) = 0, fit the first two
moments of the aggregate loss L, and are admissible.
3. In terms of moments, the Laplace transforms are :
6m2 + 2sm3
b (s) =
Ψ
d
2
2m3 s + (3λm22 + 6m2 + 2pm3 ) s + 6pm2
3λm22
b (s) =
Ψ
j
2m3 s2 + (3λm22 + 6m2 + 2pm3 ) s + 6pm2
r:3
Proof : 1. Let us note that s2 + (ad + aj + p̃)s + ad p̃ is negative at s = −ad (since
(ad )2 + (ad + aj + p̃)(−ad ) + ad p̃ = −ad aj < 0, and ad and aj are positive. In particular, the
discriminant must be non-negative and γ1 < ad < γ2 .
2. Laplace inversion yields now (3.48). Furthermore, Ψj is admissible by the assumption
γ1 < γ2 and Ψd is admissible as sum of positive terms.
Remarque 3.18 The data approximation and stationary excess approximation are of the
−1
2m1
m2
same form, with ad = m−1
1 , aj = λm1 , and ad = m̃1 = m2 , aj = λm̃1 = λ 2m1 , respectively.
Our approximation, which uses the third moment as well, is in some sense a generalization
of DeVylder’s.
Remarque 3.19 In the case of exponential claims of rate β, all three approximations are
exact, reducing to the well-known formulas
2λ
σ2 β
Ψj (u) =
(e−γ1 u − e−γ2 u )
γ2 − γ1
β − γ1 −γ1 u γ2 − β −γ2 u
Ψd (u) =
e
+
e
γ2 − γ1
γ2 − γ1
2
For example, with σ2 = 1, λ = 12 , p = 1, and exponential claims of rate 1, the Cramér
Lundberg roots are γ1 = 1/2, γ2 = 2, ad = 1, aj = 21 , and the ruin probabilities are
1 −x/2
(e
− e−2x )
Ψj (x) =
3
1 −x/2 2 −2x
Ψd (x) =
e
+ e
3
3
2e−x/2 e−2x
Ψ(x) =
+
.
3
3
28