Application de la méthode Least-Square Monte

Transcription

Application de la méthode Least-Square Monte
Mémoire d’Actuariat
Application de la méthode Least-Square
Monte-Carlo pour la mise en place de
l’ORSA en Assurance vie
par
Tsanta RAMANAMPISOA
Maître de stage : Michael DONIO - Actuary Partner KPMG
Résumé
La prochaine entrée en vigueur de la directive Solvabilité II, prévue pour
2014, confronte les assureurs européens au pilier 2 et son principal outil :
l’Own Risk and Solvency Assessment (ORSA). L’ORSA exige que les assureurs établissent un pilotage ajusté de leurs risques et solvabilité. Il requiert
la mise en place d’un processus de gestion des risques qui soit partie intégrante de leur stratégie.
Le calcul du capital économique doit être adapté au profil de risque de
chaque aussureur, et doit prendre en compte ses spécificités. A la différence
du premier pilier, l’ORSA définit un "besoin global de solvabilité" prenant
en compte davantage de risques sur une durée plus longue.
La plupart des assureurs ont recours à des modèles stochastiques pour
déterminer ce montant. Mais pour les assureurs Vie, les calculs de capital
économique sont rendus difficiles par la structure complexe des interactions
entre l’actif et le passif. En particulier, une approche directe conduit à des
"simulations dans les simulations" (SdS) i.e avoir à simuler des trajectoires
risque-neutres pour chaque trajectoire sous probabilité historique. Or, en raison de leur coût considérable en temps de calcul, ces SdS sont extrêmement
difficiles à mettre en pratique, .
Ce mémoire vise à présenter comment la méthode Least-Square MonteCarlo permet d’obtenir un proxy des passif et/ou des fonds propres et à
analyser sa faisabilité et ses performances. Cette méthode est donc utilisée
pour palier aux SdS. Elle sera illustrée ici par l’exemple d’un contrat épargne
multi-support.
L’objectif est d’obtenir une fonction qui exprime le comportement des
fonds propres à des dates futures données. Une fois ce comportement connu,
il est possible d’en déduire le besoin global de solvabilité pour chaque horizon de temps, et d’opérer le suivi d’un indicateur de solvabilité défini pour
la mise en place de l’ORSA.
Mots-clés : Own Risk and Solvency Assessment (ORSA), Assurance Vie,
Solvabilité II, Least-Square Monte-Carlo, Solvency Capital Requirements,
Epargne Multisupport, capital économique,
Abstract
As the launch of Solvency II gets closer, its entry into force being 2014, European insurers are now dealing with the second pillar and its main purpose:
the Own Risk and Solvency Assessment (ORSA). The ORSA requires insurers to form their own view of their risk and solvency. It enforces them to set
up a process of risk management that is an integral part of their business
strategy.
Moreover, regulating authorities stress out the fact that the calculation
of this solvency capital has to be adequate to the risk profile of each insurer
and take into account its very own specifities. So unlike what the first pillar
demands, ORSA requires the calculation of a "needed solvency capital" that
takes into account more risks and a longer period of time.
Most of the insurers choose to use stochastic modelling to assess their
needed solvency capital. But for life insurance, solvency capital calculation
always rises major issues because of the complex structure of the interactions
between assets and liabilities. Especially, when the calculation calls for the
"Nested simulations" which is a range of cash-flow projection technique that
requires two levels of simulations: the first one under a real-world probability
and the second one under a risk-neutral probability. These "Nested Simulations" are practically impossible to implement because they require too much
computing time and ressources.
This work aims to show how implementing the Least-Square Monte Carlo
method for liability proxy and/or available capital is a good solution to the
Nested Simulations problem and can therefore be used as an efficient tool
for setting an ORSA process up, and analyse how robust and usable is this
method. A French life insurance contract has been chosen to illustrate this
technique. This contract has, more or less, the same properties as a multi
unit-linked with profit insurance policy.
The main goal was to obtain a function that expresses the behaviour of
the available capital at any given time. Once we this behaviour is known, we
would then be able to infer the needed solvency capital at any given time,
and to monitor a solvency indicator.
Keywords: Own Risk and Solvency Assessment (ORSA), life insurance,
Solvency II, Least-Square Monte-Carlo, Solvency Capital Requirements
Remerciements
Je tiens à remercier, en premier lieu mon responsable de stage, Michael
DONIO, qui m’a donné la formidable opportunité d’effectuer mon stage de
fin d’études au sein du cabinet KPMG. J’ai eu l’occasion de réfléchir sur
un sujet de mémoire passionnant, d’en apprendre énormément sur le métier
d’actuaire et de travailler avec des personnes remarquables.
Ainsi, je présente également mes plus sincères remerciements à toute
l’équipe actuarielle de KPMG, et particulièrement à la staff, pour le soutien
et les précieux conseils qu’ils m’ont apporté tout au long de cette expérience.
Je remercie également tout le corps enseignant de l’ISUP qui m’a accompagné et guidé pendant ces 3 années de formation. En particulier, je remercie
M. Delecroix, directeur de l’école, ainsi que MM. A.Cohen et O.Lopez qui
ont encadré mon mémoire et m’ont orienté dans la réalisation de ce dernier.
Merci, enfin, à ma famille et mes amis pour la patience et le support inconditionnel dont ils ont fait preuve durant la rédaction de ce mémoire.
1
Table des matières
Introduction
6
1 Contexte et Présentation
1.1 La directive Solvabilité II . . . . . . . . . .
1.1.1 Pilier 1 . . . . . . . . . . . . . . . .
1.1.2 Pilier 2 . . . . . . . . . . . . . . . .
1.1.3 Pilier 3 . . . . . . . . . . . . . . .
1.2 Focus sur le pilier 2 : l’ORSA . . . . . . .
1.2.1 Définition et enjeux . . . . . . . . .
1.2.2 ORSA vs. Pilier 1 . . . . . . . . . .
1.2.3 Principe de mise en œuvre . . . . .
1.3 L’Assurance Vie . . . . . . . . . . . . . . .
1.3.1 Définition . . . . . . . . . . . . . .
1.3.2 L’épargne . . . . . . . . . . . . . .
1.3.3 Les options et garanties financières
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Simulations dans Simulations en Assurance Vie
2.1 Projections futures : Univers Réel vs Risque-Neutre . . . . .
2.2 Nested Simulations : Le Problème . . . . . . . . . . . . . . .
2.3 Techniques d’approximations existantes . . . . . . . . . . . .
2.3.1 Algorithme d’accélération des simulations dans simulations . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Curve fitting . . . . . . . . . . . . . . . . . . . . . . .
2.3.3 Replicating Portfolio . . . . . . . . . . . . . . . . . .
2.3.4 Least-Square Monte-Carlo . . . . . . . . . . . . . . .
3 La méthode Least-Square Monte-Carlo
3.1 Principe et cadre théorique . . . . . . .
3.1.1 Principe de la méthode . . . . .
3.1.2 Formalisation théorique . . . .
3.2 Processus de mise en œuvre . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
8
9
11
11
12
13
13
13
17
17
17
19
20
. 20
. 22
. 23
.
.
.
.
24
26
27
28
.
.
.
.
30
30
30
32
34
3.2.1
3.2.2
3.2.3
3.2.4
3.2.5
3.2.6
3.2.7
Etape 1 : Identifier les facteurs de risque . . . . . . .
Etape 2 : Sélectionner des scénarios de trajectoires .
Etape 3 : Lancer les N simulations Monte-Carlo . . .
Etape 4 : Choisir les fonctions de base . . . . . . . .
Etape 5 : Effectuer la régression . . . . . . . . . . . .
Etape 6 : Mesurer l’erreur obtenue et valider les fonctions de base choisies . . . . . . . . . . . . . . . . . .
Etape 7 : Utiliser les fonctions obtenues pour le suivi
de l’indicateur de besoin global de solvabilité . . . . .
.
.
.
.
.
35
36
36
36
36
. 37
. 37
4 Application à un produit d’épargne multi-supports
4.1 Description du produit . . . . . . . . . . . . . . . . . . . . .
4.1.1 Caractéristiques techniques et hypothèses . . . . . . .
4.1.2 Bilan en t = 0 . . . . . . . . . . . . . . . . . . . . . .
4.1.3 Orientations stratégiques . . . . . . . . . . . . . . . .
4.2 Identification et Modélisation des facteurs de risques . . . .
4.2.1 Hypothèses de modélisation . . . . . . . . . . . . .
4.2.2 Le risque de Taux . . . . . . . . . . . . . . . . . . . .
4.2.3 Le risque Action et Immobilier . . . . . . . . . . . . .
4.2.4 Les rachats . . . . . . . . . . . . . . . . . . . . . . .
4.2.4.1 Les rachats structurels . . . . . . . . . . . .
4.2.4.2 Les rachats conjoncturels . . . . . . . . . .
4.2.4.3 Rachats Totaux . . . . . . . . . . . . . . . .
4.2.5 Revalorisation cible . . . . . . . . . . . . . . . . . . .
4.2.5.1 Taux Cible . . . . . . . . . . . . . . . . . .
4.2.5.2 La politique de Participation aux Bénéfices
4.2.6 La stratégie d’allocation d’actifs . . . . . . . . . . . .
4.3 Implémentation pratique . . . . . . . . . . . . . . . . . . . .
4.3.1 Génération des trajectoires . . . . . . . . . . . . . . .
4.3.2 Projections futures . . . . . . . . . . . . . . . . . . .
4.3.3 Mise en œuvre de la régression . . . . . . . . . . . . .
4.3.3.1 Modèle et notations . . . . . . . . . . . . .
4.3.3.2 Décomposition en valeurs singulières SVD .
4.3.4 En pratique . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
38
38
38
40
40
41
42
43
47
49
49
51
52
53
53
53
54
55
55
56
59
59
60
62
5 Analyse critique de la méthode et des résultats
5.1 Résultats obtenus . . . . . . . . . . . . . . . . . . . . .
5.1.1 Analyse des régressions par rapport aux données
5.1.1.1 Par rapport aux taux d’intéret . . . .
5.1.1.2 Par rapport au cours des actions . . .
5.1.1.3 Par rapport aux taux de rachat . . . .
.
.
.
.
.
64
64
66
67
68
70
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5.1.1.4 Interraction entre les taux d’intérêt et de rachat
Analyse des régressions en fonction de l’horizon de projection . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.2.1 Par rapport aux taux d’intérêt . . . . . . . .
5.1.2.2 Par rapport aux cours des actions . . . . . . .
5.1.2.3 Par rapport aux taux de rachat . . . . . . . .
5.1.3 Probabilités estimés . . . . . . . . . . . . . . . . . . . .
Stabilité des résultats . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Principes du Bootstrap . . . . . . . . . . . . . . . . . .
5.2.2 Application à l’estimateur de la probabilité de ruine . .
5.2.3 Suivi de l’indicateur de risque . . . . . . . . . . . . . .
Avantages de la méthode . . . . . . . . . . . . . . . . . . . . .
Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
5.1.2
5.2
5.3
5.4
74
74
75
76
77
77
77
78
79
80
81
Conclusion
83
Bibliographie
85
A Rappels de calcul stochastique
87
B Probabilité risque-neutre
89
C SVD pour la régession
91
5
Introduction
Avec la prochaine entrée en vigueur de la directive Solvabilité II, les assureurs européens sont confrontés à une modification profonde de leur approche
dans la gestion et l’évaluation des risques auxquels ils sont soumis.
La première grande étape de cette restructuration du monde l’assurance a
été la rénovation des méthodes de calcul du capital économique ou Solvency
Capital Requirement qui représente le capital nécessaire que l’entreprise doit
détenir au titre de ses fonds propres pour assurer sa solvabilité à horizon 1 an
dans 99,5% des cas. Au cœur du pilier I de la directive, ces exigences quantitatives ont mobilisé les équipes actuarielles des assureurs et des réassureurs
pendant un temps important.
Si l’évaluation de la solvabilité d’une compagnie d’assurance à un instant donné a été imposée par le premier pilier de la directive, les acteurs
du monde l’assurance s’intéressent aujourd’hui au contrôle permanent qui
permet de maintenir ce niveau de solvabilité avec le pilier II de la directive.
Ce second pilier oblige les assureurs et les réassureurs à mettre en place un
processus de suivi en continu des risques propres à l’entreprise avec cette fois
une vision prospective sur un horizon de temps supérieur à une année. Ce
processus est matérialisé et défini par l’Own Risk and Solvency Assessment
(ORSA) qui constitue le coeur du pilier II de la directive.
L’ORSA en assurance vie fait émerger de nouvelles problématiques liées
à la complexité des mécanismes d’interactions entre l’actif et le passif d’une
compagnie. La vision prospective nécessaire au calcul et l’obligation de considérer toutes les situations probables appellent forcément à l’utilisation de
jeux de simulations pour la modélisation. Dans le cadre de l’assurance vie,
ces simulations doivent se faire sur deux niveaux différents : un niveau sous
probabilité historique et un niveau de simulations sous proababilité risqueneutre. Ces simulations à deux niveaux sont appelées "Nested Simulations"
ou"Simulations dans Simulations (SdS)" et elles soulèvent d’importants pro6
blèmes de mise en œuvre opérationnelle notamment en terme de temps de
calcul.
Ce mémoire a pour objet de présenter une des diverses méthodes d’approximations numériques qui ont été developpées pour palier au problème
des SdS et d’expliquer comment cette méthode permet la mise en place de
l’ORSA.
La première partie situe le contexte dans lequel les travaux de ce mémoire
ont été effectués : Solvabiilité II et l’Assurance vie.
Ensuite la deuxième partie présente en détail la méthode de simulations
dans simulations qui se pose comme un obstacle technique aux calculs que
les assureurs doivent et veulent effectuer, cette partie expose aussi succintement les méthodes numériques autres que celle abordée dans le cadre de
cette étude qui existent pour s’affranchir des SdS.
Le troisième chapitre constitue le cœur du mémoire, il développe de manière théorique la méthode Least-Square Monte Carlo et son application pratique.
Enfin, les deux derniers chapitres sont les parties liées à l’application de
cette méthode à un cas concret d’un portefeuille d’assurance vie et à l’analyse
critique des résultats obtenus.
7
Chapitre 1
Contexte et Présentation
L’objectif de ce chapitre est de présenter le contexte réglementaire et général dans lequel ce mémoire s’inscrit et de poser la problématique à laquelle
il veut répondre.
Il s’agira donc en premier lieu de rappeler les tenants et les aboutissants de la
nouvelle directive européenne qui chamboule actuellement le monde de l’assurance et de la réassurance : la directive Solvabilité II et ensuite de décrire
le marché de l’assurance vie en France pour donner une vue d’ensemble du
cadre d’application de la théorie présentée ici.
1.1
La directive Solvabilité II
La directive 2009/138/CE DU PARLEMENT EUROPEEEN ET DU
CONSEIL du 25 novembre 2009 sur l’accès aux activités de l’assurance et
de la réassurance et leur exercice, plus communément appelée directive "Solvabilité II" est une réforme européenne de la réglementation prudentielle
du secteur de l’assurance. Elle vise principalement, d’une part, à assurer la
solvabilité des assureurs en mettant en place un système d’analyse et de traitement du risque différent de ce qui a été fait auparavant et d’autre part, à
harmoniser la réglementation des activités d’assurance en Europe en définissant un référentiel prudentiel commun à tous les pays européens.
Cette directive repose sur trois piliers distincts.
Le premier pilier définit les exigences quantitatives financières et concerne la
valorisation des postes du bilan à l’actif et au passif. En effet, dans Solvabilité II, un bilan dit économique par opposition au bilan compatble est requis,
dans ce bilan tous les postes doivent être valorisés en valeur de marché et
non plus en valeur historique. Le bilan économique se formalise comme suit :
8
1.1.1
Pilier 1
Ce pilier 1 définit également les niveaux de fonds propres minimum qu’une
compagnie exerçant une activité d’assurance ou de réassurance doit détenir
pour assurer sa solvabilité. Deux indicateurs de solvabilité différents sont requis :
• Le Minimum Capital Requirement (MCR) qui représente le niveau de
fonds propres en deçà duquel l’autorité de de contrôle intervient dans
la gestion de la compagnie de manière automatique
• Le Solvency Capital Requirement (SCR) qui représente le montant de
fonds propres qu’une compagnie doit détenir pour éviter la ruine économique à horizon 1 an dans 99,5% des cas. Mathématiquement, le SCR
se traduit comme suit :
P(F P1 < 0) ≤ 0, 5%
où F P1 représente le montant des fonds propres issus du bilan économique à
horizon un an et P la probabilité historique.
Il est évident que l’on a l’inégalité suivante : MCR ≤ SCR.
Le calcul du SCR est encore un des grands chantiers du monde de l’assurance actuellement. Deux approches sont possibles pour effectuer ce calcul :
la formule standard ou le modèle interne.
Dans l’approche par la formule standard, un SCR doit être calculé pour
chaque facteur de risque identifié par la cartographie des risque présentée à
la figure 1.1.
9
Figure 1.1 – Cartographie des risques
Le SCR est obtenu avec la formule suivante :
SCR = BSCR + Adj + Op
avec
– Adj : l’ajustement fait pour prendre en compte la capacité d’absorption
des pertes par réduction des bénéfices discrétionnaires et par les impôts
différés
– Op :le capital économique lié au risque opérationnel
– BSCR : le SCR de base calculé à l’aide d’une matrice de corrélation
entre les différents modules de risque de la cartographie.
Selon le QIS 5 on a :
sX
BSCR =
CorrSCRi,j × SCRi × SCRj
i×j
où
• BSCR est le Basic Solvency Capital Requirement qui représente le
capital requis avant tout ajustement
• SCRi est le capital requis pour le risque i
10
• CorrSCRi,j représente la corrélation entre le risque i et le risque j. La
valeur de CorrSCRi,j provient de la matrice de corrélation fournie par
le CEIOPS.
Market
Default
Life
Health
Non-life
Market
1
0,25
0,25
0,25
0,25
Default
Life
Health
Non-life
1
0,25
0,25
0,5
1
0,25
0
1
0
1
Cette matrice de corrélation traduit la corrélation entre les capitaux
relatifs aux risques (i, j) mais non pas entre les risques eux-mêmes
1.1.2
Pilier 2
Le deuxième pilier de Solvabilité II réglemente les activités de gouvernance et de supervision des compagnies. Il met en place le processus de
contrôle et de gestion des fonds propres de la compagnie. Ce pilier 2 a pour
objectif d’instaurer des procédures de surveillance pour s’assurer que les compagnies sont en mesure d’évaluer et de gérer correctement les risques auxquels
elles sont exposées. Le pilier 2 est conçu pour inciter les compagnies à avoir
une démarche ERM (Entreprise Risk Management), il s’attache particulièrement à fixer des normes qualitatives de suivi du risque en interne par les
entreprises, notamment via le dispositif Own Risk and Solvency Assessment
(ORSA) que nous détaillerons dans la suite de ce mémoire.
1.1.3
Pilier 3
Le pilier 3 est axé sur la transparence des compagnies sur trois éléments
qui permettent d’évaluer leur solvabilité :
– leur performance financière
– leur profil de risque
– les mesures d’incertitudes utilisées pour les évaluations
Ce troisième pilier concerne donc principalement l’information à fournir au
public et aux autorités de contrôle pour renforcer la discipline de marché, les
informations doivent être présentées dans des états réglementaires appelés
11
Quantitative Reporting Templates (QRT)
Le calendrier de Solvabilité II est représenté dans la figure 1.2 :
Figure 1.2 – Calendrier Solvabilité II
1.2
Focus sur le pilier 2 : l’ORSA
Comme décrit précédemment le pilier 2 de Solvabilité II concerne principalement la gestion des risques et le système de gouvernance de l’entreprise.
Solvabilité II dit à l’alinéa (36) que :
"Chaque entreprise d’assurance et de réassurance devrait procéder régulièrement à l’évaluation de son besoin global de solvabilité, en tant que partie
intégrante de sa stratégie commerciale et compte tenu de son profil de risque
spécifique(évaluation interne des risques et de la solvabilité). Cette évaluation
ne requiert pas le développement d’un modèle interne, ni ne sert à calculer à
calculer des exigences en capital en capital différentes du capital de solvabilité
requis ou du minimum de capital requis. Les résultats de chaque évaluation
devraient être communiqués à l’autorité de contrôle parmi les informations à
fournir aux fins du contrôle."
L’article 45 définit plus en détail le cadre du processus d’évaluation interne des risques et de la solvabilité ou ORSA : Own Risk and Solvency
Assessment (ORSA).
Au coeur du pilier 2 de la directive, ce processus est l’outil principal des entreprises pour démontrer que leur système de gouvernance et leur politique
12
de gestion des risques sont cohérents avec la nature, la gamme et la complexité des risques propres à leurs activités respectives .
1.2.1
Définition et enjeux
L’ORSA est un processus d’analyse quantitative propre à chaque entreprise qui vise deux objectifs principaux :
• déterminer les capitaux économiques requis en fonction du profil de
risque et des orientations stratégiques prévues et de la conjoncture économique.
• permettre un pilotage et un suivi permanent des risques.
1.2.2
ORSA vs. Pilier 1
La prise en compte des orientations stratégiques selon le profil de risque
et de la continuité du pilotage des risques prolonge la logique du pilier 1 selon
deux dimensions :
• La dimension Risques : la cartographie des risques présentés au pilier
1 ne permet pas de capter certains risques difficiles à quantifier mais
étant néanmoins importants pour l’assureur : il s’agit, par exemple, du
risque de liquidité ou du risque de réputation.
• La dimension Pluriannuelle et de contrôle permanent : les exigences
du pilier 1 en termes de SCR sont à horizon un an alors que l’assureur a
besoin de considérer son besoin global de solvabilité à tout instant, sur
un horizon de temps plus important en tenant compte des changements
potentiels futurs du profil de risque de l’entreprise. Bien que devant
rester cohérent et conforme aux exigences du pilier 1, l’ORSA n’est
donc pas un second calcul de SCR.
L’ORSA est donc avant tout un outil d’aide à la décision pour la Direction.
Il doit à ce titre être opérationne, pour aider les dirigeants dans la prise de
décisions opérationnelle.
1.2.3
Principe de mise en œuvre
Les textes réglementaires ne sont pas très directifs quant à la mise en
œuvre de l’ORSA, la politique de l’autorité de contrôle étant de laisser aux
entreprises le plus de marge possible pour qu’elles s’approprient cet outil et
l’ajustent le plus finement possible à leur activité et à leur profil de risque.
13
Par définition, l’ORSA fait le lien entre le risk management, la gestion
du capital et les orientations stratégiques de l’entreprise. Il permet d’assurer
qu’au sein de la compagnie, d’une part on ne s’expose pas financièrement
au-delà des limités souhaitées et possibles et d’autre part que les informations importantes concernant les risques reçoivent une attention adéquate de
la part du management.
Les principaux acteurs et étapes de l’implémentation de l’ORSA sont définies dans la figure 1.3.
Figure 1.3 – Mise en place de l’ORSA
Le point de départ de la mise en place de l’ORSA est la définition des
orientations stratégiques de la compagnie :
1. Puisque l’ORSA nécessite une approche pluriannuelle, il est nécessaire
de définir dans un premier temps l’horizon temporel que l’entreprise
veut considérer. E particulier, le management doit décrire les objec14
tifs stratégiques de l’entreprise sur cet horizon de temps donné et doit
définir des indicateurs quantitatifs de mesure des perspectives avancées. Ces objectifs stratégiques couvrent tout aussi bien le business
plan (production nouvelle, les rendements espérés...) que la politique
de l’entreprise (allocation d’actifs, ...).
2. Dans une seconde étape, le risk management transcrit cette stratégie
en termes de risque. Cette étape implique la définition de trois notions
relatives à la structure de risque de l’entreprise : l’appétence au risque,
le profil de risque et la tolérance au risque.
– L’appétence au risque est le niveau de risque global qu’une entreprise est prêt à prendre pour atteindre ses objectifs stratégiques
sur l’horizon de temps donné. Cette limite gloable de prise de risque
s’exprime sous forme des mesures de risques.
Par exemple :
Le ratio de couverture du SCR à 5 ans doit être supérieur à 150%
F P0
< 150%) < 5%
dans 95% des cas i.e : P( SCR
5
– Le profil de risque d’une entreprise est le niveau de risque auquel la compagnie est exposée au moment du calcul. Il peut être
exprimé de manière qualitative ou quantitative mais il doit se mesurer de manière cohérente avec l’appétence au risque. Le profil de
risque peutêtre consititué de divers éléments comme le montant des
fonds propres, le SCR, le montant maximal de perte que l’entreprise
peut supporter.
– La tolérance au risque est le niveau maximal de risque qui peut
être pris sachant un profil de risque donné. Contrairement aux deux
notions précédentes, la tolérance au risque n’est pas un niveau fixé
par l’entreprise puisqu’elle relève non pas de la volonté mais de la
capacité de l’entreprise à prendre des risques.
A l’instar du pillier 1, l’ORSA nécessité également une cartographie des
risques pour identifier les différents facteurs de risque auxquels l’entreprise est soumise. Cette identification est cependant plus fine que celle
du pilier 1 car elle doit prendre en compte les risques non considérés
par ce pillier tels que le risque de réputation comme cité précédemment
mais aussi les risques latents et les risques émergents.
Selon l’article 44, paragraphe 2 de la directive Solvabilité II , l’ORSA
15
doit au moins couvrir les risques suivants : souscription et provisionnement ; gestion actifs/passifs ; investissment, en particulier dans les
produits dérivés et similaires ; risque de liquidité et de concentration ;
risque opérationnel et réassurance et techniques d’atténuation du risque
3. Les risques précédemment identifiés doivent être évalués conformément
aux orientations stratégiques et au business plan. Il convient pour cela
de définir une mesure de risque adéquate aux choix et objectifs stratégiques de l’entreprise. Plusieurs mesures de risque peuvent être choisies :
V aR, T − V aR, la probabilité de ruine... et il convient de sélectionner
celle qui correspond le mieux au profil de risque de la compagnie.
La mesure de risque choisie permet ensuite de déterminer le besoin global de solvabilité de l’entreprise. Les Consultations Paper fournies par
l’EIOPA insistent sur le fait que l’ORSA n’est pas un second calcul de
SCR : la valeur obtenue à un an doit être cohérente avec les exigences
du pilier 1 mais l’ORSA ne nécessite pas un modèle interne et la mesure
de risque n’est plus imposée.
4. Enfin, l’ORSA constitue un outil de pilotage et d’alerte pour le management ; son implémentation doit donc conisdérer le suivi régulier des
indicateurs prédéfinis et pour ce faire il est important de prendre en
compte la possibilité de refaire les calculs à chaque instant ou d’avoir
un processus suffisamment performant qui permette au management de
détecter les situations à risque et de réagir en conséquence pour ajuster
les orientations stratégiques prises par l’entreprise.
L’approche de la mise en place de l’ORSA retenue ici est d’opérer le suivi
du besoin global de solvabilité sous des contraintes de business plan et d’appétence au risque. Mais dans le cas de l’assurance vie, le calcul du besoin global
de solvabilité soulève des problématiques de temps de calcul importantes qui
donnent lieu au développement de méthodes d’approximations numériques.
C’est la présentation de l’une de ces méthodes numériques dans le contexte
de l’ORSA qui fait l’objet principal de ce mémoire.
16
1.3
L’Assurance Vie
L’activité d’assurance en France est régie par le Code des assurances,
elle est définie juridiquement comme un contrat aléatoire par lequel un organisme dit "L’assureur" s’engage envers une ou plusieurs personnes dites
"Les assurées", moyennant une rémunération appelée "prime", à verser une
prestation en cas de réalisation d’un ensemble de risques définis dans ledit
contrat appelé "police d’assurance".
1.3.1
Définition
L’assurance vie est un contrat à prime unique ou à prime périodique dans
lequel le versement de la prestation est conditionné à la réalisation du risque
de décès ou de survie selon le type de contrat souscrit. Ce contrat bénéficie
en outre du régime fiscal de l’assurance vie.
Au sens large, l’assurance vie comprend plusieurs types d’assurance que
l’on peut catégoriser en 2 grands groupes : l’assurance de personnes et l’assurance individuelle. On choisit dans ce mémoire de s’intéresser à l’assurance
individuelle et principalement aux produits d’épargne.
1.3.2
L’épargne
Usuellement, on fait la distinction parmi les produits d’épargne entre :
– les contrats d’épargne retraite qui permettent à l’épargnant d’acquérir un capital supplémentaire qui lui sera reversé soit sous forme de
capital au moment de son départ à la retraite, soit sous forme de rente
viagère.
– les contrats d’épargne qui permettent à l’assuré de constituer ou
de faire fructifier un capital, plus disponible et utilisable à de fins diverses. Ces derniers représentent la plus grande partie du marché de
l’assurance vie en France.
L’épargne en assurance vie constitue une solution répondant principalement aux objectifs suivants :
• Constitution d’un capital supplémentaire de manière souple : les versments étant libres, l’assuré peut épargner à son rythme. De plus, le
capital épargné est disponible à tout moment, cependant les retraits
17
sont fiscalement plus avantageux après 4 ans et plus encore après 8 ans
de vie du contrat. Ce capital est majoritairement utilisé par les épargnants à titre de précaution pour protéger leurs proches.
• Organisation de la succession : l’assurance vie bénéficie d’un régime
fiscal privilégié qui permet une transmission du capital sous des conditions fiscales très avantageuses au regard des droits de successions.
Les produits proposés en assurance vie se déclinent en trois grandes familles de contrats :
i) les contrats à capital différé avec contre assurance : Ils sont majoritaires en France. Ce sont des contrats dans lesquels l’assuré épargne
un capital qui fructifiera pendant une durée déterminée à l’avance par
le souscripteur et qui lui sera versé au terme de cette durée. Par contre,
si le souscripteur décède pendant la durée du contrat, l’assureur s’engage à verser immédiatement à ses bénéficiaires le capital acquis, ce qui
correspond à une assurance décès. Ce type de contrat implique une disponibilité du capital à tout instant et donc la possibilité pour l’assuré
de racheter son contrat.
ii) les contrats mixtes : ce sont des contrats qui garantissent à la fois
une assurance en cas de vie et une assurance en cas de décès.
iii) les rentes viagères immédiates : ce sont des contrats qui garantissent à l’assuré le versement d’une rente jusqu’à son décès.
Les contrats d’assurance vie se répartissent en 3 catégories :
• les contrats monosupports en euros : ce sont des contrats qui
ne comportent qu’un seul support d’investissement en euros, appelé
"Fonds en Euro" ;
• les contrat multisupports : ce sont des contrats qui comportent plusieurs supports d’investissements constitués d’un fonds en euro d’une
part et d’un fonds dit en "Unités de Compte" d’autre part. Les unités
de compte sont des supports d’investissements qui peuvent être constitués de fonds obligataire ou de fonds en action (SICAV, OPCVM....),
la particularité du fonds en unités de compte réside dans le fait que
sur ces investissement le risque n’est plus porté par l’assureur mais par
l’assuré uniquement.
18
• les contrats "gouvernementaux" tels que le PERP ou le contrat
Madelin.
1.3.3
Les options et garanties financières
Les contrats d’épargne en assurance vie sont le plus souvent assorties de
diverses options et garanties financières qui sont des droits conférés aux assurés. La plupart du temps ces options et garanties financières ne sont pas prises
en compte de manière explicite dans la tarification du contrat et l’exercice de
ces options et garanties par les assurés selon la conjoncture économique ou
par décision arbitraire peuvent impacter de manière considérable le contrat.
Elles représentent également un risque pour l’assureur.
Les options et garanties financières les plus communes sont :
– le taux minimum garanti : cette option définie dans le contrat garantit un taux de revalorisation minimale de l’épargne.
– le rachat : cette option donne à l’assuré le droit de récupérer tout ou
partie de son épargne à tout moment.
– l’arbitrage entre les différents fonds : dans le cadre des contrats
multisupport cette option permet à l’assuré de répartir librement son
épargne entre les divers supports disponibles à chaque instant.
– la garantie plancher : cette option garantit à l’assuré le versement
d’un certain capital, qui correspond le plus souvent au capital investi,
en cas de décès avant la fin du contrat.
– l’option de conversion en rente : cette option permet à l’assuré
de récupérer le capital accumulé non pas sous forme d’un versement
unique à l’issue du contrat mais sous forme de rente viagère.
Ces différentes options et garanties sont souvent considérées comme "cachées" dans un contrat d’assurance et la détermination de leur valeur, essentielle au calcul du Best Estimate ou de la MCEV, nécessite l’utilisation de
méthodes stochastiques.
19
Chapitre 2
Simulations dans Simulations en
Assurance Vie
La directive solvabilité II recommande l’utilisation de la Value at Risk
V aR99,5% à horizon 1 an comme mesure de risque pour le calcul du SCR.
Elle définit donc le capital économique comme étant que quantile à 99,5% de
la distribution des fonds propres économiques de l’entreprise dans un an.
Dans le cadre de l’assurance vie, la distribution de fonds propres est complexe à obtenir à cause du nombre important de facteurs de risques et de
la sophistication des interactions Actif/Passif qui découlent principalement
des mécanismes de participation aux bénéfices et des possibilités de rachats
offertes aux assurés. Ces mécanismes peuvent se comprendre comme des options et des garanties financières proposée aux assurés dont la valeur temps
doit être évaluée pour déterminer le Passif de l’entreprise et cette évaluation ne peut se faire que par le biais de simulations stochastiques en univers
risque-neutre.
2.1
Projections futures : Univers Réel vs RisqueNeutre
Nous allons ici formaliser les notions d’univers réel et d’univers risque
neutre qui seront utiles dans la suite du document.
Considérons un marché comportant un actif risqué et un actif non risqué.
20
On suppose que l’actif risqué vérifie :
dSt
= µt dt + σt dWt
St
et l’actif sans risque évolue selon
dBt
= rt dt
Bt
Par définition, rt est le taux sans risque. Tous ces processus sont définis sur
un espace probabilisé filtré (Ω, F, P), et P est appelée probabilité historique,
ou quelquefois probabilité objective. Les trajectoires observées dans les historiques de cours apparaissent en particulier sous cette probabilité, et dans
le modèle W est un mouvement brownien adapté à la filtration sous la probabilté P.
t
, on peut dire que λ représente l’excès de renSi l’on introduit λt = µtσ−r
t
dement par rapport au taux sans risque (µ − r), par unité de risque (σ). Ce
paramètre est appelé la prime de risque. Alors l’EDS de l’actif peut s’écrire :
dSt
= (rt + σt λt )dt + σt dWt
St
= rt dt + σt dWt + λt dt
f , qui est défini par
On introduit alors un nouveau processus W
ft = dWt + λt dt
dW
entraînant ainsi
dSt
ft
= rt dt + σt dW
St
Sous la probabilité P, par définition W est un mouvement brownien, mais ce
f . Toutefois, on dispose du théorème de Girsanov, qui
n’est pas le cas de W
f est une
affirme qu’il existe une probabilité Q équivalente à P sous laquelle W
martignale.
Cette probabilité est appelée risque-neutre, car elle ne comporte plus de
prime de risque, qui a été incorporée au brownien. Le rendement de S sous
cette probabilité est simplement le taux sans risque.
Dans le cas du calcul du capital économique, l’univers réel ou univers
historique est l’univers de projection à horizon un an représente l’état du
monde tel qu’observable sur le marché (cours des actions, taux, ...) donc les
21
valeurs estimées des paramètres dans cet univers réflètent les valeurs que l’on
constate dans la réalité.
L’univers risque neutre ou "Market consistent" est basé sur la neutralité
des instruments financiers vis à vis du risque, en moyenne ils se comportent
tous comme un actif sans risque. Une conséquence pratique directe est qu’en
univers risque neutre les taux de rendements et les taux d’actualisation sont
les mêmes et il n’y a pas de prime de risque. C’est dans cet univers financier
que l’on évlaue les différentes postes du bilan en considérant l’espérance des
cash-flows futurs actualisés.
2.2
Nested Simulations : Le Problème
Pour assurer la couverture du besoin de solvabilité de la compagnie sur un
horizon pluriannuel, il est nécessaire de déterminer la distribution des fonds
propres à chaque date considérée i.e chaque année. Etant donné, le nombre
de facteurs de risque et la complexité potentielle de la distribution de ces
facteurs de risque, il est naturel d’adopter une approche par simulations.
Cette méthode consiste à effectuer un premier jeu de simulations MonteCarlo en univers réel (real-world). Chaque trajectoire de ces simulations sont
dénommées "trajectoires primaires" et décrit un état économique du monde
en t = 1. Puis sur chacune de ces trajectoires primaires, un second jeu de
simulations Monte-Carlo composé de trajectoires dites "secondaires" est effectué pour évaluer chaque poste du bilan en univers risque neutre afin de
prendre en compte les options et garanties financières des contrats.
Dans la pratique, chaque jeu de simulation requérant entre 1 000 à 10 000
simulations, il y aura au total quelques dizaines à quelques centaines de millions de simulations à effectuer. De plus, le passif des entreprises est exprimé
sous formes de polices représentatives ou models points qui se chiffrent par
dizaines ou centaines de milliers. Une évaluation standard des fonds propres
économiques nécessiterait donc 100.000 model points projetés sur 10 millions
de trajectoires : la puissance de calcul des ordinateurs actuels ne permet pas
un tel volume de calculs en un temps raisonnable.
L’approche dite des "Simulations dans Simulations" ou "Nested Simulations", bien que simple en théorie, pose donc un problème important de
ressources et de temps de calcul dans son implémentation pratique.
22
Figure 2.1 – Simulations dans Simulations
2.3
Techniques d’approximations existantes
Pour palier à ce problème de puissance de calcul posé par l’approche directe des "Simulations dans simulations", plusieurs techniques ont été développées. Le principe commun de ces techniques est de chercher à s’affranchir
le plus possible des simulations secondaires soit en effectuant une séléction
"judicieuse" des trajectoires à projeter et réduisant ainsi leur nombre soit en
estimant des proxys du passif de l’entreprise. Un panorama non exhaustif de
ces techniques est présenté dans la suite.
23
2.3.1
Algorithme d’accélération des simulations dans simulations
Cette méthode a été développée par L.Devineau et S.Loisel en 2009. Elle
vise à réduire le nombre global de simulations à effectuer dans le cadres des
simulations dans simulations.
Le principe de base de cette méthode consiste à sélectionner les trajectoires les plus adverses en termes de solvabilité en fonction des facteurs de
risques choisis et de ne faire les simulations que le long de ces trajectoires
adverses.
L’algorithme d’accélération SdS s’implémente en trois étapes clés :
i) Extraire les facteurs de risque élémentaires ie les facteurs (actions,
taux, mortalité,...) qui ont le plus d’impact sur les éléments du bilan
pour chaque simulation primaire
ii) Définir une région de confiance à seuil fixé : les simulations primaires
pour lesquelles les facteurs de risques sont à l’extérieur de la région de
confiance sont effectuées
iii) Faire des itérations sur le seuil de la région de manière à intégrer à
chaque étape un nombre de points supplémentaires
L’algorithme s’arrête lorsque les N "pires valeurs" des fonds propres économiques sont stabilisées. La figure 2.2 illustre le fonctionnement de cet algorithme.
24
Figure 2.2 – Algorithme accélérateur des simulations dans simulations
L’avantage principal de cette méthode est qu’elle réduit considérablement
les temps de calcul et les ressources nécessaires, de plus elle permet de prendre
en compte un grand nombre de risques. Elle permet également d’intégrer les
effets de diversifications dans le cas des portefeuilles consolidés, mais surtout
elle ne régionalise pas l’analyse et évite de laisser de côté certains cas.
Par contre, la vitesse de l’algorithme diminue lorsque le nombre de facteurs de risques augmente d’où la nécessité de sélectionner soigneusement les
facteurs qui véhiculent le plus gros risque pour le portefeuille. La fonction
qui calcule la valeur de départ du portefeuille doit être également vérifiée,
car si elle est incorrecte elle peut conduire à un piégage de l’algorithme.
25
2.3.2
Curve fitting
Le curve-fitting est une méthode dite de proxy. Elle consiste à calculer la
valeurs des éléments du bilan correspondant à plusieurs scénarios de stress
sur les facteurs de risques du portefeuille et à ensuite ajuster une courbe
aux résultats obtenus via une fonction d’interpolation (polynomiale, spline,
surface multidimensionnelle).
La courbe obtenue sert alors à représenter la distribution complète des
actifs/passifs et par conséquent la distribution des Fonds Propres.
La méthode "Curve Fitting" consiste à :
i) Sélectionner un nombre réduit de simulations primaires à effectuer 150 par exemple au lieu de 5000 dans la version originelle des
simulations dans simulations
ii) Appliquer l’approche "Nested simulations" aux simulations
primaires sélectionnées i.e lancer par exemple 1000 simulations secondaires sous probabilité risque neutre pour chacune des 150 simulations en univers réel
iii) Effectuer une régression entre la série des fonds propres économiques obtenus via les simulations primaires et la série des différents
facteurs de risque de l’entreprise
iv) Appliquer la fonction de régression calibrée à l’ensemble des
5000 simulations primaires devant être effectuées avec la méthode des
simulations dans simulations normale.
26
Figure 2.3 – Méthode Curve Fitting
L’avantage est de cette méthode est qu’elle exprime la distribution des
fonds propres sous une forme paramétrique donc facilement exploitable, en
outre elle fournit un indicateur de suivi du résultat facile à analyser : le R2 de
la régression. La méthode de "Curve fitting" permet évidemment de réduire
le nombre de simulations et d’accélérer le calcul de la distribution des fonds
propres.
Néanmoins, dans le cas où il y a un grand nombre de facteurs de risque
et/ou des fonction d’interpolations complexes, le nombre de simulation à
effectuer reste élevé.
2.3.3
Replicating Portfolio
A l’instar de la méthode de "Curve fitting", la méthode appelée "Replicating Portfolio" vise à obtenir un proxy des passifs de la compagnie. Elle
27
consiste à construire un portefeuille d’actifs financiers existants sur le marché dont la valeur fournit une estimation quasi immédiate des fonds propres
économiques à chaque instant.
En substance, on cherche à répliquer les cash-flows du passif à partir d’un
portefeuille d’actifs dont les cash-flows sont les mêmes.
On commence par construire un ensemble de scénarios primaires et secondaires et pour chaque scénario économique primaire, on calcule les cash-flows
des passifs à chaque date pour l’ensemble des scénarios construits. Le coeur de
la méthodes consiste ensuite à sélectionner et paramétrer les actifs candidats
pour constituer le portefeuille répliquant ; cette étape nécessite la résolution
d’un programme d’optimisation pour estimer le poids de chaque actif candidat dans le portefeuille.
Il suffit ensuite d’utiliser le portefeuille répliquant comme proxy des passifs pour déterminer la distribution des fonds propres économiques, étant
donné que l’on connaît les valeurs de marché de chaque actif constituant du
portefeuille.
Le Replicating Portfolio présente l’avantage d’être une idée élégante qui, si
correctement mise en œuvre, permet d’évaluer très facilement et de manière
continue le passif d’une entreprise et facilite donc grandement l’évaluation
de la PVFP utile en assurance autant pour le calcul du SCR que celui de la
MCEV.
Par contre, l’inconvénient majeur de cette méthode est qu’elle ne prend
en compte que les risques de marché et ne permet pas de capter l’impact des
aspects comptables et du comportement des assurés sur le bilan. En outre, la
sélection des actifs candidats reste complexe et peut elle-même soulever des
problèmes numériques.
2.3.4
Least-Square Monte-Carlo
La méthode Least-Square Monte-Carlo est également une méthode création d’un modèle de proxy de passifs. C’est la méthode qui a été choisie dans
ce mémoire pour faciliter la mise en place du calcul de la distribution des
fonds propres économiques dans le cadre de l’ORSA. Elle repose comme son
nom l’indique sur un principe de régression via la méthode des moindres carrés.
On choisit de développer la méthode Least-Square Monte- Carlo (LSMC)
dans ce mémoire, car c’est une technique qui a l’avantage de permettre la
prise de compte de risques autres que les risques de marché tels que le risque
28
de rachat ou de mortalité. De plus, son fondement mathématique qui sera
présenté ultérieurement assure une mise en œuvre pratique qui doit être
facilement réalisable. Enfin, cette méthode est très récente pour le monde de
l’assurance et les travaux relatifs à son utilisation sont encore en cours, elle
présente donc un intéret actuariel important.
29
Chapitre 3
La méthode Least-Square
Monte-Carlo
La méthode Least-Square Monte-Carlo a été originellement développée
par Longstaff et Schwartz pour le calcul des options américaines.
Le cadre imposé par Solvabilité II pour l’évaluation et le contrôle permanent des fonds propres économiques dans le cadre de l’ORSA posent de
nombreux problèmes d’implémentation pratique, comme vu dans la partie
précédente, notamment avec la problématique des simulations dans simulations. En raisonnant par analogie avec la finance, un contrat d’assurance vie
pouvant par exemple être assimilé à un put américain, les assureurs ont développé des techniques d’approximations du calcul de ces simulations dans simulations et la méthode Least-Square Monte-Carlo (LSMC) est l’une d’entre
elles.
3.1
Principe et cadre théorique
L’algorithme LSMC (Least Square Monte Carlo) est une méthode de
Monte Carlo visant à estimer des espérances conditionnelles via un ensemble
de fonctions de base. Dans le cadre de l’ORSA, il sert à faciliter le calcul de
la distribution des fonds propres et par conséquent des SCR pluriannuels ou
de d’autres indicateurs de solvabilité.
3.1.1
Principe de la méthode
Cet algorithme constitue une approximation numérique d’un calcul de «
Nested simulations ». Au lieu d’effectuer plusieurs simulations secondaires
30
pour chaque trajectoire primaire, on se contente de générer une seule et
unique trajectoire secondaire pour chaque simulation primaire.
Par exemple, on simule l’évolution du marché sur 2 années sous probabilité historique ce qui nous donne la valeur de marché des actifs à la date
t = 2 ans puis à partir de ce point on simule l’évolution du marché sur 30
années sous probabilité risque-neutre sur une seule trajectoire pour pouvoir
évaluer les autres postes du bilan, en particulier le Best Estimate. On en
déduit ensuite une valeur des fonds propres à la date t = 2 ans.
Cette valeur obtenue représente une réalisation approximative de la valeur
réelle des fonds propres à cette date, qui aurait été estimée plus précisément
par la moyenne empirique des nombreuses simulations secondaires des Nested Simulations. On va donc chercher à effectuer une régression par rapport
au nuage de points obtenu pour déterminer une courbe qui décrit l’espérance
des fonds propres en fonction de plusieurs paramètres.
Figure 3.1 – Méthode Least-Square Monte-Carlo (LSMC)
31
La différence d’approche par rapport aux Nested Simulations est représentée dans la figure 3.1.1 : à gauche, on voit que les Nested Simulations
permettent, pour chaque trajectoire primaire (abscisse), d’estimer avec précision la fonction espérance des fonds propres selon l’état du monde grâce
aux différentes trajectoires secondaires. A l’inverse, lorsqu’une seule trajectoire secondaire est retenue (graphique de droite), l’estimation est beaucoup
moins précise, mais peut être complétée par une régression du nuage, ici en
pointillés, qui fournit une estimation de la fonction. Les Nested Simulations
correspondent donc à une estimation point par point, tandis que le LSMC
avec sa régression adopte une approche d’estimation fonctionnelle globale.
Figure 3.2 – En bleu, les "vrais" fonds propres en fonction d’une variable explicative. A gauche, fonds propres obtenus comme moyenne d’un grand nombre de
trajectoires secondaires (Nested simulations) par trajectoire primaire (en abscisse).
A droite, les fonds propres obtenus pour une trajectoire secondaire par trajectoire
primaire, et la régression (en pointillé) du nuage de points obtenu. Les trajectoires
primaires des deux graphiques sont les mêmes.
3.1.2
Formalisation théorique
Le cadre théorique et mathématique de cet algorithme est le suivant :
On se place dans un espace complet probabilisé filtré (Ω, F, P, F = (Ft )t∈[0,T ] )
où
– Ω est l’univers des possibles
– F la tribu associée
32
– P la probabilité historique
– F la filtration naturelle qui reflète toute l’information disponible sur le
marché à la date t
On sait que dans le bilan économique, les fonds propres peuvent s’assimiler
à la différence suivante qui correspond à une Net Asset Value (NAV) :
F Pt = At − Pt
où At correspond à la valeur de marché des actifs à la date t et Pt correspond
à la valeur de marché des passifs à la date t que l’on va assimiler uniquement
au Best Estimate pour des raisons de simplification.
On introduit les processus Markoviens (Y, D) = (Yt , Dt ) qui synthétisent
respectivement les risques financiers et l’état du marché ainsi que le niveau
du passif à chaque instant.
On admet également que le théorème de Girsanov s’applique et qu’il existe
une probabilité risque neutre Q équivalente à P sous laquelle les (Yt ) actualisés au taux sans risque rt sont des martingales.
On note (Xt )t∈[0,T ] les cash flows futurs. On suppose qu’il existe un Tuplet de fonctions f1 , f2 , ..., fT telles que
∀t, Xt = ft ((Ys , Ds ), s ∈ [0, t])
Et on a évidemment l’existence d’un T-uplet de fonctions g1 , g2 , ..., gT telles
que :
∀t, At = gt (Ys , s ∈ [0, T ])
Les fonds propres à une date t, notés F Pt , s’expriment donc, pour chaque
trajectioire i et toute date t ∈ {0, . . . , T } :
!
T
X
R (i)
(i)
(i) − k ru
(i)
(i)
(i)
du
Xk e t
| (Yt , Dt )
F Pt
= EQ At −
k=t+1
= EQ
gt (Ys(i) , s ∈ [0, t]) −
T
X
f (Ys(i) , Ds(i) )s∈[0,t] e−
k=t+1
ce qui s’écrit encore sous la forme
(i)
F Pt = EQ ht (Ys(i) , Ds(i) )s∈[0,t]
33
(i)
t ru
Rk
!
du
(i)
(i)
| (Yt , Dt )
Dans l’espace L2 (Ω, σ(Y, D), P), l’espérance conditionnelle prend la forme
d’une projection orthogonale. On l’approche en dimension finie par une combinaison linéaire de la base de l’espace engendré par les variables de conditionnement. Ainsi, on peut approximer F Pt par
d
F
P t (Yt , Dt ) =
M
X
αk · ek (Yt , Dt )
k=1
où (ek (Yt , Dt ))k=1,...,M est une base de fonctions d’un sous-espace de l’espace
engendré par (Y, D) de dimension M . Il suffit donc de déterminer les coefficients (αk ) de cette combinaison linéaire pour avoir une expression de la
d
valeur de F
P t.
En calculant pour N trajectoires les fonds propres,
!
T
X
RT
^
(i)
Xk e− k ru du ∀t, ∀i = 1, . . . , N
F Pt = At −
k=t+1
On peut utiliser ces réalisations pour en déduire les coefficients (α1 , . . . , αM )
d
de l’approximation F
P t en résolvant :

"
#2 
N
M
X

X
^
(i)
d
(N
)
α
= argmin
F Pt −
αk · ek (Yt , Dt )

α∈RM 
i=1
k=1
d
On se sert ensuite de F
P t pour évaluer de manière approchée F Pt .
3.2
Processus de mise en œuvre
Dans la pratique, on applique la méthode LSMC selon les étapes représentées dans la figure 3.2
34
Figure 3.3 – Etapes de la méthode LSMC
3.2.1
Etape 1 : Identifier les facteurs de risque
Cette première étape permet de discerner les différents paramètres qui
créent de l’aléa et donc du risque au sein du portefeuille d’assurance vie
considéré.
Outre cette identification, cette étape sert aussi à faire le tri entre les
facteurs de risques auxquels les fonds propres sont très sensibles et ceux
auxquels ils le sont moins, l’objectif étant de réduire au maximum ces facteurs
pour ne pas avoir trop de paramètres dans la modélisation et ne garder que
ceux qui sont significativement impactants.
35
3.2.2
Etape 2 : Sélectionner des scénarios de trajectoires
Cette étape nécessite un Générateur de Scénarios Economiques pour définir une table de scénarios. La particularité du générateur de scénarios économiques utilisé dans cette approche est qu’il doit permettre de faire une trajectoire qui est simulée sous probabilté historique sur une première période
puis sous probabilité risque neutre pour le temps restant jusqu’à l’horizon de
projection voulu.
Par exemple, pour le calcul du SCR en assurance vie, il faut pouvoir projeter l’évolution des paramètres économiques tels que les cours des actions ou
les taux en univers réel jusqu’en t=1, puis à partir de t=1 faire des projections en univers risque neutre sur une période de 30 ou 40 ans pour évaluer
chaque poste du bilan et notamment le Best Estimate.
3.2.3
Etape 3 : Lancer les N simulations Monte-Carlo
Les simulations Monte-Carlo nécessitent dans le cas particulier de l’assurance vie d’avoir un outil de projection des flux et des états financiers
qui prenne en compte les interactions Actif/Passif. Pour chaque trajectoire
(Y (i) , D(i) )i=1,...,N une valeur de fonds propres est calculée. Le N -uplet de
valeur de fonds propres obtenues représente l’échantillon qui va permettre la
régression.
3.2.4
Etape 4 : Choisir les fonctions de base
Cette étape est déterminante dans l’utilisation de la méthode car elle va
permettre de choisir les fonctions (ek (Y, D))k=1,...,M sur lesquelles la régression
sera effectuée. L’enjeu est de choisir des fonctions suffisament complexes pour
prendre en considération les différentes sensibilités aux facteurs de risque
mais, dans le même temps, suffisamment simples pour que la mise en œuvre
opérationnelle soit faisable.
Le choix le plus commun est l’utilisation d’une base de polynômes.
3.2.5
Etape 5 : Effectuer la régression
Cette étape constitue le cœur de la méthode d’approximation. On y détermine les coefficients (b
αk )k=1,...,M avec la méthode des moindres carrés.
Cette méthode, si elle est facile à concevoir en théorie, présente néanmoins de
grands défis techniques dans la pratique notamment en termes de méthodes
numériques. Ces méthodes numériques seront d’ailleurs abordées ultérieurement.
36
3.2.6
Etape 6 : Mesurer l’erreur obtenue et valider les
fonctions de base choisies
La mesure de l’erreur commise peut se faire de deux manières différentes :
– Soit par un calcul de fonds propres réels s’il y a à disposition un modèle
ALM suffisament puissant pour effectuer un jeu de quelques simulations
dans simulations. Il suffira alors de comparer les valeurs obtenues par
la fonction estimées avec celles fournies par le modèles toutes choses
étant égales par ailleurs.
– Soit en définissant un intervalle de confiance autour de la fonction à
estimer dans lequel on considère que la marge d’erreur est suffisamment
faible pour valider les coefficients obtenus. Cet intervalle de confiance
peut être obtenu grâce à des techniques statistiques telles que le bootstrap ou dite de Jacknife. Dans ce mémoire, on utilisera des techniques
de Bootsrap pour assurer la fiabilité de la méthode.
3.2.7
Etape 7 : Utiliser les fonctions obtenues pour le
suivi de l’indicateur de besoin global de solvabilité
Les fonctions obtenues sont un moyen rapide et efficace de déterminer la
distribution des fonds propres à une date donnée t. En effet, on a obtenu
une expression relativement simple et moins onéreuse en termes de temps de
calcul et de ressources des fonds propres à une date t en fonction des facteurs
de risques principaux du portefeuille dont les valeurs sont observables sur
le marché. Elles permettent donc d’évaluer le SCR à cette même date et
par conséquent elles sont l’outil idéal pour opérer un suivi de l’indicateur de
besoin global en solvabilité qui aura été défini préalablement en fonction du
SCR.
37
Chapitre 4
Application à un produit
d’épargne multi-supports
Ce chapitre constitue la mise en œuvre pratique de la méthode, y sont
présentés les différents modèles utilisés ainsi que les hypothèses prises pour
mener à bien les démarches opérationnelles.
4.1
Description du produit
On s’intéresse à une compagnie d’assurance qui propose uniquement des
contrats d’assurance vie Multi-supports qui garantissent à l’assuré.
• en cas de vie, la constitution d’un capital libellé en euros ou en unités
de compte versé en une fois au terme du contrat ;
• en cas de décès avant la fin du contrat, le versement du capital constitué aux bénéficiaires de l’assuré ;
L’assuré peut répartir son capital entre un fonds en Euro et un fonds en
UC.
4.1.1
Caractéristiques techniques et hypothèses
L’objet du mémoire étant pas le calcul des fonds propres économiques via
la mise en place de la méthoe LSMC, on s’intéresse à un model point contitué
par un groupe d’assuré âgé en moyenne de 55 ans avec 5 ans d’ancienneté au
moment du calcul.
38
On s’intéresse directement au compte de résultat et au bilan de ce groupe
d’assurés sans avoir de données tête par tête. Ce qui nous importe étant les
flux futurs du portefeuille, on peut directement raisonner de manière générale
comme si l’on n’avait qu’un seul assuré qui synthétiserait les caractéristiques
moyennes des membres du model point.
Ces données ont été retraités de manière à conserver les ordre de grandeur
du bilan et du compte de résultat tout en le simplifiant le plus possible : par
exemple, on a incorporé aux provisions mathématiques d’origine certaines
provsions réglementaires (PPB) et/ou aux fonds propres les différentes provisions la réserve de capitalisation.
Les paramètres du contrat ont été ajustés au mieux pour correspondre
au produits existants sur le marché.
On suppose que ces contrats sont d’une durée de 20 ans prorogeable et
qu’ils proposent les garanties suivantes :
Taux Minimum garanti
0%
Taux de Participation aux bénéfices
90%
Possibilité de rachat total uniquement
Possibilité d’arbitrage entre les fonds Euro et UC
On suppose également que le taux technique est égal au TMG et fixé à 0%.
La rémunération de l’assureur se fait sur divers chargements :
Chargement sur primes
Chargement sur encours Euros
Chargement sur encours UC
Chargement de gestion des Sinistres
Pénalités d’arbitrages
Pénalités de rachat
1%
0,60%
0,50%
3%
1%
1%
Par ailleurs, l’assureur doit s’acquitter de plusieurs frais dans la gestion
de ces contrats :
Frais d’acquisition
Frais de gestion
Frais généraux
39
1,75%
0,50%
0,15%
4.1.2
Bilan en t = 0
Au 31 décembre de l’année N, qui constitue l’année de référence, les bilans
comptable et économique de l’assureur sont les suivants :
Figure 4.1 – Bilans comptable et économique en euros
4.1.3
Orientations stratégiques
L’option retenue pour la modélisation est de mettre en place un système
de gouvernance sur 3 années, qui vise à satisfaire à l’indicateur de suivi des
40
risques suivant :
P (F PN ≤ 0) < 10% pour N = 1, 2, 3
C’est à dire que l’on veut s’assurer qu’il n’y a pas de ruine économique
sur les 3 années à venir avec une probabilité 90%. Cet indicateur va être
déterminant dans la politique de gestion des risques et dans les décisions
stratégiques que le management devra prendre.
Pour des raisons de simplifications, on suppose qu’il n’y a pas de nouveaux entrants dans le portefeuille : on travaille donc sous hypothèse de
run-off. Cette hypothèse s’éloigne de l’objectif voulu par l’ORSA mais l’implémentation de l’outil de projection étant fait sous Excel et ne constituant
pas le coeur du problème, on retient cette supposition pour faciliter les calculs
et obtenir des résultats pour pouvoir faire la régression.
4.2
Identification et Modélisation des facteurs
de risques
Les différents facteurs de risques auxquels est exposée la compagnie découlent de la cartographie des risques présentée dans la figure 4.2
41
Figure 4.2 – Risques de la compagnie
Sur ce portefeuille, la compagnie est soumise principalement aux risques
de mortalité, de rachat et aux risques de taux et d’action. Ces facteurs de
risques traduisent l’aléa relatifs aux comportements de l’assuré et de l’assureur. Ils représentent donc les éléments à modéliser pour la projection.
4.2.1
Hypothèses de modélisation
Pour les besoins de la modélisation, on suppose que les différents flux
entrants et sortants du portefeuille (primes, rachats, sinistres, arbitrages,...)
surviennent en fin d’année.
Par souci de simplification, on fera abstraction des provisions réglementaires telles que la provisions pour risque d’exigibilité et la réserve de capitalisation. On suppose également que les participations aux bénéfices sont
incorporées aux provisions mathématiques en fin d’année, il n’y a donc pas
de provisions pour participation aux bénéfices.
On admettra également que :
42
– le marché est liquide : il est possible d’acheter ou de vendre des actifs
à tout instant
– le marché est complet : tous les actifs sont simulables
– Il y Absence d’Opportunité d’Arbitrage (AOA)
– les rendements des portefeuilles obligataires , actions et immobilier
suivent des processus gaussiens
– les actifs sont supposés indéfiniment divisibles
– on néglige les coûts de transaction
Dans la suite, l’étude se place sur l’intervalle de temps [0,T]
4.2.2
Le risque de Taux
Les taux sont les facteurs de risque du portefeuille obligataire qui représente un fraction importante du portefeuille d’actifs de l’assureur.
On modélise le taux court par un modèle de Vasicek à un facteur. Dans ce
modèle, on suppose que les taux sont décrits par un processus (r(t))t∈[0,T ] qui
vérifie l’équation :
dr(t) = a(b − r(t))dt + σdWt
où Wt est un mouvement brownien standard et a, b et σ sont des constantes
positives.
La solution de l’équation différentielle stochastique ci-dessus permet (r(t))t∈[0,T ]
sous la forme :
Z t
−at
−at
−at
r(t) = r(0)e + b(1 − e ) + σe
eas dWs
0
et r(t) suit une loi normale de moyenne et de variance respectivement égales
à:
E(r(t)) = r(0)e−at + b(1 − e−at )
−2at
Var(r(t)) = σ 2 ( 1−e2a
43
)
Figure 4.3 – Modélisation du taux court : Vasicek à un facteur
On peut donner une interprétation aux coefficients de l’équation différentielle stochastique :
a représente la vitesse de retour à la moyenne
b est la valeur à long terme vu que l’on a E(r(t)) −→ b
t→∞
σ est la volatilité du processus
Les taux courts permettent de déduire une modélisation de la courbe des
taux Zéro-Coupon ou taux sans risque à une date donnée.
Si on pose :
Xt = r(t) − b
alors (Xt ) est un processus d’Ornstein-Uhlenbeck qui satisfait à l’équation
différentielle stochastique :
dXt = −aXt dt + σdWt
44
Dans cette configuration, le prix des zéro-coupons de maturité T à la date
T est :
RT
P (t, T ) = E e− t r(s) ds |Ft
RT
= e−b(T −t) E e− t Xs ds |Ft
RT
Le calcul de l’espérance conditionnelle E e− t Xs ds |Ft permet d’exprimer ce prix sous la forme :
P (t, T ) = exp (−(T − t)R(T − t, r(t)))
où, R(T − t, r(t)), qui s’interprète comme le taux d’intérêt moyen sur la
période [T, t], est donné par la formule :
1
σ2
−aθ
−aθ 2
R(θ, r) = R∞ −
(R∞ − r)(1 − e ) − 2 (1 − e )
aθ
4a
Dans le cadre de la modélisation, les paramètres ont été estimés pour
s’ajuster le mieux possible à la courbe des taux actuelle.
On a ainsi :
a = 5%, b = 3, 50%, σ = 1%
avec lesquels on obtient la courbe des taux figure 4.4
Pour obtenir cette calibration, le paramètre b a d’abord été fixé à 3,50%. Il
s’agit en effet approximativement du niveau long terme observé sur la courbe
zéro-coupon donnée par l’EIOPA.
La forme de la courbe officielle ne permet pas à un modèle de Vasicek
d’ajuster toutes les maturités. Ainsi, les maturités les plus longues étant gérées par le paramètre b comme on le voit sur le graphique, le paramètre a
(force de rappel vers b) a été choisi pour minimiser les distances entre les taux
zéro-coupon des courbes réelle et modélisée pour les maturités inférieures à
30 ans. Il en ressort a ≈ 5%, et l’on voit sur le graphique que les points modélisés se répartissent au-dessus de l’objectif pour les maturités inférieures à
10 ans, et sous l’objectif entre 10 et 30 ans.
Enfin, le paramètre de volatilité a été fixé à 1%. Pour l’estimer, on a utilisé
l’historique d’une année du taux EONIA dont on a déduit les accroissements
quotidiens. L’écart-type de ces variations fournit un estimateur de la volatilité
à 1 jour du taux court (en négligeant l’impact du retour à la moyenne, donc le
45
drift), soit ici 6,21 points de base. Le paramètre σ est obtenu
en annualisant
√
cette volatilité quotidienne, donc ici en multipliant par 256 puisque la série
comporte 256 jours ouvrés. Le résultat est 0, 993%, que l’on a arrondi à 1%.
Figure 4.4 – Courbe des taux modélisée et Courbe des taux réelle
On observe sur ce graphique les limites que présente l’utilisation du modèle de Vasicek : en effet, le modèle de Vasicek ne permet pas de capter
certaines formes particulières de la courbe des taux telles que les courbes
inversées ou les courbes à creux ou à bosse telle que la courbe officielle ici.
De plus, sous ce modèle, il existe une probabilité non-nulle d’obtenir des taux
négatifs.
Néanmoins, le modèle de Vasicek est suffisant pour le niveau de sophistication des modélisations voulues dans le cadre de ce mémoire.
Une fois les taux modélisés, on peut déterminer le prix de l’obligation,
supposée unique et à maturité glissante, quitte à prendre l’hypothèse que
l’actif obligataire est systématiquement renouvelé grâce à des obligations qui
ont les mêmes caractéristiques. Le prix d’une obligation est obtenu en actualisant les coupons futurs de l’obligation avec les déflateurs calculés avec le
46
mdoèle de Vasicek.
Ces déflateurs se calculent de la manière suivante :
Def lateur = Aert B
avec
A = exp
σ2
b− 2
2a
B 2σ2
(B − τ ) −
4a2
B = 1 − eaτ
où a, b et σ sont les paramètres du modèles de Vasicek et τ = (T2 − T1 )
est la durée entre la date de calcul et la maturité.
Par exemple, pour un zéro-coupon, P (T1 , T2 ) représente le prix à mettre
en T1 pour toucher 1euro en T2
4.2.3
Le risque Action et Immobilier
Par souci de simplification, on suppose que le portefeuille d’actifs de l’assureur peut être représenté par une seule action et d’un seul titre immobilier
qui synthétisent les différentes caractéristiques des actifs actions et immobiliers présents.
Les cours des actions et de l’immobilier sont modélisés par le modèle
de Black & Scholes, i.e la dynamique de leur processus vérifie l’équation
différentielle stochastique :
dSt = St (µt dt + σ dWt )
avec µt , σ ∈ R et l’hypothèse : σ > 0.
La solution de cette équation peut être obtenue sous forme explicite :
Z t
σ2
St = S0 exp
µs ds − t + σWt , ∀t ∈ [0, T ]
2
0
On peut donc représenter le cours de l’action et de l’immobilier à chaque
instant. Pour ce faire, on choisit de modéliser ces processus à partir de deux
mouvements browniens (Wt1 , Wt2 ) différents mais corrélés :
dStaction = Staction µ1,t dt + σ1 dWt1
dStimmo = Stimmo µ2,t dt + σ2 dWt2
47
avec
σ1 = 20% et σ2 = 10%
et
Corr(Wt1 , Wt2 ) = 80%
Le taux de rendement espéré µ1 , µ2 est lié au taux sans risque :
µt = rt sous probabilité risque-neutre
µt = rt + σ λ sous probabilité historique
en choissant pour chaque probabilité le mouvement brownien W ou W̃ adapté.
Le paramètre de prime de risque λ est constant, commun aux deux processus, de sorte que le surplus de rendement est proportionnel au risque
représenté par la volatilité.
Figure 4.5 – Modélisation du cours de l’action et de l’immobilier
48
On suppose que les valeurs initiales de l’action et de l’immobilier sont à
100.
Les taux et le cours des actions et des valeurs immobilières sont les facteurs principaux modélisés par le générateur de scénarios économiques (ESG).
En tout, quatre mouvements browniens ont été simulés pour concevoir l’ESG :
un mouvement brownien pour modéliser les taux et donc la valeur des obligations et du monétaire.
La calibration de l’action est beaucoup plus facile que celle des taux puisqu’il suffit de calibrer le paramètre de volatilité. Pour cela, on a utilisé la
volatilité historique à un an de l’indice CAC 40 calculée en octobre 2012, soit
environ 23%. On se contente d’un arrondi à 20%, car en pratique cette valeur
n’est pas stable dans le temps 1
Enfin, la dernière classe d’actif est l’immobilier, avec ici encore un seul
paramètre à calibrer, la volatilité. Pour cela on se réfère aux SCPI ou sociétés
civiles de placement immobilier. De 1990 à 2010, ces sociétés ont connu une
volatilité moyenne d’environ 10% 2 .
4.2.4
Les rachats
Les rachats observés sur le portefeuille sont la somme de deux types de
rachats :
– les rachats structurels
– les rachats conjoncturels
4.2.4.1
Les rachats structurels
Les rachats structurels sont les rachats qui surviennent indépendamment
du contexte économique et sur lesquels l’assureur n’a aucun moyen d’action.
Ils sont dits incompressibles.
Ces rachats dépendent principalement de la fiscalité en vigueur et de
l’ancienneté. Il est donc plausible d’exprimer le taux de rachat structurel
comme une fonction de l’ancienneté du contrat.
1. en finance, les analystes quantitatifs utilisent souvent des modèles à volatilité stochastique pour modéliser les actions et capter le phénomène de "smile"
2. source : http ://droit-finances.commentcamarche.net/faq/15163-scpi-les-avantagesde-la-pierre-papier
49
Dans le cas de l’étude, la fonction des taux de rachat structurel a l’allure
suivante :
Figure 4.6 – Taux de Rachat structurel
A l’heure actuelle, les contrats d’assurance vie bénéficient d’une fiscalité
privilégiée après 8 ans d’existence, d’où le pic de rachats observés à 8 années
d’ancienneté.
En effet, la fiscalité actuelle exonère d’imposition les plus-values effectuées
sur un contrat d’assurance vie lorsque celui-ci a plus de 8 années d’existence.
Dans le cas contraire, ces plus-values sont imposées par un prélèvement forfaitaire libératoire allant de 15% à 35 % selon que le contrat plus ou moins de 4
années d’ancienneté ou par intégration des sommes dans le revenu imposable.
50
4.2.4.2
Les rachats conjoncturels
Les rachats conjoncturels sont ceux qui découlent de l’environnement économique et de la politique de revalorisation de l’assureur. La modélisation des
taux de rachats conjoncturels est celle préconisée par l’Autorité de Contrôle
Prudentiel dans les Orientations Nationales Complémentaires aux Spécifications Techniques (ONCST) pour le QIS 5.
Dans ce modèle, les rachats dépendent d’un taux de référence qui représente le taux de revalorisation observé sur le marché et le taux de revalorisation servi par l’assureur. Si le taux servi par l’assureur est inférieur au taux
du marché, le taux de rachat sera supérieur au taux de rachat structurel car
les assurés ont intérêt à racheter leur contrat pour aller vers la concurrence.
Si, a contrario, le taux servi par l’assureur est beaucoup plus important que
celui attendu, les assurés seront moins enclins à racheter leurs contrats et on
observera alors une baisse du taux de rachat par rapport aux rachats structurels.
On suppose que le taux attendu est équivalent au Taux Moyen d’Emprunt
d’Etat (TME) :

RCmax



R−T M E−β


 RCmax α−β
RachatConjoncturel(R, T M E) =
0

M E−γ


RCmin R−Tδ−γ



RCmin
si
si
si
si
si
R − TME < α
α < R − TME < β
β < R − TME < γ
γ < R − TME < δ
R − TME > δ
• α est le seuil en-deçà duquel les rachats conjoncturels sont constants et
fixés à RCmax
• β et γ sont les seuils d’indifférence respectifs à la baisse et à la hausse
du taux servi. Entre ces deux seuils, le comportement de l’assuré n’est
pas modifié.
• δ est le seuil au-delà duquel les rachats conjoncturels sont constants et
fixés à RCmin
Les préconisations des ONCST donnent des paramètres limites pour cette
fonction. Dans le cadre de la modélisation, on considérera la moyenne de ces
paramètres :
51
Maximum
Minimum
Moyenne
α
- 4%
-6%
-5%
β
0%
-2%
-1%
γ
1%
1%
1%
δ
4%
2%
3%
RCmin
-4%
-6%
-5%
RCmax
40%
20%
30%
On peut donc tracer les courbes des taux de rachat en fonction de la différence entre le taux servi R et le TME pour différentes valeurs des paramètres.
On choisit de tracer la courbe pour les valeurs extrêmes des paramètres et
pour la valeur moyenne.
Figure 4.7 – Taux de Rachat conjoncturel
4.2.4.3
Rachats Totaux
Le taux de rachat total est exprimé comme étant la somme des taux de
rachats conjoncturels et des taux de rachats structurels, le taux de rachat
total doit toujours être positif.
52
RachatT otal(R, T M E, Anciennete) = min(1, max(0, RS(Anciennete)+RC(R, T M E)))
Dans notre modèle, les rachats sont calculés proportionnellement à la
Provision d’ouverture de l’exercice en cours.
4.2.5
Revalorisation cible
La revalorisation cible est déterminée par deux paramètres : le taux cible
et la politique de participation aux bénéfices.
4.2.5.1
Taux Cible
Dans la réalité, même si le taux minimum garanti est nul, l’assureur essaie
de revaloriser les contrats à hauteur de ce qui est proposé par ses concurrents
pour éviter un rachat massif de la part des assurés. Le taux de revalorisation
cible est déterminé en fonction des taux du marché, des taux techniques et
du taux servi par la concurrence.
Dans le cadre de l’étude, on choisit de modéliser le taux cible par la
formule suivante :
T auxCible(N ) = max (T auxCourt; T M E(N ) − 1%)
où T M E(N ) reprséente le Taux Moyen d’Emprunt d’Etat.
La revalorisation cible est déterminée de la façon suivante :
RevalorisationCible(N ) = T auxCible × P M ouverture(N )
4.2.5.2
La politique de Participation aux Bénéfices
La participation aux bénéfices fait partie de la politique de revalorisation
de l’assureur. Conformément à l’article L.331-3 du Code des Assurances :
" les entreprises d’assurance sur la vie ou de capitalisation doivent faire participer les assurés aux bénéfices techniques et financiers qu’elles réalisent dans
les conditions fixées par arrêté du ministre de l’économie et des finances".
Cette participation est définie comme étant égale au maximum entre 0 et
la somme de :
53
• 85% du résultat financier et ;
• 90% du résultat technique si celui-ci est positif ou 100% si le résultat
technique est négatif
La participation aux bénéfices peut être attribuée directement en augmentant les prestations échues ou en l’incorporant aux provisions mathématiques
de l’assurée, ou de manière différée en mettant les montants de participation
aux bénéfices en réserve au sein d’une provision pour participation aux bénéfices (PPB) qui est soumise à une obligation de redistribution au bout de
8 ans avec la règle FIFO (First In First Out).
Dans le cadre de ce mémoire, par souci de simplification, on choisit d’incorporer la PB directement aux PM même si cette approche ne reflète pas
exactement la pratique du marché.
La PB réellement distribuée aux assurés est modélisée de la façon suivante :
4.2.6
La stratégie d’allocation d’actifs
En t = 0, la composition du portefeuille d’actifs de la compagnie est la
suivante :
Obligations
87%
Actions
8%
Immobilier
2%
Monétaire
3%
La stratégie choisie pour la gestion des actifs du fonds en euros est une
stratégie qui vise à maintenir une composition stable du portefeuille, elle est
dite à proportion constante.
On calcule la valeur du portefeuille et sa composition en fin de période,
avant le versement des diverses prestations (décès, rachats, PB, arbitrages,...).
On évalue également les plus ou moins values du portfeuille, toujours en fin
de période et avant le versement des prestations : on externalise ces plus ou
moins-values. Le montant correspondant à la somme des prestations à verser
et des plus ou moins values du portefeuille va être investie ou désinvestie de
manière à respecter la composition des actifs du portefeuille i.e à :
–
–
–
–
87% en obligations
8% en actions
2% en immobilier
3% en monétaire ou cash
54
De cette manière, on s’assure que le portefeuille d’actifs de la compagnie
garde la même composition au fil du temps.
4.3
Implémentation pratique
L’implémentation pratique de la méthode se fait en trois temps, d’abord
on génère les différents scénarios économiques à l’aide d’un générateur de
scénario économique ensuite les flux futurs sont projetés le long des trajectoirs
de scénarios simulées pour calculer les bilans économiques, puis la régression
est effectuée à partir de ces résultats.
4.3.1
Génération des trajectoires
Le générateur de scénarios économiques utilisé dans ce modèle a été conçu
sous Excel : il est constitué de quatre mouvements browniens qui génèrent
respectivement l’aléa dans la modélisation des taux et subséquemment du
prix des obligations et de la valeur du monétaire ; dans la modélisation du
cours des actions ; dans la modélisation du cours des valeurs immobilières et
enfin dans la modélisation de la valeur des unités de compte (UC).
Les mouvements browniens sous-jacents à la modélisation des taux, du
cours des actions et du cours des valeurs immobilières sont corrlés selon la
matrice de corrélation suivante :
Taux
Action
Immobilier
Taux Action
100%
0%
0%
100%
0%
80%
Immobilier
0%
80%
100%
En pratique, il existe une corrélation entre les taux et le cours des actions
mais pour pour les besoins de la modélisation, on s’est affranchi de cette corrélation de manière à travailler avec des facteurs de risques "orthogonaux"
et ainsi d’avoir une meilleure perception de leur impact sur le résultat.
Les modèles présentés dans la partie 5.2.1 sont ceux utilisés dans le générateur de scénarios.
On rappelle que la modélisation des facteurs économiques (actions, taux,...)
se fait sur la base de l’hypothèse selon laquelle on a un seul et unique titre
moyen pour chaque catégorie d’actif.
55
Comme l’exige la théorie de la méthode de Monte-Carlo, basée sur la
loi des grands nombres, tous les scénarios sont affectés de la même probabilité d’occurence. Il n’y a pas de sélection de trajectoire préalable, car les
trajectoires ont été calibrées de manière à couvrir un spectre suffisamment
représentatif des situations susceptibles de se produire dans la réalité. De ce
fait, il n’y a pas non plus de chocs particuliers à appliquer aux trajectoires
car elles les prennent déjà en compte de manière implicite.
La calibration du générateur de scénarios économiques s’est faite de la
façon suivante pour chacun des facteur de risques :
– Le modèle de taux a été calibré de manière à s’ajuster le plus possible
à la courbe des taux court fournie par l’EIOPA
– Les modèles actions, immobiliers et UC ont été calibrés grâce à des
données de marché obtenues via Bloomberg
Le fonctionnement du Générateur de Scénarios économiques est illustré
dans la figure 4.8
Figure 4.8 – Fonctionnement du Générateur de scénarios économiques
4.3.2
Projections futures
Pour projeter les différents flux et calculer le bilan économique, on suit le
processus suivant, illustré par la figure 4.9
1. On commence par simuler une trajectoire pour les actifs : cette trajec56
toire est évaluée sous probabilité historique pour les premières années
correspondant à l’horizon de temps choisi (1 ou 2 ou 3 dans ce cas)
donc comporte une prime de risque, puis sous probabilité risque-neutre
pour les N années suivantes (N = 40 ici).
2. Pour chaque année i donnée ; étant donnée la valeur des actifs à la fin de
l’année i − 1, on calcule leur évolution le long de la trajectoire simulée
jusqu’en fin d’année i avant le versement des différentes prestations qui
tombent également en fin d’année ;
3. On évalue les différents flux du fonds et principalement les flux de
prestations ;
4. On calcule la valeur du portefeuille d’actifs de la compagnie après le
versement des prestations en faisant attention à respecter l’allocation
du portefeuille comme présenté précédemment ;
5. Cette valeur de portefeuille permet d’évaluer les taux de rendements
financiers et les taux cibles qui servent ensuite à évaluer le montant de
la Participation aux bénéfices à verser aux assurés ;
6. Une fois la PB calculée, on a alors tous les flux du portefeuille l’année
i et on réitère cette démarche jusqu’à la fin des N années de projection
7. Au terme des N années de projection, on peut calculer le Best Estimate
des passifs de l’année i en faisant la somme des flux futurs actualisés
au taux sans risque.
8. Comme on a la valeur de marché des actifs en année i, on peut aisément
déterminer le bilan économique et donc la valeur des Fonds Propres
économiques pour cette même année i
57
58
Figure 4.9 – Mécanisme de projection des flux
Les projections ont été implementées sous Excel avec une partie en VBA,
de ce fait, le modèle de projection n’est pas aussi performant qu’un modèle
qui aurait été développé sous des logiciels spécifiques à la projection de flux
futurs tels que Prophet ou MoSes. Néanmoins, la projection des flux futurs
n’est pas le coeur de cette études, la version simplificatrice du modèle peut
donc être utilisée pour obtenir des résultats exploitables tant que ses faiblesses
sont gardées en mémoire.
4.3.3
Mise en œuvre de la régression
Le but de cette section est d’établir une méthode numérique pour estimer
un modèle linéaire généralisé. Ce problème va être traité dans un cadre général, ce qui pourrait permettre des extensions de la méthode présentée dans
ce mémoire.
4.3.3.1
Modèle et notations
On suppose que l’on dispose d’un échantillon (yi , xi )0≤i≤N −1 de N observations i.i.d. avec yi ∈ R et xi ∈ Rd . Dans la partie appliquée de ce document,
on utilisera par exemple N = 5000 et d = 3, les y correspondent aux fonds
propres simulés et les x à l’état du monde (taux, actions, rachats).
Le modèle linéaire classique prend la forme :
y = α0 +
d
X
αk x(k)
k=1
où on a noté x(k) la k ème composante de x ∈ Rd pour 1 ≤ k ≤ d. Ce modèle
est trop restrictif pour nous : d’une part il suppose que chaque composante
a un impact linéaire sur le résultat, et d’autre part il ne permet pas de
rendre de compte d’effets croisés entre les variables explicatives, ce qui est
important dans le cas où les composantes de x sont des variables économiques
qui peuvent présenter des corrélations.
On part donc d’un modèle linéaire généralisé :
y=
M
−1
X
αi Xi (x)
i=0
les Xi sont des fonctions de Rd dans R, et ce modèle se ramène au cas précédent si M = d + 1, X0 ≡ 1 et Xi (x) = x(i) pour i > 0.
59
L’objectif est d’estimer les coefficients αi . De manière classique, on applique une méthode des moindres carrés, c’est-à-dire que l’on définit :
!2
N
−1
M
−1
X
X
χ2 =
yi −
αi Xi (xn )
n=0
i=0
et on cherche à déterminer
2
α
b= α
c0 , · · · , α[
M −1 = argmin χ
α0 ,··· ,αM −1
Ce problème peut être réécit matriciellement. On note :

X0 (x0 )
X1 (x0 )
···
XM −1 (x0 )
 X0 (x1 )
X
(x
)
·
·
·
XM −1 (x1 )
1 1

A=
..
..
..
.
..

.
.
.
X0 (xN −1 ) X1 (xN −1 ) · · · XM −1 (xN −1 )





qui est de taille N × M , et
y = y0 , · · · , yN −1
0
alors
χ2 = |A · α − y|2
et l’on cherche à minimiser cette quantité en α. Dans le cas simplifié où M =
N et où la matrice A serait inversible, on sait que l’on pourrait minimiser χ2
en l’annulant :
A·α
b−y =0⇔α
b = A−1 y
Dans le cas général, on a recours à la notion de pseudo-inverse, calculé en
pratique par décomposition en valeurs singulières.
4.3.3.2
Décomposition en valeurs singulières SVD
La décomposition en valeurs singulières, ou SVD (Singular Values Decomposition) est un outil d’algèbre linéaire qui ressemble, pour les matrices
rectangulaires M × N , à la diagonalisation des matrices carrées.
Théorème 4.1. Soit A une matrice réelle de dimensions N × M . Alors il
existe une factorisation de la forme :
A = Ũ ΣṼ 0
dans laquelle Ũ est une matrice unitaire de taille N , Σ est une matrice N ×M
dont les coefficients diagonaux sont positifs et les autres éléments sont nuls,
et Ṽ 0 est la matrice transposée d’une matrice unitaire Ṽ de taille M . De
plus :
60
• Ṽ contient un ensemble de vecteurs de base orthonormés de RM
• Ũ contient un ensemble de vecteurs de base orthonormés de RN
• Σ contient les valeurs singulières de A
Une forme alternative du théorème, déduite du précédent, sera plus utile
pour nous : il existe des matrices unitaires U et V , respectivement de tailles
N × M et M × M , et une matrice diagonale W de taille M × M à coefficients
positifs telles que
A = UW V 0
Cette écriture a pour conséquence directe de donner l’expression du pseudoinverse de A :
A† = V diag(1/wi ) U 0
On rappelle les propriétés caractérisant le pseudo-inverse :
•
•
•
•
AA† A = A
A† AA† = A†
(AA† )0 = AA†
(A† A)0 = A† A
Et l’on rappelle que dans le cas d’une matrice inversible, le pseudo-inverse
coïncide avec l’inverse, et les propriétés précédentes sont bien vérifiées.
Dans l’expression de A† , si un coefficient wi est nul, on obtient le bon
résultat en remplaçant 1/wi par 0. Cette matrice diagonale sera notée W † et
non W −1 car elle n’est réellement l’inverse de W que si les wi sont tous non
nuls : il s’agit là encore du pseudo-inverse de Moore-Penrose de la matrice W .
Voici à présent comment utiliser la SVD pour minimiser χ2 : si l’on cherche
A·α=y
en multipliant par le pseudo-inverse à gauche on obtient
α
b = A† y = V diag(1/wi ) U 0 y
Dans le cas particulier où une solution exacte existe, on a A · α = y, et le χ2
est clairement minimisé. Dans le cas où il n’existe pas de solution, on montre
que le α
b ainsi défini est bien celui qui minimise χ2 :
Proposition 4.1.1. La solution du problème de minimisation de
χ2 = |A · α − y|2
par rapport à α est donnée par
α
b = A† y = V diag(1/wi ) U 0 y
61
La démonstration de ce résultat est fournie en annexe ; il permet donc
d’obtenir le vecteur α
b et la régression des fonds propres obtenus avec une
trajectoire secondaire par trajectoire primaire.
4.3.4
En pratique
Chaque trajectoire du mécanisme de projections permet d’obtenir une
valeur des fonds propres pour un horizon donné, on génère alors plusieurs
trajectoires - 5000 dans le cas de ce mémoire - pour obtenir plusieurs réalisations des fonds propres.
On rappelle que le cadre d’application de la méthode LSMC ne requiert
qu’une seule trajectoire sous probabilité risque-neutre pour chaque trajectoire
sous probabilité historique. Chaque trajectoire comprend donc une partie
sous univers réel et une autre sous unviers Market Consistent.
A partir de ces 5000 réalisations des Fonds Propres, on veut estimer une
fonction qui exprime l’espérance des fonds propres en fonctions de certains
paramètres.
Ici, les paramètres retenus sont les facteurs de risque principaux du portefeuille, à savoir :
– les taux : on sait que les contrat d’assurance vie sont très sensibles à
la fois, à la baisse et à la hausse des taux ;
– le cours des actions : les interactions actif/passif qui existent en
assurance vie impliquent une forte sensibilité des fonds propres aux
évolutions du marché
– les rachats : la littérature sur le calcul du Best Estimate démontrant
que ce dernier est hautement sensible aux rachats, considérer ce facteur de risque comme explicatif de la fonction de l’espérance des fonds
propres est un choix cohérent.
On cherche alors une fonction ft telle que :
E(F Pt ) = ft (taux, actions, rachats)
Comme mentionné précédemment, il est important que la fonction ft en
question soit suffisamment simple pour que la mise en œuvre soit réalisable et
que l’implémentation de cette fonction ne génère pas de problème de temps
de calcul.
62
Plusieurs choix de fonctions sont possibles et opter pour une fonction ou
une autre reste relativement arbitraire, néanmoins, il est de pratique courante
d’utiliser des fonctions polynomiales car elles ont l’avantages de présenter des
propriétés intéressantes (continuité, dérivabilité,...) tout en étant simples à
implémenter informatiquement.
Pour les applications numériques, on a opté pour une polynôme de degré
2 à 3 variables qui s’exprime de la forme suivante :
f:
R3
(x1 , x2 , x3 )
−→
7−→
R
f (x1 , x2 , x3 )
avec
f (x1 , x2 , x3 ) = α0 + α1 x1 + α2 x2 + α3 x3
+ α4 x21 + α5 x22 + α6 x23
+ α7 x1 x2 + α8 x1 x3 + α9 x2 x3
On applique aux valeurs simulées les techniques de calculs présentées dans
la partie précédente pour obtenir les coefficients des polynômes.
Le choix d’un polynôme de degré 2 à 3 variables est une décision de modélisation arbitraire, en effet on aurait pu choisir de considérer un polynôme
à un degré différent (supérieur ou inférieur) et avec plus ou moins de variables.
Le choix du nombre de variables utilisé par la suite est motivé par le fait
que les facteurs de risques les plus impactants pour le produit choisi sont :
les taux, les actions et les rachats. Le choix du degré 2 est justifié par le
fait qu’on ne considère que les corrélations 2 à 2 entre ces différents facteurs
de risque, de ce fait le degré 2 est suffisant pour exprimer les effets de ces
corrélations.
De plus, des contraintes de modélisation et de capacité informatique spécifiques à la mise en place de cet exemple incitent à opter pour cette fonction.
63
Chapitre 5
Analyse critique de la méthode et
des résultats
Cette partie présente les résultats obtenus après la régressions et les commentaires associés.
5.1
Résultats obtenus
Sur les 3 années de projection les distributions de fonds propres obtenues
grâce aux 5000 simulations ont les allures suivantes :
64
Figure 5.1 – Histogramme des fréquences des valeurs des fonds propres sur
3 ans obtenu avec les simulations
On constate sur le graphique 5.1 que les distributions de fonds propres
obtenues sur 3 ans via les simulations Monte-Carlo ont l’allure de gaussiennes
de moyenne comprise entre un et 3 millions d’euros et avec un écart-type autour de 35.000 euros mais avec une queue de distribution épaisse à gauche.
Il est important de noter que ces réalisations sont des valeurs très imprécises
des fonds propres, néanmoins ce graphique permet de s’assurer que les jeux
de simulations lancés couvrent un spectre de cas assez large tout en restant
en cohérence avec la potentielle évolution des fonds propres dans la réalité.
Pour chaque année de projection on calcule une fonction de régression
différente :
65
Coefficients
α0
α1
α2
α3
α4
α5
α6
α7
α8
α9
-15
-360
33
109
87
-10
66
163
1 789
-158
F P1
723 185
402 588
008 096
254 769
454 505
815 822
572 749
322 183
791 889
992 372
-1
-289
13
-26
2 079
-4
-704
-6
4 916
-7
F P2
691 296
509 002
001 840
193 803
411 454
487 305
357 556
725 388
091 052
226 777
4
474
-4
-249
-7 164
-239
-185
2 088
214
F P3
040 063
972 669
360 669
032 442
323 722
119 302
642 785
145 017
002 113
754 802
Ce qui nous donne trois polynomes de degré 2 à 3 variables différents.
Pour l’année 1, les graphiques suivants représentent les valeurs des fonds
propres obtenues grâce aux simulations et le polynome qui représente leur
évolution réelle. Pour des raisons de lisibilité, on a représenté les fonctions
partielles.
f1 : x1 7−→ f (x1 , x¯2 , x¯3 )
f2 : x2 7−→ f (x¯1 , x2 , x¯3 )
f 3 : x3 −
7 → f (x¯1 , x¯2 , x3 )
Comme indiqué plus haut, les 2 autres variables non prises en compte sont
fixées à leur moyenne.
Moyennes
Taux
Cours Action
Rachats
Année 1
2,70%
1,019
4,42%
Année 2
3,01%
1,047
2,73%
Année 3
3,21%
1,076
4,51%
On rappelle que la méthode de Monte Carlo appliquée au cas de l’étude
vise à estimer l’espérance des fonds propres qui sont une variable aléatoire,
de ce fait chaque point de la courbe polynomiale représente l’espérance des
simulations correspondant à chaque abscisse.
5.1.1
Analyse des régressions par rapport aux données
Ces graphiques représentent le comportement des fonds propres selon
chaque variable explicative pour la deuxième année de projection.
66
5.1.1.1
Par rapport aux taux d’intéret
Figure 5.2 – Valeurs des fonds propres simulée et Régression en fonction
des taux
Le graphique 5.2 représente le comportement de l’espérance des fonds
propres en fonction des taux.
Sur cette figure, on constate une bonne adéquation entre le nuage de
points et le polynome de régression : pour une abcisse donnée, la valeur prise
par le polynome approxime la moyenne des points présentant une abcisse
voisine ( tous les points présentant des abcisses distantes presque-surement).
Lorsque les taux augmentent, la valeur de marché de l’actif obligataire
qui constitue majoritairement le portefeuille de l’assureur diminue et donc
on s’attend à ce que les FP varient à la baisse. Ainsi, l’espérance des fonds
propres devrait être une fonction décroissante du taux court.
En pratique, on observe une décroissance jusqu’à r ≈ 4% puis une croissance de la parabole pour r > 4%. Cette divergence par rapport à ce qui
est attendu s’explique par le faible nombre d’observations à valeurs élevées.
Donc le polynome est calibré au mieux là où le nuage est le plus dense et
67
subit sur les marges la contrainte du degré 2 qui ne peut pas être une fonction
monotone décroissante.
5.1.1.2
Par rapport au cours des actions
Figure 5.3 – Valeurs des fonds propres simulée et Régression en fonction du
rendement des actions
Le graphique 5.3 représente le comportement de l’espérance des fonds
propres en fonction du cours de l’action, le cours à la date initiale étant fixé
à 1.
Le polynome de régression présente une bonne adéquation au nuage de
points pour les valeurs du cours de l’action inférieures à 1,70. Au-delà, la fonction de régression s’ajuste beaucoup moins au nuage de points : on constate
en particulier que les points les plus extrêmes sont tous situés au-dessus
du polynome qui ne peut donc représenter leur espérance. Toutefois peu
de trajectoires sont concernées par ces points extrêmes qui présentent un
reendement supérieur à 100% sur 2 ans. Plus précisément, on remarque, en
négligeant les taux et la prime de risque, que :
68
√
√ P −1, 96 T < WT < 1, 96 T
= 95%
−σ2 T
√
√ −σ 2 T
⇒ P e 2 −1,96σ T < ST < e 2 +1,96σ T
= 95%
La figure 5.4 montre les intervalles de prévision à 95% du cours des actions en fonction du temps.
Figure 5.4 – Intervalle de prévision à 95% du cours des actions
Pour T = 2 ans et σ = 20%, le cours de l’action est compris avec probabilité environ 95% entre [0, 55; 1, 67]. Ainsi, la régression aura tendance à être
bien ajustée pour les valeurs dans cet intervalle, qui présente sur la figure
une forte densité de points. Les valeurs extrêmes sont trop peu nombreuses
pour affecter sigificativement les coefficients et donc la forme de la parabole,
ce qui justifie un ajustement approximatif voire incorrect dans cette zone à
faible pondération.
69
Lorsque les actions ont une bonne performance, les fonds propres devraient varier en augmentant. A l’inverse, une chute des cours risque de diminuer les fonds propres de l’assureur. L’espérance devrait donc être une
fonction croissante du cours des actions.
On constate que dans l’intervalle [0,55 ;1,67], le polynome qui représente
les fonds propres est croissant. Ce qui correspond à l’évolution attendue des
fonds propres en fonction du cours des actions. En revanche, pour les valeurs
au-delà de 1,70, le polynome décroit. Comme pour les taux, ce comportement
contre-intuitif est en partie expliqué par le fait qu’une parabole n’est jamais
monotone. En effet, les points du graphique laissent supposer que l’espérance
des fonds propres pour les abscisses extremes est plus élevée que les valeurs
de la courbe.
5.1.1.3
Par rapport aux taux de rachat
Figure 5.5 – Valeurs des fonds propres simulée et Régression en fonction
des rachats
Le graphique 5.5 représente le comportement de l’espérance des fonds
propres en fonction des taux de rachats. On observe qu’il y a beaucoup
de valeurs de fonds propres simulées aux abscisses égales à 0% et 3%, ces
70
abscisses correspondent d’une part aux points où les rachats conjoncturels
atteignent RCmin et donc le taux de rachat est ramené à 0% car les rachats
ne peuvent être négatifs, et d’autre part au taux de rachats structurels. Ici
encore, il y a une bonne adéquation de la parabole au nuage de points pour
les abscisses les plus probables.
En théorie, les fonds propres sont fortement sensibles aux taux de rachats
et évoluent en sens inverse de ces derniers : plus les assurés rachètent leurs
contrats, plus l’assureur va devoir décaisser de l’argent.
On observe ici que les fonds propres croissent avec le taux de rachat jusqu’à un certain niveau (autour de 10%) et décroissent ensuite. Cette tendance
contre-intuitive est due au nombre importants de points situés aux abscisses
0% et 3% qui vont avoir un poids très important dans la régression. De ce
fait, ces deux valeurs sont "imposées" pour la parabole qui ne peut ajuster
son allure que lorsqu’elle s’écarte du voisinnage de ces points. D’où la décroissance de la fonction polynomiale à partir d’un taux de rachats de 8%
qui correspond plus au comportement attendu des fonds propres vis à vis des
rachats.
De manière générale, les graphiques ci-dessus nous permettent d’établir
les déductions suivantes :
En premier lieu, on observe que le choix d’un polynome de degré 2 est
suffisant pour la modélisation de l’espérance des fonds propres.
Pour la deuxième année de projection, les fonctions de régression sont
représentatives des comportements des FP attendus vis à vis des taux et du
rendement des actions. Par contre, le comportement des fonds propres vis à
vis des taux de rachats présente une distorsion par rapport à l’intuition des
résultats.
5.1.1.4
Interraction entre les taux d’intérêt et de rachat
On sait que les taux de rachats dépendent fortement des taux du marché,
il est donc intéressant d’étudier cette interraction entre Taux et Rachat. La
figure suivante illustre le comportement des fonds propres en fonction de
l’évolution des taux du marché et des taux de rachats :
71
Figure 5.6 – Polynome Espérance des Fonds Propres en fonction des taux
et des rachats
Sur le graphique 5.6 on s’intéresse aux quatre sommets de la surface : Ces
sommets représentent les situations extrêmes intéressantes :
– Lorsque les taux sont faibles et que les rachats sont élevés :
l’assureur doit vendre plusieurs de ces actifs à un taux désavantgeux
pour régler les rachats donc les fonds propres vont varier fortement à
la baisse. Cette tendance est traduite par le polynome de régression,
on constate que dans la configuration taux faibles, rachats élevés, les
fonds propres sont négatifs.
– Lorsque les taux et les rachats sont faibles en même temps :
la valeur de marché de l’actif obligataire est élevée car les taux sont
faibles et comme les rachats sont peu importants, les fonds propres
augmentent considérablement, ce que l’on retrouver sur le graphique.
– Lorsque les taux sont élevés et les rachats sont faibles : seuls
les taux influent sur la variation des fonds propres, or lorsque les taux
72
montent, le prix des obligations baisse donc la valeur de marché de l’actif obligataire baisse et toute chose étant égales par ailleurs, les fonds
propres vont varier à la baisse ce que l’on constate sur le graphique :
les fonds propres sont légèrement négatifs.
– Le dernier sommet est le plus complexe : dans ce cas-ci les taux sont
élevés et les rachats sont très élevés, ce qui représente pour l’assureur à la fois une importante sortie d’argent et une baisse de la valeur
de marché de l’actif obligataire qui compose à 80% le portefeuille de
l’assureur, de ce fait on devrait observer une variation à la baisse importante des fonds propres. Or dans le cas de l’étude, on constate que
les fonds propres sont à la fois fortement positifs et varient en croissant.
Cette différence de comportement par rapport à ce qui est attendu est
dû au fait qu’il y a très peu de points obtenus via les simulations dans
cette zone (Taux fort, Rachats fort) en effet si on suppose que les rachats sont majoritairement influencés par les rachats conjoncturels, la
courbe des taux de rachats conjoncturel fournie par les ONCST indique
qu’il n’existe pas de situation où les taux sont très élevés, donc l’écart
(R-TME) positivement très fort, et où les rachats sont très importants
de ce la régression ne peut pas être significative dans ce périmètre.
Lorsque l’on compare la surface dans le figure 5.6 et le polynome de la
figure 5.5 calculé en fixant à leur moyenne les taux et le cours des actions
on observe que l’évolution des rachats n’est pas la même. Cela permet de
déduire une forte interractivité entre les taux et les rachats : quand les taux
augmentent, d’une par la valeur de marché de l’actif obligataire baisse ce
qui devrait diminuer les fonds propres mais d’autre part les rachats sont très
faibles ce qui diminue les sorties de fonds et diminue donc les fonds propres.
Dans cet effet de balancier, il n’est pas évident de déterminer dans quel mesure un facteur a plus de poids que l’autre.
Jusqu’ici l’analyse a porté sur le comportement des fonds propres pour une
date donnée, 2ans dans notre cas, en comparaison avec les valeurs obtenues
par simulation. On s’intéresse maintenant à la dynamique de ces fonctions
polynomiales sur les 3 années de projection et à leur évolution au cours du
temps.
73
5.1.2
Analyse des régressions en fonction de l’horizon
de projection
On étudie à présent l’évolution des régressions, paramètre par paramètre,
en fonction de l’horizon de projection.
5.1.2.1
Par rapport aux taux d’intérêt
Le graphique 5.7 compare les 3 polynomes représentant le comportement
des fonds propres sur 3 années de projection en fonction des taux. Les valeurs des fonds propres obtenues par simulation ne sont plus représenttées
sur ce graphique car on cherche ici à comprendre l’évolution des ploynomes
de régression dans le temps et à vérifier leur cohérence.
Figure 5.7 – Evolution des espérance de fonds propres à 3 ans en fonction
des Taux
On observe que les trois courbes ont la même allure qui correspond à
l’évolution attendue des fonds propres. En effet, lorsque les taux montent,
la valeur de marché des obligations baisse ce qu entraîne nécessairement une
baisse des fonds propres et c’est cette tendance que l’on retrouve correctement traduite par nos fonctions de régression.
On note toutefois un changement de convexité pour la troisième année de
74
projection de la fonction de projection qui devient concave. Cette concavité
traduit le fait que plus la projection est éloignée dans le temps, plus la sensibilité des fonds propres aux taux est importante. On constate d’ailleurs que
la courbe des fonds propres pour la 3ème année "plonge" beaucoup plus vite
vers les valeurs négatives à mesure que les taux augmentent.
5.1.2.2
Par rapport aux cours des actions
Le graphique 5.8 compare les 3 polynomes représentant le comportement
des fonds propres sur 3 années de projection en fonction des cours des actions.
Figure 5.8 – Evolution des espérance de fonds propres à 3 ans en fonction
du cours des actions
De même que pour les taux on observe que les allures des polynomes
sont conformes aux évolutions attendues des courbes i.e lorsque le cours de
l’action augmente, la valeur de marché de l’actif (action et immobilier qui
sont fortement corrélés) augmente alors on peut facilement servir le taux cible
car les actions ont une bonne performance donc nos fonds propres varient à
la hausse.
De plus, les trois paraboles ont quasiment la même allure ce qui permet de
déduire que les polynomes ont à peu près les mêmes coefficients (α1 , . . . , α9 ),
le coefficient α0 étant la constante qui explique la translation vers le haut des
fonctions.
75
On observe ainsi que plus on avance dans le temps plus la valeur des
fonds propres est importante ce qui est cohérent avec l’évolution attendue
des fonds propres en fonction du temps lorsque les actions performent bien.
5.1.2.3
Par rapport aux taux de rachat
Le graphique 5.9 compare les 3 polynomes représentant le comportement
des fonds propres sur 3 années de projection en fonction des rachats.
Figure 5.9 – Evolution des espérance de fonds propres à 3 ans en fonction
des Rachats
On observe que les tendances ne sont pas les mêmes pour la première
année de projection et les deux suivantes. La première année, la fonction est
faiblement croissante et très peu sensible aux rachats : on peut constater que
la courbe rouge est quasiment constante. Les années suivantes, les fonctions
ont la même allure : elles sont croissantes jusqu’à un certain niveau de rachat
(≈ 8%) puis décroissantes ensuite. Comme analysé à la figure 5.5, il y a une
distorsion entre le comportement des fonds propres tel qu’attendu dans la
réalité et celui obtenu par les polynomes ; cette distorsion découle du poids
important des abscisses 0% et 3% dans les régressions.
L’impact des rachats sur les fonds propres est difficilement prise en compte
par les polynomes car comme évoqué précédemment, les rachats sont fortement correlés aux taux d’intérêt qui dans cette représentation figure 5.9 sont
76
fixés à leur moyenne.
Cette première analyse permet donc de constater une adéquation des polynomes obtenus au comportement attendus des fonds propres. Ceci étant
dit, le but de l’étude est d’estimer la probabilité que les fonds propres soient
positifs via ces polynomes pour pouvoir opérer un contrôle sur l’indicateur
que l’on s’est défini dans les orientations stratégiques.
5.1.3
Probabilités estimés
Pour chaque année de projection, les 5000 valeurs de fonds propres calculées selon les polynomes de régression grâce aux 5000 trajectoires générées
permettent de déduire une réalisation de l’estimateur de la probabilité de
ruine des fonds propres :
(en euros)
Probabilité de ruine
5.2
Année 1
25,8%
Année 2
14,20%
Année 3
17,82%
Stabilité des résultats
On cherche donc maintenant à évaluer la qualité et la robustesse de ces
estimateurs grâce à la méthode du Bootstrap.
5.2.1
Principes du Bootstrap
Le théorème de Glivenko-Cantelli affirme que, quand la taille d’un échantillon est importante, sa fonction de répartition empirique est une bonne
appromixation de la "vraie" fonction de répartition dont elle est issue. L’idée
du Bootstrap est alors de générer de nouveaux échantillons qui suivent non
pas la vraie distribution étudiée, mais la distribution empirique µN issue de
l’échantillon simulé :
N
X
µN =
δ{Xi }
i=1
où δ{·} est la distribution de Dirac.
L’expression de µN indique comment procéder à une simulation selon la loi
empirique : il suffit de tirer au hasard des valeurs de l’échantillon initial, selon
une loi uniforme avec remise.
77
Si l’on souhaite générer un nouvel N -échantillon (quoique la méthode
permette d’obtenir un échantillon de taille quelconque), on considère une loi
N -dimensionnelle (U1 , U2 , · · · , UN ) dont les lois marginales sont uniformes à
valeurs dans {1, · · · , N } mutuellement indépendantes. On définit alors :
fk = XU
∀k ∈ {1, · · · , N } , X
k
g
N = (X
f1 , · · · , X
g
et par construction X
N ) vérifie
L g
N
XN = X
fk sont bien distribués selon µN . En répétant cette opéc’est-à-dire que les X
ration, on obtient donc un échantillon d’échantillons de loi µN , et donc un
N
échantillon d’estimateurs qc
α sur lequel on peut appliquer les statistiques
descriptives usuelles afin de juger de la stabilité du résultat. En particulier,
l’écart-type de l’estimateur peut être estimé.
5.2.2
Application à l’estimateur de la probabilité de
ruine
Les 5000 trajectoires sur lesquelles les projections ont été faites permettent, une fois la régression effectuée, d’obtenir 5000 valeurs de fonds
propres calculées grâce aux polynomes f1 , f2 , f3 pour chaque année de projection. On a donc 3 échantillons de 5000 valeurs.
Pour chacun de ces échantillons, on effectue 1000 rééchantillonnages avec
la méthode Boostrap et on extrait de chacun de ces rééchantillonages la probabilité de ruine de l’entreprise. Le résultat final est un vecteur de taille 1001
qui correspond à 1001 réalisations de l’estimateur de la probabilité de ruine
des fonds propres. Pour l’estimateur de chaque année, on calcule les principales statistiques descriptives qui sont résumées dans le tableau suivant :
Moyenne
Ecart-type σ
Kurtosis
Skewness
Minimum
Maximum
σ
Moyenne
P (F\
P1 < 0)
25,74%
0,62%
0,10
0,03
23,68%
27,70%
2,39%
78
P (F\
P1 < 0)
14,19%
0,48%
-0,04
-0,06
12,62%
15,66%
3,41%
P (F\
P1 < 0)
17,83%
0,55%
-0,17
-0,05
16,10%
19,40%
3,09%
Sur ces statistiques descriptives principales des estimateurs des probabiliσ
tés de ruine sur les 3 années de projection, on s’intéresse à la quantité Moyenne
que l’on peut assimiler à une sorte de volatilité des estimateurs. Ce rapport
permet de mesurer la qualité de l’estimateur obtenu, plus ce ratio est faible
meilleur est l’estimateur car cela signifie que la "volatilité" de l’estimateur
est faible et donc que ses réalisations sont robustes et pas trop éloignées de
la valeur "réelle" que l’on cherche à estimer.
Dans les cas présentés, ces "volatilités" sont suffisament faibles pour pouvoir valider la stabilité de nos résultats et on peut donc utiliser les valeurs
obtenues pour opérer le suivi de l’indicateur défini dans les orientations stratétgiques.
5.2.3
Suivi de l’indicateur de risque
On rappelle que l’indicateur de suivi et de gestion des risques choisi est
le suivant :
P (F PN ≤ 0) < 10% pour N = 1, 2, 3
Pour les 3 années de production, les estimateurs des probabilités de ruines
sont représentés par les boxplot suivants.
Figure 5.10 – Boxplot des probabilités de ruine sur les 3 années de projection
79
On constate que les probabilités de ruine pour les 3 années de projection
sont respectivement comprises entre les valeurs suivantes :
Minimum
Maximum
Proba 1
23,68%
27,70%
Proba 2
12,62%
15,66%
Proba 3
16,10%
19,40%
De ce fait, on ne satisfait pas à la contrainte de l’indicateur choisi car
la probabilité que les fonds propres soient négatifs est supérieure à 10% à
chaque année de projection .
Il relève alors du ressort de la direction de faire les ajustements nécessaires
pour satisfaire à la contrainte posée dans les orientations stratégiques. Ces
ajustements peuvent être une augmentation du capital ou une modification
des caractéristiques des contrat ou la constitution de réserves pour réussir à
couvrir le besoin global de solvabilité sur 3 années.
5.3
Avantages de la méthode
La méthode LSMC présente de nombreux avantages pour la mise en place
de l’ORSA.
Le premier et le plus important de ces avantages est le faible nombre
de scénarios nécessaires au calcul des fonds propres : En effet, on constate
ici qu’il a suffit de 5000 scénarios en tout pour calculer la distribution des
fonds propres et subséquemment le capital économique ou le besoin global
de solvabilité contrairement à la méthode des simulations dans simulations
qui nécessite au moins 5000 scénarios primaires et autant de scénarios secon1
. Cette
daires : On a donc réduit le nombre de scénarios d’un rapport de 500
diminution drastique du nombre de scénarios permet de s’affranchir des problématiques de temps de calcul et d’accélérer considérablement la vitesse de
calcul.
Contrairement aux méthodes de Curve-fitting et de Replicating Portfolio également utilisables pour réaliser des proxys de passifs et/ou de fondspropres, la méthode LSMC a une formalisation mathématique qui assure la
convergence des résultat vers la valeur attendue. Le cadre mathématique de
la méthode de Monte-Carlo repose fondamentalement sur la loi des grands
80
nombres qui assure une convergence en probabilité vers l’espérance à calculer ; celle des fonds propres dans l’exemple abordé ici.
La régression peut être complètement automatisée et effectuée en un
temps très court de l’ordre de quelques minutes à quelques heures. Dans
le cadre de ce mémoire, tous les calculs de projection ont été effectués sous
Excel VBA et la régression a été codée sous C++ avant d’être implémentée
dans Excel. Ce qui permet de dire que la mise en place de la régression, qui
est le coeur de la méthode, est facilement réalisable et ne nécessite pas des
ressources informatiques importantes. Ici, la régression prend environ 2 minutes à tourner.
De ce fait, cette méthode peut servir efficafement d’outil de contrôle et de
suivi permanent des risques de l’entreprise.
Les fonctions polynomiales utilisables pour la régression présentent des
caractéristiques qui leur permettent d’ajuster efficacement à plusieurs fonctions de formes différentes. Dans le cadre de l’étude, il a été retenu des fonctions de la base polynomiale canonique mais d’autres fonctions polynomiales
présentant des caractéristiques particulières telles que la propriété d’orthogonalité pour les polynomes de Legendre par exemple pourraient être choisies.
Contrairement à la méthode de Replicating Portfolio, la méthode LSMC
permet de prendre en compte tous les risques dans la modélisation et pas
uniquement les risques de marché. Elle offre donc une grande flexibilité dans
l’estimation du capital économique et assure de ne pas mettre de côté des
risques qui ont un impact important sur le produit et/ou le portefeuille. Par
exemple, il a été pris en compte le risque de rachat dans la modélisation dans
le cas étudié ici, ce qui n’aurait pas été possible dans le cas du Replicating
Portfolio ou pus difficilement applicable dans la méthode Curve-Fitting.
5.4
Limites
Malgré tous ces avantages, la méthode LSMC présente quand même
quelques limites qu’il convient de noter.
La première restriction à cette méthode est qu’elle impose de disposer
d’un modèle ALM pour pouvoir faire des projections, ce qui est un incovénient pour les entreprises qui choisissent d’appliquer la formule standard
pour le calcul du SCR et ne développent donc pas de gestion des interractions
actif/passif.
81
La robustesse et la fiabilité du modèle de projection représentent la plus
grande faiblesse de l’étude menée dans ce mémoire : le fait d’avoir eu à le
développer sous Excel a souvent mené à opter pour des hypothèses simplificatrices voire simplistes qui impactent les résulats obtenus.
Une autre limite de la méthode est sa dépendance au générateur de scénarios économiques. En effet, l’application de la méthode Monte-Carlo nécessite
l’utilisation de scénarios stochastiques issus d’un générateur préalablement
calibré pour prendre en compte un certain spectre de scénarios. De ce fait,
toutes les éventuelles erreurs ou imprécisions de modélisation contenues dans
le générateur seront répercutées dans les projections futures.
Par exemple, la modélisation des taux avec le modèle de Vasicek n’est
pas le plus opportun, un générateur plus complexe et plus "professionnel"
permettrait d’utiliser des modèles de taux plus élaborés qui seraient à même
de prendre en compte les différentes effets de la courbe des taux, telles que
les bosses, que le modèle de Vasicek ne peut pas rendre.
82
Conclusion
La mise en place de l’ORSA en assurance vie reste encore un exercice
complexe à l’heure actuelle, principalement en raison du coût important en
termes de temps de calcul et de ressources informatiques des Simulations dans
Simulations. Néanmoins, plusieurs techniques d’approximations numériques
visant à réduire ce besoin en temps de calcul et en ressources informatiques
existent.
La méthode Least-Square Monte Carlo a été testée dans ce mémoire sur
un produit classique d’assurance vie pour évaluer sa performance et son niveau de complexité d’utilisation lorsque l’on cherche à mettre en place un
système de gouvernance des risques tel que l’ORSA. On a pu constater,
d’une part, que cette méthode résout le problème de temps de calcul en le
réduisant de manière drastique, et d’autre part qu’elle est relativement aisée
à mettre en œuvre à la fois mathématiquement et informatiquement.
Dans le cadre de cette étude, on s’est intéressé au suivi d’un indicateur
de risque défini au préalable pour un ensemble de contrats d’épargne multisupport. Cet indicateur étant dépendant de la distribution des fonds propres,
on a appliqué la méthode Least-square Monte Carlo pour le calcul des fonds
propres. Cette approximation numérique a permis de déterminer une expression simple des fonds propres à l’aide de fonctions polynomiales à plusieurs
variables. L’analyse de ces polynômes, en l’occurence des paraboles, a permis
de retrouver la plupart des effets souhaités selon les conditions économiques :
baisse ou hausse des taux, des actions ou des rachats.
Nonobstant l’adéquation globale des résultats aux anticipations actuarielles, certaines faiblesses ou limites des résultats ont été décelées dans ce
mémoire. Elles proviennent des différentes étapes antérieures à l’application
propre de la méthode, à savoir le générateur de scénarios économiques et la
modélisation et la projection des flux futurs du produit. Si elles ne remettent
pas en cause la qualité de la méthode, assurée par ses fondements mathéma83
tiques, elles soulignent la dépendance des résultats au moteur de projection.
La méthode Least-Square Monte Carlo apparaît donc comme un outil
puissant et efficace dans la mise en place de l’ORSA. Elle permet d’opérer
un contrôle continu et permanent du niveau de risque et/ou de fonds propres
servant ainsi de boussole pour les décisions stratégiques du Management.
84
Bibliographie
[1] Directive 2009/138/CE du parlement européen du conseil du 25 novembre 2009 sur l’accès aux activités de l’assurance et de la réassurance
et leur exercice - Solvabilité II, 2009.
[2] D. Bauer, D. Bergmann, and A.Reuss. Solvency II and nested simulations - a least-square Monte-Carlo approach. International Actuarial
Association Life Section, 2009.
[3] C. Davidson. Why insurers are turning into least-square Monte-Carlo
modelling techniques. Insurance Risk, 2011.
[4] L. Devineau and S.Loisel. Construction d’un article d’accélération de
la méthode des simulations dans simulations pour le calcul du capital
économique solvabilité II. Bulletin Français d’Actuariat, 2009.
[5] EIOPA. Consultation papers on the proposal for guidelines for the own
risk and solvency assessment, 2011.
[6] L. Froggart. Economic lite model. Technical report, KPMG, 2011.
[7] G. Gerber. Allocations d’actifs sous solvabilité 2 : cas de l’assurance vie
épargne. Master’s thesis, Université Paris Dauphine - Altia, 2010.
[8] A. Koursaris. The advantages of least-square Monte-Carlo. 2011.
[9] A. Koursaris. A least-square Monte-Carlo approach to liability proxy
modelling and capital calculation. Barrie+Hibbert, 2011.
[10] J. Lafond. Valorisation économique d’un contrat épargne multisupport.
Master’s thesis, Université de Strasbourg - Optimind, 2010.
[11] D. Lamberton and B. Lapeyre. Introduction au calcul stochastique appliqué à la finance. Ellipses, 2010.
[12] P. Lappara. Pilotage stratégique et appétence au risque. Master’s thesis,
ISFA - Galéa & Associés, 2011.
[13] S. Le Mer. Calcul du capital economique en assurance vie. Master’s
thesis, Dauphine - Deloitte, 2010.
[14] Milliman. Own risk and solvency assessment : Principe et mise en oeuvre
pratique. Technical report, Milliman, 2011.
85
[15] F. Planchet. Calcul du SCR dans le cadre de l’ORSA ou du modèle
interne. Technical report, Winter & Associés, 2012.
[16] M. Simurda. ORSA. Technical report, KPMG, 2012.
86
Annexe A
Rappels de calcul stochastique
R
La construction de l’intégrale stochastique f dB est supposée connue
(voir par exemple [11]), et seules ses propriétés les plus utiles à notre propos
sont ici rappelées.
Proposition A.0.2. L’intégrale stochastique par rapport au mouvement brownien B vérifie les propriétés
R suivantes :
– L’application f → f dB est linéaire
– Isométrie d’Itô -déterministe : si f1 , f2 sont des fonctions déterministes
Z ∞
Z ∞
Z ∞
f1 dB ×
f2 dB =
f1 f2 dt
E
0
0
0
– Isométrie d’Itô-aléatoire : si f1 , f2 sont des fonctions aléatoires
Z ∞
Z ∞
Z ∞
f1 f2 dt
f1 dB ×
f2 dB = E
E
0
0
0
R
– f dB suit une loi normale centrée et de variance E fs2 ds .
– Intégration par parties : si f ∈ C 1 (R),
Z T
Z T
f dB +
f 0 B dt = f (T ) B(T )
∀T > 0 ,
R
0
0
Le recours à des lois lognormales, c’est-à-dire d’exponentielles de lois normales, est fréquent dans la suite de ce mémoire. Le résultat suivant sera donc
très utile :
σ2
Proposition A.0.3. Si X ∼ N (µ, σ 2 ), alors E eX = eµ+ 2 .
Le théorème qui va suivre est fondamental en finance quantitative. Il est
intimement lié à la notion de probabilité risque-neutre, qui constitue un outil
de choix pour évaluer les produits dérivés.
87
Théorème A.1 (Girsanov). Soit (θt )t∈[0,T ] un processus adapté tel que
Z
T
θs2 ds < +∞ p.s.
0
Soit alors le processus (Lt )t∈[0,T ] défini par
Z t
Z
1 t 2
∀t ∈ [0, T ] , Lt = exp −
θs dBs −
θ ds
2 0 s
0
Si (Lt )t∈[0,T ] est une martingale, alors le processus (Wt )t∈[0,T ] défini par
Z
Wt = Bt +
t
θs2 ds
0
est un Q-mouvement brownien, où Q est une probabilité définie par sa dérivée
de Radon-Nikodym
dQ
= LT
dP
Le résultat suivant est le théorème fondamental du calcul stochastique :
il constitue une extension de la formule de Taylor aux processus d’Itô.
Théorème A.2 (Itô). Si f : (t, x) → f (t, x) est de classe C 2 en x et C 1 en
t, et Xt un processus d’Itô, alors
Z T
Z
Z T
∂f
1 T ∂ 2f
∂f
(s, Xs ) ds+
(s, Xs ) dXs +
(s, Xs ) d hXis
f (T, XT ) = f (0, X0 )+
∂t
2 0 ∂x2
0 ∂x
0
où par définition
Z
hXit =
t
Hs2 ds
0
ou encore, sous forme différentielle :
∂f
1 ∂ 2f 2
∂f
df =
+
Ht dt +
dXt
2
∂t
2 ∂x
∂x
soit en substituant son expression à dX
∂f
1 ∂ 2f 2
∂f
∂f
H
dt
+
df =
+
Ks +
Hs dBs
t
∂t
∂x
2 ∂x2
∂x
88
Annexe B
Probabilité risque-neutre
Ce paragraphe contient principalement les définitions qui permettent de
décrire mathématiquement le cadre financier dans lequel nous travaillons.
Étant donnée une quantité Ut à la date t, Ũt désigne sa valeur actualisée au
taux sans risque à la date 0.
Définition B.1. Une stratégie est un processus φ = (φt )t∈[0,T ] = ((Ht0 , Ht )0 )t∈[0,T ]
à valeurs dans R2 , F-adapté et tel que
Z T
Z T
0
|Ht | dt < +∞ p.s. et
Ht2 dt < +∞ p.s.
0
0
Ht0 représente la quantité d’actif sans risque en portefeuille à la date t, et
Ht celle d’actif risqué. La valeur du portefeuille est alors :
Vt (φ) = Ht0 St0 + Ht St
Nous allons restreindre la classe des stratégies aux stratégies autofinancées, puis admissibles :
Définition B.2. Une stratégie φ est dite autofinancée si
Z T
Z T
0
0
Hu dSu
∀t ∈ [0, T ] , Vt (φ) = V0 (φ) +
Hu dSu +
0
p.s.
0
ce qui est équivalent à
Z
Ṽt (φ) = V0 (φ) +
T
Hu dS̃u
p.s.
0
Une stratégie autofinancée φ est dite admissible si sa valeur actualisée Ṽt (φ)
est positive à chaque date t et si supt∈[0,T ] Ṽt (φ) est de carré intégrable.
89
Enfin, nous définissons les opportunités d’arbitrage et l’absence d’opportunité d’arbitrage.
Définition B.3. Une stratégie admissible est appelée arbitrage si
V0 (φ) = 0
P (VT (φ) > 0) > 0
On dit qu’il y a opportunité d’arbitrage entre deux stratégies φ1 et φ2 si
φ1 − φ2 est une stratégie d’arbitrage.
On dit qu’il y a absence d’opportunité d’arbitrage (noté AOA) s’il n’existe
aucune opportunité d’arbitrage pour tous les couples de stratégies. On dit
alors que la marché est viable.
Définition B.4. On dit que l’actif dérivé C est simulable ou atteignable s’il
existe une stratégie admissible φ dont la valeur en T est la même que C(T ).
Un marché est dit complet si tout actif dérivé est simulable.
Cette définition conduit au théorème essentiel suivant, introduisant la
notion de probabilité risque-neutre :
Théorème B.1. Un marché viable est complet si et seulement si 1
∃! Q ∼ P , ∀S titre de base , S̃t est une Q-martingale
Définition B.5. La probabilité Q ainsi définie, si elle existe, est appelée
probabilité risque-neutre.
Dans le cadre du modèle de Black-Scholes, cette probabilité risque-neutre
est obtenue à partir de la probabilité historique par le théorème de Girsanov,
comme processus θ.
appliqué avec la prime de risque µ−r
σ
1. on dit que deux probabilités P et Q sur (E, E) sont équivalentes si : ∀A ∈ E, P(A) =
0 ⇔ Q(A) = 0. On le note P ∼ Q.
90
Annexe C
SVD pour la régession
Proposition C.0.1. La solution du problème de minimisation de
χ2 = |A · α − y|2
par rapport à α est donnée par
α
b = A† y = V diag(1/wi ) U 0 y
Démonstration. Perturbons la solution α
b en α
b + ε. On a alors :
A · (α + ε) − y = A · α − y + A
·ε
|{z}
∆y
0
†
= U W V V W U 0 y − y + ∆y
Ici, on utilise le fait que V 0 V = IM , entraînant
A · (α + ε) − y = U W W † U 0 y − y + ∆y
= (U W W † U 0 − IM ) y + ∆y
= U (W W † U 0 − IM ) y + U 0 ∆y
Pour la dernière ligne, on a pu factoriser par U à gauche en utilisant U U 0 =
IM . A présent, on prend la norme dans cette équation, en profitant du fait
que |U | = 1 pour éliminer ce facteur :
|A · (α + ε) − y| = |(W W † U 0 − IM ) y + U 0 ∆y|
La matrice W W † − IM est une matrice diagonale dont les termes diagonaux
valent zéro si wi 6= 0 (car on a alors wi × w1i − 1), tandis que les éléments
diagonaux de la matrice U 0 ∆y sont non nuls uniquement lorsque wj 6= 0
puisque ∆y = A · ε est dans l’image de A. Ainsi, la minimisation de cette
norme selon ∆y revient à minimiser |U 0 ∆y|. Mais ici encore, U 0 est de norme
égale à un, donc cela revient à minimiser |∆y| et finalement, ∆y = 0.
91

Documents pareils