Application de la méthode Least-Square Monte
Transcription
Application de la méthode Least-Square Monte
Mémoire d’Actuariat Application de la méthode Least-Square Monte-Carlo pour la mise en place de l’ORSA en Assurance vie par Tsanta RAMANAMPISOA Maître de stage : Michael DONIO - Actuary Partner KPMG Résumé La prochaine entrée en vigueur de la directive Solvabilité II, prévue pour 2014, confronte les assureurs européens au pilier 2 et son principal outil : l’Own Risk and Solvency Assessment (ORSA). L’ORSA exige que les assureurs établissent un pilotage ajusté de leurs risques et solvabilité. Il requiert la mise en place d’un processus de gestion des risques qui soit partie intégrante de leur stratégie. Le calcul du capital économique doit être adapté au profil de risque de chaque aussureur, et doit prendre en compte ses spécificités. A la différence du premier pilier, l’ORSA définit un "besoin global de solvabilité" prenant en compte davantage de risques sur une durée plus longue. La plupart des assureurs ont recours à des modèles stochastiques pour déterminer ce montant. Mais pour les assureurs Vie, les calculs de capital économique sont rendus difficiles par la structure complexe des interactions entre l’actif et le passif. En particulier, une approche directe conduit à des "simulations dans les simulations" (SdS) i.e avoir à simuler des trajectoires risque-neutres pour chaque trajectoire sous probabilité historique. Or, en raison de leur coût considérable en temps de calcul, ces SdS sont extrêmement difficiles à mettre en pratique, . Ce mémoire vise à présenter comment la méthode Least-Square MonteCarlo permet d’obtenir un proxy des passif et/ou des fonds propres et à analyser sa faisabilité et ses performances. Cette méthode est donc utilisée pour palier aux SdS. Elle sera illustrée ici par l’exemple d’un contrat épargne multi-support. L’objectif est d’obtenir une fonction qui exprime le comportement des fonds propres à des dates futures données. Une fois ce comportement connu, il est possible d’en déduire le besoin global de solvabilité pour chaque horizon de temps, et d’opérer le suivi d’un indicateur de solvabilité défini pour la mise en place de l’ORSA. Mots-clés : Own Risk and Solvency Assessment (ORSA), Assurance Vie, Solvabilité II, Least-Square Monte-Carlo, Solvency Capital Requirements, Epargne Multisupport, capital économique, Abstract As the launch of Solvency II gets closer, its entry into force being 2014, European insurers are now dealing with the second pillar and its main purpose: the Own Risk and Solvency Assessment (ORSA). The ORSA requires insurers to form their own view of their risk and solvency. It enforces them to set up a process of risk management that is an integral part of their business strategy. Moreover, regulating authorities stress out the fact that the calculation of this solvency capital has to be adequate to the risk profile of each insurer and take into account its very own specifities. So unlike what the first pillar demands, ORSA requires the calculation of a "needed solvency capital" that takes into account more risks and a longer period of time. Most of the insurers choose to use stochastic modelling to assess their needed solvency capital. But for life insurance, solvency capital calculation always rises major issues because of the complex structure of the interactions between assets and liabilities. Especially, when the calculation calls for the "Nested simulations" which is a range of cash-flow projection technique that requires two levels of simulations: the first one under a real-world probability and the second one under a risk-neutral probability. These "Nested Simulations" are practically impossible to implement because they require too much computing time and ressources. This work aims to show how implementing the Least-Square Monte Carlo method for liability proxy and/or available capital is a good solution to the Nested Simulations problem and can therefore be used as an efficient tool for setting an ORSA process up, and analyse how robust and usable is this method. A French life insurance contract has been chosen to illustrate this technique. This contract has, more or less, the same properties as a multi unit-linked with profit insurance policy. The main goal was to obtain a function that expresses the behaviour of the available capital at any given time. Once we this behaviour is known, we would then be able to infer the needed solvency capital at any given time, and to monitor a solvency indicator. Keywords: Own Risk and Solvency Assessment (ORSA), life insurance, Solvency II, Least-Square Monte-Carlo, Solvency Capital Requirements Remerciements Je tiens à remercier, en premier lieu mon responsable de stage, Michael DONIO, qui m’a donné la formidable opportunité d’effectuer mon stage de fin d’études au sein du cabinet KPMG. J’ai eu l’occasion de réfléchir sur un sujet de mémoire passionnant, d’en apprendre énormément sur le métier d’actuaire et de travailler avec des personnes remarquables. Ainsi, je présente également mes plus sincères remerciements à toute l’équipe actuarielle de KPMG, et particulièrement à la staff, pour le soutien et les précieux conseils qu’ils m’ont apporté tout au long de cette expérience. Je remercie également tout le corps enseignant de l’ISUP qui m’a accompagné et guidé pendant ces 3 années de formation. En particulier, je remercie M. Delecroix, directeur de l’école, ainsi que MM. A.Cohen et O.Lopez qui ont encadré mon mémoire et m’ont orienté dans la réalisation de ce dernier. Merci, enfin, à ma famille et mes amis pour la patience et le support inconditionnel dont ils ont fait preuve durant la rédaction de ce mémoire. 1 Table des matières Introduction 6 1 Contexte et Présentation 1.1 La directive Solvabilité II . . . . . . . . . . 1.1.1 Pilier 1 . . . . . . . . . . . . . . . . 1.1.2 Pilier 2 . . . . . . . . . . . . . . . . 1.1.3 Pilier 3 . . . . . . . . . . . . . . . 1.2 Focus sur le pilier 2 : l’ORSA . . . . . . . 1.2.1 Définition et enjeux . . . . . . . . . 1.2.2 ORSA vs. Pilier 1 . . . . . . . . . . 1.2.3 Principe de mise en œuvre . . . . . 1.3 L’Assurance Vie . . . . . . . . . . . . . . . 1.3.1 Définition . . . . . . . . . . . . . . 1.3.2 L’épargne . . . . . . . . . . . . . . 1.3.3 Les options et garanties financières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Simulations dans Simulations en Assurance Vie 2.1 Projections futures : Univers Réel vs Risque-Neutre . . . . . 2.2 Nested Simulations : Le Problème . . . . . . . . . . . . . . . 2.3 Techniques d’approximations existantes . . . . . . . . . . . . 2.3.1 Algorithme d’accélération des simulations dans simulations . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Curve fitting . . . . . . . . . . . . . . . . . . . . . . . 2.3.3 Replicating Portfolio . . . . . . . . . . . . . . . . . . 2.3.4 Least-Square Monte-Carlo . . . . . . . . . . . . . . . 3 La méthode Least-Square Monte-Carlo 3.1 Principe et cadre théorique . . . . . . . 3.1.1 Principe de la méthode . . . . . 3.1.2 Formalisation théorique . . . . 3.2 Processus de mise en œuvre . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 8 9 11 11 12 13 13 13 17 17 17 19 20 . 20 . 22 . 23 . . . . 24 26 27 28 . . . . 30 30 30 32 34 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5 3.2.6 3.2.7 Etape 1 : Identifier les facteurs de risque . . . . . . . Etape 2 : Sélectionner des scénarios de trajectoires . Etape 3 : Lancer les N simulations Monte-Carlo . . . Etape 4 : Choisir les fonctions de base . . . . . . . . Etape 5 : Effectuer la régression . . . . . . . . . . . . Etape 6 : Mesurer l’erreur obtenue et valider les fonctions de base choisies . . . . . . . . . . . . . . . . . . Etape 7 : Utiliser les fonctions obtenues pour le suivi de l’indicateur de besoin global de solvabilité . . . . . . . . . . 35 36 36 36 36 . 37 . 37 4 Application à un produit d’épargne multi-supports 4.1 Description du produit . . . . . . . . . . . . . . . . . . . . . 4.1.1 Caractéristiques techniques et hypothèses . . . . . . . 4.1.2 Bilan en t = 0 . . . . . . . . . . . . . . . . . . . . . . 4.1.3 Orientations stratégiques . . . . . . . . . . . . . . . . 4.2 Identification et Modélisation des facteurs de risques . . . . 4.2.1 Hypothèses de modélisation . . . . . . . . . . . . . 4.2.2 Le risque de Taux . . . . . . . . . . . . . . . . . . . . 4.2.3 Le risque Action et Immobilier . . . . . . . . . . . . . 4.2.4 Les rachats . . . . . . . . . . . . . . . . . . . . . . . 4.2.4.1 Les rachats structurels . . . . . . . . . . . . 4.2.4.2 Les rachats conjoncturels . . . . . . . . . . 4.2.4.3 Rachats Totaux . . . . . . . . . . . . . . . . 4.2.5 Revalorisation cible . . . . . . . . . . . . . . . . . . . 4.2.5.1 Taux Cible . . . . . . . . . . . . . . . . . . 4.2.5.2 La politique de Participation aux Bénéfices 4.2.6 La stratégie d’allocation d’actifs . . . . . . . . . . . . 4.3 Implémentation pratique . . . . . . . . . . . . . . . . . . . . 4.3.1 Génération des trajectoires . . . . . . . . . . . . . . . 4.3.2 Projections futures . . . . . . . . . . . . . . . . . . . 4.3.3 Mise en œuvre de la régression . . . . . . . . . . . . . 4.3.3.1 Modèle et notations . . . . . . . . . . . . . 4.3.3.2 Décomposition en valeurs singulières SVD . 4.3.4 En pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 38 38 40 40 41 42 43 47 49 49 51 52 53 53 53 54 55 55 56 59 59 60 62 5 Analyse critique de la méthode et des résultats 5.1 Résultats obtenus . . . . . . . . . . . . . . . . . . . . . 5.1.1 Analyse des régressions par rapport aux données 5.1.1.1 Par rapport aux taux d’intéret . . . . 5.1.1.2 Par rapport au cours des actions . . . 5.1.1.3 Par rapport aux taux de rachat . . . . . . . . . 64 64 66 67 68 70 4 . . . . . . . . . . . . . . . 5.1.1.4 Interraction entre les taux d’intérêt et de rachat Analyse des régressions en fonction de l’horizon de projection . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2.1 Par rapport aux taux d’intérêt . . . . . . . . 5.1.2.2 Par rapport aux cours des actions . . . . . . . 5.1.2.3 Par rapport aux taux de rachat . . . . . . . . 5.1.3 Probabilités estimés . . . . . . . . . . . . . . . . . . . . Stabilité des résultats . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Principes du Bootstrap . . . . . . . . . . . . . . . . . . 5.2.2 Application à l’estimateur de la probabilité de ruine . . 5.2.3 Suivi de l’indicateur de risque . . . . . . . . . . . . . . Avantages de la méthode . . . . . . . . . . . . . . . . . . . . . Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 5.1.2 5.2 5.3 5.4 74 74 75 76 77 77 77 78 79 80 81 Conclusion 83 Bibliographie 85 A Rappels de calcul stochastique 87 B Probabilité risque-neutre 89 C SVD pour la régession 91 5 Introduction Avec la prochaine entrée en vigueur de la directive Solvabilité II, les assureurs européens sont confrontés à une modification profonde de leur approche dans la gestion et l’évaluation des risques auxquels ils sont soumis. La première grande étape de cette restructuration du monde l’assurance a été la rénovation des méthodes de calcul du capital économique ou Solvency Capital Requirement qui représente le capital nécessaire que l’entreprise doit détenir au titre de ses fonds propres pour assurer sa solvabilité à horizon 1 an dans 99,5% des cas. Au cœur du pilier I de la directive, ces exigences quantitatives ont mobilisé les équipes actuarielles des assureurs et des réassureurs pendant un temps important. Si l’évaluation de la solvabilité d’une compagnie d’assurance à un instant donné a été imposée par le premier pilier de la directive, les acteurs du monde l’assurance s’intéressent aujourd’hui au contrôle permanent qui permet de maintenir ce niveau de solvabilité avec le pilier II de la directive. Ce second pilier oblige les assureurs et les réassureurs à mettre en place un processus de suivi en continu des risques propres à l’entreprise avec cette fois une vision prospective sur un horizon de temps supérieur à une année. Ce processus est matérialisé et défini par l’Own Risk and Solvency Assessment (ORSA) qui constitue le coeur du pilier II de la directive. L’ORSA en assurance vie fait émerger de nouvelles problématiques liées à la complexité des mécanismes d’interactions entre l’actif et le passif d’une compagnie. La vision prospective nécessaire au calcul et l’obligation de considérer toutes les situations probables appellent forcément à l’utilisation de jeux de simulations pour la modélisation. Dans le cadre de l’assurance vie, ces simulations doivent se faire sur deux niveaux différents : un niveau sous probabilité historique et un niveau de simulations sous proababilité risqueneutre. Ces simulations à deux niveaux sont appelées "Nested Simulations" ou"Simulations dans Simulations (SdS)" et elles soulèvent d’importants pro6 blèmes de mise en œuvre opérationnelle notamment en terme de temps de calcul. Ce mémoire a pour objet de présenter une des diverses méthodes d’approximations numériques qui ont été developpées pour palier au problème des SdS et d’expliquer comment cette méthode permet la mise en place de l’ORSA. La première partie situe le contexte dans lequel les travaux de ce mémoire ont été effectués : Solvabiilité II et l’Assurance vie. Ensuite la deuxième partie présente en détail la méthode de simulations dans simulations qui se pose comme un obstacle technique aux calculs que les assureurs doivent et veulent effectuer, cette partie expose aussi succintement les méthodes numériques autres que celle abordée dans le cadre de cette étude qui existent pour s’affranchir des SdS. Le troisième chapitre constitue le cœur du mémoire, il développe de manière théorique la méthode Least-Square Monte Carlo et son application pratique. Enfin, les deux derniers chapitres sont les parties liées à l’application de cette méthode à un cas concret d’un portefeuille d’assurance vie et à l’analyse critique des résultats obtenus. 7 Chapitre 1 Contexte et Présentation L’objectif de ce chapitre est de présenter le contexte réglementaire et général dans lequel ce mémoire s’inscrit et de poser la problématique à laquelle il veut répondre. Il s’agira donc en premier lieu de rappeler les tenants et les aboutissants de la nouvelle directive européenne qui chamboule actuellement le monde de l’assurance et de la réassurance : la directive Solvabilité II et ensuite de décrire le marché de l’assurance vie en France pour donner une vue d’ensemble du cadre d’application de la théorie présentée ici. 1.1 La directive Solvabilité II La directive 2009/138/CE DU PARLEMENT EUROPEEEN ET DU CONSEIL du 25 novembre 2009 sur l’accès aux activités de l’assurance et de la réassurance et leur exercice, plus communément appelée directive "Solvabilité II" est une réforme européenne de la réglementation prudentielle du secteur de l’assurance. Elle vise principalement, d’une part, à assurer la solvabilité des assureurs en mettant en place un système d’analyse et de traitement du risque différent de ce qui a été fait auparavant et d’autre part, à harmoniser la réglementation des activités d’assurance en Europe en définissant un référentiel prudentiel commun à tous les pays européens. Cette directive repose sur trois piliers distincts. Le premier pilier définit les exigences quantitatives financières et concerne la valorisation des postes du bilan à l’actif et au passif. En effet, dans Solvabilité II, un bilan dit économique par opposition au bilan compatble est requis, dans ce bilan tous les postes doivent être valorisés en valeur de marché et non plus en valeur historique. Le bilan économique se formalise comme suit : 8 1.1.1 Pilier 1 Ce pilier 1 définit également les niveaux de fonds propres minimum qu’une compagnie exerçant une activité d’assurance ou de réassurance doit détenir pour assurer sa solvabilité. Deux indicateurs de solvabilité différents sont requis : • Le Minimum Capital Requirement (MCR) qui représente le niveau de fonds propres en deçà duquel l’autorité de de contrôle intervient dans la gestion de la compagnie de manière automatique • Le Solvency Capital Requirement (SCR) qui représente le montant de fonds propres qu’une compagnie doit détenir pour éviter la ruine économique à horizon 1 an dans 99,5% des cas. Mathématiquement, le SCR se traduit comme suit : P(F P1 < 0) ≤ 0, 5% où F P1 représente le montant des fonds propres issus du bilan économique à horizon un an et P la probabilité historique. Il est évident que l’on a l’inégalité suivante : MCR ≤ SCR. Le calcul du SCR est encore un des grands chantiers du monde de l’assurance actuellement. Deux approches sont possibles pour effectuer ce calcul : la formule standard ou le modèle interne. Dans l’approche par la formule standard, un SCR doit être calculé pour chaque facteur de risque identifié par la cartographie des risque présentée à la figure 1.1. 9 Figure 1.1 – Cartographie des risques Le SCR est obtenu avec la formule suivante : SCR = BSCR + Adj + Op avec – Adj : l’ajustement fait pour prendre en compte la capacité d’absorption des pertes par réduction des bénéfices discrétionnaires et par les impôts différés – Op :le capital économique lié au risque opérationnel – BSCR : le SCR de base calculé à l’aide d’une matrice de corrélation entre les différents modules de risque de la cartographie. Selon le QIS 5 on a : sX BSCR = CorrSCRi,j × SCRi × SCRj i×j où • BSCR est le Basic Solvency Capital Requirement qui représente le capital requis avant tout ajustement • SCRi est le capital requis pour le risque i 10 • CorrSCRi,j représente la corrélation entre le risque i et le risque j. La valeur de CorrSCRi,j provient de la matrice de corrélation fournie par le CEIOPS. Market Default Life Health Non-life Market 1 0,25 0,25 0,25 0,25 Default Life Health Non-life 1 0,25 0,25 0,5 1 0,25 0 1 0 1 Cette matrice de corrélation traduit la corrélation entre les capitaux relatifs aux risques (i, j) mais non pas entre les risques eux-mêmes 1.1.2 Pilier 2 Le deuxième pilier de Solvabilité II réglemente les activités de gouvernance et de supervision des compagnies. Il met en place le processus de contrôle et de gestion des fonds propres de la compagnie. Ce pilier 2 a pour objectif d’instaurer des procédures de surveillance pour s’assurer que les compagnies sont en mesure d’évaluer et de gérer correctement les risques auxquels elles sont exposées. Le pilier 2 est conçu pour inciter les compagnies à avoir une démarche ERM (Entreprise Risk Management), il s’attache particulièrement à fixer des normes qualitatives de suivi du risque en interne par les entreprises, notamment via le dispositif Own Risk and Solvency Assessment (ORSA) que nous détaillerons dans la suite de ce mémoire. 1.1.3 Pilier 3 Le pilier 3 est axé sur la transparence des compagnies sur trois éléments qui permettent d’évaluer leur solvabilité : – leur performance financière – leur profil de risque – les mesures d’incertitudes utilisées pour les évaluations Ce troisième pilier concerne donc principalement l’information à fournir au public et aux autorités de contrôle pour renforcer la discipline de marché, les informations doivent être présentées dans des états réglementaires appelés 11 Quantitative Reporting Templates (QRT) Le calendrier de Solvabilité II est représenté dans la figure 1.2 : Figure 1.2 – Calendrier Solvabilité II 1.2 Focus sur le pilier 2 : l’ORSA Comme décrit précédemment le pilier 2 de Solvabilité II concerne principalement la gestion des risques et le système de gouvernance de l’entreprise. Solvabilité II dit à l’alinéa (36) que : "Chaque entreprise d’assurance et de réassurance devrait procéder régulièrement à l’évaluation de son besoin global de solvabilité, en tant que partie intégrante de sa stratégie commerciale et compte tenu de son profil de risque spécifique(évaluation interne des risques et de la solvabilité). Cette évaluation ne requiert pas le développement d’un modèle interne, ni ne sert à calculer à calculer des exigences en capital en capital différentes du capital de solvabilité requis ou du minimum de capital requis. Les résultats de chaque évaluation devraient être communiqués à l’autorité de contrôle parmi les informations à fournir aux fins du contrôle." L’article 45 définit plus en détail le cadre du processus d’évaluation interne des risques et de la solvabilité ou ORSA : Own Risk and Solvency Assessment (ORSA). Au coeur du pilier 2 de la directive, ce processus est l’outil principal des entreprises pour démontrer que leur système de gouvernance et leur politique 12 de gestion des risques sont cohérents avec la nature, la gamme et la complexité des risques propres à leurs activités respectives . 1.2.1 Définition et enjeux L’ORSA est un processus d’analyse quantitative propre à chaque entreprise qui vise deux objectifs principaux : • déterminer les capitaux économiques requis en fonction du profil de risque et des orientations stratégiques prévues et de la conjoncture économique. • permettre un pilotage et un suivi permanent des risques. 1.2.2 ORSA vs. Pilier 1 La prise en compte des orientations stratégiques selon le profil de risque et de la continuité du pilotage des risques prolonge la logique du pilier 1 selon deux dimensions : • La dimension Risques : la cartographie des risques présentés au pilier 1 ne permet pas de capter certains risques difficiles à quantifier mais étant néanmoins importants pour l’assureur : il s’agit, par exemple, du risque de liquidité ou du risque de réputation. • La dimension Pluriannuelle et de contrôle permanent : les exigences du pilier 1 en termes de SCR sont à horizon un an alors que l’assureur a besoin de considérer son besoin global de solvabilité à tout instant, sur un horizon de temps plus important en tenant compte des changements potentiels futurs du profil de risque de l’entreprise. Bien que devant rester cohérent et conforme aux exigences du pilier 1, l’ORSA n’est donc pas un second calcul de SCR. L’ORSA est donc avant tout un outil d’aide à la décision pour la Direction. Il doit à ce titre être opérationne, pour aider les dirigeants dans la prise de décisions opérationnelle. 1.2.3 Principe de mise en œuvre Les textes réglementaires ne sont pas très directifs quant à la mise en œuvre de l’ORSA, la politique de l’autorité de contrôle étant de laisser aux entreprises le plus de marge possible pour qu’elles s’approprient cet outil et l’ajustent le plus finement possible à leur activité et à leur profil de risque. 13 Par définition, l’ORSA fait le lien entre le risk management, la gestion du capital et les orientations stratégiques de l’entreprise. Il permet d’assurer qu’au sein de la compagnie, d’une part on ne s’expose pas financièrement au-delà des limités souhaitées et possibles et d’autre part que les informations importantes concernant les risques reçoivent une attention adéquate de la part du management. Les principaux acteurs et étapes de l’implémentation de l’ORSA sont définies dans la figure 1.3. Figure 1.3 – Mise en place de l’ORSA Le point de départ de la mise en place de l’ORSA est la définition des orientations stratégiques de la compagnie : 1. Puisque l’ORSA nécessite une approche pluriannuelle, il est nécessaire de définir dans un premier temps l’horizon temporel que l’entreprise veut considérer. E particulier, le management doit décrire les objec14 tifs stratégiques de l’entreprise sur cet horizon de temps donné et doit définir des indicateurs quantitatifs de mesure des perspectives avancées. Ces objectifs stratégiques couvrent tout aussi bien le business plan (production nouvelle, les rendements espérés...) que la politique de l’entreprise (allocation d’actifs, ...). 2. Dans une seconde étape, le risk management transcrit cette stratégie en termes de risque. Cette étape implique la définition de trois notions relatives à la structure de risque de l’entreprise : l’appétence au risque, le profil de risque et la tolérance au risque. – L’appétence au risque est le niveau de risque global qu’une entreprise est prêt à prendre pour atteindre ses objectifs stratégiques sur l’horizon de temps donné. Cette limite gloable de prise de risque s’exprime sous forme des mesures de risques. Par exemple : Le ratio de couverture du SCR à 5 ans doit être supérieur à 150% F P0 < 150%) < 5% dans 95% des cas i.e : P( SCR 5 – Le profil de risque d’une entreprise est le niveau de risque auquel la compagnie est exposée au moment du calcul. Il peut être exprimé de manière qualitative ou quantitative mais il doit se mesurer de manière cohérente avec l’appétence au risque. Le profil de risque peutêtre consititué de divers éléments comme le montant des fonds propres, le SCR, le montant maximal de perte que l’entreprise peut supporter. – La tolérance au risque est le niveau maximal de risque qui peut être pris sachant un profil de risque donné. Contrairement aux deux notions précédentes, la tolérance au risque n’est pas un niveau fixé par l’entreprise puisqu’elle relève non pas de la volonté mais de la capacité de l’entreprise à prendre des risques. A l’instar du pillier 1, l’ORSA nécessité également une cartographie des risques pour identifier les différents facteurs de risque auxquels l’entreprise est soumise. Cette identification est cependant plus fine que celle du pilier 1 car elle doit prendre en compte les risques non considérés par ce pillier tels que le risque de réputation comme cité précédemment mais aussi les risques latents et les risques émergents. Selon l’article 44, paragraphe 2 de la directive Solvabilité II , l’ORSA 15 doit au moins couvrir les risques suivants : souscription et provisionnement ; gestion actifs/passifs ; investissment, en particulier dans les produits dérivés et similaires ; risque de liquidité et de concentration ; risque opérationnel et réassurance et techniques d’atténuation du risque 3. Les risques précédemment identifiés doivent être évalués conformément aux orientations stratégiques et au business plan. Il convient pour cela de définir une mesure de risque adéquate aux choix et objectifs stratégiques de l’entreprise. Plusieurs mesures de risque peuvent être choisies : V aR, T − V aR, la probabilité de ruine... et il convient de sélectionner celle qui correspond le mieux au profil de risque de la compagnie. La mesure de risque choisie permet ensuite de déterminer le besoin global de solvabilité de l’entreprise. Les Consultations Paper fournies par l’EIOPA insistent sur le fait que l’ORSA n’est pas un second calcul de SCR : la valeur obtenue à un an doit être cohérente avec les exigences du pilier 1 mais l’ORSA ne nécessite pas un modèle interne et la mesure de risque n’est plus imposée. 4. Enfin, l’ORSA constitue un outil de pilotage et d’alerte pour le management ; son implémentation doit donc conisdérer le suivi régulier des indicateurs prédéfinis et pour ce faire il est important de prendre en compte la possibilité de refaire les calculs à chaque instant ou d’avoir un processus suffisamment performant qui permette au management de détecter les situations à risque et de réagir en conséquence pour ajuster les orientations stratégiques prises par l’entreprise. L’approche de la mise en place de l’ORSA retenue ici est d’opérer le suivi du besoin global de solvabilité sous des contraintes de business plan et d’appétence au risque. Mais dans le cas de l’assurance vie, le calcul du besoin global de solvabilité soulève des problématiques de temps de calcul importantes qui donnent lieu au développement de méthodes d’approximations numériques. C’est la présentation de l’une de ces méthodes numériques dans le contexte de l’ORSA qui fait l’objet principal de ce mémoire. 16 1.3 L’Assurance Vie L’activité d’assurance en France est régie par le Code des assurances, elle est définie juridiquement comme un contrat aléatoire par lequel un organisme dit "L’assureur" s’engage envers une ou plusieurs personnes dites "Les assurées", moyennant une rémunération appelée "prime", à verser une prestation en cas de réalisation d’un ensemble de risques définis dans ledit contrat appelé "police d’assurance". 1.3.1 Définition L’assurance vie est un contrat à prime unique ou à prime périodique dans lequel le versement de la prestation est conditionné à la réalisation du risque de décès ou de survie selon le type de contrat souscrit. Ce contrat bénéficie en outre du régime fiscal de l’assurance vie. Au sens large, l’assurance vie comprend plusieurs types d’assurance que l’on peut catégoriser en 2 grands groupes : l’assurance de personnes et l’assurance individuelle. On choisit dans ce mémoire de s’intéresser à l’assurance individuelle et principalement aux produits d’épargne. 1.3.2 L’épargne Usuellement, on fait la distinction parmi les produits d’épargne entre : – les contrats d’épargne retraite qui permettent à l’épargnant d’acquérir un capital supplémentaire qui lui sera reversé soit sous forme de capital au moment de son départ à la retraite, soit sous forme de rente viagère. – les contrats d’épargne qui permettent à l’assuré de constituer ou de faire fructifier un capital, plus disponible et utilisable à de fins diverses. Ces derniers représentent la plus grande partie du marché de l’assurance vie en France. L’épargne en assurance vie constitue une solution répondant principalement aux objectifs suivants : • Constitution d’un capital supplémentaire de manière souple : les versments étant libres, l’assuré peut épargner à son rythme. De plus, le capital épargné est disponible à tout moment, cependant les retraits 17 sont fiscalement plus avantageux après 4 ans et plus encore après 8 ans de vie du contrat. Ce capital est majoritairement utilisé par les épargnants à titre de précaution pour protéger leurs proches. • Organisation de la succession : l’assurance vie bénéficie d’un régime fiscal privilégié qui permet une transmission du capital sous des conditions fiscales très avantageuses au regard des droits de successions. Les produits proposés en assurance vie se déclinent en trois grandes familles de contrats : i) les contrats à capital différé avec contre assurance : Ils sont majoritaires en France. Ce sont des contrats dans lesquels l’assuré épargne un capital qui fructifiera pendant une durée déterminée à l’avance par le souscripteur et qui lui sera versé au terme de cette durée. Par contre, si le souscripteur décède pendant la durée du contrat, l’assureur s’engage à verser immédiatement à ses bénéficiaires le capital acquis, ce qui correspond à une assurance décès. Ce type de contrat implique une disponibilité du capital à tout instant et donc la possibilité pour l’assuré de racheter son contrat. ii) les contrats mixtes : ce sont des contrats qui garantissent à la fois une assurance en cas de vie et une assurance en cas de décès. iii) les rentes viagères immédiates : ce sont des contrats qui garantissent à l’assuré le versement d’une rente jusqu’à son décès. Les contrats d’assurance vie se répartissent en 3 catégories : • les contrats monosupports en euros : ce sont des contrats qui ne comportent qu’un seul support d’investissement en euros, appelé "Fonds en Euro" ; • les contrat multisupports : ce sont des contrats qui comportent plusieurs supports d’investissements constitués d’un fonds en euro d’une part et d’un fonds dit en "Unités de Compte" d’autre part. Les unités de compte sont des supports d’investissements qui peuvent être constitués de fonds obligataire ou de fonds en action (SICAV, OPCVM....), la particularité du fonds en unités de compte réside dans le fait que sur ces investissement le risque n’est plus porté par l’assureur mais par l’assuré uniquement. 18 • les contrats "gouvernementaux" tels que le PERP ou le contrat Madelin. 1.3.3 Les options et garanties financières Les contrats d’épargne en assurance vie sont le plus souvent assorties de diverses options et garanties financières qui sont des droits conférés aux assurés. La plupart du temps ces options et garanties financières ne sont pas prises en compte de manière explicite dans la tarification du contrat et l’exercice de ces options et garanties par les assurés selon la conjoncture économique ou par décision arbitraire peuvent impacter de manière considérable le contrat. Elles représentent également un risque pour l’assureur. Les options et garanties financières les plus communes sont : – le taux minimum garanti : cette option définie dans le contrat garantit un taux de revalorisation minimale de l’épargne. – le rachat : cette option donne à l’assuré le droit de récupérer tout ou partie de son épargne à tout moment. – l’arbitrage entre les différents fonds : dans le cadre des contrats multisupport cette option permet à l’assuré de répartir librement son épargne entre les divers supports disponibles à chaque instant. – la garantie plancher : cette option garantit à l’assuré le versement d’un certain capital, qui correspond le plus souvent au capital investi, en cas de décès avant la fin du contrat. – l’option de conversion en rente : cette option permet à l’assuré de récupérer le capital accumulé non pas sous forme d’un versement unique à l’issue du contrat mais sous forme de rente viagère. Ces différentes options et garanties sont souvent considérées comme "cachées" dans un contrat d’assurance et la détermination de leur valeur, essentielle au calcul du Best Estimate ou de la MCEV, nécessite l’utilisation de méthodes stochastiques. 19 Chapitre 2 Simulations dans Simulations en Assurance Vie La directive solvabilité II recommande l’utilisation de la Value at Risk V aR99,5% à horizon 1 an comme mesure de risque pour le calcul du SCR. Elle définit donc le capital économique comme étant que quantile à 99,5% de la distribution des fonds propres économiques de l’entreprise dans un an. Dans le cadre de l’assurance vie, la distribution de fonds propres est complexe à obtenir à cause du nombre important de facteurs de risques et de la sophistication des interactions Actif/Passif qui découlent principalement des mécanismes de participation aux bénéfices et des possibilités de rachats offertes aux assurés. Ces mécanismes peuvent se comprendre comme des options et des garanties financières proposée aux assurés dont la valeur temps doit être évaluée pour déterminer le Passif de l’entreprise et cette évaluation ne peut se faire que par le biais de simulations stochastiques en univers risque-neutre. 2.1 Projections futures : Univers Réel vs RisqueNeutre Nous allons ici formaliser les notions d’univers réel et d’univers risque neutre qui seront utiles dans la suite du document. Considérons un marché comportant un actif risqué et un actif non risqué. 20 On suppose que l’actif risqué vérifie : dSt = µt dt + σt dWt St et l’actif sans risque évolue selon dBt = rt dt Bt Par définition, rt est le taux sans risque. Tous ces processus sont définis sur un espace probabilisé filtré (Ω, F, P), et P est appelée probabilité historique, ou quelquefois probabilité objective. Les trajectoires observées dans les historiques de cours apparaissent en particulier sous cette probabilité, et dans le modèle W est un mouvement brownien adapté à la filtration sous la probabilté P. t , on peut dire que λ représente l’excès de renSi l’on introduit λt = µtσ−r t dement par rapport au taux sans risque (µ − r), par unité de risque (σ). Ce paramètre est appelé la prime de risque. Alors l’EDS de l’actif peut s’écrire : dSt = (rt + σt λt )dt + σt dWt St = rt dt + σt dWt + λt dt f , qui est défini par On introduit alors un nouveau processus W ft = dWt + λt dt dW entraînant ainsi dSt ft = rt dt + σt dW St Sous la probabilité P, par définition W est un mouvement brownien, mais ce f . Toutefois, on dispose du théorème de Girsanov, qui n’est pas le cas de W f est une affirme qu’il existe une probabilité Q équivalente à P sous laquelle W martignale. Cette probabilité est appelée risque-neutre, car elle ne comporte plus de prime de risque, qui a été incorporée au brownien. Le rendement de S sous cette probabilité est simplement le taux sans risque. Dans le cas du calcul du capital économique, l’univers réel ou univers historique est l’univers de projection à horizon un an représente l’état du monde tel qu’observable sur le marché (cours des actions, taux, ...) donc les 21 valeurs estimées des paramètres dans cet univers réflètent les valeurs que l’on constate dans la réalité. L’univers risque neutre ou "Market consistent" est basé sur la neutralité des instruments financiers vis à vis du risque, en moyenne ils se comportent tous comme un actif sans risque. Une conséquence pratique directe est qu’en univers risque neutre les taux de rendements et les taux d’actualisation sont les mêmes et il n’y a pas de prime de risque. C’est dans cet univers financier que l’on évlaue les différentes postes du bilan en considérant l’espérance des cash-flows futurs actualisés. 2.2 Nested Simulations : Le Problème Pour assurer la couverture du besoin de solvabilité de la compagnie sur un horizon pluriannuel, il est nécessaire de déterminer la distribution des fonds propres à chaque date considérée i.e chaque année. Etant donné, le nombre de facteurs de risque et la complexité potentielle de la distribution de ces facteurs de risque, il est naturel d’adopter une approche par simulations. Cette méthode consiste à effectuer un premier jeu de simulations MonteCarlo en univers réel (real-world). Chaque trajectoire de ces simulations sont dénommées "trajectoires primaires" et décrit un état économique du monde en t = 1. Puis sur chacune de ces trajectoires primaires, un second jeu de simulations Monte-Carlo composé de trajectoires dites "secondaires" est effectué pour évaluer chaque poste du bilan en univers risque neutre afin de prendre en compte les options et garanties financières des contrats. Dans la pratique, chaque jeu de simulation requérant entre 1 000 à 10 000 simulations, il y aura au total quelques dizaines à quelques centaines de millions de simulations à effectuer. De plus, le passif des entreprises est exprimé sous formes de polices représentatives ou models points qui se chiffrent par dizaines ou centaines de milliers. Une évaluation standard des fonds propres économiques nécessiterait donc 100.000 model points projetés sur 10 millions de trajectoires : la puissance de calcul des ordinateurs actuels ne permet pas un tel volume de calculs en un temps raisonnable. L’approche dite des "Simulations dans Simulations" ou "Nested Simulations", bien que simple en théorie, pose donc un problème important de ressources et de temps de calcul dans son implémentation pratique. 22 Figure 2.1 – Simulations dans Simulations 2.3 Techniques d’approximations existantes Pour palier à ce problème de puissance de calcul posé par l’approche directe des "Simulations dans simulations", plusieurs techniques ont été développées. Le principe commun de ces techniques est de chercher à s’affranchir le plus possible des simulations secondaires soit en effectuant une séléction "judicieuse" des trajectoires à projeter et réduisant ainsi leur nombre soit en estimant des proxys du passif de l’entreprise. Un panorama non exhaustif de ces techniques est présenté dans la suite. 23 2.3.1 Algorithme d’accélération des simulations dans simulations Cette méthode a été développée par L.Devineau et S.Loisel en 2009. Elle vise à réduire le nombre global de simulations à effectuer dans le cadres des simulations dans simulations. Le principe de base de cette méthode consiste à sélectionner les trajectoires les plus adverses en termes de solvabilité en fonction des facteurs de risques choisis et de ne faire les simulations que le long de ces trajectoires adverses. L’algorithme d’accélération SdS s’implémente en trois étapes clés : i) Extraire les facteurs de risque élémentaires ie les facteurs (actions, taux, mortalité,...) qui ont le plus d’impact sur les éléments du bilan pour chaque simulation primaire ii) Définir une région de confiance à seuil fixé : les simulations primaires pour lesquelles les facteurs de risques sont à l’extérieur de la région de confiance sont effectuées iii) Faire des itérations sur le seuil de la région de manière à intégrer à chaque étape un nombre de points supplémentaires L’algorithme s’arrête lorsque les N "pires valeurs" des fonds propres économiques sont stabilisées. La figure 2.2 illustre le fonctionnement de cet algorithme. 24 Figure 2.2 – Algorithme accélérateur des simulations dans simulations L’avantage principal de cette méthode est qu’elle réduit considérablement les temps de calcul et les ressources nécessaires, de plus elle permet de prendre en compte un grand nombre de risques. Elle permet également d’intégrer les effets de diversifications dans le cas des portefeuilles consolidés, mais surtout elle ne régionalise pas l’analyse et évite de laisser de côté certains cas. Par contre, la vitesse de l’algorithme diminue lorsque le nombre de facteurs de risques augmente d’où la nécessité de sélectionner soigneusement les facteurs qui véhiculent le plus gros risque pour le portefeuille. La fonction qui calcule la valeur de départ du portefeuille doit être également vérifiée, car si elle est incorrecte elle peut conduire à un piégage de l’algorithme. 25 2.3.2 Curve fitting Le curve-fitting est une méthode dite de proxy. Elle consiste à calculer la valeurs des éléments du bilan correspondant à plusieurs scénarios de stress sur les facteurs de risques du portefeuille et à ensuite ajuster une courbe aux résultats obtenus via une fonction d’interpolation (polynomiale, spline, surface multidimensionnelle). La courbe obtenue sert alors à représenter la distribution complète des actifs/passifs et par conséquent la distribution des Fonds Propres. La méthode "Curve Fitting" consiste à : i) Sélectionner un nombre réduit de simulations primaires à effectuer 150 par exemple au lieu de 5000 dans la version originelle des simulations dans simulations ii) Appliquer l’approche "Nested simulations" aux simulations primaires sélectionnées i.e lancer par exemple 1000 simulations secondaires sous probabilité risque neutre pour chacune des 150 simulations en univers réel iii) Effectuer une régression entre la série des fonds propres économiques obtenus via les simulations primaires et la série des différents facteurs de risque de l’entreprise iv) Appliquer la fonction de régression calibrée à l’ensemble des 5000 simulations primaires devant être effectuées avec la méthode des simulations dans simulations normale. 26 Figure 2.3 – Méthode Curve Fitting L’avantage est de cette méthode est qu’elle exprime la distribution des fonds propres sous une forme paramétrique donc facilement exploitable, en outre elle fournit un indicateur de suivi du résultat facile à analyser : le R2 de la régression. La méthode de "Curve fitting" permet évidemment de réduire le nombre de simulations et d’accélérer le calcul de la distribution des fonds propres. Néanmoins, dans le cas où il y a un grand nombre de facteurs de risque et/ou des fonction d’interpolations complexes, le nombre de simulation à effectuer reste élevé. 2.3.3 Replicating Portfolio A l’instar de la méthode de "Curve fitting", la méthode appelée "Replicating Portfolio" vise à obtenir un proxy des passifs de la compagnie. Elle 27 consiste à construire un portefeuille d’actifs financiers existants sur le marché dont la valeur fournit une estimation quasi immédiate des fonds propres économiques à chaque instant. En substance, on cherche à répliquer les cash-flows du passif à partir d’un portefeuille d’actifs dont les cash-flows sont les mêmes. On commence par construire un ensemble de scénarios primaires et secondaires et pour chaque scénario économique primaire, on calcule les cash-flows des passifs à chaque date pour l’ensemble des scénarios construits. Le coeur de la méthodes consiste ensuite à sélectionner et paramétrer les actifs candidats pour constituer le portefeuille répliquant ; cette étape nécessite la résolution d’un programme d’optimisation pour estimer le poids de chaque actif candidat dans le portefeuille. Il suffit ensuite d’utiliser le portefeuille répliquant comme proxy des passifs pour déterminer la distribution des fonds propres économiques, étant donné que l’on connaît les valeurs de marché de chaque actif constituant du portefeuille. Le Replicating Portfolio présente l’avantage d’être une idée élégante qui, si correctement mise en œuvre, permet d’évaluer très facilement et de manière continue le passif d’une entreprise et facilite donc grandement l’évaluation de la PVFP utile en assurance autant pour le calcul du SCR que celui de la MCEV. Par contre, l’inconvénient majeur de cette méthode est qu’elle ne prend en compte que les risques de marché et ne permet pas de capter l’impact des aspects comptables et du comportement des assurés sur le bilan. En outre, la sélection des actifs candidats reste complexe et peut elle-même soulever des problèmes numériques. 2.3.4 Least-Square Monte-Carlo La méthode Least-Square Monte-Carlo est également une méthode création d’un modèle de proxy de passifs. C’est la méthode qui a été choisie dans ce mémoire pour faciliter la mise en place du calcul de la distribution des fonds propres économiques dans le cadre de l’ORSA. Elle repose comme son nom l’indique sur un principe de régression via la méthode des moindres carrés. On choisit de développer la méthode Least-Square Monte- Carlo (LSMC) dans ce mémoire, car c’est une technique qui a l’avantage de permettre la prise de compte de risques autres que les risques de marché tels que le risque 28 de rachat ou de mortalité. De plus, son fondement mathématique qui sera présenté ultérieurement assure une mise en œuvre pratique qui doit être facilement réalisable. Enfin, cette méthode est très récente pour le monde de l’assurance et les travaux relatifs à son utilisation sont encore en cours, elle présente donc un intéret actuariel important. 29 Chapitre 3 La méthode Least-Square Monte-Carlo La méthode Least-Square Monte-Carlo a été originellement développée par Longstaff et Schwartz pour le calcul des options américaines. Le cadre imposé par Solvabilité II pour l’évaluation et le contrôle permanent des fonds propres économiques dans le cadre de l’ORSA posent de nombreux problèmes d’implémentation pratique, comme vu dans la partie précédente, notamment avec la problématique des simulations dans simulations. En raisonnant par analogie avec la finance, un contrat d’assurance vie pouvant par exemple être assimilé à un put américain, les assureurs ont développé des techniques d’approximations du calcul de ces simulations dans simulations et la méthode Least-Square Monte-Carlo (LSMC) est l’une d’entre elles. 3.1 Principe et cadre théorique L’algorithme LSMC (Least Square Monte Carlo) est une méthode de Monte Carlo visant à estimer des espérances conditionnelles via un ensemble de fonctions de base. Dans le cadre de l’ORSA, il sert à faciliter le calcul de la distribution des fonds propres et par conséquent des SCR pluriannuels ou de d’autres indicateurs de solvabilité. 3.1.1 Principe de la méthode Cet algorithme constitue une approximation numérique d’un calcul de « Nested simulations ». Au lieu d’effectuer plusieurs simulations secondaires 30 pour chaque trajectoire primaire, on se contente de générer une seule et unique trajectoire secondaire pour chaque simulation primaire. Par exemple, on simule l’évolution du marché sur 2 années sous probabilité historique ce qui nous donne la valeur de marché des actifs à la date t = 2 ans puis à partir de ce point on simule l’évolution du marché sur 30 années sous probabilité risque-neutre sur une seule trajectoire pour pouvoir évaluer les autres postes du bilan, en particulier le Best Estimate. On en déduit ensuite une valeur des fonds propres à la date t = 2 ans. Cette valeur obtenue représente une réalisation approximative de la valeur réelle des fonds propres à cette date, qui aurait été estimée plus précisément par la moyenne empirique des nombreuses simulations secondaires des Nested Simulations. On va donc chercher à effectuer une régression par rapport au nuage de points obtenu pour déterminer une courbe qui décrit l’espérance des fonds propres en fonction de plusieurs paramètres. Figure 3.1 – Méthode Least-Square Monte-Carlo (LSMC) 31 La différence d’approche par rapport aux Nested Simulations est représentée dans la figure 3.1.1 : à gauche, on voit que les Nested Simulations permettent, pour chaque trajectoire primaire (abscisse), d’estimer avec précision la fonction espérance des fonds propres selon l’état du monde grâce aux différentes trajectoires secondaires. A l’inverse, lorsqu’une seule trajectoire secondaire est retenue (graphique de droite), l’estimation est beaucoup moins précise, mais peut être complétée par une régression du nuage, ici en pointillés, qui fournit une estimation de la fonction. Les Nested Simulations correspondent donc à une estimation point par point, tandis que le LSMC avec sa régression adopte une approche d’estimation fonctionnelle globale. Figure 3.2 – En bleu, les "vrais" fonds propres en fonction d’une variable explicative. A gauche, fonds propres obtenus comme moyenne d’un grand nombre de trajectoires secondaires (Nested simulations) par trajectoire primaire (en abscisse). A droite, les fonds propres obtenus pour une trajectoire secondaire par trajectoire primaire, et la régression (en pointillé) du nuage de points obtenu. Les trajectoires primaires des deux graphiques sont les mêmes. 3.1.2 Formalisation théorique Le cadre théorique et mathématique de cet algorithme est le suivant : On se place dans un espace complet probabilisé filtré (Ω, F, P, F = (Ft )t∈[0,T ] ) où – Ω est l’univers des possibles – F la tribu associée 32 – P la probabilité historique – F la filtration naturelle qui reflète toute l’information disponible sur le marché à la date t On sait que dans le bilan économique, les fonds propres peuvent s’assimiler à la différence suivante qui correspond à une Net Asset Value (NAV) : F Pt = At − Pt où At correspond à la valeur de marché des actifs à la date t et Pt correspond à la valeur de marché des passifs à la date t que l’on va assimiler uniquement au Best Estimate pour des raisons de simplification. On introduit les processus Markoviens (Y, D) = (Yt , Dt ) qui synthétisent respectivement les risques financiers et l’état du marché ainsi que le niveau du passif à chaque instant. On admet également que le théorème de Girsanov s’applique et qu’il existe une probabilité risque neutre Q équivalente à P sous laquelle les (Yt ) actualisés au taux sans risque rt sont des martingales. On note (Xt )t∈[0,T ] les cash flows futurs. On suppose qu’il existe un Tuplet de fonctions f1 , f2 , ..., fT telles que ∀t, Xt = ft ((Ys , Ds ), s ∈ [0, t]) Et on a évidemment l’existence d’un T-uplet de fonctions g1 , g2 , ..., gT telles que : ∀t, At = gt (Ys , s ∈ [0, T ]) Les fonds propres à une date t, notés F Pt , s’expriment donc, pour chaque trajectioire i et toute date t ∈ {0, . . . , T } : ! T X R (i) (i) (i) − k ru (i) (i) (i) du Xk e t | (Yt , Dt ) F Pt = EQ At − k=t+1 = EQ gt (Ys(i) , s ∈ [0, t]) − T X f (Ys(i) , Ds(i) )s∈[0,t] e− k=t+1 ce qui s’écrit encore sous la forme (i) F Pt = EQ ht (Ys(i) , Ds(i) )s∈[0,t] 33 (i) t ru Rk ! du (i) (i) | (Yt , Dt ) Dans l’espace L2 (Ω, σ(Y, D), P), l’espérance conditionnelle prend la forme d’une projection orthogonale. On l’approche en dimension finie par une combinaison linéaire de la base de l’espace engendré par les variables de conditionnement. Ainsi, on peut approximer F Pt par d F P t (Yt , Dt ) = M X αk · ek (Yt , Dt ) k=1 où (ek (Yt , Dt ))k=1,...,M est une base de fonctions d’un sous-espace de l’espace engendré par (Y, D) de dimension M . Il suffit donc de déterminer les coefficients (αk ) de cette combinaison linéaire pour avoir une expression de la d valeur de F P t. En calculant pour N trajectoires les fonds propres, ! T X RT ^ (i) Xk e− k ru du ∀t, ∀i = 1, . . . , N F Pt = At − k=t+1 On peut utiliser ces réalisations pour en déduire les coefficients (α1 , . . . , αM ) d de l’approximation F P t en résolvant : " #2 N M X X ^ (i) d (N ) α = argmin F Pt − αk · ek (Yt , Dt ) α∈RM i=1 k=1 d On se sert ensuite de F P t pour évaluer de manière approchée F Pt . 3.2 Processus de mise en œuvre Dans la pratique, on applique la méthode LSMC selon les étapes représentées dans la figure 3.2 34 Figure 3.3 – Etapes de la méthode LSMC 3.2.1 Etape 1 : Identifier les facteurs de risque Cette première étape permet de discerner les différents paramètres qui créent de l’aléa et donc du risque au sein du portefeuille d’assurance vie considéré. Outre cette identification, cette étape sert aussi à faire le tri entre les facteurs de risques auxquels les fonds propres sont très sensibles et ceux auxquels ils le sont moins, l’objectif étant de réduire au maximum ces facteurs pour ne pas avoir trop de paramètres dans la modélisation et ne garder que ceux qui sont significativement impactants. 35 3.2.2 Etape 2 : Sélectionner des scénarios de trajectoires Cette étape nécessite un Générateur de Scénarios Economiques pour définir une table de scénarios. La particularité du générateur de scénarios économiques utilisé dans cette approche est qu’il doit permettre de faire une trajectoire qui est simulée sous probabilté historique sur une première période puis sous probabilité risque neutre pour le temps restant jusqu’à l’horizon de projection voulu. Par exemple, pour le calcul du SCR en assurance vie, il faut pouvoir projeter l’évolution des paramètres économiques tels que les cours des actions ou les taux en univers réel jusqu’en t=1, puis à partir de t=1 faire des projections en univers risque neutre sur une période de 30 ou 40 ans pour évaluer chaque poste du bilan et notamment le Best Estimate. 3.2.3 Etape 3 : Lancer les N simulations Monte-Carlo Les simulations Monte-Carlo nécessitent dans le cas particulier de l’assurance vie d’avoir un outil de projection des flux et des états financiers qui prenne en compte les interactions Actif/Passif. Pour chaque trajectoire (Y (i) , D(i) )i=1,...,N une valeur de fonds propres est calculée. Le N -uplet de valeur de fonds propres obtenues représente l’échantillon qui va permettre la régression. 3.2.4 Etape 4 : Choisir les fonctions de base Cette étape est déterminante dans l’utilisation de la méthode car elle va permettre de choisir les fonctions (ek (Y, D))k=1,...,M sur lesquelles la régression sera effectuée. L’enjeu est de choisir des fonctions suffisament complexes pour prendre en considération les différentes sensibilités aux facteurs de risque mais, dans le même temps, suffisamment simples pour que la mise en œuvre opérationnelle soit faisable. Le choix le plus commun est l’utilisation d’une base de polynômes. 3.2.5 Etape 5 : Effectuer la régression Cette étape constitue le cœur de la méthode d’approximation. On y détermine les coefficients (b αk )k=1,...,M avec la méthode des moindres carrés. Cette méthode, si elle est facile à concevoir en théorie, présente néanmoins de grands défis techniques dans la pratique notamment en termes de méthodes numériques. Ces méthodes numériques seront d’ailleurs abordées ultérieurement. 36 3.2.6 Etape 6 : Mesurer l’erreur obtenue et valider les fonctions de base choisies La mesure de l’erreur commise peut se faire de deux manières différentes : – Soit par un calcul de fonds propres réels s’il y a à disposition un modèle ALM suffisament puissant pour effectuer un jeu de quelques simulations dans simulations. Il suffira alors de comparer les valeurs obtenues par la fonction estimées avec celles fournies par le modèles toutes choses étant égales par ailleurs. – Soit en définissant un intervalle de confiance autour de la fonction à estimer dans lequel on considère que la marge d’erreur est suffisamment faible pour valider les coefficients obtenus. Cet intervalle de confiance peut être obtenu grâce à des techniques statistiques telles que le bootstrap ou dite de Jacknife. Dans ce mémoire, on utilisera des techniques de Bootsrap pour assurer la fiabilité de la méthode. 3.2.7 Etape 7 : Utiliser les fonctions obtenues pour le suivi de l’indicateur de besoin global de solvabilité Les fonctions obtenues sont un moyen rapide et efficace de déterminer la distribution des fonds propres à une date donnée t. En effet, on a obtenu une expression relativement simple et moins onéreuse en termes de temps de calcul et de ressources des fonds propres à une date t en fonction des facteurs de risques principaux du portefeuille dont les valeurs sont observables sur le marché. Elles permettent donc d’évaluer le SCR à cette même date et par conséquent elles sont l’outil idéal pour opérer un suivi de l’indicateur de besoin global en solvabilité qui aura été défini préalablement en fonction du SCR. 37 Chapitre 4 Application à un produit d’épargne multi-supports Ce chapitre constitue la mise en œuvre pratique de la méthode, y sont présentés les différents modèles utilisés ainsi que les hypothèses prises pour mener à bien les démarches opérationnelles. 4.1 Description du produit On s’intéresse à une compagnie d’assurance qui propose uniquement des contrats d’assurance vie Multi-supports qui garantissent à l’assuré. • en cas de vie, la constitution d’un capital libellé en euros ou en unités de compte versé en une fois au terme du contrat ; • en cas de décès avant la fin du contrat, le versement du capital constitué aux bénéficiaires de l’assuré ; L’assuré peut répartir son capital entre un fonds en Euro et un fonds en UC. 4.1.1 Caractéristiques techniques et hypothèses L’objet du mémoire étant pas le calcul des fonds propres économiques via la mise en place de la méthoe LSMC, on s’intéresse à un model point contitué par un groupe d’assuré âgé en moyenne de 55 ans avec 5 ans d’ancienneté au moment du calcul. 38 On s’intéresse directement au compte de résultat et au bilan de ce groupe d’assurés sans avoir de données tête par tête. Ce qui nous importe étant les flux futurs du portefeuille, on peut directement raisonner de manière générale comme si l’on n’avait qu’un seul assuré qui synthétiserait les caractéristiques moyennes des membres du model point. Ces données ont été retraités de manière à conserver les ordre de grandeur du bilan et du compte de résultat tout en le simplifiant le plus possible : par exemple, on a incorporé aux provisions mathématiques d’origine certaines provsions réglementaires (PPB) et/ou aux fonds propres les différentes provisions la réserve de capitalisation. Les paramètres du contrat ont été ajustés au mieux pour correspondre au produits existants sur le marché. On suppose que ces contrats sont d’une durée de 20 ans prorogeable et qu’ils proposent les garanties suivantes : Taux Minimum garanti 0% Taux de Participation aux bénéfices 90% Possibilité de rachat total uniquement Possibilité d’arbitrage entre les fonds Euro et UC On suppose également que le taux technique est égal au TMG et fixé à 0%. La rémunération de l’assureur se fait sur divers chargements : Chargement sur primes Chargement sur encours Euros Chargement sur encours UC Chargement de gestion des Sinistres Pénalités d’arbitrages Pénalités de rachat 1% 0,60% 0,50% 3% 1% 1% Par ailleurs, l’assureur doit s’acquitter de plusieurs frais dans la gestion de ces contrats : Frais d’acquisition Frais de gestion Frais généraux 39 1,75% 0,50% 0,15% 4.1.2 Bilan en t = 0 Au 31 décembre de l’année N, qui constitue l’année de référence, les bilans comptable et économique de l’assureur sont les suivants : Figure 4.1 – Bilans comptable et économique en euros 4.1.3 Orientations stratégiques L’option retenue pour la modélisation est de mettre en place un système de gouvernance sur 3 années, qui vise à satisfaire à l’indicateur de suivi des 40 risques suivant : P (F PN ≤ 0) < 10% pour N = 1, 2, 3 C’est à dire que l’on veut s’assurer qu’il n’y a pas de ruine économique sur les 3 années à venir avec une probabilité 90%. Cet indicateur va être déterminant dans la politique de gestion des risques et dans les décisions stratégiques que le management devra prendre. Pour des raisons de simplifications, on suppose qu’il n’y a pas de nouveaux entrants dans le portefeuille : on travaille donc sous hypothèse de run-off. Cette hypothèse s’éloigne de l’objectif voulu par l’ORSA mais l’implémentation de l’outil de projection étant fait sous Excel et ne constituant pas le coeur du problème, on retient cette supposition pour faciliter les calculs et obtenir des résultats pour pouvoir faire la régression. 4.2 Identification et Modélisation des facteurs de risques Les différents facteurs de risques auxquels est exposée la compagnie découlent de la cartographie des risques présentée dans la figure 4.2 41 Figure 4.2 – Risques de la compagnie Sur ce portefeuille, la compagnie est soumise principalement aux risques de mortalité, de rachat et aux risques de taux et d’action. Ces facteurs de risques traduisent l’aléa relatifs aux comportements de l’assuré et de l’assureur. Ils représentent donc les éléments à modéliser pour la projection. 4.2.1 Hypothèses de modélisation Pour les besoins de la modélisation, on suppose que les différents flux entrants et sortants du portefeuille (primes, rachats, sinistres, arbitrages,...) surviennent en fin d’année. Par souci de simplification, on fera abstraction des provisions réglementaires telles que la provisions pour risque d’exigibilité et la réserve de capitalisation. On suppose également que les participations aux bénéfices sont incorporées aux provisions mathématiques en fin d’année, il n’y a donc pas de provisions pour participation aux bénéfices. On admettra également que : 42 – le marché est liquide : il est possible d’acheter ou de vendre des actifs à tout instant – le marché est complet : tous les actifs sont simulables – Il y Absence d’Opportunité d’Arbitrage (AOA) – les rendements des portefeuilles obligataires , actions et immobilier suivent des processus gaussiens – les actifs sont supposés indéfiniment divisibles – on néglige les coûts de transaction Dans la suite, l’étude se place sur l’intervalle de temps [0,T] 4.2.2 Le risque de Taux Les taux sont les facteurs de risque du portefeuille obligataire qui représente un fraction importante du portefeuille d’actifs de l’assureur. On modélise le taux court par un modèle de Vasicek à un facteur. Dans ce modèle, on suppose que les taux sont décrits par un processus (r(t))t∈[0,T ] qui vérifie l’équation : dr(t) = a(b − r(t))dt + σdWt où Wt est un mouvement brownien standard et a, b et σ sont des constantes positives. La solution de l’équation différentielle stochastique ci-dessus permet (r(t))t∈[0,T ] sous la forme : Z t −at −at −at r(t) = r(0)e + b(1 − e ) + σe eas dWs 0 et r(t) suit une loi normale de moyenne et de variance respectivement égales à: E(r(t)) = r(0)e−at + b(1 − e−at ) −2at Var(r(t)) = σ 2 ( 1−e2a 43 ) Figure 4.3 – Modélisation du taux court : Vasicek à un facteur On peut donner une interprétation aux coefficients de l’équation différentielle stochastique : a représente la vitesse de retour à la moyenne b est la valeur à long terme vu que l’on a E(r(t)) −→ b t→∞ σ est la volatilité du processus Les taux courts permettent de déduire une modélisation de la courbe des taux Zéro-Coupon ou taux sans risque à une date donnée. Si on pose : Xt = r(t) − b alors (Xt ) est un processus d’Ornstein-Uhlenbeck qui satisfait à l’équation différentielle stochastique : dXt = −aXt dt + σdWt 44 Dans cette configuration, le prix des zéro-coupons de maturité T à la date T est : RT P (t, T ) = E e− t r(s) ds |Ft RT = e−b(T −t) E e− t Xs ds |Ft RT Le calcul de l’espérance conditionnelle E e− t Xs ds |Ft permet d’exprimer ce prix sous la forme : P (t, T ) = exp (−(T − t)R(T − t, r(t))) où, R(T − t, r(t)), qui s’interprète comme le taux d’intérêt moyen sur la période [T, t], est donné par la formule : 1 σ2 −aθ −aθ 2 R(θ, r) = R∞ − (R∞ − r)(1 − e ) − 2 (1 − e ) aθ 4a Dans le cadre de la modélisation, les paramètres ont été estimés pour s’ajuster le mieux possible à la courbe des taux actuelle. On a ainsi : a = 5%, b = 3, 50%, σ = 1% avec lesquels on obtient la courbe des taux figure 4.4 Pour obtenir cette calibration, le paramètre b a d’abord été fixé à 3,50%. Il s’agit en effet approximativement du niveau long terme observé sur la courbe zéro-coupon donnée par l’EIOPA. La forme de la courbe officielle ne permet pas à un modèle de Vasicek d’ajuster toutes les maturités. Ainsi, les maturités les plus longues étant gérées par le paramètre b comme on le voit sur le graphique, le paramètre a (force de rappel vers b) a été choisi pour minimiser les distances entre les taux zéro-coupon des courbes réelle et modélisée pour les maturités inférieures à 30 ans. Il en ressort a ≈ 5%, et l’on voit sur le graphique que les points modélisés se répartissent au-dessus de l’objectif pour les maturités inférieures à 10 ans, et sous l’objectif entre 10 et 30 ans. Enfin, le paramètre de volatilité a été fixé à 1%. Pour l’estimer, on a utilisé l’historique d’une année du taux EONIA dont on a déduit les accroissements quotidiens. L’écart-type de ces variations fournit un estimateur de la volatilité à 1 jour du taux court (en négligeant l’impact du retour à la moyenne, donc le 45 drift), soit ici 6,21 points de base. Le paramètre σ est obtenu en annualisant √ cette volatilité quotidienne, donc ici en multipliant par 256 puisque la série comporte 256 jours ouvrés. Le résultat est 0, 993%, que l’on a arrondi à 1%. Figure 4.4 – Courbe des taux modélisée et Courbe des taux réelle On observe sur ce graphique les limites que présente l’utilisation du modèle de Vasicek : en effet, le modèle de Vasicek ne permet pas de capter certaines formes particulières de la courbe des taux telles que les courbes inversées ou les courbes à creux ou à bosse telle que la courbe officielle ici. De plus, sous ce modèle, il existe une probabilité non-nulle d’obtenir des taux négatifs. Néanmoins, le modèle de Vasicek est suffisant pour le niveau de sophistication des modélisations voulues dans le cadre de ce mémoire. Une fois les taux modélisés, on peut déterminer le prix de l’obligation, supposée unique et à maturité glissante, quitte à prendre l’hypothèse que l’actif obligataire est systématiquement renouvelé grâce à des obligations qui ont les mêmes caractéristiques. Le prix d’une obligation est obtenu en actualisant les coupons futurs de l’obligation avec les déflateurs calculés avec le 46 mdoèle de Vasicek. Ces déflateurs se calculent de la manière suivante : Def lateur = Aert B avec A = exp σ2 b− 2 2a B 2σ2 (B − τ ) − 4a2 B = 1 − eaτ où a, b et σ sont les paramètres du modèles de Vasicek et τ = (T2 − T1 ) est la durée entre la date de calcul et la maturité. Par exemple, pour un zéro-coupon, P (T1 , T2 ) représente le prix à mettre en T1 pour toucher 1euro en T2 4.2.3 Le risque Action et Immobilier Par souci de simplification, on suppose que le portefeuille d’actifs de l’assureur peut être représenté par une seule action et d’un seul titre immobilier qui synthétisent les différentes caractéristiques des actifs actions et immobiliers présents. Les cours des actions et de l’immobilier sont modélisés par le modèle de Black & Scholes, i.e la dynamique de leur processus vérifie l’équation différentielle stochastique : dSt = St (µt dt + σ dWt ) avec µt , σ ∈ R et l’hypothèse : σ > 0. La solution de cette équation peut être obtenue sous forme explicite : Z t σ2 St = S0 exp µs ds − t + σWt , ∀t ∈ [0, T ] 2 0 On peut donc représenter le cours de l’action et de l’immobilier à chaque instant. Pour ce faire, on choisit de modéliser ces processus à partir de deux mouvements browniens (Wt1 , Wt2 ) différents mais corrélés : dStaction = Staction µ1,t dt + σ1 dWt1 dStimmo = Stimmo µ2,t dt + σ2 dWt2 47 avec σ1 = 20% et σ2 = 10% et Corr(Wt1 , Wt2 ) = 80% Le taux de rendement espéré µ1 , µ2 est lié au taux sans risque : µt = rt sous probabilité risque-neutre µt = rt + σ λ sous probabilité historique en choissant pour chaque probabilité le mouvement brownien W ou W̃ adapté. Le paramètre de prime de risque λ est constant, commun aux deux processus, de sorte que le surplus de rendement est proportionnel au risque représenté par la volatilité. Figure 4.5 – Modélisation du cours de l’action et de l’immobilier 48 On suppose que les valeurs initiales de l’action et de l’immobilier sont à 100. Les taux et le cours des actions et des valeurs immobilières sont les facteurs principaux modélisés par le générateur de scénarios économiques (ESG). En tout, quatre mouvements browniens ont été simulés pour concevoir l’ESG : un mouvement brownien pour modéliser les taux et donc la valeur des obligations et du monétaire. La calibration de l’action est beaucoup plus facile que celle des taux puisqu’il suffit de calibrer le paramètre de volatilité. Pour cela, on a utilisé la volatilité historique à un an de l’indice CAC 40 calculée en octobre 2012, soit environ 23%. On se contente d’un arrondi à 20%, car en pratique cette valeur n’est pas stable dans le temps 1 Enfin, la dernière classe d’actif est l’immobilier, avec ici encore un seul paramètre à calibrer, la volatilité. Pour cela on se réfère aux SCPI ou sociétés civiles de placement immobilier. De 1990 à 2010, ces sociétés ont connu une volatilité moyenne d’environ 10% 2 . 4.2.4 Les rachats Les rachats observés sur le portefeuille sont la somme de deux types de rachats : – les rachats structurels – les rachats conjoncturels 4.2.4.1 Les rachats structurels Les rachats structurels sont les rachats qui surviennent indépendamment du contexte économique et sur lesquels l’assureur n’a aucun moyen d’action. Ils sont dits incompressibles. Ces rachats dépendent principalement de la fiscalité en vigueur et de l’ancienneté. Il est donc plausible d’exprimer le taux de rachat structurel comme une fonction de l’ancienneté du contrat. 1. en finance, les analystes quantitatifs utilisent souvent des modèles à volatilité stochastique pour modéliser les actions et capter le phénomène de "smile" 2. source : http ://droit-finances.commentcamarche.net/faq/15163-scpi-les-avantagesde-la-pierre-papier 49 Dans le cas de l’étude, la fonction des taux de rachat structurel a l’allure suivante : Figure 4.6 – Taux de Rachat structurel A l’heure actuelle, les contrats d’assurance vie bénéficient d’une fiscalité privilégiée après 8 ans d’existence, d’où le pic de rachats observés à 8 années d’ancienneté. En effet, la fiscalité actuelle exonère d’imposition les plus-values effectuées sur un contrat d’assurance vie lorsque celui-ci a plus de 8 années d’existence. Dans le cas contraire, ces plus-values sont imposées par un prélèvement forfaitaire libératoire allant de 15% à 35 % selon que le contrat plus ou moins de 4 années d’ancienneté ou par intégration des sommes dans le revenu imposable. 50 4.2.4.2 Les rachats conjoncturels Les rachats conjoncturels sont ceux qui découlent de l’environnement économique et de la politique de revalorisation de l’assureur. La modélisation des taux de rachats conjoncturels est celle préconisée par l’Autorité de Contrôle Prudentiel dans les Orientations Nationales Complémentaires aux Spécifications Techniques (ONCST) pour le QIS 5. Dans ce modèle, les rachats dépendent d’un taux de référence qui représente le taux de revalorisation observé sur le marché et le taux de revalorisation servi par l’assureur. Si le taux servi par l’assureur est inférieur au taux du marché, le taux de rachat sera supérieur au taux de rachat structurel car les assurés ont intérêt à racheter leur contrat pour aller vers la concurrence. Si, a contrario, le taux servi par l’assureur est beaucoup plus important que celui attendu, les assurés seront moins enclins à racheter leurs contrats et on observera alors une baisse du taux de rachat par rapport aux rachats structurels. On suppose que le taux attendu est équivalent au Taux Moyen d’Emprunt d’Etat (TME) : RCmax R−T M E−β RCmax α−β RachatConjoncturel(R, T M E) = 0 M E−γ RCmin R−Tδ−γ RCmin si si si si si R − TME < α α < R − TME < β β < R − TME < γ γ < R − TME < δ R − TME > δ • α est le seuil en-deçà duquel les rachats conjoncturels sont constants et fixés à RCmax • β et γ sont les seuils d’indifférence respectifs à la baisse et à la hausse du taux servi. Entre ces deux seuils, le comportement de l’assuré n’est pas modifié. • δ est le seuil au-delà duquel les rachats conjoncturels sont constants et fixés à RCmin Les préconisations des ONCST donnent des paramètres limites pour cette fonction. Dans le cadre de la modélisation, on considérera la moyenne de ces paramètres : 51 Maximum Minimum Moyenne α - 4% -6% -5% β 0% -2% -1% γ 1% 1% 1% δ 4% 2% 3% RCmin -4% -6% -5% RCmax 40% 20% 30% On peut donc tracer les courbes des taux de rachat en fonction de la différence entre le taux servi R et le TME pour différentes valeurs des paramètres. On choisit de tracer la courbe pour les valeurs extrêmes des paramètres et pour la valeur moyenne. Figure 4.7 – Taux de Rachat conjoncturel 4.2.4.3 Rachats Totaux Le taux de rachat total est exprimé comme étant la somme des taux de rachats conjoncturels et des taux de rachats structurels, le taux de rachat total doit toujours être positif. 52 RachatT otal(R, T M E, Anciennete) = min(1, max(0, RS(Anciennete)+RC(R, T M E))) Dans notre modèle, les rachats sont calculés proportionnellement à la Provision d’ouverture de l’exercice en cours. 4.2.5 Revalorisation cible La revalorisation cible est déterminée par deux paramètres : le taux cible et la politique de participation aux bénéfices. 4.2.5.1 Taux Cible Dans la réalité, même si le taux minimum garanti est nul, l’assureur essaie de revaloriser les contrats à hauteur de ce qui est proposé par ses concurrents pour éviter un rachat massif de la part des assurés. Le taux de revalorisation cible est déterminé en fonction des taux du marché, des taux techniques et du taux servi par la concurrence. Dans le cadre de l’étude, on choisit de modéliser le taux cible par la formule suivante : T auxCible(N ) = max (T auxCourt; T M E(N ) − 1%) où T M E(N ) reprséente le Taux Moyen d’Emprunt d’Etat. La revalorisation cible est déterminée de la façon suivante : RevalorisationCible(N ) = T auxCible × P M ouverture(N ) 4.2.5.2 La politique de Participation aux Bénéfices La participation aux bénéfices fait partie de la politique de revalorisation de l’assureur. Conformément à l’article L.331-3 du Code des Assurances : " les entreprises d’assurance sur la vie ou de capitalisation doivent faire participer les assurés aux bénéfices techniques et financiers qu’elles réalisent dans les conditions fixées par arrêté du ministre de l’économie et des finances". Cette participation est définie comme étant égale au maximum entre 0 et la somme de : 53 • 85% du résultat financier et ; • 90% du résultat technique si celui-ci est positif ou 100% si le résultat technique est négatif La participation aux bénéfices peut être attribuée directement en augmentant les prestations échues ou en l’incorporant aux provisions mathématiques de l’assurée, ou de manière différée en mettant les montants de participation aux bénéfices en réserve au sein d’une provision pour participation aux bénéfices (PPB) qui est soumise à une obligation de redistribution au bout de 8 ans avec la règle FIFO (First In First Out). Dans le cadre de ce mémoire, par souci de simplification, on choisit d’incorporer la PB directement aux PM même si cette approche ne reflète pas exactement la pratique du marché. La PB réellement distribuée aux assurés est modélisée de la façon suivante : 4.2.6 La stratégie d’allocation d’actifs En t = 0, la composition du portefeuille d’actifs de la compagnie est la suivante : Obligations 87% Actions 8% Immobilier 2% Monétaire 3% La stratégie choisie pour la gestion des actifs du fonds en euros est une stratégie qui vise à maintenir une composition stable du portefeuille, elle est dite à proportion constante. On calcule la valeur du portefeuille et sa composition en fin de période, avant le versement des diverses prestations (décès, rachats, PB, arbitrages,...). On évalue également les plus ou moins values du portfeuille, toujours en fin de période et avant le versement des prestations : on externalise ces plus ou moins-values. Le montant correspondant à la somme des prestations à verser et des plus ou moins values du portefeuille va être investie ou désinvestie de manière à respecter la composition des actifs du portefeuille i.e à : – – – – 87% en obligations 8% en actions 2% en immobilier 3% en monétaire ou cash 54 De cette manière, on s’assure que le portefeuille d’actifs de la compagnie garde la même composition au fil du temps. 4.3 Implémentation pratique L’implémentation pratique de la méthode se fait en trois temps, d’abord on génère les différents scénarios économiques à l’aide d’un générateur de scénario économique ensuite les flux futurs sont projetés le long des trajectoirs de scénarios simulées pour calculer les bilans économiques, puis la régression est effectuée à partir de ces résultats. 4.3.1 Génération des trajectoires Le générateur de scénarios économiques utilisé dans ce modèle a été conçu sous Excel : il est constitué de quatre mouvements browniens qui génèrent respectivement l’aléa dans la modélisation des taux et subséquemment du prix des obligations et de la valeur du monétaire ; dans la modélisation du cours des actions ; dans la modélisation du cours des valeurs immobilières et enfin dans la modélisation de la valeur des unités de compte (UC). Les mouvements browniens sous-jacents à la modélisation des taux, du cours des actions et du cours des valeurs immobilières sont corrlés selon la matrice de corrélation suivante : Taux Action Immobilier Taux Action 100% 0% 0% 100% 0% 80% Immobilier 0% 80% 100% En pratique, il existe une corrélation entre les taux et le cours des actions mais pour pour les besoins de la modélisation, on s’est affranchi de cette corrélation de manière à travailler avec des facteurs de risques "orthogonaux" et ainsi d’avoir une meilleure perception de leur impact sur le résultat. Les modèles présentés dans la partie 5.2.1 sont ceux utilisés dans le générateur de scénarios. On rappelle que la modélisation des facteurs économiques (actions, taux,...) se fait sur la base de l’hypothèse selon laquelle on a un seul et unique titre moyen pour chaque catégorie d’actif. 55 Comme l’exige la théorie de la méthode de Monte-Carlo, basée sur la loi des grands nombres, tous les scénarios sont affectés de la même probabilité d’occurence. Il n’y a pas de sélection de trajectoire préalable, car les trajectoires ont été calibrées de manière à couvrir un spectre suffisamment représentatif des situations susceptibles de se produire dans la réalité. De ce fait, il n’y a pas non plus de chocs particuliers à appliquer aux trajectoires car elles les prennent déjà en compte de manière implicite. La calibration du générateur de scénarios économiques s’est faite de la façon suivante pour chacun des facteur de risques : – Le modèle de taux a été calibré de manière à s’ajuster le plus possible à la courbe des taux court fournie par l’EIOPA – Les modèles actions, immobiliers et UC ont été calibrés grâce à des données de marché obtenues via Bloomberg Le fonctionnement du Générateur de Scénarios économiques est illustré dans la figure 4.8 Figure 4.8 – Fonctionnement du Générateur de scénarios économiques 4.3.2 Projections futures Pour projeter les différents flux et calculer le bilan économique, on suit le processus suivant, illustré par la figure 4.9 1. On commence par simuler une trajectoire pour les actifs : cette trajec56 toire est évaluée sous probabilité historique pour les premières années correspondant à l’horizon de temps choisi (1 ou 2 ou 3 dans ce cas) donc comporte une prime de risque, puis sous probabilité risque-neutre pour les N années suivantes (N = 40 ici). 2. Pour chaque année i donnée ; étant donnée la valeur des actifs à la fin de l’année i − 1, on calcule leur évolution le long de la trajectoire simulée jusqu’en fin d’année i avant le versement des différentes prestations qui tombent également en fin d’année ; 3. On évalue les différents flux du fonds et principalement les flux de prestations ; 4. On calcule la valeur du portefeuille d’actifs de la compagnie après le versement des prestations en faisant attention à respecter l’allocation du portefeuille comme présenté précédemment ; 5. Cette valeur de portefeuille permet d’évaluer les taux de rendements financiers et les taux cibles qui servent ensuite à évaluer le montant de la Participation aux bénéfices à verser aux assurés ; 6. Une fois la PB calculée, on a alors tous les flux du portefeuille l’année i et on réitère cette démarche jusqu’à la fin des N années de projection 7. Au terme des N années de projection, on peut calculer le Best Estimate des passifs de l’année i en faisant la somme des flux futurs actualisés au taux sans risque. 8. Comme on a la valeur de marché des actifs en année i, on peut aisément déterminer le bilan économique et donc la valeur des Fonds Propres économiques pour cette même année i 57 58 Figure 4.9 – Mécanisme de projection des flux Les projections ont été implementées sous Excel avec une partie en VBA, de ce fait, le modèle de projection n’est pas aussi performant qu’un modèle qui aurait été développé sous des logiciels spécifiques à la projection de flux futurs tels que Prophet ou MoSes. Néanmoins, la projection des flux futurs n’est pas le coeur de cette études, la version simplificatrice du modèle peut donc être utilisée pour obtenir des résultats exploitables tant que ses faiblesses sont gardées en mémoire. 4.3.3 Mise en œuvre de la régression Le but de cette section est d’établir une méthode numérique pour estimer un modèle linéaire généralisé. Ce problème va être traité dans un cadre général, ce qui pourrait permettre des extensions de la méthode présentée dans ce mémoire. 4.3.3.1 Modèle et notations On suppose que l’on dispose d’un échantillon (yi , xi )0≤i≤N −1 de N observations i.i.d. avec yi ∈ R et xi ∈ Rd . Dans la partie appliquée de ce document, on utilisera par exemple N = 5000 et d = 3, les y correspondent aux fonds propres simulés et les x à l’état du monde (taux, actions, rachats). Le modèle linéaire classique prend la forme : y = α0 + d X αk x(k) k=1 où on a noté x(k) la k ème composante de x ∈ Rd pour 1 ≤ k ≤ d. Ce modèle est trop restrictif pour nous : d’une part il suppose que chaque composante a un impact linéaire sur le résultat, et d’autre part il ne permet pas de rendre de compte d’effets croisés entre les variables explicatives, ce qui est important dans le cas où les composantes de x sont des variables économiques qui peuvent présenter des corrélations. On part donc d’un modèle linéaire généralisé : y= M −1 X αi Xi (x) i=0 les Xi sont des fonctions de Rd dans R, et ce modèle se ramène au cas précédent si M = d + 1, X0 ≡ 1 et Xi (x) = x(i) pour i > 0. 59 L’objectif est d’estimer les coefficients αi . De manière classique, on applique une méthode des moindres carrés, c’est-à-dire que l’on définit : !2 N −1 M −1 X X χ2 = yi − αi Xi (xn ) n=0 i=0 et on cherche à déterminer 2 α b= α c0 , · · · , α[ M −1 = argmin χ α0 ,··· ,αM −1 Ce problème peut être réécit matriciellement. On note : X0 (x0 ) X1 (x0 ) ··· XM −1 (x0 ) X0 (x1 ) X (x ) · · · XM −1 (x1 ) 1 1 A= .. .. .. . .. . . . X0 (xN −1 ) X1 (xN −1 ) · · · XM −1 (xN −1 ) qui est de taille N × M , et y = y0 , · · · , yN −1 0 alors χ2 = |A · α − y|2 et l’on cherche à minimiser cette quantité en α. Dans le cas simplifié où M = N et où la matrice A serait inversible, on sait que l’on pourrait minimiser χ2 en l’annulant : A·α b−y =0⇔α b = A−1 y Dans le cas général, on a recours à la notion de pseudo-inverse, calculé en pratique par décomposition en valeurs singulières. 4.3.3.2 Décomposition en valeurs singulières SVD La décomposition en valeurs singulières, ou SVD (Singular Values Decomposition) est un outil d’algèbre linéaire qui ressemble, pour les matrices rectangulaires M × N , à la diagonalisation des matrices carrées. Théorème 4.1. Soit A une matrice réelle de dimensions N × M . Alors il existe une factorisation de la forme : A = Ũ ΣṼ 0 dans laquelle Ũ est une matrice unitaire de taille N , Σ est une matrice N ×M dont les coefficients diagonaux sont positifs et les autres éléments sont nuls, et Ṽ 0 est la matrice transposée d’une matrice unitaire Ṽ de taille M . De plus : 60 • Ṽ contient un ensemble de vecteurs de base orthonormés de RM • Ũ contient un ensemble de vecteurs de base orthonormés de RN • Σ contient les valeurs singulières de A Une forme alternative du théorème, déduite du précédent, sera plus utile pour nous : il existe des matrices unitaires U et V , respectivement de tailles N × M et M × M , et une matrice diagonale W de taille M × M à coefficients positifs telles que A = UW V 0 Cette écriture a pour conséquence directe de donner l’expression du pseudoinverse de A : A† = V diag(1/wi ) U 0 On rappelle les propriétés caractérisant le pseudo-inverse : • • • • AA† A = A A† AA† = A† (AA† )0 = AA† (A† A)0 = A† A Et l’on rappelle que dans le cas d’une matrice inversible, le pseudo-inverse coïncide avec l’inverse, et les propriétés précédentes sont bien vérifiées. Dans l’expression de A† , si un coefficient wi est nul, on obtient le bon résultat en remplaçant 1/wi par 0. Cette matrice diagonale sera notée W † et non W −1 car elle n’est réellement l’inverse de W que si les wi sont tous non nuls : il s’agit là encore du pseudo-inverse de Moore-Penrose de la matrice W . Voici à présent comment utiliser la SVD pour minimiser χ2 : si l’on cherche A·α=y en multipliant par le pseudo-inverse à gauche on obtient α b = A† y = V diag(1/wi ) U 0 y Dans le cas particulier où une solution exacte existe, on a A · α = y, et le χ2 est clairement minimisé. Dans le cas où il n’existe pas de solution, on montre que le α b ainsi défini est bien celui qui minimise χ2 : Proposition 4.1.1. La solution du problème de minimisation de χ2 = |A · α − y|2 par rapport à α est donnée par α b = A† y = V diag(1/wi ) U 0 y 61 La démonstration de ce résultat est fournie en annexe ; il permet donc d’obtenir le vecteur α b et la régression des fonds propres obtenus avec une trajectoire secondaire par trajectoire primaire. 4.3.4 En pratique Chaque trajectoire du mécanisme de projections permet d’obtenir une valeur des fonds propres pour un horizon donné, on génère alors plusieurs trajectoires - 5000 dans le cas de ce mémoire - pour obtenir plusieurs réalisations des fonds propres. On rappelle que le cadre d’application de la méthode LSMC ne requiert qu’une seule trajectoire sous probabilité risque-neutre pour chaque trajectoire sous probabilité historique. Chaque trajectoire comprend donc une partie sous univers réel et une autre sous unviers Market Consistent. A partir de ces 5000 réalisations des Fonds Propres, on veut estimer une fonction qui exprime l’espérance des fonds propres en fonctions de certains paramètres. Ici, les paramètres retenus sont les facteurs de risque principaux du portefeuille, à savoir : – les taux : on sait que les contrat d’assurance vie sont très sensibles à la fois, à la baisse et à la hausse des taux ; – le cours des actions : les interactions actif/passif qui existent en assurance vie impliquent une forte sensibilité des fonds propres aux évolutions du marché – les rachats : la littérature sur le calcul du Best Estimate démontrant que ce dernier est hautement sensible aux rachats, considérer ce facteur de risque comme explicatif de la fonction de l’espérance des fonds propres est un choix cohérent. On cherche alors une fonction ft telle que : E(F Pt ) = ft (taux, actions, rachats) Comme mentionné précédemment, il est important que la fonction ft en question soit suffisamment simple pour que la mise en œuvre soit réalisable et que l’implémentation de cette fonction ne génère pas de problème de temps de calcul. 62 Plusieurs choix de fonctions sont possibles et opter pour une fonction ou une autre reste relativement arbitraire, néanmoins, il est de pratique courante d’utiliser des fonctions polynomiales car elles ont l’avantages de présenter des propriétés intéressantes (continuité, dérivabilité,...) tout en étant simples à implémenter informatiquement. Pour les applications numériques, on a opté pour une polynôme de degré 2 à 3 variables qui s’exprime de la forme suivante : f: R3 (x1 , x2 , x3 ) −→ 7−→ R f (x1 , x2 , x3 ) avec f (x1 , x2 , x3 ) = α0 + α1 x1 + α2 x2 + α3 x3 + α4 x21 + α5 x22 + α6 x23 + α7 x1 x2 + α8 x1 x3 + α9 x2 x3 On applique aux valeurs simulées les techniques de calculs présentées dans la partie précédente pour obtenir les coefficients des polynômes. Le choix d’un polynôme de degré 2 à 3 variables est une décision de modélisation arbitraire, en effet on aurait pu choisir de considérer un polynôme à un degré différent (supérieur ou inférieur) et avec plus ou moins de variables. Le choix du nombre de variables utilisé par la suite est motivé par le fait que les facteurs de risques les plus impactants pour le produit choisi sont : les taux, les actions et les rachats. Le choix du degré 2 est justifié par le fait qu’on ne considère que les corrélations 2 à 2 entre ces différents facteurs de risque, de ce fait le degré 2 est suffisant pour exprimer les effets de ces corrélations. De plus, des contraintes de modélisation et de capacité informatique spécifiques à la mise en place de cet exemple incitent à opter pour cette fonction. 63 Chapitre 5 Analyse critique de la méthode et des résultats Cette partie présente les résultats obtenus après la régressions et les commentaires associés. 5.1 Résultats obtenus Sur les 3 années de projection les distributions de fonds propres obtenues grâce aux 5000 simulations ont les allures suivantes : 64 Figure 5.1 – Histogramme des fréquences des valeurs des fonds propres sur 3 ans obtenu avec les simulations On constate sur le graphique 5.1 que les distributions de fonds propres obtenues sur 3 ans via les simulations Monte-Carlo ont l’allure de gaussiennes de moyenne comprise entre un et 3 millions d’euros et avec un écart-type autour de 35.000 euros mais avec une queue de distribution épaisse à gauche. Il est important de noter que ces réalisations sont des valeurs très imprécises des fonds propres, néanmoins ce graphique permet de s’assurer que les jeux de simulations lancés couvrent un spectre de cas assez large tout en restant en cohérence avec la potentielle évolution des fonds propres dans la réalité. Pour chaque année de projection on calcule une fonction de régression différente : 65 Coefficients α0 α1 α2 α3 α4 α5 α6 α7 α8 α9 -15 -360 33 109 87 -10 66 163 1 789 -158 F P1 723 185 402 588 008 096 254 769 454 505 815 822 572 749 322 183 791 889 992 372 -1 -289 13 -26 2 079 -4 -704 -6 4 916 -7 F P2 691 296 509 002 001 840 193 803 411 454 487 305 357 556 725 388 091 052 226 777 4 474 -4 -249 -7 164 -239 -185 2 088 214 F P3 040 063 972 669 360 669 032 442 323 722 119 302 642 785 145 017 002 113 754 802 Ce qui nous donne trois polynomes de degré 2 à 3 variables différents. Pour l’année 1, les graphiques suivants représentent les valeurs des fonds propres obtenues grâce aux simulations et le polynome qui représente leur évolution réelle. Pour des raisons de lisibilité, on a représenté les fonctions partielles. f1 : x1 7−→ f (x1 , x¯2 , x¯3 ) f2 : x2 7−→ f (x¯1 , x2 , x¯3 ) f 3 : x3 − 7 → f (x¯1 , x¯2 , x3 ) Comme indiqué plus haut, les 2 autres variables non prises en compte sont fixées à leur moyenne. Moyennes Taux Cours Action Rachats Année 1 2,70% 1,019 4,42% Année 2 3,01% 1,047 2,73% Année 3 3,21% 1,076 4,51% On rappelle que la méthode de Monte Carlo appliquée au cas de l’étude vise à estimer l’espérance des fonds propres qui sont une variable aléatoire, de ce fait chaque point de la courbe polynomiale représente l’espérance des simulations correspondant à chaque abscisse. 5.1.1 Analyse des régressions par rapport aux données Ces graphiques représentent le comportement des fonds propres selon chaque variable explicative pour la deuxième année de projection. 66 5.1.1.1 Par rapport aux taux d’intéret Figure 5.2 – Valeurs des fonds propres simulée et Régression en fonction des taux Le graphique 5.2 représente le comportement de l’espérance des fonds propres en fonction des taux. Sur cette figure, on constate une bonne adéquation entre le nuage de points et le polynome de régression : pour une abcisse donnée, la valeur prise par le polynome approxime la moyenne des points présentant une abcisse voisine ( tous les points présentant des abcisses distantes presque-surement). Lorsque les taux augmentent, la valeur de marché de l’actif obligataire qui constitue majoritairement le portefeuille de l’assureur diminue et donc on s’attend à ce que les FP varient à la baisse. Ainsi, l’espérance des fonds propres devrait être une fonction décroissante du taux court. En pratique, on observe une décroissance jusqu’à r ≈ 4% puis une croissance de la parabole pour r > 4%. Cette divergence par rapport à ce qui est attendu s’explique par le faible nombre d’observations à valeurs élevées. Donc le polynome est calibré au mieux là où le nuage est le plus dense et 67 subit sur les marges la contrainte du degré 2 qui ne peut pas être une fonction monotone décroissante. 5.1.1.2 Par rapport au cours des actions Figure 5.3 – Valeurs des fonds propres simulée et Régression en fonction du rendement des actions Le graphique 5.3 représente le comportement de l’espérance des fonds propres en fonction du cours de l’action, le cours à la date initiale étant fixé à 1. Le polynome de régression présente une bonne adéquation au nuage de points pour les valeurs du cours de l’action inférieures à 1,70. Au-delà, la fonction de régression s’ajuste beaucoup moins au nuage de points : on constate en particulier que les points les plus extrêmes sont tous situés au-dessus du polynome qui ne peut donc représenter leur espérance. Toutefois peu de trajectoires sont concernées par ces points extrêmes qui présentent un reendement supérieur à 100% sur 2 ans. Plus précisément, on remarque, en négligeant les taux et la prime de risque, que : 68 √ √ P −1, 96 T < WT < 1, 96 T = 95% −σ2 T √ √ −σ 2 T ⇒ P e 2 −1,96σ T < ST < e 2 +1,96σ T = 95% La figure 5.4 montre les intervalles de prévision à 95% du cours des actions en fonction du temps. Figure 5.4 – Intervalle de prévision à 95% du cours des actions Pour T = 2 ans et σ = 20%, le cours de l’action est compris avec probabilité environ 95% entre [0, 55; 1, 67]. Ainsi, la régression aura tendance à être bien ajustée pour les valeurs dans cet intervalle, qui présente sur la figure une forte densité de points. Les valeurs extrêmes sont trop peu nombreuses pour affecter sigificativement les coefficients et donc la forme de la parabole, ce qui justifie un ajustement approximatif voire incorrect dans cette zone à faible pondération. 69 Lorsque les actions ont une bonne performance, les fonds propres devraient varier en augmentant. A l’inverse, une chute des cours risque de diminuer les fonds propres de l’assureur. L’espérance devrait donc être une fonction croissante du cours des actions. On constate que dans l’intervalle [0,55 ;1,67], le polynome qui représente les fonds propres est croissant. Ce qui correspond à l’évolution attendue des fonds propres en fonction du cours des actions. En revanche, pour les valeurs au-delà de 1,70, le polynome décroit. Comme pour les taux, ce comportement contre-intuitif est en partie expliqué par le fait qu’une parabole n’est jamais monotone. En effet, les points du graphique laissent supposer que l’espérance des fonds propres pour les abscisses extremes est plus élevée que les valeurs de la courbe. 5.1.1.3 Par rapport aux taux de rachat Figure 5.5 – Valeurs des fonds propres simulée et Régression en fonction des rachats Le graphique 5.5 représente le comportement de l’espérance des fonds propres en fonction des taux de rachats. On observe qu’il y a beaucoup de valeurs de fonds propres simulées aux abscisses égales à 0% et 3%, ces 70 abscisses correspondent d’une part aux points où les rachats conjoncturels atteignent RCmin et donc le taux de rachat est ramené à 0% car les rachats ne peuvent être négatifs, et d’autre part au taux de rachats structurels. Ici encore, il y a une bonne adéquation de la parabole au nuage de points pour les abscisses les plus probables. En théorie, les fonds propres sont fortement sensibles aux taux de rachats et évoluent en sens inverse de ces derniers : plus les assurés rachètent leurs contrats, plus l’assureur va devoir décaisser de l’argent. On observe ici que les fonds propres croissent avec le taux de rachat jusqu’à un certain niveau (autour de 10%) et décroissent ensuite. Cette tendance contre-intuitive est due au nombre importants de points situés aux abscisses 0% et 3% qui vont avoir un poids très important dans la régression. De ce fait, ces deux valeurs sont "imposées" pour la parabole qui ne peut ajuster son allure que lorsqu’elle s’écarte du voisinnage de ces points. D’où la décroissance de la fonction polynomiale à partir d’un taux de rachats de 8% qui correspond plus au comportement attendu des fonds propres vis à vis des rachats. De manière générale, les graphiques ci-dessus nous permettent d’établir les déductions suivantes : En premier lieu, on observe que le choix d’un polynome de degré 2 est suffisant pour la modélisation de l’espérance des fonds propres. Pour la deuxième année de projection, les fonctions de régression sont représentatives des comportements des FP attendus vis à vis des taux et du rendement des actions. Par contre, le comportement des fonds propres vis à vis des taux de rachats présente une distorsion par rapport à l’intuition des résultats. 5.1.1.4 Interraction entre les taux d’intérêt et de rachat On sait que les taux de rachats dépendent fortement des taux du marché, il est donc intéressant d’étudier cette interraction entre Taux et Rachat. La figure suivante illustre le comportement des fonds propres en fonction de l’évolution des taux du marché et des taux de rachats : 71 Figure 5.6 – Polynome Espérance des Fonds Propres en fonction des taux et des rachats Sur le graphique 5.6 on s’intéresse aux quatre sommets de la surface : Ces sommets représentent les situations extrêmes intéressantes : – Lorsque les taux sont faibles et que les rachats sont élevés : l’assureur doit vendre plusieurs de ces actifs à un taux désavantgeux pour régler les rachats donc les fonds propres vont varier fortement à la baisse. Cette tendance est traduite par le polynome de régression, on constate que dans la configuration taux faibles, rachats élevés, les fonds propres sont négatifs. – Lorsque les taux et les rachats sont faibles en même temps : la valeur de marché de l’actif obligataire est élevée car les taux sont faibles et comme les rachats sont peu importants, les fonds propres augmentent considérablement, ce que l’on retrouver sur le graphique. – Lorsque les taux sont élevés et les rachats sont faibles : seuls les taux influent sur la variation des fonds propres, or lorsque les taux 72 montent, le prix des obligations baisse donc la valeur de marché de l’actif obligataire baisse et toute chose étant égales par ailleurs, les fonds propres vont varier à la baisse ce que l’on constate sur le graphique : les fonds propres sont légèrement négatifs. – Le dernier sommet est le plus complexe : dans ce cas-ci les taux sont élevés et les rachats sont très élevés, ce qui représente pour l’assureur à la fois une importante sortie d’argent et une baisse de la valeur de marché de l’actif obligataire qui compose à 80% le portefeuille de l’assureur, de ce fait on devrait observer une variation à la baisse importante des fonds propres. Or dans le cas de l’étude, on constate que les fonds propres sont à la fois fortement positifs et varient en croissant. Cette différence de comportement par rapport à ce qui est attendu est dû au fait qu’il y a très peu de points obtenus via les simulations dans cette zone (Taux fort, Rachats fort) en effet si on suppose que les rachats sont majoritairement influencés par les rachats conjoncturels, la courbe des taux de rachats conjoncturel fournie par les ONCST indique qu’il n’existe pas de situation où les taux sont très élevés, donc l’écart (R-TME) positivement très fort, et où les rachats sont très importants de ce la régression ne peut pas être significative dans ce périmètre. Lorsque l’on compare la surface dans le figure 5.6 et le polynome de la figure 5.5 calculé en fixant à leur moyenne les taux et le cours des actions on observe que l’évolution des rachats n’est pas la même. Cela permet de déduire une forte interractivité entre les taux et les rachats : quand les taux augmentent, d’une par la valeur de marché de l’actif obligataire baisse ce qui devrait diminuer les fonds propres mais d’autre part les rachats sont très faibles ce qui diminue les sorties de fonds et diminue donc les fonds propres. Dans cet effet de balancier, il n’est pas évident de déterminer dans quel mesure un facteur a plus de poids que l’autre. Jusqu’ici l’analyse a porté sur le comportement des fonds propres pour une date donnée, 2ans dans notre cas, en comparaison avec les valeurs obtenues par simulation. On s’intéresse maintenant à la dynamique de ces fonctions polynomiales sur les 3 années de projection et à leur évolution au cours du temps. 73 5.1.2 Analyse des régressions en fonction de l’horizon de projection On étudie à présent l’évolution des régressions, paramètre par paramètre, en fonction de l’horizon de projection. 5.1.2.1 Par rapport aux taux d’intérêt Le graphique 5.7 compare les 3 polynomes représentant le comportement des fonds propres sur 3 années de projection en fonction des taux. Les valeurs des fonds propres obtenues par simulation ne sont plus représenttées sur ce graphique car on cherche ici à comprendre l’évolution des ploynomes de régression dans le temps et à vérifier leur cohérence. Figure 5.7 – Evolution des espérance de fonds propres à 3 ans en fonction des Taux On observe que les trois courbes ont la même allure qui correspond à l’évolution attendue des fonds propres. En effet, lorsque les taux montent, la valeur de marché des obligations baisse ce qu entraîne nécessairement une baisse des fonds propres et c’est cette tendance que l’on retrouve correctement traduite par nos fonctions de régression. On note toutefois un changement de convexité pour la troisième année de 74 projection de la fonction de projection qui devient concave. Cette concavité traduit le fait que plus la projection est éloignée dans le temps, plus la sensibilité des fonds propres aux taux est importante. On constate d’ailleurs que la courbe des fonds propres pour la 3ème année "plonge" beaucoup plus vite vers les valeurs négatives à mesure que les taux augmentent. 5.1.2.2 Par rapport aux cours des actions Le graphique 5.8 compare les 3 polynomes représentant le comportement des fonds propres sur 3 années de projection en fonction des cours des actions. Figure 5.8 – Evolution des espérance de fonds propres à 3 ans en fonction du cours des actions De même que pour les taux on observe que les allures des polynomes sont conformes aux évolutions attendues des courbes i.e lorsque le cours de l’action augmente, la valeur de marché de l’actif (action et immobilier qui sont fortement corrélés) augmente alors on peut facilement servir le taux cible car les actions ont une bonne performance donc nos fonds propres varient à la hausse. De plus, les trois paraboles ont quasiment la même allure ce qui permet de déduire que les polynomes ont à peu près les mêmes coefficients (α1 , . . . , α9 ), le coefficient α0 étant la constante qui explique la translation vers le haut des fonctions. 75 On observe ainsi que plus on avance dans le temps plus la valeur des fonds propres est importante ce qui est cohérent avec l’évolution attendue des fonds propres en fonction du temps lorsque les actions performent bien. 5.1.2.3 Par rapport aux taux de rachat Le graphique 5.9 compare les 3 polynomes représentant le comportement des fonds propres sur 3 années de projection en fonction des rachats. Figure 5.9 – Evolution des espérance de fonds propres à 3 ans en fonction des Rachats On observe que les tendances ne sont pas les mêmes pour la première année de projection et les deux suivantes. La première année, la fonction est faiblement croissante et très peu sensible aux rachats : on peut constater que la courbe rouge est quasiment constante. Les années suivantes, les fonctions ont la même allure : elles sont croissantes jusqu’à un certain niveau de rachat (≈ 8%) puis décroissantes ensuite. Comme analysé à la figure 5.5, il y a une distorsion entre le comportement des fonds propres tel qu’attendu dans la réalité et celui obtenu par les polynomes ; cette distorsion découle du poids important des abscisses 0% et 3% dans les régressions. L’impact des rachats sur les fonds propres est difficilement prise en compte par les polynomes car comme évoqué précédemment, les rachats sont fortement correlés aux taux d’intérêt qui dans cette représentation figure 5.9 sont 76 fixés à leur moyenne. Cette première analyse permet donc de constater une adéquation des polynomes obtenus au comportement attendus des fonds propres. Ceci étant dit, le but de l’étude est d’estimer la probabilité que les fonds propres soient positifs via ces polynomes pour pouvoir opérer un contrôle sur l’indicateur que l’on s’est défini dans les orientations stratégiques. 5.1.3 Probabilités estimés Pour chaque année de projection, les 5000 valeurs de fonds propres calculées selon les polynomes de régression grâce aux 5000 trajectoires générées permettent de déduire une réalisation de l’estimateur de la probabilité de ruine des fonds propres : (en euros) Probabilité de ruine 5.2 Année 1 25,8% Année 2 14,20% Année 3 17,82% Stabilité des résultats On cherche donc maintenant à évaluer la qualité et la robustesse de ces estimateurs grâce à la méthode du Bootstrap. 5.2.1 Principes du Bootstrap Le théorème de Glivenko-Cantelli affirme que, quand la taille d’un échantillon est importante, sa fonction de répartition empirique est une bonne appromixation de la "vraie" fonction de répartition dont elle est issue. L’idée du Bootstrap est alors de générer de nouveaux échantillons qui suivent non pas la vraie distribution étudiée, mais la distribution empirique µN issue de l’échantillon simulé : N X µN = δ{Xi } i=1 où δ{·} est la distribution de Dirac. L’expression de µN indique comment procéder à une simulation selon la loi empirique : il suffit de tirer au hasard des valeurs de l’échantillon initial, selon une loi uniforme avec remise. 77 Si l’on souhaite générer un nouvel N -échantillon (quoique la méthode permette d’obtenir un échantillon de taille quelconque), on considère une loi N -dimensionnelle (U1 , U2 , · · · , UN ) dont les lois marginales sont uniformes à valeurs dans {1, · · · , N } mutuellement indépendantes. On définit alors : fk = XU ∀k ∈ {1, · · · , N } , X k g N = (X f1 , · · · , X g et par construction X N ) vérifie L g N XN = X fk sont bien distribués selon µN . En répétant cette opéc’est-à-dire que les X ration, on obtient donc un échantillon d’échantillons de loi µN , et donc un N échantillon d’estimateurs qc α sur lequel on peut appliquer les statistiques descriptives usuelles afin de juger de la stabilité du résultat. En particulier, l’écart-type de l’estimateur peut être estimé. 5.2.2 Application à l’estimateur de la probabilité de ruine Les 5000 trajectoires sur lesquelles les projections ont été faites permettent, une fois la régression effectuée, d’obtenir 5000 valeurs de fonds propres calculées grâce aux polynomes f1 , f2 , f3 pour chaque année de projection. On a donc 3 échantillons de 5000 valeurs. Pour chacun de ces échantillons, on effectue 1000 rééchantillonnages avec la méthode Boostrap et on extrait de chacun de ces rééchantillonages la probabilité de ruine de l’entreprise. Le résultat final est un vecteur de taille 1001 qui correspond à 1001 réalisations de l’estimateur de la probabilité de ruine des fonds propres. Pour l’estimateur de chaque année, on calcule les principales statistiques descriptives qui sont résumées dans le tableau suivant : Moyenne Ecart-type σ Kurtosis Skewness Minimum Maximum σ Moyenne P (F\ P1 < 0) 25,74% 0,62% 0,10 0,03 23,68% 27,70% 2,39% 78 P (F\ P1 < 0) 14,19% 0,48% -0,04 -0,06 12,62% 15,66% 3,41% P (F\ P1 < 0) 17,83% 0,55% -0,17 -0,05 16,10% 19,40% 3,09% Sur ces statistiques descriptives principales des estimateurs des probabiliσ tés de ruine sur les 3 années de projection, on s’intéresse à la quantité Moyenne que l’on peut assimiler à une sorte de volatilité des estimateurs. Ce rapport permet de mesurer la qualité de l’estimateur obtenu, plus ce ratio est faible meilleur est l’estimateur car cela signifie que la "volatilité" de l’estimateur est faible et donc que ses réalisations sont robustes et pas trop éloignées de la valeur "réelle" que l’on cherche à estimer. Dans les cas présentés, ces "volatilités" sont suffisament faibles pour pouvoir valider la stabilité de nos résultats et on peut donc utiliser les valeurs obtenues pour opérer le suivi de l’indicateur défini dans les orientations stratétgiques. 5.2.3 Suivi de l’indicateur de risque On rappelle que l’indicateur de suivi et de gestion des risques choisi est le suivant : P (F PN ≤ 0) < 10% pour N = 1, 2, 3 Pour les 3 années de production, les estimateurs des probabilités de ruines sont représentés par les boxplot suivants. Figure 5.10 – Boxplot des probabilités de ruine sur les 3 années de projection 79 On constate que les probabilités de ruine pour les 3 années de projection sont respectivement comprises entre les valeurs suivantes : Minimum Maximum Proba 1 23,68% 27,70% Proba 2 12,62% 15,66% Proba 3 16,10% 19,40% De ce fait, on ne satisfait pas à la contrainte de l’indicateur choisi car la probabilité que les fonds propres soient négatifs est supérieure à 10% à chaque année de projection . Il relève alors du ressort de la direction de faire les ajustements nécessaires pour satisfaire à la contrainte posée dans les orientations stratégiques. Ces ajustements peuvent être une augmentation du capital ou une modification des caractéristiques des contrat ou la constitution de réserves pour réussir à couvrir le besoin global de solvabilité sur 3 années. 5.3 Avantages de la méthode La méthode LSMC présente de nombreux avantages pour la mise en place de l’ORSA. Le premier et le plus important de ces avantages est le faible nombre de scénarios nécessaires au calcul des fonds propres : En effet, on constate ici qu’il a suffit de 5000 scénarios en tout pour calculer la distribution des fonds propres et subséquemment le capital économique ou le besoin global de solvabilité contrairement à la méthode des simulations dans simulations qui nécessite au moins 5000 scénarios primaires et autant de scénarios secon1 . Cette daires : On a donc réduit le nombre de scénarios d’un rapport de 500 diminution drastique du nombre de scénarios permet de s’affranchir des problématiques de temps de calcul et d’accélérer considérablement la vitesse de calcul. Contrairement aux méthodes de Curve-fitting et de Replicating Portfolio également utilisables pour réaliser des proxys de passifs et/ou de fondspropres, la méthode LSMC a une formalisation mathématique qui assure la convergence des résultat vers la valeur attendue. Le cadre mathématique de la méthode de Monte-Carlo repose fondamentalement sur la loi des grands 80 nombres qui assure une convergence en probabilité vers l’espérance à calculer ; celle des fonds propres dans l’exemple abordé ici. La régression peut être complètement automatisée et effectuée en un temps très court de l’ordre de quelques minutes à quelques heures. Dans le cadre de ce mémoire, tous les calculs de projection ont été effectués sous Excel VBA et la régression a été codée sous C++ avant d’être implémentée dans Excel. Ce qui permet de dire que la mise en place de la régression, qui est le coeur de la méthode, est facilement réalisable et ne nécessite pas des ressources informatiques importantes. Ici, la régression prend environ 2 minutes à tourner. De ce fait, cette méthode peut servir efficafement d’outil de contrôle et de suivi permanent des risques de l’entreprise. Les fonctions polynomiales utilisables pour la régression présentent des caractéristiques qui leur permettent d’ajuster efficacement à plusieurs fonctions de formes différentes. Dans le cadre de l’étude, il a été retenu des fonctions de la base polynomiale canonique mais d’autres fonctions polynomiales présentant des caractéristiques particulières telles que la propriété d’orthogonalité pour les polynomes de Legendre par exemple pourraient être choisies. Contrairement à la méthode de Replicating Portfolio, la méthode LSMC permet de prendre en compte tous les risques dans la modélisation et pas uniquement les risques de marché. Elle offre donc une grande flexibilité dans l’estimation du capital économique et assure de ne pas mettre de côté des risques qui ont un impact important sur le produit et/ou le portefeuille. Par exemple, il a été pris en compte le risque de rachat dans la modélisation dans le cas étudié ici, ce qui n’aurait pas été possible dans le cas du Replicating Portfolio ou pus difficilement applicable dans la méthode Curve-Fitting. 5.4 Limites Malgré tous ces avantages, la méthode LSMC présente quand même quelques limites qu’il convient de noter. La première restriction à cette méthode est qu’elle impose de disposer d’un modèle ALM pour pouvoir faire des projections, ce qui est un incovénient pour les entreprises qui choisissent d’appliquer la formule standard pour le calcul du SCR et ne développent donc pas de gestion des interractions actif/passif. 81 La robustesse et la fiabilité du modèle de projection représentent la plus grande faiblesse de l’étude menée dans ce mémoire : le fait d’avoir eu à le développer sous Excel a souvent mené à opter pour des hypothèses simplificatrices voire simplistes qui impactent les résulats obtenus. Une autre limite de la méthode est sa dépendance au générateur de scénarios économiques. En effet, l’application de la méthode Monte-Carlo nécessite l’utilisation de scénarios stochastiques issus d’un générateur préalablement calibré pour prendre en compte un certain spectre de scénarios. De ce fait, toutes les éventuelles erreurs ou imprécisions de modélisation contenues dans le générateur seront répercutées dans les projections futures. Par exemple, la modélisation des taux avec le modèle de Vasicek n’est pas le plus opportun, un générateur plus complexe et plus "professionnel" permettrait d’utiliser des modèles de taux plus élaborés qui seraient à même de prendre en compte les différentes effets de la courbe des taux, telles que les bosses, que le modèle de Vasicek ne peut pas rendre. 82 Conclusion La mise en place de l’ORSA en assurance vie reste encore un exercice complexe à l’heure actuelle, principalement en raison du coût important en termes de temps de calcul et de ressources informatiques des Simulations dans Simulations. Néanmoins, plusieurs techniques d’approximations numériques visant à réduire ce besoin en temps de calcul et en ressources informatiques existent. La méthode Least-Square Monte Carlo a été testée dans ce mémoire sur un produit classique d’assurance vie pour évaluer sa performance et son niveau de complexité d’utilisation lorsque l’on cherche à mettre en place un système de gouvernance des risques tel que l’ORSA. On a pu constater, d’une part, que cette méthode résout le problème de temps de calcul en le réduisant de manière drastique, et d’autre part qu’elle est relativement aisée à mettre en œuvre à la fois mathématiquement et informatiquement. Dans le cadre de cette étude, on s’est intéressé au suivi d’un indicateur de risque défini au préalable pour un ensemble de contrats d’épargne multisupport. Cet indicateur étant dépendant de la distribution des fonds propres, on a appliqué la méthode Least-square Monte Carlo pour le calcul des fonds propres. Cette approximation numérique a permis de déterminer une expression simple des fonds propres à l’aide de fonctions polynomiales à plusieurs variables. L’analyse de ces polynômes, en l’occurence des paraboles, a permis de retrouver la plupart des effets souhaités selon les conditions économiques : baisse ou hausse des taux, des actions ou des rachats. Nonobstant l’adéquation globale des résultats aux anticipations actuarielles, certaines faiblesses ou limites des résultats ont été décelées dans ce mémoire. Elles proviennent des différentes étapes antérieures à l’application propre de la méthode, à savoir le générateur de scénarios économiques et la modélisation et la projection des flux futurs du produit. Si elles ne remettent pas en cause la qualité de la méthode, assurée par ses fondements mathéma83 tiques, elles soulignent la dépendance des résultats au moteur de projection. La méthode Least-Square Monte Carlo apparaît donc comme un outil puissant et efficace dans la mise en place de l’ORSA. Elle permet d’opérer un contrôle continu et permanent du niveau de risque et/ou de fonds propres servant ainsi de boussole pour les décisions stratégiques du Management. 84 Bibliographie [1] Directive 2009/138/CE du parlement européen du conseil du 25 novembre 2009 sur l’accès aux activités de l’assurance et de la réassurance et leur exercice - Solvabilité II, 2009. [2] D. Bauer, D. Bergmann, and A.Reuss. Solvency II and nested simulations - a least-square Monte-Carlo approach. International Actuarial Association Life Section, 2009. [3] C. Davidson. Why insurers are turning into least-square Monte-Carlo modelling techniques. Insurance Risk, 2011. [4] L. Devineau and S.Loisel. Construction d’un article d’accélération de la méthode des simulations dans simulations pour le calcul du capital économique solvabilité II. Bulletin Français d’Actuariat, 2009. [5] EIOPA. Consultation papers on the proposal for guidelines for the own risk and solvency assessment, 2011. [6] L. Froggart. Economic lite model. Technical report, KPMG, 2011. [7] G. Gerber. Allocations d’actifs sous solvabilité 2 : cas de l’assurance vie épargne. Master’s thesis, Université Paris Dauphine - Altia, 2010. [8] A. Koursaris. The advantages of least-square Monte-Carlo. 2011. [9] A. Koursaris. A least-square Monte-Carlo approach to liability proxy modelling and capital calculation. Barrie+Hibbert, 2011. [10] J. Lafond. Valorisation économique d’un contrat épargne multisupport. Master’s thesis, Université de Strasbourg - Optimind, 2010. [11] D. Lamberton and B. Lapeyre. Introduction au calcul stochastique appliqué à la finance. Ellipses, 2010. [12] P. Lappara. Pilotage stratégique et appétence au risque. Master’s thesis, ISFA - Galéa & Associés, 2011. [13] S. Le Mer. Calcul du capital economique en assurance vie. Master’s thesis, Dauphine - Deloitte, 2010. [14] Milliman. Own risk and solvency assessment : Principe et mise en oeuvre pratique. Technical report, Milliman, 2011. 85 [15] F. Planchet. Calcul du SCR dans le cadre de l’ORSA ou du modèle interne. Technical report, Winter & Associés, 2012. [16] M. Simurda. ORSA. Technical report, KPMG, 2012. 86 Annexe A Rappels de calcul stochastique R La construction de l’intégrale stochastique f dB est supposée connue (voir par exemple [11]), et seules ses propriétés les plus utiles à notre propos sont ici rappelées. Proposition A.0.2. L’intégrale stochastique par rapport au mouvement brownien B vérifie les propriétés R suivantes : – L’application f → f dB est linéaire – Isométrie d’Itô -déterministe : si f1 , f2 sont des fonctions déterministes Z ∞ Z ∞ Z ∞ f1 dB × f2 dB = f1 f2 dt E 0 0 0 – Isométrie d’Itô-aléatoire : si f1 , f2 sont des fonctions aléatoires Z ∞ Z ∞ Z ∞ f1 f2 dt f1 dB × f2 dB = E E 0 0 0 R – f dB suit une loi normale centrée et de variance E fs2 ds . – Intégration par parties : si f ∈ C 1 (R), Z T Z T f dB + f 0 B dt = f (T ) B(T ) ∀T > 0 , R 0 0 Le recours à des lois lognormales, c’est-à-dire d’exponentielles de lois normales, est fréquent dans la suite de ce mémoire. Le résultat suivant sera donc très utile : σ2 Proposition A.0.3. Si X ∼ N (µ, σ 2 ), alors E eX = eµ+ 2 . Le théorème qui va suivre est fondamental en finance quantitative. Il est intimement lié à la notion de probabilité risque-neutre, qui constitue un outil de choix pour évaluer les produits dérivés. 87 Théorème A.1 (Girsanov). Soit (θt )t∈[0,T ] un processus adapté tel que Z T θs2 ds < +∞ p.s. 0 Soit alors le processus (Lt )t∈[0,T ] défini par Z t Z 1 t 2 ∀t ∈ [0, T ] , Lt = exp − θs dBs − θ ds 2 0 s 0 Si (Lt )t∈[0,T ] est une martingale, alors le processus (Wt )t∈[0,T ] défini par Z Wt = Bt + t θs2 ds 0 est un Q-mouvement brownien, où Q est une probabilité définie par sa dérivée de Radon-Nikodym dQ = LT dP Le résultat suivant est le théorème fondamental du calcul stochastique : il constitue une extension de la formule de Taylor aux processus d’Itô. Théorème A.2 (Itô). Si f : (t, x) → f (t, x) est de classe C 2 en x et C 1 en t, et Xt un processus d’Itô, alors Z T Z Z T ∂f 1 T ∂ 2f ∂f (s, Xs ) ds+ (s, Xs ) dXs + (s, Xs ) d hXis f (T, XT ) = f (0, X0 )+ ∂t 2 0 ∂x2 0 ∂x 0 où par définition Z hXit = t Hs2 ds 0 ou encore, sous forme différentielle : ∂f 1 ∂ 2f 2 ∂f df = + Ht dt + dXt 2 ∂t 2 ∂x ∂x soit en substituant son expression à dX ∂f 1 ∂ 2f 2 ∂f ∂f H dt + df = + Ks + Hs dBs t ∂t ∂x 2 ∂x2 ∂x 88 Annexe B Probabilité risque-neutre Ce paragraphe contient principalement les définitions qui permettent de décrire mathématiquement le cadre financier dans lequel nous travaillons. Étant donnée une quantité Ut à la date t, Ũt désigne sa valeur actualisée au taux sans risque à la date 0. Définition B.1. Une stratégie est un processus φ = (φt )t∈[0,T ] = ((Ht0 , Ht )0 )t∈[0,T ] à valeurs dans R2 , F-adapté et tel que Z T Z T 0 |Ht | dt < +∞ p.s. et Ht2 dt < +∞ p.s. 0 0 Ht0 représente la quantité d’actif sans risque en portefeuille à la date t, et Ht celle d’actif risqué. La valeur du portefeuille est alors : Vt (φ) = Ht0 St0 + Ht St Nous allons restreindre la classe des stratégies aux stratégies autofinancées, puis admissibles : Définition B.2. Une stratégie φ est dite autofinancée si Z T Z T 0 0 Hu dSu ∀t ∈ [0, T ] , Vt (φ) = V0 (φ) + Hu dSu + 0 p.s. 0 ce qui est équivalent à Z Ṽt (φ) = V0 (φ) + T Hu dS̃u p.s. 0 Une stratégie autofinancée φ est dite admissible si sa valeur actualisée Ṽt (φ) est positive à chaque date t et si supt∈[0,T ] Ṽt (φ) est de carré intégrable. 89 Enfin, nous définissons les opportunités d’arbitrage et l’absence d’opportunité d’arbitrage. Définition B.3. Une stratégie admissible est appelée arbitrage si V0 (φ) = 0 P (VT (φ) > 0) > 0 On dit qu’il y a opportunité d’arbitrage entre deux stratégies φ1 et φ2 si φ1 − φ2 est une stratégie d’arbitrage. On dit qu’il y a absence d’opportunité d’arbitrage (noté AOA) s’il n’existe aucune opportunité d’arbitrage pour tous les couples de stratégies. On dit alors que la marché est viable. Définition B.4. On dit que l’actif dérivé C est simulable ou atteignable s’il existe une stratégie admissible φ dont la valeur en T est la même que C(T ). Un marché est dit complet si tout actif dérivé est simulable. Cette définition conduit au théorème essentiel suivant, introduisant la notion de probabilité risque-neutre : Théorème B.1. Un marché viable est complet si et seulement si 1 ∃! Q ∼ P , ∀S titre de base , S̃t est une Q-martingale Définition B.5. La probabilité Q ainsi définie, si elle existe, est appelée probabilité risque-neutre. Dans le cadre du modèle de Black-Scholes, cette probabilité risque-neutre est obtenue à partir de la probabilité historique par le théorème de Girsanov, comme processus θ. appliqué avec la prime de risque µ−r σ 1. on dit que deux probabilités P et Q sur (E, E) sont équivalentes si : ∀A ∈ E, P(A) = 0 ⇔ Q(A) = 0. On le note P ∼ Q. 90 Annexe C SVD pour la régession Proposition C.0.1. La solution du problème de minimisation de χ2 = |A · α − y|2 par rapport à α est donnée par α b = A† y = V diag(1/wi ) U 0 y Démonstration. Perturbons la solution α b en α b + ε. On a alors : A · (α + ε) − y = A · α − y + A ·ε |{z} ∆y 0 † = U W V V W U 0 y − y + ∆y Ici, on utilise le fait que V 0 V = IM , entraînant A · (α + ε) − y = U W W † U 0 y − y + ∆y = (U W W † U 0 − IM ) y + ∆y = U (W W † U 0 − IM ) y + U 0 ∆y Pour la dernière ligne, on a pu factoriser par U à gauche en utilisant U U 0 = IM . A présent, on prend la norme dans cette équation, en profitant du fait que |U | = 1 pour éliminer ce facteur : |A · (α + ε) − y| = |(W W † U 0 − IM ) y + U 0 ∆y| La matrice W W † − IM est une matrice diagonale dont les termes diagonaux valent zéro si wi 6= 0 (car on a alors wi × w1i − 1), tandis que les éléments diagonaux de la matrice U 0 ∆y sont non nuls uniquement lorsque wj 6= 0 puisque ∆y = A · ε est dans l’image de A. Ainsi, la minimisation de cette norme selon ∆y revient à minimiser |U 0 ∆y|. Mais ici encore, U 0 est de norme égale à un, donc cela revient à minimiser |∆y| et finalement, ∆y = 0. 91